JP5802912B2 - Photo game machine - Google Patents

Photo game machine Download PDF

Info

Publication number
JP5802912B2
JP5802912B2 JP2012207511A JP2012207511A JP5802912B2 JP 5802912 B2 JP5802912 B2 JP 5802912B2 JP 2012207511 A JP2012207511 A JP 2012207511A JP 2012207511 A JP2012207511 A JP 2012207511A JP 5802912 B2 JP5802912 B2 JP 5802912B2
Authority
JP
Japan
Prior art keywords
image
display
person
input
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012207511A
Other languages
Japanese (ja)
Other versions
JP2014081395A (en
Inventor
雄也 大西
雄也 大西
泰平 加藤
泰平 加藤
Original Assignee
株式会社メイクソフトウェア
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社メイクソフトウェア filed Critical 株式会社メイクソフトウェア
Priority to JP2012207511A priority Critical patent/JP5802912B2/en
Publication of JP2014081395A publication Critical patent/JP2014081395A/en
Application granted granted Critical
Publication of JP5802912B2 publication Critical patent/JP5802912B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、写真撮影遊戯機に関し、さらに詳しくは、利用者の属性情報の入力を受け付ける写真撮影遊戯機に関する。   The present invention relates to a photography amusement machine, and more particularly to a photography amusement machine that accepts input of user attribute information.

写真撮影遊戯機は、カメラ撮影により生成された写真画像上にタッチペンで落書き画像等の編集画像を入力し、写真画像と編集画像とを合成した合成画像をシール紙に印刷する。シール紙は複数の区分に分けられ、各区分に1つの合成画像が印刷され、これにより写真シールが完成される。ユーザは、写真シールをはさみやカッターを用いて区分ごと(合成画像ごと)に切り分けて分配する。このような写真撮影遊戯機は、ゲームセンタ等に設置され、主として女子中高生の間に人気がある。   The photography game machine inputs an edited image such as a graffiti image with a touch pen on a photographic image generated by camera photography, and prints a composite image obtained by synthesizing the photographic image and the edited image on sticker paper. The sticker paper is divided into a plurality of sections, and one composite image is printed in each section, thereby completing a photographic sticker. The user cuts and distributes the photo sticker by segment (for each composite image) using scissors or a cutter. Such a photography game machine is installed in a game center or the like, and is mainly popular among junior and senior high school girls.

写真撮影遊戯機は、ハートの絵柄など様々な絵柄のスタンプ画像を編集画面上に表示し、ユーザに選択させる。ユーザは、選択したスタンプ画像を、写真画像上の好みの位置に配置することにより、ユーザの個性を反映させた写真画像を作成することができる。   The photography game machine displays stamp images of various patterns such as a heart pattern on the editing screen and allows the user to select. The user can create a photographic image reflecting the user's personality by placing the selected stamp image at a desired position on the photographic image.

特許文献1(特開2005−79898号公報)には、ユーザに関する情報(属性情報)としてユーザの名前の入力を撮影前に受け付け、入力された名前に基づいて名前スタンプを生成する写真撮影遊戯機が開示されている。ユーザは、名前スタンプを編集中の画像に配置することにより、ユーザに固有の情報を合成画像中に反映させることができる。特許文献1において、名前スタンプが配置される位置は、ユーザにより決定される。つまり、ユーザが、名前と写真画像に含まれる人物の各々とが対応するように名前スタンプを配置する。   Japanese Patent Application Laid-Open No. 2005-79898 discloses a photography game machine that accepts input of a user name as information (attribute information) about the user before photographing and generates a name stamp based on the inputted name. Is disclosed. The user can reflect information unique to the user in the composite image by placing the name stamp in the image being edited. In Patent Document 1, the position where the name stamp is arranged is determined by the user. That is, the user arranges the name stamp so that the name corresponds to each person included in the photo image.

特許文献2(特開2012−39414)には、利用者により入力された名前をシールレイアウトの余白に印刷する写真シール作成装置が開示されている。ユーザは、複数のシールレイアウトの中から好みのシールレイアウトを選択する。シールレイアウトの中には、シールレイアウトに配置される合成画像の数、合成画像のサイズなどによって余白が存在するものがある。特許文献2に係る写真シール作成装置は、選択されたシールレイアウトに余白が存在する場合、入力された名前やかわいらしい画像などを余白に印刷する。   Japanese Patent Application Laid-Open No. 2012-39414 discloses a photo sticker creating apparatus that prints a name input by a user in a margin of a sticker layout. The user selects a favorite seal layout from a plurality of seal layouts. Some seal layouts have a margin depending on the number of composite images arranged in the seal layout, the size of the composite image, and the like. The photo sticker creation apparatus according to Patent Document 2 prints an input name, a pretty image, or the like on a blank space when a blank space exists in the selected seal layout.

しかしながら、利用者の名前がシールレイアウトの余白に印刷される場合、利用者の名前が配置される位置によっては、利用者の名前が合成画像中の人物に対応しない場合がある。例えば、合成画像の左側にユーザAが配置され、右側にユーザBが配置されている場合を考える。このとき、余白の左側にユーザBの名前が配置され、余白の右側にユーザAの名前が配置されることにより、合成画像中のユーザA及びユーザBと、余白内のユーザAの名前及びユーザBの名前との位置関係が逆になる。入力された名前がシール紙に正確に反映されないため、ユーザが、印刷された写真シール紙に対して違和感を抱き、不満を抱くおそれがあった。   However, when the user name is printed in the margin of the sticker layout, the user name may not correspond to the person in the composite image depending on the position where the user name is arranged. For example, consider a case where user A is placed on the left side of the composite image and user B is placed on the right side. At this time, the name of the user B is arranged on the left side of the margin, and the name of the user A is arranged on the right side of the margin, so that the user A and the user B in the composite image and the name and user of the user A in the margin The positional relationship with the name of B is reversed. Since the input name is not accurately reflected on the sticker sheet, the user may feel uncomfortable and dissatisfied with the printed sticker sheet.

写真撮影遊戯機が撮影前に名前の入力を受け付ける場合、利用者は、写真画像中の人物を確認しながら名前を入力することができない。したがって、写真撮影遊戯機が、撮影前に入力された名前を写真画像と合成する場合やシール紙に印刷する場合などに、利用者の名前が、合成画像やシール紙に正確に反映されないという問題が発生しやすい。   When the photo shooting game machine accepts an input of a name before shooting, the user cannot input the name while confirming a person in the photo image. Therefore, when a photo game machine combines a name entered before shooting with a photographic image or prints on sticker paper, the user's name is not accurately reflected on the composite image or sticker paper. Is likely to occur.

特開2005−79898号公報Japanese Patent Laid-Open No. 2005-79898 特開2012−39414号公報JP 2012-39414 A

本発明の目的は、撮影前に入力された利用者の属性情報を、画像に正確に反映させることができる写真撮影遊戯機を提供することである。   An object of the present invention is to provide a photography game machine that can accurately reflect user attribute information input before photographing in an image.

課題を解決するための手段及び発明の効果Means for Solving the Problems and Effects of the Invention

本発明の写真撮影遊戯機は、属性情報入力部と、カメラと、ディスプレイと、対応付け部とを備える。属性情報入力部は、複数の人物を撮影する前に、複数の人物に関する複数の属性情報の入力を受け付ける。カメラは、複数の人物を撮影する。ディスプレイは、カメラにより撮影された人物の画像を表示する。対応付け部は、属性情報入力部に入力された複数の属性情報を、ディスプレイに表示された画像に含まれる複数の人物に対応付ける。   The photography game machine of the present invention includes an attribute information input unit, a camera, a display, and an association unit. The attribute information input unit accepts input of a plurality of attribute information related to a plurality of persons before photographing the plurality of persons. The camera photographs a plurality of people. The display displays an image of a person photographed by the camera. The associating unit associates the plurality of attribute information input to the attribute information input unit with a plurality of persons included in the image displayed on the display.

本発明によれば、写真撮影遊戯機は、複数の人物を撮影する前に、複数の人物に関する複数の属性情報の入力を受け付け、カメラにより撮影された人物の画像をディスプレイに表示する。入力された複数の属性情報が、ディスプレイに表示された画像に含まれる複数の人物に対応付けられる。これにより、撮影前に入力された複数の属性情報を、複数の人物を含む合成画像などに正確に反映させることができる。   According to the present invention, a photography amusement machine accepts input of a plurality of attribute information related to a plurality of persons before photographing the plurality of persons, and displays an image of the person photographed by the camera on the display. The plurality of input attribute information is associated with a plurality of persons included in the image displayed on the display. Thereby, a plurality of attribute information input before photographing can be accurately reflected on a composite image including a plurality of persons.

好ましくは、本発明の写真撮影遊戯機はさらに、対応付け変更部を備える。対応付け変更部は、入力操作に応じて、対応付け部による対応付けを変更する。   Preferably, the photography amusement machine of the present invention further includes an association changing unit. The association changing unit changes the association by the association unit according to the input operation.

本発明によれば、対応付け部による複数の属性情報の対応付けが誤っていた場合、ユーザは、対応付けを変更することができる。これにより、複数の属性情報の対応付けの精度を向上させることができる。   According to the present invention, when the association between the plurality of attribute information by the association unit is incorrect, the user can change the association. Thereby, the precision of matching of several attribute information can be improved.

好ましくは、対応付け部は、ディスプレイの表示画面上の予め定められた位置に、複数の属性情報を表示する。対応付け変更部は、入力操作に応じて、複数の人物のうち一の人物に関する属性情報と当該他の人物に関する属性情報とを入れ替える。   Preferably, the association unit displays a plurality of attribute information at predetermined positions on the display screen of the display. The association changing unit interchanges the attribute information related to one person among the plurality of persons and the attribute information related to the other person according to the input operation.

本発明によれば、ユーザは、一の人物に対応する属性情報と、他の人物に対応する属性情報とが変更されたことを即座に確認することができるため、プレイ時間が無駄に消費されることを防ぐことができる。   According to the present invention, since the user can immediately confirm that the attribute information corresponding to one person and the attribute information corresponding to another person have been changed, play time is wasted. Can be prevented.

好ましくは、複数の属性情報の各々は、ひらがな及びローマ字の属性情報を含む。本発明の写真撮影遊戯機はさらに、属性情報生成部を備える。属性情報生成部は、属性情報入力部に入力されたひらがな及びローマ字の属性情報の一方に基づいて当該他方の属性情報を生成する。対応付け部は、一方の属性情報を表示する。   Preferably, each of the plurality of attribute information includes hiragana and romaji attribute information. The photography game machine of the present invention further includes an attribute information generation unit. The attribute information generation unit generates the other attribute information based on one of the hiragana and romaji attribute information input to the attribute information input unit. The association unit displays one attribute information.

本発明によれば、写真撮影遊戯機は、入力された一方の属性情報に基づいて他方の属性情報を生成したとしても、一方の属性情報を表示する。ユーザは、自分で入力した属性情報を、ディスプレイの表示画面中のユーザ自身に対応付けることができるため、対応付けが正しいか否かを正確に判断できる。   According to the present invention, even if the photography amusement machine generates the other attribute information based on the input one attribute information, the one attribute information is displayed. Since the user can associate the attribute information input by himself with the user himself / herself on the display screen of the display, the user can accurately determine whether or not the association is correct.

本発明の制御方法及び制御プログラムは、本発明の写真撮影遊戯機に用いられる。   The control method and the control program of the present invention are used for the photography game machine of the present invention.

本発明の実施の形態による写真撮影遊戯機を撮影ブース側から見た斜視図である。It is the perspective view which looked at the photography game machine by embodiment of this invention from the photography booth side. 図1に示す撮影ブースに配置される撮影装置及び正面筐体の上方斜視図である。It is the upper perspective view of the imaging device arrange | positioned at the imaging | photography booth shown in FIG. 1, and a front housing | casing. 図1に示す編集装置の斜視図である。It is a perspective view of the editing apparatus shown in FIG. 図1に示す背面筐体の下方斜視図である。FIG. 2 is a lower perspective view of the rear housing shown in FIG. 1. 図1に示す背面筐体の正面図である。It is a front view of the back housing | casing shown in FIG. 図1に示す正面筐体及び背面筐体により形成される撮影空間の上面図である。It is a top view of the imaging | photography space formed with the front housing | casing and back housing | casing shown in FIG. 図1に示す写真撮影遊戯機の機能ブロック図である。It is a functional block diagram of the photography game machine shown in FIG. 図1に示す写真撮影遊戯機により生成されるシート画像を示す図である。It is a figure which shows the sheet | seat image produced | generated by the photography game machine shown in FIG. 図8に示す全身コラージュ画像の拡大図である。It is an enlarged view of the whole body collage image shown in FIG. 図9Aに示す全身コラージュ画像の他の例を示す図である。It is a figure which shows the other example of the whole body collage image shown to FIG. 9A. 図9A及び図9Bに示す全身コラージュ画像における人物画像の配置パターンを示す図である。It is a figure which shows the arrangement pattern of the person image in the whole body collage image shown to FIG. 9A and 9B. 図8に示すシート画像の変形例を示す図である。It is a figure which shows the modification of the sheet image shown in FIG. 図8に示すシート画像の変形例を示す図である。It is a figure which shows the modification of the sheet image shown in FIG. 図2に示すカメラの撮影方向と垂直な方向から見た撮影空間を示す図である。It is a figure which shows the imaging | photography space seen from the direction perpendicular | vertical to the imaging | photography direction of the camera shown in FIG. 図2に示すカメラの撮影方向から見た撮影空間を示す図である。It is a figure which shows the imaging | photography space seen from the imaging | photography direction of the camera shown in FIG. 図5に示す前方照明装置の拡大図である。It is an enlarged view of the front illuminating device shown in FIG. 図5に示す中間照明装置の断面図である。FIG. 6 is a cross-sectional view of the intermediate lighting device shown in FIG. 5. 図5に示す背面照明装置の断面図である。FIG. 6 is a cross-sectional view of the backlight device shown in FIG. 5. 図6に示す撮影空間の後側に1つの照明器具を配置し、この照明器具により撮影空間の前側及び後側の両者を照らした場合における撮影空間の側面図である。FIG. 7 is a side view of an imaging space when one lighting fixture is arranged on the rear side of the imaging space shown in FIG. 6 and both the front side and the rear side of the imaging space are illuminated by the lighting fixture. 図16Aに示す撮影空間の上面図である。FIG. 16B is a top view of the imaging space shown in FIG. 16A. 図6に示す撮影空間において前方照明装置によりユーザに光が照射される様子を示す上面図である。It is a top view which shows a mode that light is irradiated to a user by the front illumination apparatus in the imaging | photography space shown in FIG. 図6に示す撮影空間において前方照明装置によりユーザに光が照射される様子を示す上面図である。It is a top view which shows a mode that light is irradiated to a user by the front illumination apparatus in the imaging | photography space shown in FIG. 図1に示す写真撮影遊戯機がアップ撮影モードで撮影するときの光量を、撮影空間の側方から見た図である。It is the figure which looked at the light quantity when the photography game machine shown in FIG. 1 image | photographs in an up photography mode from the side of imaging | photography space. 図1に示す写真撮影遊戯機がアップ撮影モードで撮影するときの光量を、カメラの撮影方向から見た図である。It is the figure which looked at the light quantity when the photography game machine shown in FIG. 1 image | photographs in up photography mode from the imaging direction of the camera. 図1に示す写真撮影遊戯機が全身撮影モードで撮影するときの光量を、撮影空間の側方から見た図である。It is the figure which looked at the light quantity when the photography game machine shown in FIG. 1 image | photographs in whole body photography mode from the side of imaging | photography space. 図1に示す写真撮影遊戯機が全身撮影モードで撮影するときの光量を、カメラの撮影方向から見た図である。It is the figure which looked at the light quantity when the photography game machine shown in FIG. 1 image | photographs in a whole body photography mode from the imaging direction of the camera. 図2に示す撮影用ディスプレイに表示される目の写り選択画面を示す図である。FIG. 3 is a diagram showing an eye reflection selection screen displayed on the photographing display shown in FIG. 2. 図21に示す目の写り選択画面において、大きい目のサイズが選択された場合における写真画像の変化を示す図である。It is a figure which shows the change of the photographic image when the size of a big eye is selected on the reflection display screen of eyes shown in FIG. 図21に示す目の写り選択画面の他の例を示す図である。It is a figure which shows the other example of the reflection display selection screen shown in FIG. 図21に示す目の写り選択画面の他の例を示す図である。It is a figure which shows the other example of the reflection display selection screen shown in FIG. 図21に示す目の写り選択画面の他の例を示す図である。It is a figure which shows the other example of the reflection display selection screen shown in FIG. 図3に示す編集用ディスプレイに表示される名前確認画面を示す図である。It is a figure which shows the name confirmation screen displayed on the display for edit shown in FIG. 図24に示す名前確認画面において、ユーザの操作により変更された人物と名前との対応関係を示す図である。FIG. 25 is a diagram illustrating a correspondence relationship between a name changed by a user operation and a name on the name confirmation screen illustrated in FIG. 24. 図24に示す名前確認画面の他の例を示す図である。It is a figure which shows the other example of the name confirmation screen shown in FIG. 図1に示す写真撮影遊戯機により実行される事前接客処理のフローチャートである。It is a flowchart of the customer service process performed by the photography game machine shown in FIG. 図27に示す名前入力処理のフローチャートである。It is a flowchart of the name input process shown in FIG. 図1に示す受付用ディスプレイに表示される名前入力画面を示す図である。It is a figure which shows the name input screen displayed on the display for reception shown in FIG. 図1に示す受付用ディスプレイに表示される通常合成画像用の背景選択画面を示す図である。It is a figure which shows the background selection screen for normal composite images displayed on the display for reception shown in FIG. 図1に示す受付用ディスプレイに表示される特殊合成画像用の背景選択画面を示す図である。It is a figure which shows the background selection screen for special composite images displayed on the display for reception shown in FIG. 図1に示す写真撮影遊戯機により生成されるカバーショット画像を示す図である。It is a figure which shows the cover shot image produced | generated by the photography game machine shown in FIG. 図1に示す写真撮影遊戯機により生成される全身ピンプリ画像を示す図である。It is a figure which shows the whole body pinpuri image produced | generated by the photography game machine shown in FIG. 図1に示す写真撮影遊戯機により実行される撮影処理のフローチャートである。It is a flowchart of the imaging | photography process performed with the photography game machine shown in FIG. 図2に示す撮影用ディスプレイに表示される明るさ選択画面を示す図である。It is a figure which shows the brightness selection screen displayed on the imaging | photography display shown in FIG. 図34中の通常撮影処理のフローチャートである。It is a flowchart of the normal imaging | photography process in FIG. 図34中のスペシャル撮影処理のフローチャートである。It is a flowchart of the special imaging | photography process in FIG. 図2に示す撮影用ディスプレイに表示されるスペシャル撮影用の撮影画面を示す図である。FIG. 3 is a diagram showing a shooting screen for special shooting displayed on the shooting display shown in FIG. 2. 図37に示す撮影画面の他の例を示す図である。It is a figure which shows the other example of the imaging | photography screen shown in FIG. 図37に示す撮影画面の他の例を示す図である。It is a figure which shows the other example of the imaging | photography screen shown in FIG. 図37に示す撮影画面の他の例を示す図である。It is a figure which shows the other example of the imaging | photography screen shown in FIG. 図40Aに示す撮影画面に人物の映像が配置された様子を示す図である。It is a figure which shows a mode that the image | video of a person was arrange | positioned on the imaging | photography screen shown to FIG. 40A. 図37に示す撮影画面の他の例を示す図である。It is a figure which shows the other example of the imaging | photography screen shown in FIG. 図7に示すストロボ制御部の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the flash control part shown in FIG. 図7に示すストロボ制御部により参照される光量設定テーブルを示す図である。It is a figure which shows the light quantity setting table referred by the strobe control part shown in FIG. 図21に示すアップ写真画像を生成するための画像処理が行われる期間と、撮影が行われる期間との関係を示すタイミングチャートである。It is a timing chart which shows the relationship between the period when the image process for producing | generating the up photograph image shown in FIG. 21 is performed, and the period when imaging | photography is performed. 図1に示す写真撮影遊戯機により実行される目の写り選択処理のフローチャートである。It is a flowchart of the image | photographing selection process performed by the photography game machine shown in FIG. 図1に示す写真撮影遊戯機により実行される脚補正処理の概略を説明する図である。It is a figure explaining the outline of the leg correction process performed with the photography game machine shown in FIG. 図1に示す写真撮影遊戯機により実行される脚補正処理の概略を説明する図である。It is a figure explaining the outline of the leg correction process performed with the photography game machine shown in FIG. 図1に示す写真撮影遊戯機により実行される脚補正処理のフローチャートである。It is a flowchart of the leg correction process performed by the photography game machine shown in FIG. 図2に示す撮影用ディスプレイに表示されるライブ映像上に脚補正の対象領域を明示した図である。It is the figure which specified the object area | region of leg correction | amendment on the live image | video displayed on the display for imaging | photography shown in FIG. 図1に示す写真撮影遊戯機により実行される脚補正処理のフローチャートの他の例である。It is another example of the flowchart of the leg correction process performed by the photography game machine shown in FIG. 図1に示す写真撮影遊戯機により実行される画像編集処理のフローチャートである。It is a flowchart of the image editing process performed by the photography game machine shown in FIG. 図51に示す落書き処理のフローチャートである。It is a flowchart of the graffiti process shown in FIG. 図3に示す編集用ディスプレイに表示される編集画面を示す図である。It is a figure which shows the edit screen displayed on the display for edit shown in FIG. 図53に示す編集画面に表示されるパレットの一例を示す図である。It is a figure which shows an example of the palette displayed on the edit screen shown in FIG. 図53に示す編集画面に表示されるパレットの他の例を示す図である。FIG. 54 is a diagram showing another example of a palette displayed on the editing screen shown in FIG. 53. 図53に示す編集画面に表示されるパレットの他の例を示す図である。FIG. 54 is a diagram showing another example of a palette displayed on the editing screen shown in FIG. 53. 図53に示す編集画面に表示されるパレットの他の例を示す図である。FIG. 54 is a diagram showing another example of a palette displayed on the editing screen shown in FIG. 53. 図57に示すスタンプを回転させる操作を説明する図である。FIG. 58 is a diagram illustrating an operation of rotating the stamp shown in FIG. 57. 図57に示すスタンプを回転させる操作を説明する図である。FIG. 58 is a diagram illustrating an operation of rotating the stamp shown in FIG. 57. 図51に示す名前入力確認処理のフローチャートである。It is a flowchart of the name input confirmation process shown in FIG. 図51に示す名前対応確認処理のフローチャートである。It is a flowchart of the name corresponding | compatible confirmation process shown in FIG. 図51に示す通常合成画像生成処理のフローチャートである。FIG. 52 is a flowchart of normal composite image generation processing shown in FIG. 51. FIG. 図51に示す特殊合成画像生成処理において、全身コラージュ画像を生成するときの写真撮影遊戯機の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the photography game machine when producing | generating a whole body collage image in the special composite image production | generation process shown in FIG. 図38に示す撮影画面の他の例を示す図である。It is a figure which shows the other example of the imaging | photography screen shown in FIG. 図24に示す名前確認画面の他の例を示す図である。It is a figure which shows the other example of the name confirmation screen shown in FIG.

以下、図面を参照し、本発明の実施の形態を詳しく説明する。図中同一又は相当部分には同一符号を付してその説明は繰り返さない。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. In the drawings, the same or corresponding parts are denoted by the same reference numerals and description thereof will not be repeated.

[写真撮影遊戯機1の構成]
図1は、本発明の実施の形態による写真撮影遊戯機1を撮影ブース2側から見た斜視図である。図2は、撮影ブース2に配置される撮影装置20及び正面筐体24aの上方斜視図である。図3は、編集ブース3に設けられる編集装置30の斜視図である。
[Configuration of Photo Game Machine 1]
FIG. 1 is a perspective view of a photography amusement machine 1 according to an embodiment of the present invention as seen from the photography booth 2 side. FIG. 2 is an upper perspective view of the imaging device 20 and the front casing 24a arranged in the imaging booth 2. FIG. 3 is a perspective view of the editing device 30 provided in the editing booth 3.

図1〜図3を参照して、写真撮影遊戯機1は、ユーザが最初に背景画像の選択や名前を入力するための事前接客ブース5と、撮影を行う撮影ブース2と、撮影により得られた写真画像の編集を行う編集ブース3と、を備える。   Referring to FIGS. 1 to 3, a photography game machine 1 is obtained by photographing, a pre-service booth 5 for a user to first select a background image and input a name, a photography booth 2 for photographing, and photographing. And an editing booth 3 for editing the photograph images.

[事前接客ブース5の構成]
図2を参照して、事前接客ブース5は、プレイ受付装置50を備える。プレイ受付装置50は、正面筐体24aの外の側面に配置され、受付用ディスプレイ51と、コイン投入口52と、スピーカ53とを備える。受付用ディスプレイ51の表面には透明なタッチパネルが張り付けられている。プレイ受付装置50は、受付用ディスプレイ51に貼り付けられたタッチパネルを介して、ユーザの操作(タッチ)を受け付ける。このタッチパネルは、複数人(2名)の操作を同時に受け付けるマルチタッチ方式を採用している。プレイ受付装置50は、店舗の設置条件により、反対側にも取付可能になっている。
[Composition of pre-service booth 5]
With reference to FIG. 2, the customer service booth 5 includes a play reception device 50. The play reception device 50 is disposed on the outer side surface of the front housing 24 a and includes a reception display 51, a coin insertion slot 52, and a speaker 53. A transparent touch panel is attached to the surface of the reception display 51. The play acceptance device 50 accepts a user operation (touch) via a touch panel attached to the acceptance display 51. This touch panel employs a multi-touch method for simultaneously accepting operations of a plurality of persons (two persons). The play accepting device 50 can be attached to the opposite side depending on the installation conditions of the store.

ユーザは、撮影ブース2において撮影を行う前に、コイン投入口52にコインを投入する。その後、ユーザは、受付用ディスプレイ51に表示される画面に従って、名前の入力、後述する写真画像と合成される背景画像の選択などを行う。   The user inserts a coin into the coin insertion slot 52 before shooting at the shooting booth 2. Thereafter, the user inputs a name, selects a background image to be combined with a photographic image, which will be described later, and the like according to a screen displayed on the reception display 51.

プレイ受付装置50は、ユーザの操作が終了した場合、撮影ブース2が空いているか否かを確認する。撮影ブース2が空いている場合、プレイ受付装置50は、ユーザを撮影ブース2に誘導する画面を受付用ディスプレイ51に表示する。さらに、スピーカ53で音声案内を行ってもよい。撮影ブース2が空いていない場合、プレイ受付装置50は、ユーザに待機を指示する。   When the user's operation ends, the play reception device 50 confirms whether or not the shooting booth 2 is free. When the shooting booth 2 is vacant, the play reception device 50 displays a screen for guiding the user to the shooting booth 2 on the reception display 51. Further, voice guidance may be performed by the speaker 53. When the photography booth 2 is not available, the play reception device 50 instructs the user to wait.

[撮影ブース2の構成]
図4は、撮影ブース2を構成する背面筐体24bの下方斜視図である。図5は、カメラ22から見た背面筐体24bの正面図である。図6は、正面筐体24a及び背面筐体24bにより形成される撮影空間24cの上面図である。
[Configuration of Shooting Booth 2]
FIG. 4 is a lower perspective view of the rear housing 24b constituting the photographing booth 2. FIG. 5 is a front view of the rear housing 24 b as viewed from the camera 22. FIG. 6 is a top view of the imaging space 24c formed by the front casing 24a and the rear casing 24b.

図1、図2、図4及び図5を参照して、撮影ブース2は、正面筐体24aと背面筐体24bとが互いに対向するようにして離隔して配置され、正面筐体24aと背面筐体24bとをフレーム材等で連結された空間に構成され、図示しないカーテンなどで囲まれている。撮影ブース2の側面には出入口が設けられ、ユーザはこの出入口から撮影ブース2内に入る。撮影装置20は、正面筐体24aに配置される。   With reference to FIGS. 1, 2, 4 and 5, the photographing booth 2 is disposed so that the front casing 24a and the rear casing 24b face each other, and are separated from each other. The casing 24b is formed in a space connected by a frame material or the like, and is surrounded by a curtain or the like (not shown). An entrance is provided on the side of the photography booth 2, and the user enters the photography booth 2 from this entrance. The imaging device 20 is disposed in the front housing 24a.

図2を参照して、撮影装置20の正面には、カメラ22と、撮影用ディスプレイ23とが配置される。カメラ22は人物(ユーザ)を被写体として撮影する。撮影用ディスプレイ23は、ユーザ用の確認モニタで、表示画面が見えやすいようにユーザに向けられている。撮影用ディスプレイ23は、カメラ22で撮影されている被写体の映像を左右反転してライブ映像(動画)としてリアルタイムで表示する。したがって、ユーザは鏡のように映る自分の姿を見ながら撮影を行うことができる。さらに、その表示画面上には透明なタッチパネルが貼り付けられており、撮影装置20は、タッチパネルを介してユーザの入力操作を受け付ける。   With reference to FIG. 2, a camera 22 and a photographing display 23 are arranged in front of the photographing apparatus 20. The camera 22 photographs a person (user) as a subject. The photographing display 23 is a confirmation monitor for the user and is directed to the user so that the display screen can be easily seen. The shooting display 23 inverts the video of the subject being shot by the camera 22 and displays it as a live video (moving image) in real time. Therefore, the user can take a picture while looking at his / her appearance that looks like a mirror. Further, a transparent touch panel is pasted on the display screen, and the photographing apparatus 20 accepts a user input operation via the touch panel.

正面筐体24aには、複数の正面照明装置25a,25b,25cが配置される。正面照明装置25aは、撮影用ディスプレイ23の前に立つユーザを前上側又は左右前側から照らす。正面照明装置25bは、カメラ22の周囲に配置され、ユーザの顔付近を正面から照らす。正面照明装置25cは、ユーザの足元及び背面を照らすとともに、ユーザを前下側から照らす。以下、正面照明装置25a,25b,25cを総称する場合、「正面照明装置25」と呼ぶ。正面照明装置25は、カメラ22が撮影しているライブ映像を画像(静止画)として取り込む瞬間に発光し、被写体をカメラ22側から強く照明する。   A plurality of front lighting devices 25a, 25b, and 25c are arranged in the front housing 24a. The front illumination device 25a illuminates the user standing in front of the photographing display 23 from the front upper side or the left and right front sides. The front illumination device 25b is arranged around the camera 22 and illuminates the vicinity of the user's face from the front. The front illumination device 25c illuminates the user's feet and back and illuminates the user from the front lower side. Hereinafter, the front lighting devices 25a, 25b, and 25c are collectively referred to as “front lighting device 25”. The front illumination device 25 emits light at the moment when a live image captured by the camera 22 is captured as an image (still image), and strongly illuminates the subject from the camera 22 side.

図4及び図5を参照して、背面筐体24bは、背面板26と、前方照明装置27a,27bと、中間照明装置28a,28bと、背面照明装置29とを備える。背面板26は、カメラ22に対向する平面を構成し、クロマキ合成用のカーテン、もしくはクロマキ合成用パネルを備える。前方照明装置27a,27bと、中間照明装置28a,28bと、背面照明装置29とは、カメラ22が撮影しているライブ映像を画像(静止画)として取り込む瞬間に発光し、被写体を背面板26側から強く照射する。以下、前方照明装置27a,27bと、中間照明装置28a,28bと、背面照明装置29とを総称する場合、「後側照明装置」と呼ぶ。   4 and 5, the back casing 24 b includes a back plate 26, front illumination devices 27 a and 27 b, intermediate illumination devices 28 a and 28 b, and a back illumination device 29. The back plate 26 constitutes a flat surface facing the camera 22 and includes a blackboard combining curtain or a blackboard combining panel. The front lighting devices 27a and 27b, the intermediate lighting devices 28a and 28b, and the back lighting device 29 emit light at the moment of capturing a live image captured by the camera 22 as an image (still image), and the subject is displayed on the back plate 26. Irradiate strongly from the side. Hereinafter, the front illumination devices 27a and 27b, the intermediate illumination devices 28a and 28b, and the back illumination device 29 are collectively referred to as “rear illumination devices”.

[撮影空間]
図6は、正面筐体24a及び背面筐体24bにより形成される撮影空間を示す図であり、撮影ブース2を上から見た様子を示している。図6において、カメラ22、正面筐体24a、背面筐体24b、後側照明装置以外の表示を省略している。また、図6において、破線で囲まれた領域は、後側照明装置の各々が配置される水平面上の位置を示している。
[Shooting space]
FIG. 6 is a diagram showing a shooting space formed by the front casing 24a and the rear casing 24b, and shows a state where the shooting booth 2 is viewed from above. In FIG. 6, displays other than the camera 22, the front casing 24a, the rear casing 24b, and the rear illumination device are omitted. Moreover, in FIG. 6, the area | region enclosed with the broken line has shown the position on the horizontal surface where each of the rear side illuminating devices is arrange | positioned.

図6を参照して、撮影ブース2に形成される撮影空間24cを説明する。正面筐体24a及び背面筐体24bは、カメラ22と背面板26とが互いに対向するようにして配置される。撮影空間24cは、正面筐体24a及び背面筐体24bによって囲まれた空間であり、砂地模様で示された領域である。ユーザは、撮影空間24c内でタッチパネルを操作する。カメラ22は、撮影空間24cに向けられており、撮影空間24cにいるユーザを撮影する。   With reference to FIG. 6, the imaging space 24c formed in the imaging booth 2 will be described. The front housing 24a and the back housing 24b are arranged so that the camera 22 and the back plate 26 face each other. The imaging space 24c is a space surrounded by the front casing 24a and the rear casing 24b, and is an area indicated by a sand pattern. The user operates the touch panel in the shooting space 24c. The camera 22 is directed to the shooting space 24c and takes a picture of a user in the shooting space 24c.

撮影空間24cにおいて、カメラ22側の領域を前側、背面板26c側の領域を後側とする。つまり、撮影空間24cの前側は、カメラ22から近い領域であり、撮影空間24cの後側は、カメラ22から遠い領域である。本実施の形態では、前側と後側との境界は、撮影空間24cの矢印P方向の長さ(奥行き)を2等分する直線L1である。しかし、前側の領域が後側の領域よりも広くなるように境界を定義してもよいし、この逆であってもよい。   In the imaging space 24c, the area on the camera 22 side is the front side, and the area on the back plate 26c side is the rear side. That is, the front side of the shooting space 24 c is a region near the camera 22, and the rear side of the shooting space 24 c is a region far from the camera 22. In the present embodiment, the boundary between the front side and the rear side is a straight line L1 that bisects the length (depth) in the arrow P direction of the imaging space 24c. However, the boundary may be defined so that the front area is wider than the rear area, or vice versa.

カメラの撮影方向(矢印Pで示す方向)を基準にして、撮影空間24cの左側、右側を定義する。左側と右側との境界は、撮影空間24cの矢印Pの方向に垂直な方向(矢印Qで示す方向)の長さ(幅)を2等分する直線L2である。しかし、右側の領域が左側の領域よりも広くなるように境界を定義してもよいし、この逆であってもよい。   The left and right sides of the shooting space 24c are defined with reference to the shooting direction of the camera (the direction indicated by the arrow P). The boundary between the left side and the right side is a straight line L2 that bisects the length (width) in the direction (direction indicated by the arrow Q) perpendicular to the direction of the arrow P in the imaging space 24c. However, the boundary may be defined so that the right region is wider than the left region, or vice versa.

[後側照明装置の配置]
図5及び図6を参照して、後側照明装置の配置について説明する。前方照明装置27aは、撮影空間24cの後ろの右上側に配置される。前方照明装置27bは、撮影空間24cの後ろの左上側に配置される。前方照明装置27a,27bは、撮影空間24cの後側から撮影空間24cの前側を照らす。前方照明装置27a,27bは、背面筐体24bの側面上部に取り付けられる。しかし、前方照明装置27a,27bの取り付け位置は、これに限られない。前方照明装置27a,27bは、撮影空間24cの後側に配置されればよい。
[Arrangement of rear lighting device]
With reference to FIG.5 and FIG.6, arrangement | positioning of a rear side illuminating device is demonstrated. The front illumination device 27a is disposed on the upper right side behind the imaging space 24c. The front illumination device 27b is arranged on the upper left side behind the imaging space 24c. The front illumination devices 27a and 27b illuminate the front side of the shooting space 24c from the rear side of the shooting space 24c. The front lighting devices 27a and 27b are attached to the upper part of the side surface of the rear housing 24b. However, the attachment positions of the front illumination devices 27a and 27b are not limited to this. The front illumination devices 27a and 27b may be disposed on the rear side of the imaging space 24c.

中間照明装置28aは、背面板26と背面筐体24bの内側の右側面とに固定される。中間照明装置28bは、背面板26と背面筐体24bの内側の左側面とに固定される。すなわち、中間照明装置28aは、撮影空間24cの右後側に配置され、中間照明装置28bは、撮影空間24cの左後側に配置される。中間照明装置28a,28bは、撮影空間24cの後側から撮影空間24cの前側及び後側を照らす。なお、中間照明装置28a,28bの取り付け位置は、これに限定されない。中間照明装置28a,28bは、撮影空間24cの後側に配置されればよい。   The intermediate lighting device 28a is fixed to the back plate 26 and the right side surface inside the back housing 24b. The intermediate lighting device 28b is fixed to the back plate 26 and the left side surface inside the back housing 24b. That is, the intermediate illumination device 28a is disposed on the right rear side of the photographing space 24c, and the intermediate illumination device 28b is disposed on the left rear side of the photographing space 24c. The intermediate lighting devices 28a and 28b illuminate the front side and the rear side of the shooting space 24c from the rear side of the shooting space 24c. In addition, the attachment position of intermediate | middle illumination device 28a, 28b is not limited to this. The intermediate illumination devices 28a and 28b may be disposed on the rear side of the imaging space 24c.

背面照明装置29は、撮影空間24cの後側に配置され、撮影空間24cの後側を照らす。具体的には、背面照明装置29は、背面板26及び背面筐体24bの背面上部に取り付けられる。   The back lighting device 29 is disposed on the rear side of the photographing space 24c and illuminates the rear side of the photographing space 24c. Specifically, the back lighting device 29 is attached to the back plate 26 and the back upper part of the back housing 24b.

[編集ブース3]
図3を参照して、編集装置30は、2つの画像編集装置31と、シール紙排出装置32と、筐体33とを備える。2つの画像編集装置31が、互いに背中合わせになるように、筐体33の正面及び背面に配置される。
[Editing booth 3]
With reference to FIG. 3, the editing device 30 includes two image editing devices 31, a sticker sheet discharging device 32, and a housing 33. The two image editing devices 31 are arranged on the front surface and the back surface of the housing 33 so as to be back to back.

2つの画像編集装置31の各々は、編集用ディスプレイ311と、2つのタッチペン312と、スピーカ313と、非接触通信装置97とを備える。編集用ディスプレイ311は、画像編集装置31の中央に設けられ、撮影装置20で生成された複数の写真画像を表示する。さらに、編集用ディスプレイ311の表示画面上には透明なタッチパネルが貼り付けられている。画像編集装置31は、タッチパネルを介してユーザの編集操作を受け付ける。2つのタッチペン312は、編集用ディスプレイ311の両側に設けられる。タッチペン312は、ペン画像やスタンプ画像といった編集画像を編集用ディスプレイ311で入力するために用いられる。本実施の形態では、タッチペン312が画像の編集に用いられるが、ユーザは、タッチペン312の代わりに、ユーザの指を編集用ディスプレイ311に直接触れてもよい。スピーカ313は、編集プレイのための操作方法などの案内やBGMなどを出力する。非接触通信装置97は、たとえばFeliCa(登録商標)やBluetooth(登録商標)を利用した通信装置である。編集終了後、写真撮影遊戯機1は写真画像と編集画像とを合成して合成画像を生成する。   Each of the two image editing devices 31 includes an editing display 311, two touch pens 312, a speaker 313, and a non-contact communication device 97. The editing display 311 is provided in the center of the image editing device 31 and displays a plurality of photographic images generated by the photographing device 20. Further, a transparent touch panel is pasted on the display screen of the editing display 311. The image editing device 31 receives a user's editing operation via the touch panel. The two touch pens 312 are provided on both sides of the editing display 311. The touch pen 312 is used to input an editing image such as a pen image or a stamp image on the editing display 311. In this embodiment, the touch pen 312 is used for image editing, but the user may directly touch the editing display 311 with the user's finger instead of the touch pen 312. The speaker 313 outputs guidance such as an operation method for editing play, BGM, and the like. The non-contact communication device 97 is a communication device using, for example, FeliCa (registered trademark) or Bluetooth (registered trademark). After the editing is completed, the photographic game machine 1 combines the photographic image and the edited image to generate a combined image.

シール紙排出装置32は、筐体33の側面下側に配置される。シール紙排出装置32は、後述するプリンタを収納する。プリンタは、合成画像を印刷用紙であるシール紙に印刷する。シール紙排出装置32は、プリンタにより印刷されたシール紙を排出口321に排出する。プリンタが合成画像を印刷している間、印刷中ランプ322が点灯する。印刷にエラーが発生すると、エラーランプ323が点灯する。   The sticker paper discharge device 32 is disposed on the lower side of the side surface of the housing 33. The sticker discharge device 32 stores a printer described later. The printer prints the composite image on a sticker sheet that is a printing sheet. The sticker paper discharge device 32 discharges the sticker paper printed by the printer to the discharge port 321. While the printer is printing the composite image, the printing lamp 322 is turned on. When an error occurs in printing, the error lamp 323 is turned on.

[機能構成]
図7は、写真撮影遊戯機1の機能ブロック図である。図7を参照して、写真撮影遊戯機1は、写真撮影遊戯機1全体を制御するコンピュータ装置101と、動作中のコンピュータ装置101からの指示を受け付けて、接続されている各種装置を制御する制御基板102と、クロマキキャプチャボード17とを備える。これらは写真撮影遊戯機1の制御装置100として機能する。制御装置100は撮影装置20に搭載されていてもよいし、編集装置30に搭載されていてもよい。
[Function configuration]
FIG. 7 is a functional block diagram of the photography game machine 1. Referring to FIG. 7, the photographic game machine 1 receives a computer device 101 that controls the entire photographic game machine 1 and instructions from the computer device 101 that is in operation, and controls various connected devices. A control board 102 and a chroma capture board 17 are provided. These function as the control device 100 of the photographic game machine 1. The control device 100 may be mounted on the photographing device 20 or may be mounted on the editing device 30.

コンピュータ装置101は、CPU(Central Processing Unit)103と、HDD(Hard Disk Drive)104と、メモリ105と、通信部106とを備える。CPU103は、メインメモリであるメモリ105に記憶されたプログラムを実行して、コンピュータ装置101を制御する。HDD104は、本装置に所定の処理を実行させるための制御プログラム、処理に必要なグラフィックデータ、音声データ、撮影された写真画像、予め用意された複数の背景画像、予め用意された複数のフレーム画像や複数のスタンプ画像等の編集画像等を記憶する。制御プログラムは、コンピュータ装置101にインストールされることにより、HDD104に格納される。メモリ105は、コンピュータ装置101のメインメモリであり、CPU103により実行される制御プログラムの一時的な作業領域として用いられる。通信部106は、インターネット等のネットワークを介して外部の端末と通信する。   The computer apparatus 101 includes a CPU (Central Processing Unit) 103, an HDD (Hard Disk Drive) 104, a memory 105, and a communication unit 106. The CPU 103 controls the computer apparatus 101 by executing a program stored in the memory 105 that is a main memory. The HDD 104 is a control program for causing the apparatus to execute a predetermined process, graphic data necessary for the process, audio data, photographed photographic images, a plurality of background images prepared in advance, and a plurality of frame images prepared in advance. And edit images such as a plurality of stamp images are stored. The control program is stored in the HDD 104 by being installed in the computer apparatus 101. A memory 105 is a main memory of the computer apparatus 101 and is used as a temporary work area for a control program executed by the CPU 103. The communication unit 106 communicates with an external terminal via a network such as the Internet.

コンピュータ装置101は、撮影ブース2での撮影処理を実行する。具体的には、コンピュータ装置101は制御プログラムを実行し、撮影用ディスプレイ23を介して入力されたユーザの操作に応じて、制御信号を制御基板102に送信する。また、コンピュータ装置101は、カメラ22、撮影用ディスプレイ23、スピーカ450及び制御基板102と接続され、それらを制御する。   The computer apparatus 101 executes a shooting process at the shooting booth 2. Specifically, the computer apparatus 101 executes a control program and transmits a control signal to the control board 102 in accordance with a user operation input via the photographing display 23. The computer apparatus 101 is connected to the camera 22, the photographing display 23, the speaker 450, and the control board 102, and controls them.

撮影用ディスプレイ23には、タッチパネルが画面上に積層されている。タッチパネルはユーザの指の接触を検知し、それに応じた指示信号をコンピュータ装置101に送信する。撮影用ディスプレイ23は、コンピュータ装置101から送信された画像、具体的には、カメラ22で撮像された写真画像、撮影のための案内、選択肢などを表示する。スピーカ450は、コンピュータ装置101から与えられる指示信号に基づいて、撮影プレイのための操作方法などの案内やBGMなどを出力する。   The photographing display 23 has a touch panel stacked on the screen. The touch panel detects contact of the user's finger and transmits an instruction signal corresponding to the contact to the computer apparatus 101. The shooting display 23 displays an image transmitted from the computer apparatus 101, specifically, a photographic image captured by the camera 22, guidance for shooting, options, and the like. The speaker 450 outputs guidance such as an operation method for photographing play, BGM, and the like based on an instruction signal given from the computer apparatus 101.

クロマキキャプチャボード17は、カメラ22で撮影されている映像を所定の時間間隔(たとえば30フレーム/秒)でデジタルデータ(静止画像)として取り込む。クロマキキャプチャボード17は、取り込んだ静止画像の中からクロマキ技術により被写体以外の領域を検出し、その検出した領域に選択された所望の背景画像を合成する。コンピュータ装置101はさらに、必要に応じて映像をトリミングする。具体的には、所定の時間間隔で取り込まれた静止画像の所定の領域をトリミングして、トリミングされた画像を撮影用ディスプレイ23に順次表示する。   The chroma capture board 17 captures video captured by the camera 22 as digital data (still image) at a predetermined time interval (for example, 30 frames / second). The chroma capture board 17 detects an area other than the subject from the captured still image using the chroma technique, and synthesizes a desired background image selected in the detected area. The computer apparatus 101 further trims the video as necessary. Specifically, a predetermined area of a still image captured at a predetermined time interval is trimmed, and the trimmed image is sequentially displayed on the photographing display 23.

コンピュータ装置101はさらに、編集ブース3での画像編集処理を実行する。具体的には、コンピュータ装置101は制御プログラムを実行し、編集用ディスプレイ311に対するタッチペン312による入力操作に応じて、制御信号を制御基板102に送信する。コンピュータ装置101は、プリンタ601及び編集用ディスプレイ311と接続され、それらを制御する。画像編集装置31は2台設けられるので、編集用ディスプレイ311、タッチペン312、スピーカ313及び非接触通信装置97は2組設けられる。   The computer apparatus 101 further executes image editing processing at the editing booth 3. Specifically, the computer apparatus 101 executes a control program and transmits a control signal to the control board 102 in response to an input operation with the touch pen 312 on the editing display 311. The computer apparatus 101 is connected to a printer 601 and an editing display 311 and controls them. Since two image editing devices 31 are provided, two sets of editing display 311, touch pen 312, speaker 313, and non-contact communication device 97 are provided.

編集用ディスプレイ311には、タッチパネルが画面上に積層されている。タッチパネルはタッチペン312の接触を検知し、それに応じた指示信号をコンピュータ装置101に送信する。編集用ディスプレイ311は、コンピュータ装置101から送信された編集画像を写真画像上に重ねて表示する。スピーカ313は、編集ブース3に配備され、コンピュータ装置101から与えられる指示信号に基づいて、編集プレイのための操作方法などの案内やBGMなどを出力する。   The editing display 311 has a touch panel stacked on the screen. The touch panel detects the touch of the touch pen 312 and transmits an instruction signal corresponding thereto to the computer apparatus 101. The editing display 311 displays the edited image transmitted from the computer apparatus 101 so as to overlap the photographic image. The speaker 313 is provided in the editing booth 3 and outputs guidance such as an operation method for editing play, BGM, and the like based on an instruction signal given from the computer apparatus 101.

コンピュータ装置101はさらに、事前接客ブース5での事前接客処理を実行する。具体的には、コンピュータ装置101は制御プログラムを実行し、デモ映像、名前入力画面などを受付用ディスプレイ51に表示する。コンピュータ装置101は、制御基板102を介して、受付用ディスプレイ51及びスピーカ53と接続される。受付用ディスプレイ51には、タッチパネルが画面上に積層されている。タッチパネルは、ユーザの指の接触を検知し、それに応じた指示信号をコンピュータ装置101に送信する。スピーカ53は、コンピュータ装置101から与えられる指示信号に基づいて、案内音声、BGMなどを出力する。   The computer apparatus 101 further executes a pre-service process at the pre-service booth 5. Specifically, the computer apparatus 101 executes a control program and displays a demonstration video, a name input screen, and the like on the reception display 51. The computer apparatus 101 is connected to the reception display 51 and the speaker 53 via the control board 102. The reception display 51 has a touch panel laminated on the screen. The touch panel detects contact of the user's finger and transmits an instruction signal corresponding to the contact to the computer apparatus 101. The speaker 53 outputs guidance voice, BGM, and the like based on an instruction signal given from the computer apparatus 101.

コンピュータ装置101はさらに、通信部106により、インターネット等のネットワークを介して図示しないサーバと通信する。そして、ユーザの要求に応じて生成した合成画像をユーザの携帯端末にサーバ経由で送信する。これにより、ユーザは携帯端末である携帯電話機に合成画像を取得できる。   The computer apparatus 101 further communicates with a server (not shown) via a network such as the Internet by the communication unit 106. And the synthesized image produced | generated according to the user's request | requirement is transmitted to a user's portable terminal via a server. Thereby, the user can acquire a composite image in the mobile phone which is a mobile terminal.

コンピュータ装置101は、ユーザの要求に応じて生成された合成画像を取得するのに必要なアクセス情報(たとえばURL)を非接触通信装置97を介してユーザの携帯端末に送信できる。なお、コンピュータ装置101は、非接触通信装置97を介して合成画像を直接ユーザの携帯端末に送信してもよい。   The computer apparatus 101 can transmit access information (for example, URL) necessary for acquiring a composite image generated in response to a user's request to the user's portable terminal via the non-contact communication apparatus 97. Note that the computer apparatus 101 may directly transmit the composite image to the user's portable terminal via the non-contact communication apparatus 97.

コンピュータ装置101は、プリンタ601に対して印刷指示を送信し、印刷すべき合成画像を送信する。プリンタ601は、印刷すべき合成画像の受信を完了したとき、印刷指示に応じて印刷を開始する。   The computer apparatus 101 transmits a print instruction to the printer 601 and transmits a composite image to be printed. When the printer 601 completes reception of the composite image to be printed, it starts printing in response to the print instruction.

制御基板102は、コンピュータ装置101の他に、ストロボ制御部110、ストロボ15、蛍光灯14、サービスパネル113及びコイン制御部112に接続される。図7には示していないが、ストロボ制御部110はカメラ22に接続され、カメラ22のシャッタタイミングに応じて発光するようにストロボ15を制御する。これにより、撮影空間24cの全体が、撮影時に、正面照明装置25a〜25c、前方照明装置27a,27b、中間照明装置28a,28b及び背面照明装置29によって照らされる。図7において、1つのストロボ15のみを示しているが、実際には、正面照明装置25及び後側照明装置の各々が、ストロボ15を備えている。なお、正面照明装置25の一部は、ストロボ15を備えていなくてもよい。ストロボ15を備えない照明装置は、撮影以外のときに撮影空間を照らすための蛍光灯などを備える。   In addition to the computer apparatus 101, the control board 102 is connected to the strobe control unit 110, the strobe 15, the fluorescent lamp 14, the service panel 113, and the coin control unit 112. Although not shown in FIG. 7, the strobe control unit 110 is connected to the camera 22 and controls the strobe 15 to emit light according to the shutter timing of the camera 22. Thereby, the whole imaging space 24c is illuminated by the front lighting devices 25a to 25c, the front lighting devices 27a and 27b, the intermediate lighting devices 28a and 28b, and the back lighting device 29 at the time of shooting. Although only one strobe 15 is shown in FIG. 7, in reality, each of the front lighting device 25 and the rear lighting device includes the strobe 15. Note that a part of the front lighting device 25 may not include the strobe 15. The lighting device that does not include the strobe 15 includes a fluorescent lamp that illuminates the shooting space when shooting is not performed.

[動作概要]
[シート画像]
写真撮影遊戯機1は、実際の撮影人数が2人であるにもかかわらず、3人以上の人物が一緒に撮った1枚の写真のように見える合成画像(以下、「特殊合成画像」という。)を生成し、特殊合成画像を含むシート画像をシール紙に印刷して写真シールを提供する。
[Operation overview]
[Sheet image]
The photo game machine 1 has a composite image (hereinafter referred to as a “special composite image”) that looks like a single photograph taken by three or more people, even though the actual number of photographers is two. .) And print a sheet image including the special composite image on the sticker paper to provide a photo sticker.

図8は、全身コラージュ画像41を含むシート画像40を示す図である。シート画像40は、プリンタ601によりシール紙に印刷される。図8を参照して、シート画像40は、全身コラージュ画像41と、通常合成画像42〜47とを含む。全身コラージュ画像41及び通常合成画像42〜47は、シートレイアウト39上に配置される。シートレイアウト39は、全身コラージュ画像41及び通常合成画像42〜47がそれぞれ配置される位置が指定された画像データである。   FIG. 8 is a diagram showing a sheet image 40 including a whole body collage image 41. The sheet image 40 is printed on sticker paper by the printer 601. Referring to FIG. 8, sheet image 40 includes a whole body collage image 41 and normal composite images 42 to 47. The whole body collage image 41 and the normal composite images 42 to 47 are arranged on the sheet layout 39. The sheet layout 39 is image data in which positions where the whole body collage image 41 and the normal composite images 42 to 47 are respectively arranged are designated.

[全身コラージュ画像]
図9Aは、全身コラージュ画像41の拡大図である。図9Aを参照して、全身コラージュ画像41は、人物画像411〜414と、名前画像415と、日付画像416と、装飾画像417と、背景画像418とを含む。人物画像411中の人物41Aと、人物画像412中の人物41Aと、人物画像413中の人物41Aとは、同一人物である。人物画像411中の人物41Bと、人物画像412中の人物41Bと、人物画像414中の人物41Bとは、同一人物である。
[Full-body collage image]
FIG. 9A is an enlarged view of the whole body collage image 41. Referring to FIG. 9A, whole body collage image 41 includes person images 411 to 414, name image 415, date image 416, decoration image 417, and background image 418. The person 41A in the person image 411, the person 41A in the person image 412, and the person 41A in the person image 413 are the same person. The person 41B in the person image 411, the person 41B in the person image 412, and the person 41B in the person image 414 are the same person.

人物画像411,412の各々は、2人の人物41A,41Bを含む。以下、このような人物画像411,412を「集合人物画像」という。集合人物画像411は、2人の人物41A,41Bの全身を被写体として一緒に撮影して1枚の写真画像を生成し、その写真画像から被写体を抽出することにより生成される。集合人物画像412は、2人の人物41A,41Bの全身を被写体として一緒に撮影して1枚の写真画像を生成し、その写真画像から被写体を抽出することにより生成される。集合人物画像411を含む写真画像と、集合人物画像412を含む写真画像とは、異なるタイミングで撮影される。集合人物画像411を含む写真画像と、集合人物画像412を含む写真画像とは、後述するように、全身撮影モードで得られる画像データである。   Each of the person images 411 and 412 includes two persons 41A and 41B. Hereinafter, such person images 411 and 412 are referred to as “collective person images”. The collective person image 411 is generated by photographing the whole body of two persons 41A and 41B together as a subject to generate one photographic image and extracting the subject from the photographic image. The collective person image 412 is generated by photographing the whole body of the two persons 41A and 41B together as a subject to generate one photographic image, and extracting the subject from the photographic image. A photographic image including the collective person image 411 and a photographic image including the collective person image 412 are taken at different timings. The photographic image including the collective person image 411 and the photographic image including the collective person image 412 are image data obtained in the whole body photographing mode, as will be described later.

人物画像413は、1人の人物41Aのみを含む。人物画像414は、1人の人物41Bのみを含む。以下、このような人物画像413,414を「個別人物画像」という。2枚の個別人物画像413,414は、後述するスペシャル撮影によって人物の全身が撮影された写真画像(全身写真画像)から生成される。   The person image 413 includes only one person 41A. The person image 414 includes only one person 41B. Hereinafter, such person images 413 and 414 are referred to as “individual person images”. The two individual person images 413 and 414 are generated from photographic images (whole body photographic images) in which the whole body of the person is photographed by special photographing described later.

個別人物画像413,414のサイズは集合人物画像411,412のサイズよりも小さい。もし個別人物画像413,414のサイズが集合人物画像411,412のサイズと同じであれば、全ての人物画像411〜414を1枚の背景画像418の中に収めようとすると、全ての人物画像411〜414のサイズを一律に小さくせざるを得ず、顔が小さくなる。また、全身コラージュ画像41に対する人物画像411〜414の占有率が高くなるため、全身コラージュ画像41中での人物画像411〜414による圧迫感が増すとともに、背景画像418の大部分が隠れてしまう。また、バランス的に見栄えが悪く、デザイン性が低い。   The size of the individual person images 413 and 414 is smaller than the size of the collective person images 411 and 412. If the size of the individual person images 413 and 414 is the same as the size of the collective person images 411 and 412, all the person images 411 to 414 are stored in one background image 418. The size of 411 to 414 must be reduced uniformly, and the face becomes smaller. In addition, since the occupation ratio of the person images 411 to 414 with respect to the whole body collage image 41 is increased, a feeling of pressure by the person images 411 to 414 in the whole body collage image 41 is increased, and most of the background image 418 is hidden. Moreover, it does not look good in terms of balance, and the design is low.

これに対し、本実施の形態では、個別人物画像413,414のサイズが集合人物画像411,412のサイズよりも小さいため、集合人物画像411,412の顔が大きくなる。また、全身コラージュ画像41に対する人物画像411〜414の占有率が低くなるため、全身コラージュ画像41中での人物画像411〜414による圧迫感が低減されるとともに、背景画像418の一部、たとえば「LOOK BOOK」などの文字がより多く現れる。また、バランス的に見栄えが良く、デザイン性が高い。   On the other hand, in this embodiment, since the size of the individual person images 413 and 414 is smaller than the size of the group person images 411 and 412, the faces of the group person images 411 and 412 become large. Further, since the occupation ratio of the person images 411 to 414 with respect to the whole body collage image 41 is reduced, the feeling of pressure due to the person images 411 to 414 in the whole body collage image 41 is reduced, and a part of the background image 418, for example, “ More characters such as “LOOK BOOK” appear. Also, it looks good in balance and has high design.

背景画像418は、全身コラージュ画像41全体の背景を構成する単一(1枚)の画像である。ただし、この単一の背景画像418は、様々な複数の画像を合成した全体として統一感のある画像でもよい。背景画像418には、全身コラージュ画像41のタイトル(たとえば「LOOK BOOK」)などが配置される。背景画像418において、集合人物画像411,412が配置される位置と、個別人物画像413,414が配置される位置とが予め設定されている。そのため、ユーザが人物画像411〜414の位置を指定することなく、全身コラージュ画像41が自動的に生成される。したがって、ユーザの手間が省け、プレイ時間が長くならない。   The background image 418 is a single (one) image that constitutes the background of the whole body collage image 41. However, this single background image 418 may be an image having a sense of unity as a whole by combining various images. In the background image 418, the title of the whole body collage image 41 (for example, “LOOK BOOK”) and the like are arranged. In the background image 418, positions where the collective person images 411, 412 are arranged and positions where the individual person images 413, 414 are arranged are set in advance. Therefore, the whole body collage image 41 is automatically generated without the user specifying the positions of the person images 411 to 414. Therefore, the user's trouble is saved and the play time is not prolonged.

図9Bに示すように、全身コラージュ画像41において、個別人物画像413,414の各々の下方に、名前画像421,422を配置してもよい。なお、図9Bは、名前画像421,422を見やすくするために、日付画像416及び装飾画像417の表示を省略している。名前画像421は、「REINA」の文字を含み、個別人物画像413に含まれる人物41Aの足元に配置される。名前画像422は、「KANA」の文字を含み、個別人物画像414に含まれる人物41Bの足元に配置される。これにより、個別人物画像413に含まれる人物41Aの名前が「REINA」であり、個別人物画像414に含まれる人物41Bの名前が「KANA」であることを容易に認識できる。   As shown in FIG. 9B, in the whole body collage image 41, name images 421 and 422 may be arranged below the individual person images 413 and 414, respectively. In FIG. 9B, the display of the date image 416 and the decoration image 417 is omitted in order to make the name images 421 and 422 easier to see. The name image 421 includes characters “REINA” and is arranged at the foot of the person 41A included in the individual person image 413. The name image 422 includes the characters “KANA” and is arranged at the foot of the person 41B included in the individual person image 414. Thereby, it can be easily recognized that the name of the person 41A included in the individual person image 413 is “REINA” and the name of the person 41B included in the individual person image 414 is “KANA”.

なお、名前画像421,422は、個別人物画像413,414に含まれる人物41A,41Bの足元でなく、人物41A,41Bの上方や側方など、個別人物画像413,414の周囲に配置されてもよい。つまり、名前画像421,422は、個別人物画像413,414に含まれる人物41A,41Bの各々の名前を認識することができる位置に配置されればよい。   The name images 421 and 422 are arranged around the individual person images 413 and 414, such as above and to the sides of the persons 41A and 41B, not the feet of the persons 41A and 41B included in the individual person images 413 and 414. Also good. That is, the name images 421 and 422 may be arranged at positions where the names of the persons 41A and 41B included in the individual person images 413 and 414 can be recognized.

図9A及び図9Bにおいて、名前画像415は、「REINA&KANA」の文字を含む。名前画像415において、「REINA」が先に表記されているため、集合人物画像411,412において左側に位置する人物41Aの名前が「REINA」であり、右側に位置する人物41Bの名前が「KANA」であると認識することができる。   9A and 9B, the name image 415 includes characters “REINA & KANA”. In the name image 415, “REINA” is described first, so in the collective person images 411 and 412, the name of the person 41A located on the left side is “REINA” and the name of the person 41B located on the right side is “KANA”. Can be recognized.

名前画像415,421,422に含まれる文字列(名前)の入力は、後述する事前接客処理で行われる。事前接客処理の詳細は、後述する。   The input of the character strings (names) included in the name images 415, 421, and 422 is performed by a pre-service process described later. Details of the customer service process will be described later.

図9Cは、背景画像418に配置される人物画像411〜414の配置パターンの一例を示す図である。図9C(a)〜(f)において、背景画像418に含まれる文字などの表示を省略している。図9C(a)に示す配置パターンが、図9Aに示す全身コラージュ画像41における人物画像411〜414の配置に対応する。具体的には、図9C(a)において、領域418aが、集合人物画像411が配置される領域であり、背景画像418の一番左に配置される。領域418bが、個別人物画像413が配置される領域であり、背景画像418の中央左側に配置される。領域418cが、集合人物画像412が配置される領域であり、背景画像418の中央右側に配置される。領域418dが、個別人物画像414が配置される領域であり、背景画像418の一番右側に配置される。また、領域418a〜418dの配置は、図9C(b)〜(f)に示すパターンであってもよい。   FIG. 9C is a diagram illustrating an example of an arrangement pattern of the person images 411 to 414 arranged on the background image 418. 9C (a) to 9 (f), the display of characters and the like included in the background image 418 is omitted. The arrangement pattern shown in FIG. 9C (a) corresponds to the arrangement of the person images 411 to 414 in the whole body collage image 41 shown in FIG. 9A. Specifically, in FIG. 9C (a), an area 418a is an area where the collective person image 411 is arranged, and is arranged on the leftmost side of the background image 418. An area 418b is an area where the individual person image 413 is arranged, and is arranged on the left side of the center of the background image 418. An area 418c is an area where the collective person image 412 is arranged, and is arranged on the right side of the center of the background image 418. An area 418d is an area where the individual person image 414 is arranged, and is arranged on the rightmost side of the background image 418. Moreover, the arrangement | positioning of area | region 418a-418d may be the pattern shown to FIG. 9C (b)-(f).

また、領域418a〜418dのサイズは、人物画像411〜414のサイズを示す。図9C(a)〜(c)は、集合人物画像411,412のサイズが、個別人物画像413,414のサイズよりも大きいことを示している。図9C(d)〜(f)は、集合人物画像411,412のサイズが、個別人物画像413,414のサイズよりも小さいことを示している。   The sizes of the areas 418a to 418d indicate the sizes of the person images 411 to 414. 9C (a) to 9 (c) show that the size of the collective person images 411 and 412 is larger than the size of the individual person images 413 and 414. FIG. 9C (d) to (f) show that the size of the collective person images 411 and 412 is smaller than the size of the individual person images 413 and 414. FIG.

より具体的には、予め用意されている様々なデザインが描かれた複数の背景画像418を含むデザインごとに、人物画像411〜414を配置する座標及びサイズが予め設定されている。人物画像411〜414の各々は、選択された配置パターンに応じて、予め設定されているサイズに変更され、予め設定されている座標に配置される。したがって、予め設定されている座標及びサイズの値を変更するだけで配置パターンを変更することができ、また、予め設定されている座標及びサイズの数を増やすだけで配置パターンの種類を増やすことができる。そのため、配置パターンの自由度が増す。   More specifically, coordinates and sizes for arranging the person images 411 to 414 are set in advance for each design including a plurality of background images 418 on which various designs prepared in advance are drawn. Each of the person images 411 to 414 is changed to a preset size according to the selected arrangement pattern, and is arranged at preset coordinates. Therefore, the arrangement pattern can be changed only by changing the preset coordinates and size values, and the number of arrangement patterns can be increased only by increasing the number of preset coordinates and sizes. it can. Therefore, the degree of freedom of the arrangement pattern increases.

なお、本実施の形態では、人物画像411〜414が互いに重ならないように配置されているが、その一部が互いに重なるように配置されてもよい。また、本実施の形態では、人物画像411〜414が直立して配置されているが、斜めに配置されてもよい。   In the present embodiment, the human images 411 to 414 are arranged so as not to overlap each other, but some of them may be arranged so as to overlap each other. Moreover, in this Embodiment, although the person images 411-414 are arrange | positioned upright, you may arrange | position diagonally.

サイズが変更される前の元の集合人物画像411,412(写真画像から抽出された直後の集合人物画像411,412)の横と縦の比は、たとえば1:1.6である。サイズが変更される前の元の個別人物画像413,414(写真画像から抽出された直後の個別人物画像413,414)の横と縦の比は、たとえば0.5:1.6である。本実施の形態では、元の集合人物画像411,412の横と、元の個別人物画像413,414の横との比は、1:0.5(=2:1)である。元の集合人物画像411,412の縦と、元の個別人物画像413,414の縦との比は、1.6:1.6(=1:1)である。   The horizontal / vertical ratio of the original group person images 411 and 412 (the group person images 411 and 412 immediately after being extracted from the photographic image) before the size change is, for example, 1: 1.6. The horizontal to vertical ratio of the original individual person images 413 and 414 (the individual person images 413 and 414 immediately after being extracted from the photographic image) before the size is changed is, for example, 0.5: 1.6. In the present embodiment, the ratio of the sides of the original collective person images 411 and 412 to the sides of the original individual person images 413 and 414 is 1: 0.5 (= 2: 1). The ratio of the vertical length of the original collective person images 411 and 412 to the vertical length of the original individual person images 413 and 414 is 1.6: 1.6 (= 1: 1).

このように、個別人物画像413,414の横幅は集合人物画像411,412の横幅の半分しかないため、集合人物画像411,412のない隙間に配置しやすい。   As described above, the individual person images 413 and 414 are only half the width of the collective person images 411 and 412, so that the individual person images 413 and 414 can be easily arranged in the gaps without the collective person images 411 and 412.

図9Aを参照して、名前画像415は、事前接客ブース5で入力されたユーザの各々の名前の画像であり、全身コラージュ画像41の右上に配置される。ただし、個別人物画像413,414の上にそれぞれに対応する名前画像415を配置してもよい。   Referring to FIG. 9A, the name image 415 is an image of each name of the user input at the pre-service booth 5 and is arranged at the upper right of the whole body collage image 41. However, the corresponding name images 415 may be arranged on the individual person images 413 and 414, respectively.

日付画像416は、全身コラージュ画像41が作成された日付の画像である。図9Aにおいて、日付画像416は、集合人物画像412の下に配置されているが、人物画像411〜414の上に配置されてもよい。   The date image 416 is an image of the date on which the whole body collage image 41 is created. In FIG. 9A, the date image 416 is disposed below the collective person image 412, but may be disposed above the person images 411 to 414.

装飾画像417は、全身コラージュ画像41の装飾に用いられる画像であり、集合人物画像411の上に配置される。なお、装飾画像417が配置される位置は、背景画像418に予め設定されている。   The decoration image 417 is an image used for decoration of the whole body collage image 41 and is arranged on the collective person image 411. The position where the decoration image 417 is arranged is set in the background image 418 in advance.

従来の合成画像はいずれも、互いに異なるタイミングで撮影された複数の写真が合成されたものであることが一見してわかるものであったのに対し、この写真撮影遊戯機1により生成される全身コラージュ画像41は、全ての人物画像411〜414が1枚の背景画像418上に合成されているため、3回の撮影で生成された人物画像411〜414が合成されているにもかかわらず、合成画像に見えず、まるで1枚の写真のように見える。また、実際の撮影人数は2人であるにもかかわらず、6人で一緒に撮った写真のように見える。   While all of the conventional composite images can be seen at a glance that a plurality of photographs taken at different timings are combined, the whole body generated by this photography game machine 1 In the collage image 41, since all the person images 411 to 414 are combined on one background image 418, the person images 411 to 414 generated by three times of shooting are combined, It does not look like a composite image, it looks like a single photo. Also, even though the actual number of photographers is two, it looks like a picture taken with six people together.

また、全身コラージュ画像41には人物41A,41Bの全身が大きく写っているため、その日のコーディネイトを細部まで明確に記録しておきたいというユーザニーズに応えることができる。   In addition, since the whole body of the persons 41A and 41B is greatly shown in the whole body collage image 41, it is possible to meet the user needs to clearly record the details of the day's coordination.

ただし、人物画像411〜414は、必ずしも頭頂部から足のつま先までの人物の全身の画像でなくてもよい。たとえば、写真画像が、ひざから上の人物41A,41Bのみを含む場合、集合人物画像411は、ひざから上の人物が抽出された画像であってもよい。あるいは、写真画像が、上半身の人物41A,41Bのみを含む場合、集合人物画像411は、上半身の人物が抽出された画像であってもよい。つまり、人物画像411〜414は、後述する全身撮影モードで撮影され、写真画像に含まれる人物の全体が抽出された画像であればよい。   However, the person images 411 to 414 are not necessarily images of the whole body of the person from the top of the head to the toes of the feet. For example, when the photograph image includes only the persons 41A and 41B above the knee, the collective person image 411 may be an image obtained by extracting the person above the knee. Alternatively, when the photographic image includes only the upper body persons 41A and 41B, the collective person image 411 may be an image in which the upper body persons are extracted. That is, the person images 411 to 414 may be images that are taken in the whole-body shooting mode to be described later and the whole person included in the photographic image is extracted.

好ましくは、人物画像411〜414の身長方向のサイズは、全身コラージュ画像41の短辺方向のサイズの60%〜95%である。これにより、全身コラージュ画像41において、被写体の全身を大きく見せることができる。より好ましくは、人物画像411〜414の身長方向のサイズは、全身コラージュ画像41の短辺方向のサイズの70%〜95%である。さらに好ましくは、人物画像411〜414の身長方向のサイズは、全身コラージュ画像41の短辺方向のサイズの80%〜95%である。   Preferably, the size of the person images 411 to 414 in the height direction is 60% to 95% of the size of the whole body collage image 41 in the short side direction. As a result, the whole body of the subject can be shown larger in the whole body collage image 41. More preferably, the size of the person images 411 to 414 in the height direction is 70% to 95% of the size of the whole body collage image 41 in the short side direction. More preferably, the size of the person images 411 to 414 in the height direction is 80% to 95% of the size of the whole body collage image 41 in the short side direction.

[通常合成画像]
図8を参照して、通常合成画像42〜47は、人物画像が背景画像上に1つずつ合成されることにより生成される。人物画像42a〜47aは、それぞれ2人の人物が一緒に撮影された画像である。人物画像42a〜47a中の2人の人物は、集合人物画像411,412中の人物41A,41Bと同一人物である。
[Normal composite image]
Referring to FIG. 8, normal composite images 42 to 47 are generated by combining human images one by one on a background image. The person images 42a to 47a are images in which two persons are photographed together. The two persons in the person images 42a to 47a are the same persons as the persons 41A and 41B in the collective person images 411 and 412.

通常合成画像42,43,45,46は、人物41A,41Bの上半身を含む人物画像42a,43a,45a,46aが背景画像42b,43b,45b,46b上に合成されることにより生成される。通常合成画像44は、人物画像44aが背景画像44bに合成されることにより生成される。人物画像44aは、全身コラージュ画像41中の集合人物画像412と同じである。通常合成画像47は、人物画像47aが背景画像47bに合成されることにより生成される。人物画像47aは、全身コラージュ画像41中の集合人物画像411と同じである。   The normal combined images 42, 43, 45, 46 are generated by combining the person images 42a, 43a, 45a, 46a including the upper body of the persons 41A, 41B on the background images 42b, 43b, 45b, 46b. The normal composite image 44 is generated by combining the person image 44a with the background image 44b. The person image 44 a is the same as the collective person image 412 in the whole body collage image 41. The normal composite image 47 is generated by combining the person image 47a with the background image 47b. The person image 47 a is the same as the collective person image 411 in the whole body collage image 41.

全身コラージュ画像41は通常合成画像42〜47よりも大きい。より具体的には、全身コラージュ画像41中の集合人物画像411,412のサイズは、通常合成画像44,47中の人物画像44a,47aのサイズの約2倍である。ただし、必ずしも2倍でなくてもよく、1倍よりも少し大きい。たとえば約1.1倍でもよく、あるいは、2倍よりも大きい。たとえば約3倍でもよい。   The whole body collage image 41 is usually larger than the composite images 42 to 47. More specifically, the size of the collective person images 411 and 412 in the whole body collage image 41 is approximately twice the size of the person images 44a and 47a in the normal composite images 44 and 47. However, it does not necessarily have to be 2 times, and is slightly larger than 1 time. For example, it may be about 1.1 times or larger than twice. For example, it may be about 3 times.

このように、全身コラージュ画像41だけでなく、通常合成画像42〜47も一緒にシート画像40上に配置されることにより、新しい趣向の合成画像(全身コラージュ画像41)と、従来の合成画像(通常合成画像42〜47)とがシール紙に印刷されるため、ユーザの満足感を向上させることができる。   In this way, not only the whole body collage image 41 but also the normal composite images 42 to 47 are arranged together on the sheet image 40, so that a new desired composite image (whole body collage image 41) and a conventional composite image ( Since the normal composite images 42 to 47) are printed on the sticker paper, the user's satisfaction can be improved.

[シート画像40の変形例]
図10及び図11は、シート画像の変形例を示す図である。図10を参照して、シート画像40を縦長としてもよい。本実施の形態では、通常合成画像42〜49が全身コラージュ画像41の下に配置される。通常合成画像42,43,45,46は2つずつ配置される。通常合成画像44,47,48,49は1つずつ配置される。本実施の形態の通常合成画像44,47,48,49は全て集合人物画像を含むが、これらの中からいずれか2枚の通常合成画像が個別人物画像を含んでいてもよい。
[Modification of Sheet Image 40]
10 and 11 are diagrams illustrating modifications of the sheet image. With reference to FIG. 10, the sheet image 40 may be vertically long. In the present embodiment, the normal composite images 42 to 49 are arranged below the whole body collage image 41. Usually, two composite images 42, 43, 45, and 46 are arranged. Normally, the composite images 44, 47, 48, 49 are arranged one by one. The normal composite images 44, 47, 48, and 49 of the present embodiment all include a collective person image, but any two of these normal composite images may include individual person images.

図11を参照して、シート画像40は、複数の分割全身コラージュ画像41P,41Qを備えてもよい。図11において、分割全身コラージュ画像41Pはシート画像40の左側に配置され、分割全身コラージュ画像41Qはシート画像40の右側に配置される。通常合成画像42,43,45,46はシート画像40の中央に配置される。複数の分割全身コラージュ画像41P,41Qは、図8に示した全身コラージュ画像41を構成する。分割全身コラージュ画像41P,41Qは、全身コラージュ画像41を半分に分割することにより生成されてもよい。あるいは、分割全身コラージュ画像41Pは集合人物画像411及び個別人物画像413が背景画像418P上に合成されることにより生成され、分割全身コラージュ画像41Qは集合人物画像412及び個別人物画像414が背景画像418Q上に合成されることにより生成されてもよい。この場合、複数の分割全身コラージュ画像41P,41Qがあるので、ユーザに分配しやすい。   Referring to FIG. 11, sheet image 40 may include a plurality of divided whole body collage images 41P and 41Q. 11, the divided whole body collage image 41P is arranged on the left side of the sheet image 40, and the divided whole body collage image 41Q is arranged on the right side of the sheet image 40. Usually, the composite images 42, 43, 45, 46 are arranged in the center of the sheet image 40. The plurality of divided whole body collage images 41P and 41Q constitute the whole body collage image 41 shown in FIG. The divided whole body collage images 41P and 41Q may be generated by dividing the whole body collage image 41 in half. Alternatively, the divided whole body collage image 41P is generated by combining the collective person image 411 and the individual person image 413 on the background image 418P, and the divided whole body collage image 41Q is generated by the collective person image 412 and the individual person image 414 being the background image 418Q. It may be generated by combining the above. In this case, since there are a plurality of divided whole body collage images 41P and 41Q, it is easy to distribute to users.

[後側照明装置の機能]
写真撮影遊戯機1は、撮影空間24cの後側に配置された後側照明装置により、撮影空間42cを後側から照らす。後側照明装置からの光と、正面照明装置25からの光とにより、撮影空間24c全体における光量の偏りを少なくすることができる。
[Function of rear lighting device]
The photographic game machine 1 illuminates the photographic space 42c from the rear side by a rear illumination device arranged on the rear side of the photographic space 24c. Due to the light from the rear illumination device and the light from the front illumination device 25, it is possible to reduce the deviation of the light amount in the entire imaging space 24c.

[前方照明装置27a,27b]
図12Aは、図6の矢印Qで示す方向から見た撮影空間24cを示す図である。図12Aにおいて、前方照明装置27b及び中間照明装置28bの表示を省略している。図12Bは、図6の矢印Pで示す方向から見た撮影空間24cを示す図である。図12A及び図12Bにおいて、一点鎖線の矢印は、前方照明装置27a,27bからの光を示す。破線の矢印は、中間照明装置28a,28bからの光を示す。実線の矢印は、背面照明装置29からの光を示す。
[Front lighting devices 27a and 27b]
FIG. 12A is a diagram illustrating the imaging space 24c viewed from the direction indicated by the arrow Q in FIG. In FIG. 12A, the display of the front illumination device 27b and the intermediate illumination device 28b is omitted. 12B is a diagram illustrating the imaging space 24c as viewed from the direction indicated by the arrow P in FIG. In FIG. 12A and FIG. 12B, the dashed-dotted arrows indicate the light from the front illumination devices 27a and 27b. Dashed arrows indicate light from the intermediate illumination devices 28a and 28b. Solid arrows indicate light from the back lighting device 29.

図12A及び図12Bに示すように、前方照明装置27aは、撮影空間24cの右後側から前側に向けて光を照らす。前方照明装置27bも同様に、撮影空間24cの左後側から前側に向けて光を照らす。これにより、撮影空間24cの前側が、前方照明装置27a,27bにより撮影空間24cの後方から照らされる。   As shown in FIGS. 12A and 12B, the front illumination device 27a illuminates light from the right rear side to the front side of the imaging space 24c. Similarly, the front illumination device 27b illuminates light from the left rear side to the front side of the imaging space 24c. Thereby, the front side of the imaging space 24c is illuminated from the rear of the imaging space 24c by the front illumination devices 27a and 27b.

図13は、図5に示す前方照明装置27aの拡大図である。図13を参照して、前方照明装置27aにおいて、格子状のグリッド271が、開口272に嵌め込まれている。グリッド271は、前方照明装置27aが備えるストロボ15(図7参照)が発した光を、撮影空間24cの前側に導く。前方照明装置27bも、前方照明装置27aと同様の構成である。前方照明装置27a,27bからの光は、グリッド271により指向性の高い光となる。この結果、ユーザが撮影空間24cの前方にいる場合、ユーザの頭部付近に強い光が照射されるため、ユーザの頭部付近、特に髪の質感を高めることが可能となる。   FIG. 13 is an enlarged view of the front illumination device 27a shown in FIG. Referring to FIG. 13, in front illumination device 27 a, grid-like grid 271 is fitted into opening 272. The grid 271 guides light emitted from the strobe 15 (see FIG. 7) included in the front illumination device 27a to the front side of the imaging space 24c. The front illumination device 27b has the same configuration as the front illumination device 27a. Light from the front illumination devices 27a and 27b becomes highly directional light by the grid 271. As a result, when the user is in front of the shooting space 24c, strong light is irradiated near the user's head, so that the texture near the user's head, particularly the hair, can be enhanced.

なお、前方照明装置27a,27bからの光の指向性を高めたい場合、グリッド271の色を黒にすればよい。また、グリッド271の色を白にすることにより、前方照明装置27a,27bからの光の指向性を比較的低くすることができる。   In addition, what is necessary is just to make the color of the grid 271 black, when improving the directivity of the light from the front illuminating devices 27a and 27b. In addition, by setting the color of the grid 271 to white, the directivity of light from the front illumination devices 27a and 27b can be made relatively low.

[中間照明装置28a,28b]
図12A及び図12Bを参照して、中間照明装置28aは、撮影空間24cの右後方から撮影空間24cの前方及び後方に向けて拡散光を照射する。中間照明装置28bは、撮影空間24cの左後方から撮影空間24cの前方及び後方に向けて拡散光を照射する。これにより、撮影空間24cにおいて、カメラ22からやや離れた領域(例えば、撮影空間24cの中央付近など)が、中間照明装置28a,28bにより、撮影空間24cの後方から照らされる。
[Intermediate lighting devices 28a, 28b]
Referring to FIGS. 12A and 12B, the intermediate illumination device 28a irradiates diffused light from the right rear of the imaging space 24c toward the front and rear of the imaging space 24c. The intermediate illumination device 28b irradiates diffused light from the left rear of the imaging space 24c toward the front and rear of the imaging space 24c. As a result, an area slightly separated from the camera 22 (for example, near the center of the shooting space 24c) in the shooting space 24c is illuminated from behind the shooting space 24c by the intermediate lighting devices 28a and 28b.

図14は、中間照明装置28a,28bの断面模式図である。中間照明装置28a,28bの各々は、ストロボ15と、筐体281と、拡散板282とを備えている。ストロボ15が発した光は、拡散板282によって拡散されて、撮影空間24cの前方及び後方に照射される。   FIG. 14 is a schematic cross-sectional view of the intermediate lighting devices 28a and 28b. Each of the intermediate lighting devices 28 a and 28 b includes a strobe 15, a housing 281, and a diffusion plate 282. The light emitted from the strobe 15 is diffused by the diffusion plate 282 and irradiated to the front and rear of the imaging space 24c.

[背面照明装置29]
図12A及び図12Bを参照して、背面照明装置29は、撮影空間24cの後側の下方を照らす。具体的には、背面照明装置29は、撮影空間24cの後側のうち、背面板26に近い領域を照らす。これにより、背面板26から近い位置にいるユーザを明るく照らすことができる。
[Back lighting device 29]
With reference to FIG. 12A and FIG. 12B, the back lighting device 29 illuminates the lower part on the rear side of the imaging space 24c. Specifically, the back lighting device 29 illuminates a region near the back plate 26 in the rear side of the imaging space 24c. Thereby, it is possible to brightly illuminate a user who is close to the back plate 26.

図15は、背面照明装置29の断面模式図である。背面照明装置29は、ストロボ15と、筐体291と、拡散板292とを備えている。図4を参照して、拡散板292は、細長い形状となっている。このため、背面照明装置29において、ストロボ15が発した光は、拡散板292により撮影空間24cの幅方向に拡散されるため、背面照明装置29は、撮影空間24cの後方を明るく照らすことができる。   FIG. 15 is a schematic cross-sectional view of the back lighting device 29. The back lighting device 29 includes a strobe 15, a housing 291, and a diffusion plate 292. Referring to FIG. 4, diffusion plate 292 has an elongated shape. For this reason, in the back lighting device 29, the light emitted by the strobe 15 is diffused in the width direction of the shooting space 24c by the diffuser plate 292, so that the back lighting device 29 can illuminate the back of the shooting space 24c brightly. .

[後側照明装置の効果]
このように、写真撮影遊戯機1は、撮影空間24cを後側から照らす後側照明装置として、前方照明装置27a,27bと、中間照明装置28a,28bと、背面照明装置29とを備える。これにより、撮影空間24c全体に十分な量の光を照らすことができる。
[Effect of rear lighting device]
As described above, the photography amusement machine 1 includes the front illumination devices 27a and 27b, the intermediate illumination devices 28a and 28b, and the back illumination device 29 as rear illumination devices that illuminate the photographing space 24c from the rear side. Thereby, a sufficient amount of light can be illuminated on the entire imaging space 24c.

ここで、撮影空間24cの後方に、後側照明装置として1つの照明装置が配置された場合を考える。図16Aは、照明装置91を撮影空間24cに配置した場合において、撮影空間24cを矢印Qで示す方向から見た図である。   Here, consider a case where one illumination device is arranged as a rear illumination device behind the imaging space 24c. FIG. 16A is a view of the imaging space 24c viewed from the direction indicated by the arrow Q when the illumination device 91 is arranged in the imaging space 24c.

図16Aを参照して、照明装置91は、背面板26及び背面筐体24bの天井に取り付けられ、撮影空間24cの前方及び後方を照らす。照明装置91が単一の装置であるため、照明装置91は、撮影空間24cの前方への光量と、後方への光量とを個別に制御することができない。照明装置91は、撮影空間24cの前方に対して十分な量の光を照射する場合、光量を多くしなければならない。この結果、撮影空間24cの後方が、照明装置91により強く照らされるため、撮影空間24cの後方が明るくなりすぎるという問題が発生する。   With reference to FIG. 16A, the illuminating device 91 is attached to the ceiling of the back plate 26 and the back casing 24b, and illuminates the front and rear of the imaging space 24c. Since the illuminating device 91 is a single device, the illuminating device 91 cannot individually control the amount of light forward and the amount of light backward of the imaging space 24c. The illumination device 91 must increase the amount of light when irradiating a sufficient amount of light to the front of the imaging space 24c. As a result, the rear side of the photographing space 24c is strongly illuminated by the lighting device 91, so that the rear side of the photographing space 24c becomes too bright.

一方、写真撮影遊戯機1は、撮影空間24cの後側に、前方照明装置27a,27bと、中間照明装置28a,28bと、背面照明装置29とを配置する。このため、写真撮影遊戯機1は、これら後側照明装置の光量を個別に制御することにより、撮影空間24c全体を偏りなく照らすことができる。   On the other hand, the photography amusement machine 1 arranges the front lighting devices 27a and 27b, the intermediate lighting devices 28a and 28b, and the back lighting device 29 on the rear side of the shooting space 24c. For this reason, the photography amusement machine 1 can illuminate the entire photographing space 24c evenly by individually controlling the light amounts of these rear illumination devices.

また、写真撮影遊戯機1は、撮影時におけるユーザの並びや、ユーザの姿勢に関係なく、ユーザに対して十分な量の光を届けることができる。   Moreover, the photography game machine 1 can deliver a sufficient amount of light to the user regardless of the arrangement of the users at the time of shooting and the user's posture.

図16Bは、照明装置91が撮影空間24cに配置された場合における撮影空間24cの上面図である。図16A及び図16Bを参照して、照明装置91が配置された撮影空間24cに、2人のユーザが前後に並んだ場合を考える。この場合、照明装置91は、後側のユーザの背後から前側に光を照らすため、2人のユーザの間の領域24dにおいて、光量が不十分になるおそれがある。   FIG. 16B is a top view of the imaging space 24c when the illumination device 91 is disposed in the imaging space 24c. With reference to FIG. 16A and FIG. 16B, the case where two users line up back and forth in the imaging | photography space 24c where the illuminating device 91 is arrange | positioned is considered. In this case, since the illuminating device 91 illuminates light from the back side to the front side of the rear user, the amount of light may be insufficient in the region 24d between the two users.

図17及び図18は、前方照明装置27a,27b、中間照明装置28a,28b及び背面照明装置29が配置された撮影空間24cの上面図である。図17を参照して、2人のユーザが背中合わせに立っている場合を考える。この場合、ユーザが、前方照明装置27a,27bにより、撮影空間24cの左右から照らされるため、ユーザの顔の一部に影が発生することを防止することができる。一方、背中合わせに立つ2人のユーザを照明装置91を用いて照らした場合、2人のユーザを左右から照らすことができない。この結果、ユーザの顔に十分な量の光が届かないおそれがある。   17 and 18 are top views of the imaging space 24c in which the front illumination devices 27a and 27b, the intermediate illumination devices 28a and 28b, and the back illumination device 29 are arranged. Referring to FIG. 17, consider a case where two users are standing back to back. In this case, since the user is illuminated from the left and right of the imaging space 24c by the front illumination devices 27a and 27b, it is possible to prevent a shadow from being generated on a part of the user's face. On the other hand, when two users standing back to back are illuminated using the lighting device 91, the two users cannot be illuminated from the left and right. As a result, a sufficient amount of light may not reach the user's face.

図18を参照して、2人のユーザが撮影空間24cの中央付近で前後に並んでいる場合を考える。この場合、前方照明装置27aにより、2人のユーザの間の領域24dが照らされるため、領域24dが暗くなることを防止することができる。一方、照明装置91を用いた場合、2人のユーザを左右から照らすことができないため、領域24dに十分な量の光が届かないおそれがある。   Referring to FIG. 18, a case is considered where two users are lined up in the vicinity of the center of the imaging space 24c. In this case, since the area 24d between the two users is illuminated by the front illumination device 27a, the area 24d can be prevented from becoming dark. On the other hand, when the lighting device 91 is used, two users cannot be illuminated from the left and right, and thus there is a possibility that a sufficient amount of light does not reach the region 24d.

このように、写真撮影遊戯機1は、後側照明装置を備えることにより、撮影空間24cの後方から撮影空間24c全体を偏りなく照らすことができる。   Thus, the photography amusement machine 1 can illuminate the entire imaging space 24c from the back of the imaging space 24c without any bias by providing the rear illumination device.

[撮影モードにおける光量の調整]
写真撮影遊戯機1は、アップ撮影モード及び全身撮影モードに応じて、後側照明装置の各々の光量を制御する。アップ撮影モードは、後述するように、ユーザの顔を大きく撮影するのに適したモードであり、ユーザの上半身を撮影する。この場合、ユーザは、撮影空間24cの前方に立って撮影を行う。一方、全身撮影モードは、後述するように、ユーザの全身を撮影するのに適したモードである。ユーザは、全身撮影モードでは、撮影空間24cの後側に立って撮影を行う。
[Adjusting light intensity in shooting mode]
The photography game machine 1 controls the amount of light of each of the rear illumination devices according to the up-shooting mode and the whole-body shooting mode. As will be described later, the up shooting mode is a mode suitable for shooting a large face of the user, and the upper body of the user is shot. In this case, the user performs shooting while standing in front of the shooting space 24c. On the other hand, the whole body photographing mode is a mode suitable for photographing the whole body of the user, as will be described later. In the whole body shooting mode, the user takes a picture while standing behind the shooting space 24c.

図19Aは、アップ撮影モードにおける後側照明装置からの光量を矢印Q(図6参照)で示す方向から見た図である。図19Bは、アップ撮影モードにおける後側照明装置からの光量を、矢印P(図6参照)で示す方向から見た図である。   FIG. 19A is a diagram of the amount of light from the rear illumination device in the up shooting mode viewed from the direction indicated by the arrow Q (see FIG. 6). FIG. 19B is a diagram of the amount of light from the rear illumination device in the up shooting mode as seen from the direction indicated by the arrow P (see FIG. 6).

図19A及び図19Bを参照して、矢印の長さが、各照明装置からの光量を示す。アップ撮影モードでは、前方照明装置27a,27bからの光が、中間照明装置28a,28bからの光と、背面照明装置29からの光よりも大きくなるように、各照明装置の光量が制御される。上述のように、アップ撮影モードでは、ユーザは、撮影空間24cの前方で撮影することが多いため、写真撮影遊戯機1は、撮影空間24cの前方に多くの光を照らすことができるように、後側照明装置の各々の光量を制御する。   With reference to FIG. 19A and FIG. 19B, the length of the arrow shows the light quantity from each illuminating device. In the up-shooting mode, the amount of light of each illumination device is controlled so that the light from the front illumination devices 27a and 27b is larger than the light from the intermediate illumination devices 28a and 28b and the light from the back illumination device 29. . As described above, in the up shooting mode, since the user often shoots in front of the shooting space 24c, the photography game machine 1 can shine a lot of light in front of the shooting space 24c. The amount of light of each of the rear illumination devices is controlled.

なお、アップ撮影モードであっても、ユーザが、撮影空間24cの後側に立つ場合が考えられる。このような場合を想定して、写真撮影遊戯機1は、アップ撮影モードであっても、中間照明装置28a,28b及び背面照明装置29を発光させる。   Even in the up shooting mode, the user may stand behind the shooting space 24c. Assuming such a case, the photography amusement machine 1 causes the intermediate lighting devices 28a and 28b and the back lighting device 29 to emit light even in the up shooting mode.

図20Aは、全身撮影モードにおける後側照明装置からの光量を矢印Q(図6参照)で示す方向から見た図である。図20Bは、全身撮影モードにおける後側照明装置からの光量を、矢印P(図6参照)で示す方向から見た図である。   FIG. 20A is a diagram of the amount of light from the rear illumination device in the whole body imaging mode as seen from the direction indicated by the arrow Q (see FIG. 6). FIG. 20B is a diagram of the amount of light from the rear illumination device in the whole body imaging mode as seen from the direction indicated by the arrow P (see FIG. 6).

図20A及び図20Bを参照して、矢印の長さが、各照明装置からの光量を示す。全身撮影モードでは、中間照明装置28a,28bからの光と、背面照明装置29からの光が、前方照明装置27a,27bからの光よりも大きくなるように、各照明装置の光量が制御される。上述のように、全身撮影モードでは、ユーザは、撮影空間24cの後側で撮影することが多い。このため、写真撮影遊戯機1は、撮影空間24cの後側に多くの光を照らすことができるように、後側照明装置の各々の光量を制御する。   With reference to FIG. 20A and FIG. 20B, the length of an arrow shows the light quantity from each illuminating device. In the whole body photographing mode, the light quantity of each lighting device is controlled so that the light from the intermediate lighting devices 28a and 28b and the light from the back lighting device 29 are larger than the light from the front lighting devices 27a and 27b. . As described above, in the whole body photographing mode, the user often photographs the rear side of the photographing space 24c. For this reason, the photography game machine 1 controls the amount of light of each of the rear illumination devices so that a large amount of light can be illuminated on the rear side of the shooting space 24c.

なお、全身撮影モードであっても、ユーザが、撮影空間24cの前側に立つ場合が考えられる。このような場合を想定して、写真撮影遊戯機1は、全身撮影モードであっても、前方照明装置27a,27bを発光させる。   Even in the whole body shooting mode, the user may stand on the front side of the shooting space 24c. Assuming such a case, the photography amusement machine 1 causes the front illumination devices 27a and 27b to emit light even in the whole body photography mode.

[目の写り選択画面]
図21は、撮影用ディスプレイ23に表示される目の写り選択画面530を示す図である。写真撮影遊戯機1は、撮影処理(図34参照)の通常撮影処理(ステップS202)において、最初に、アップ撮影モードによる撮影を4回行い、その次に、全身撮影モードによる撮影を2回行う。写真撮影遊戯機1は、スペシャル撮影処理(図34参照)の後に、図21に示す目の写り選択画面530を表示して、写真画像に含まれる人物の目のサイズをユーザに決定させる。スペシャル撮影処理については後述する。
[Screen shot selection screen]
FIG. 21 is a diagram showing an eye reflection selection screen 530 displayed on the photographing display 23. In the normal shooting process (step S202) of the shooting process (see FIG. 34), the photo shooting game machine 1 first performs shooting in the up shooting mode four times, and then performs shooting in the whole body shooting mode twice. . After the special shooting process (see FIG. 34), the photographic game machine 1 displays a shot selection screen 530 shown in FIG. 21 to allow the user to determine the size of the human eye included in the photographic image. The special shooting process will be described later.

図21を参照して、目の写り選択画面530には、アップ写真画像531〜534が左から右に配置される。アップ写真画像531〜534は、アップ撮影モードにより得られた写真画像である。全身撮影モードにより得られた全身写真画像は、目の写り選択画面530に表示されない。アップ写真画像531〜534の下には、サイズ選択ボタン535a〜535cが配置される。アップ写真画像531〜534に含まれる人物の目のサイズは、ハッチングで囲まれたサイズ選択ボタン535bに対応している。サイズ選択ボタン535a〜535cの下には、決定ボタン536が配置される。   Referring to FIG. 21, up-photo images 531 to 534 are arranged from the left to the right on the image selection screen 530 for eyes. The up photo images 531 to 534 are photographic images obtained in the up shooting mode. The whole body photographic image obtained in the whole body photographing mode is not displayed on the image selection screen 530 for eyes. Size selection buttons 535a to 535c are arranged below the up-photo images 531 to 534. The size of the eyes of the person included in the up-photo images 531 to 534 corresponds to the size selection button 535b surrounded by hatching. An enter button 536 is disposed below the size selection buttons 535a to 535c.

サイズ選択ボタン535a〜535cは、目の写り選択画面530に表示された写真画像(アップ写真画像531〜534)に含まれる人物の目のサイズの変更(顔の変化度の入力)を受け付けるためのボタンである。サイズ選択ボタン535aは、「ハデ目」の文字と、サイズが比較的大きいモデルの目の画像とを含む。サイズ選択ボタン535cは、「ナチュラル」の文字と、自然な大きさであるモデルの目の画像とを含む。サイズ選択ボタン535bは、「オススメ」の文字と、サイズ選択ボタン535aの目の画像とサイズ選択ボタン535cの目の画像との中間の大きさである目の画像とを含む。   The size selection buttons 535a to 535c are used for accepting a change in the size of the eyes of the person (input of the degree of change of the face) included in the photographic images (up-photo images 531 to 534) displayed on the image selection screen 530 Button. The size selection button 535a includes “deformed eyes” and an image of a model eye having a relatively large size. The size selection button 535c includes characters “natural” and an image of a model eye having a natural size. The size selection button 535b includes “recommended” characters and an eye image that is an intermediate size between the eye image of the size selection button 535a and the eye image of the size selection button 535c.

図22は、サイズ選択ボタン535aがタッチされた場合における、目の写り選択画面530を示す図である。ユーザは、サイズ選択ボタン535a〜535cのいずれかを選択することにより、目の写り選択画面530に表示されたアップ写真画像531〜534に含まれる人物の目のサイズを切り替えることができる。ユーザは、サイズ選択ボタン535a〜535cにタッチして、目の写り選択画面530に表示される写真画像に含まれる人物の目のサイズを確認する。ユーザは、好みの目のサイズに対応するサイズ選択ボタンにタッチした後に、決定ボタン536にタッチして、目のサイズを決定する。   FIG. 22 is a diagram showing an image selection screen 530 when the size selection button 535a is touched. The user can switch the size of the eyes of a person included in the up-photo images 531 to 534 displayed on the image selection screen 530 by selecting any of the size selection buttons 535a to 535c. The user touches the size selection buttons 535a to 535c to confirm the size of the eyes of the person included in the photographic image displayed on the image selection screen 530. After the user touches the size selection button corresponding to the desired eye size, the user touches the determination button 536 to determine the eye size.

サイズ選択ボタン535aがタッチされた場合、アップ写真画像531〜534に含まれる人物の目のサイズが、「ハデ目」に対応するサイズ(例えば、元の目のサイズの15%増し)に変更される。図22に示すアップ写真画像531〜534に含まれる人物の目のサイズが、図21に示すアップ写真画像531〜534の人物の目のサイズよりも大きくなっていることが分かる。サイズ選択ボタン535bがタッチされた場合、アップ写真画像531〜534に含まれる人物の目のサイズが「オススメ」に対応するサイズ(例えば、元の目のサイズの10%増し)に変更される。サイズ選択ボタン535cがタッチされた場合、アップ写真画像531〜534に含まれる人物の目のサイズが「ナチュラル」に対応するサイズ(例えば、元の目のサイズの5%増し)に変更される。   When the size selection button 535a is touched, the size of the eyes of the person included in the up photo images 531 to 534 is changed to a size corresponding to the “defect eye” (for example, 15% larger than the original eye size). The It can be seen that the size of the eyes of the person included in the up-photo images 531 to 534 shown in FIG. 22 is larger than the size of the eyes of the person of the up-photo images 531 to 534 shown in FIG. When the size selection button 535b is touched, the eye size of the person included in the up-photo images 531 to 534 is changed to a size corresponding to “recommended” (for example, 10% larger than the original eye size). When the size selection button 535c is touched, the size of the eyes of the person included in the up photo images 531 to 534 is changed to a size corresponding to “natural” (for example, an increase of 5% of the original eye size).

写真撮影遊戯機1は、通常撮影処理(図34のステップS202)を実行して、合計6枚の写真画像(4枚のアップ写真画像と、全身撮影モードによる撮影で得られた2枚の全身写真画像)を得る。目の写り選択画面530には、6枚の写真画像のうち、4枚のアップ写真画像531〜534のみが表示され、全身写真画像は表示されない。この結果、アップ写真画像531〜534の表示領域を広く確保することができる。アップ写真画像531〜534は、6枚の写真画像を目の写り選択画面530に表示する場合に比べて大きく表示されるため、ユーザは、目のサイズの変化など、アップ写真画像531〜534における細かな画像の変化を、個々のアップ写真画像を見ながら容易に確認できる。   The photographic game machine 1 executes the normal shooting process (step S202 in FIG. 34), and a total of six photographic images (four up-photo images and two whole-body images obtained by shooting in the whole-body shooting mode). Get a photographic image). Of the six photograph images, only the four up photograph images 531 to 534 are displayed on the eye-selection selection screen 530, and the whole body photograph image is not displayed. As a result, a wide display area for the up-photo images 531 to 534 can be secured. Since the up-photo images 531 to 534 are displayed larger than the case where six photo images are displayed on the eye-selection selection screen 530, the user can change the size of the eyes in the up-photo images 531 to 534. Detailed image changes can be easily confirmed while viewing individual up-photo images.

また、全身写真画像における人物の顔の占める割合は、アップ写真画像における人物の顔の占める割合よりも小さい。このため、目のサイズ変更に伴う印象の変化の大きさは、全身写真画像よりもアップ写真画像の方が大きい。目のサイズ変更に伴う印象の変化の小さい全身写真画像が目の写り選択画面530に表示されないため、ユーザは、写真画像における目のサイズを効率的に決定することができる。   In addition, the proportion of the person's face in the whole body photo image is smaller than the proportion of the person's face in the up-photo image. For this reason, the magnitude of the change in the impression accompanying the size change of the eyes is larger in the up-photo image than in the whole-body photo image. Since the whole-body photographic image with a small change in impression due to the eye size change is not displayed on the image selection screen 530, the user can efficiently determine the eye size in the photographic image.

[目の写り選択画面の変形例]
図23A〜図23Cは、目の写り選択画面530における写真画像の配置の他の例を示す図である。
[Modified example of the screen selection screen]
FIG. 23A to FIG. 23C are diagrams showing other examples of the arrangement of photographic images on the eye-shadow selection screen 530.

図23Aを参照して、写真撮影遊戯機1は、6枚の写真画像のうち、4枚のアップ写真画像531〜534と、1枚の全身写真画像537とを目の写り選択画面530に表示してもよい。このとき、全身写真画像537のサイズを、アップ写真画像531〜534のサイズよりも小さくなるように表示してもよい。   Referring to FIG. 23A, the photography amusement machine 1 displays four up-photo images 531 to 534 and one whole-body photo image 537 among the six photo images on the eye-shadow selection screen 530. May be. At this time, the size of the whole body photo image 537 may be displayed so as to be smaller than the size of the up photo images 531 to 534.

この場合であっても、目の写り選択画面530において、アップ写真画像531〜534の表示領域を広く確保することができるため、アップ写真画像531〜534が大きく表示される。また、全身写真画像537のサイズを、アップ写真画像531〜534のサイズよりも小さくすることにより、アップ写真画像531〜534をさらに大きく表示することができる。また、撮影したはずの全身写真画像がないなどの不安を利用者に与えることがない。   Even in this case, since the display area for the up-photo images 531 to 534 can be secured widely on the eye-sharing selection screen 530, the up-photo images 531 to 534 are displayed in a large size. Further, by making the whole body photo image 537 smaller than the size of the up photo images 531 to 534, the up photo images 531 to 534 can be displayed larger. In addition, the user is not worried that there is no whole body photo image that should have been taken.

図23Bを参照して、写真撮影遊戯機1は、6枚の写真画像のうち、3枚のアップ写真画像531〜533と、1枚の全身写真画像537とを目の写り選択画面530に表示してもよい。図23Cを参照して、写真撮影遊戯機1は、6枚の写真画像のうち、2枚のアップ写真画像531,532と、1枚の全身写真画像537とを目の写り選択画面530に表示してもよい。   Referring to FIG. 23B, the photography game machine 1 displays three up-photo images 531 to 533 and one whole-body photo image 537 among the six photo images on the eye-shadow selection screen 530. May be. With reference to FIG. 23C, the photography amusement machine 1 displays two up-photo images 531 and 532 and one whole-body photo image 537 among the six photo images on the eye-selection selection screen 530. May be.

要するに、写真撮影遊戯機1は、Nu1枚のアップ写真画像及びNz1枚の全身写真画像を得るようにカメラを制御する。写真撮影遊戯機1は、得られた写真画像のうち、Nu2枚のアップ写真画像及びNz2枚の全身写真画像を目の写り選択画面530に表示する。Nu1、Nz1及びNu2は自然数であり、Nz2は、0又は自然数である。Nu1、Nz1、Nu2及びNz2は、下記の式(1)及び(2)を満たす。 In short, the photography game machine 1 controls the camera so as to obtain Nu 1 up-photo image and Nz 1 whole-body photo image. Of the obtained photographic images, the photographic game machine 1 displays Nu 2 up-photo images and Nz 2 whole-body photographic images on the eyepiece selection screen 530. Nu 1 , Nz 1 and Nu 2 are natural numbers, and Nz 2 is 0 or a natural number. Nu 1 , Nz 1 , Nu 2 and Nz 2 satisfy the following formulas (1) and (2).

Nu1+Nz1>Nu2+Nz2 (1)
Nu2>Nz2 (2)
Nu 1 + Nz 1 > Nu 2 + Nz 2 (1)
Nu 2 > Nz 2 (2)

Nu1、Nz1、Nu2及びNz2が式(1)及び(2)の関係を満たすことにより、目の写り選択画面530において、アップ写真画像の表示領域を広く確保することができる。アップ写真画像が大きく表示されるため、ユーザは、アップ写真画像における顔の変化を容易に確認することができる。また、アップ写真画像が全身写真画像よりも多く表示されるため、ユーザは、アップ写真画像における目のサイズの変化を優先的に確認することができる。これにより、ユーザは、人物の顔の占める割合の大きいアップ写真画像を基準にして、目のサイズを決めることができる。また、撮影により得られた全ての写真画像に対する画像処理の完了を待たずに変化度入力の受け付けを開始することができ、プレイ時間を短縮することが可能となる。 When Nu 1 , Nz 1 , Nu 2, and Nz 2 satisfy the relationship of the expressions (1) and (2), a wide display area of the up-photo image can be secured on the image selection screen 530 for eyes. Since the up-photo image is displayed in a large size, the user can easily confirm the change of the face in the up-photo image. Further, since the up-photo image is displayed more than the whole-body photo image, the user can preferentially check the change in the eye size in the up-photo image. Thereby, the user can determine the eye size with reference to the up-photo image in which the ratio of the human face is large. In addition, it is possible to start accepting the change degree input without waiting for completion of image processing for all the photographic images obtained by photographing, and it is possible to shorten the play time.

一方、全身写真画像における人物の顔の占める割合は小さい。このため、全身写真画像を目の写り選択画面530に表示し、全身写真画像に含まれる人物の目のサイズを変更したとしても、ユーザが全身写真画像における目のサイズの変化を認識することは困難である。Nu1、Nz1、Nu2及びNz2が式(1)及び(2)の関係を満たすことにより、ユーザは、目のサイズの変化の確認が困難な全身撮影画像の確認を一部省略することができる。つまり、ユーザは、目のサイズ変更に伴って印象の大きく変化するアップ写真画像を、優先的に確認することができる。 On the other hand, the proportion of the human face in the whole body photographic image is small. For this reason, even if the whole body photo image is displayed on the eyepiece selection screen 530 and the size of the eyes of the person included in the whole body photo image is changed, the user cannot recognize the change in the eye size in the whole body photo image. Have difficulty. When Nu 1 , Nz 1 , Nu 2, and Nz 2 satisfy the relationship of the expressions (1) and (2), the user partially omits confirmation of the whole body image that is difficult to confirm the change in the eye size. be able to. That is, the user can preferentially confirm an up-photo image that greatly changes the impression as the eye size changes.

なお、写真撮影遊戯機1は、目の写り選択画面530と同様に、後述する明るさ選択画面においても、上記式(1)及び(2)の関係を満たすように写真画像を表示する。   Note that the photography amusement machine 1 displays a photographic image so as to satisfy the relationship of the above formulas (1) and (2) on the brightness selection screen described later, as well as the reflection selection screen 530 of the eyes.

要するに、写真撮影遊戯機1は、顔の輪郭、アイキャッチ、まつ毛の長さ、まつ毛のボリュームなど、写真画像に含まれる人物の顔に対して、人物の顔の化粧又は整形に関する画像処理を施す際に、画像処理を施した場合における顔の変化度の入力を受け付ければよい。そして、写真撮影遊戯機1は、顔の変化度の入力を受け付ける際に、上記式(1)及び(2)の関係を満たすように、写真画像を表示すればよい。   In short, the photography amusement machine 1 performs image processing related to the makeup or shaping of a person's face on the face of the person included in the photographic image, such as the face contour, eye catch, eyelash length, eyelash volume, and the like. At this time, the input of the degree of change of the face when image processing is performed may be accepted. And the photography game machine 1 should just display a photograph image so that the relationship of said Formula (1) and (2) may be satisfy | filled, when receiving the input of the change degree of a face.

[名前対応確認]
ユーザは、撮影前に、プレイ受付装置50を操作して名前を入力する。写真撮影遊戯機1は、図9Bに示すような全身コラージュ画像41を生成する場合、入力された名前から名前画像415,421,422を生成し、全身コラージュ画像41の右上及び個別人物画像413,414に含まれる人物41A,41Bの足元に配置する。名前画像421,422を人物41A,41Bに対応させるために、写真撮影遊戯機1は、撮影前に入力された複数の名前を、カメラにより撮影された複数の人物に対応付ける。以下、名前の対応付けについて、ユーザが2人である場合を例に詳しく説明する。
[Check name correspondence]
The user operates the play reception device 50 and inputs a name before shooting. When the whole body collage image 41 as shown in FIG. 9B is generated, the photography game machine 1 generates name images 415, 421, 422 from the input names, and the upper right of the whole body collage image 41 and the individual person images 413, It is arranged at the feet of the persons 41A and 41B included in 414. In order to associate the name images 421 and 422 with the persons 41A and 41B, the photography game machine 1 associates a plurality of names inputted before photographing with a plurality of persons photographed by the camera. Hereinafter, name association will be described in detail by taking as an example a case where there are two users.

図24は、落書き処理後に、編集用ディスプレイ311に表示される名前確認画面610を示す図である。図24を参照して、名前確認画面610は、画像表示領域611L,611Rと、名前入れ替えボタン612と、決定ボタン613と、名前表示領域614L,614Rとを備える。   FIG. 24 is a diagram showing a name confirmation screen 610 displayed on the editing display 311 after the graffiti process. Referring to FIG. 24, name confirmation screen 610 includes image display areas 611L and 611R, a name exchange button 612, a determination button 613, and name display areas 614L and 614R.

画像表示領域611Lは、名前確認画面610の左側に配置され、スペシャル撮影によって撮影された全身写真画像から抽出された個別人物画像413を表示する。画像表示領域611Rは、名前確認画面610の右側に配置され、スペシャル撮影によって撮影された全身写真画像から抽出された個別人物画像414を表示する。名前入れ替えボタン612及び決定ボタン613は、画像表示領域611Lと画像表示領域611Rとの間に配置される。   The image display area 611L is arranged on the left side of the name confirmation screen 610 and displays the individual person image 413 extracted from the whole body photo image taken by the special shooting. The image display area 611R is arranged on the right side of the name confirmation screen 610 and displays the individual person image 414 extracted from the whole body photograph image taken by the special photographing. The name exchange button 612 and the enter button 613 are arranged between the image display area 611L and the image display area 611R.

名前表示領域614L,614Rは、画像表示領域611L,611Rの下にそれぞれ配置され、ローマ字及びひらがなの名前を表示する。名前表示領域614L,614Rには、入力パレット510L,510Rに入力された名前が表示される。以下、特に断りのない限り、名前表示領域614L,614Rに表示される名前として、ローマ字の名前を用いて説明し、ひらがなの名前の説明を省略する。   The name display areas 614L and 614R are arranged below the image display areas 611L and 611R, respectively, and display names of Roman letters and hiragana. In the name display areas 614L and 614R, names input to the input palettes 510L and 510R are displayed. Hereinafter, unless otherwise specified, description will be made using Roman names as names displayed in the name display areas 614L and 614R, and description of hiragana names will be omitted.

名前入れ替えボタン612は、名前表示領域614L,614Rに表示されている名前を入れ替える。決定ボタン613は、名前表示領域614L,614Rに表示されている名前を、個別人物画像413,414に対応付けることを指示するボタンである。   The name exchange button 612 exchanges the names displayed in the name display areas 614L and 614R. The decision button 613 is a button for instructing that the names displayed in the name display areas 614L and 614R are associated with the individual person images 413 and 414.

図24に示す名前確認画面では、人物41Aが名前「KANA」に対応付けられ、人物41Bが名前「REINA」に対応付けられている。一方、図9Bに示す全身コラージュ画像41では、名前「REINA」が個別人物画像413に含まれる人物41Aの足元に配置され、名前「KANA」が個別人物画像414に含まれる人物41Bの足元に配置されている。図9Bと図24とにおいて、人物と名前との対応関係が逆になっている。   In the name confirmation screen shown in FIG. 24, the person 41A is associated with the name “KANA”, and the person 41B is associated with the name “REINA”. On the other hand, in the whole body collage image 41 shown in FIG. 9B, the name “REINA” is arranged at the feet of the person 41A included in the individual person image 413, and the name “KANA” is arranged at the feet of the person 41B included in the individual person image 414. Has been. In FIG. 9B and FIG. 24, the correspondence between the person and the name is reversed.

写真撮影遊戯機1が、図24に示す対応関係に基づいて、全身コラージュ画像41を生成した場合、人物と名前とが対応しない全身コラージュ画像41が生成される。すなわち、図9Bにおいて、名前画像421,422の位置が入れ替わった全身コラージュ画像41が生成される。また、名前画像415の文字列が、「KANA&REINA」となる。この結果、ユーザが入力した名前が全身コラージュ画像41に正確に反映されないため、ユーザは、名前が正確に反映された全身コラージュ画像41を生成するために、プレイをもう一度やり直さなくてはならなくなる。   When the photographic game machine 1 generates the whole body collage image 41 based on the correspondence shown in FIG. 24, the whole body collage image 41 in which the person and the name do not correspond is generated. That is, in FIG. 9B, the whole body collage image 41 in which the positions of the name images 421 and 422 are interchanged is generated. Further, the character string of the name image 415 is “KANA & REINA”. As a result, since the name input by the user is not accurately reflected in the whole body collage image 41, the user must play again to generate the whole body collage image 41 in which the name is accurately reflected.

しかし、本実施の形態では、ユーザは、名前入れ替えボタン612にタッチすることにより、名前表示領域414L,414Rに表示された名前を入れ替えることができる。これにより、名前確認画面610における人物と名前との対応付けが変更される。図9Bに示すように、名前と個別人物画像411,413に含まれる人物41A,41Bとが正確に対応付けられた全身コラージュ画像41が生成される。また、名前画像415の文字列が「REINA&KANA」となるため、個別人物画像411,413における人物の位置と、撮影前に入力された名前が配置される位置とを揃えることができる。このように、撮影前に入力された名前が、全身コラージュ画像41中の人物に対応付けられることにより、ユーザの満足度を向上させることができる。   However, in the present embodiment, the user can exchange the names displayed in the name display areas 414L and 414R by touching the name exchange button 612. As a result, the association between the person and the name on the name confirmation screen 610 is changed. As shown in FIG. 9B, a whole-body collage image 41 in which names and persons 41A and 41B included in the individual person images 411 and 413 are accurately associated is generated. Further, since the character string of the name image 415 is “REINA & KANA”, the position of the person in the individual person images 411 and 413 can be aligned with the position where the name input before photographing is arranged. As described above, the name input before photographing is associated with the person in the whole body collage image 41, so that the satisfaction of the user can be improved.

あるいは、写真撮影遊戯機1は、名前入れ替えボタン612がタッチされた場合、画像表示領域611L,611R内の個別人物画像413,414を入れ替えてもよい。すなわち、写真撮影遊戯機1は、入力された複数の名前と名前確認画面610に表示されている人物41A,41Bとの対応付けを、ユーザの入力操作により入れ替えればよい。   Or when the name exchange button 612 is touched, the photography game machine 1 may exchange the individual person images 413 and 414 in the image display areas 611L and 611R. That is, the photography amusement machine 1 may replace the correspondence between the plurality of input names and the persons 41A and 41B displayed on the name confirmation screen 610 by a user input operation.

また、ユーザは、名前ではなく、ニックネーム、誕生日、星座、血液型、年齢などをプレイ受付装置50に入力してもよい。あるいは、ユーザは、2人のユーザの間柄を示す情報を入力してもよい。例えば、ユーザは、「先輩」、「後輩」を入力したり、「姉」、「妹」を入力したり、「上司」、「部下」などを入力したりしてもよい。すなわち、ユーザは、ユーザに関する属性情報をプレイ受付装置50に入力すればよい。   In addition, the user may input a nickname, birthday, constellation, blood type, age, and the like, not the name, into the play reception device 50. Alternatively, the user may input information indicating the relationship between the two users. For example, the user may input “senior” or “junior”, enter “sister” or “sister”, or enter “superior” or “subordinate”. That is, the user only has to input attribute information about the user to the play reception device 50.

写真撮影遊戯機1は、3人以上のユーザを撮影した場合、図26に示すような名前確認画面610を表示してもよい。図26を参照して、写真撮影遊戯機1は、3人のユーザを個別に撮影して、3人のユーザの個別人物画像を3つの画像表示領域611に配置する。入力された3つの名前が、名前表示領域614にそれぞれ配置される。図26では、ローマ字の名前のみ表示し、ひらがなの名前の表示を省略している。ユーザは、2つの名前入れ替えボタン612にタッチすることにより、画像表示領域611に表示されている個別人物画像と、入力された名前との対応関係を変更することができる。   The photography game machine 1 may display a name confirmation screen 610 as shown in FIG. 26 when three or more users are photographed. Referring to FIG. 26, the photography game machine 1 photographs three users individually and arranges individual person images of the three users in three image display areas 611. The three input names are arranged in the name display area 614, respectively. In FIG. 26, only the Roman name is displayed and the display of the hiragana name is omitted. The user can change the correspondence between the individual person image displayed in the image display area 611 and the input name by touching the two name exchange buttons 612.

なお、写真撮影遊戯機1は、プレイ受付装置50に入力された名前を、異なるタイミングで撮影された複数の写真画像と対応付けてもよい。例えば、2人以上のユーザが個別に撮影を行うことにより、1人のユーザが撮影された複数の写真画像が生成された場合、図26に示す名前確認画面610の画像表示領域611に複数の写真画像をそれぞれ配置してもよい。   Note that the photography game machine 1 may associate the name input to the play reception device 50 with a plurality of photograph images photographed at different timings. For example, when two or more users individually shoot and generate a plurality of photographic images taken by one user, a plurality of images are displayed in the image display area 611 of the name confirmation screen 610 shown in FIG. Photo images may be arranged respectively.

以下、写真撮影遊戯機1の動作を、ユーザが2人である場合を例にして詳しく説明する。   Hereinafter, the operation of the photography amusement machine 1 will be described in detail by taking as an example a case where there are two users.

[動作概要]
写真撮影遊戯機1は、初めに、事前接客ブース5において、名前の入力、背景画像の選択などをユーザに指示する事前接客処理を実行する。次に、写真撮影遊戯機1は、撮影ブース2において、カメラ22を用いて被写体(ユーザ)を撮影して写真画像を生成する撮影処理を実行する。写真撮影遊戯機1は、撮影処理の後に、編集ブース3において、ユーザの操作に応じて編集画像を生成し、シート画像40を生成する画像編集処理を実行する。
[Operation overview]
First, in the pre-service booth 5, the photography game machine 1 executes a pre-service process for instructing the user to input a name, select a background image, and the like. Next, the photography game machine 1 executes a photographing process in the photographing booth 2 for photographing a subject (user) using the camera 22 and generating a photograph image. The photography game machine 1 executes an image editing process for generating an edited image and generating a sheet image 40 in the editing booth 3 in accordance with a user operation after the shooting process.

[事前接客処理]
図27は、写真撮影遊戯機1により実行される事前接客処理のフローチャートである。以下、図2及び図27を参照して、事前接客処理について説明する。
[Pre-service processing]
FIG. 27 is a flowchart of the pre-service process executed by the photography amusement machine 1. Hereinafter, the prior customer service process will be described with reference to FIGS.

CPU103は、制御プログラムに基づいて、事前接客処理を実行する。具体的には、CPU103は、写真撮影遊戯機1の利用を促すデモ画面を受付用ディスプレイ51に表示する(ステップS101)。コイン制御部112が、デモ画面の表示中に、1プレイ分のコインの投入を受け付けた場合(ステップS102においてYes)、CPU103は、説明画面を受付用ディスプレイ51に表示して、写真撮影遊戯機1のプレイ内容を説明する(ステップS103)。たとえば、CPU103は、全身コラージュ画像41を含むシート画像40を作成できることなどを示す映像を、受付用ディスプレイ51に表示する。   The CPU 103 executes pre-service processing based on the control program. Specifically, the CPU 103 displays a demonstration screen urging use of the photography amusement machine 1 on the reception display 51 (step S101). When the coin control unit 112 accepts the insertion of coins for one play during the display of the demonstration screen (Yes in step S102), the CPU 103 displays the explanation screen on the acceptance display 51, and the photography game machine The contents of play 1 will be described (step S103). For example, the CPU 103 displays an image indicating that the sheet image 40 including the whole body collage image 41 can be created on the reception display 51.

CPU103は、写真画像の全体的な色調に関する画像処理方法の選択を促す写り選択画面を受付用ディスプレイ51に表示し(ステップS104)、写真写りの選択(たとえば、「ふんわり」、「くっきり」等)を受け付ける。   The CPU 103 displays a copy selection screen for prompting selection of an image processing method related to the overall color tone of the photographic image on the reception display 51 (step S104), and selection of photographic image (for example, “soft”, “clear”, etc.) Accept.

次に、CPU103は、名前入力処理を実行する(ステップS105)。図28は、CPU103により実行される名前入力処理(ステップS105)のフローチャートである。図28を参照して、CPU103は、名前入力画面510を受付用ディスプレイ51に表示し(ステップS131)、ユーザに名前の入力を促す。   Next, the CPU 103 executes name input processing (step S105). FIG. 28 is a flowchart of the name input process (step S105) executed by the CPU 103. Referring to FIG. 28, CPU 103 displays name input screen 510 on reception display 51 (step S131), and prompts the user to input a name.

図29は、受付用ディスプレイ51に表示される名前入力画面510を示す図である。図29を参照して、名前入力画面510を説明する。入力パレット510L,510Rが、名前入力画面510の左右に表示される。入力パレット510Lには、ひらがな入力ボタン515が表示されている(ひらがな入力モード)。入力パレット510Rには、ローマ字入力ボタン516が表示されている(ローマ字入力モード)。ただし、デフォルトでは、左右両側の入力パレット510L,510Rともにひらがな入力モードになる。ユーザは、ローマ字修正ボタン517aをタッチすることによって、入力パレット510Lをひらがな入力モードからローマ字入力モードに切り替えることができる。また、ユーザは、ひらがな修正ボタン517bをタッチすることによって、入力パレット510Rをローマ字入力モードからひらがな入力モードに切り替えることができる。   FIG. 29 is a diagram showing a name input screen 510 displayed on the reception display 51. The name input screen 510 will be described with reference to FIG. Input palettes 510L and 510R are displayed on the left and right of the name input screen 510. The input palette 510L displays a hiragana input button 515 (Hiragana input mode). A Roman character input button 516 is displayed on the input palette 510R (Roman character input mode). However, by default, both the left and right input palettes 510L and 510R are in the hiragana input mode. The user can switch the input palette 510L from the hiragana input mode to the romaji input mode by touching the romaji correction button 517a. The user can switch the input palette 510R from the Roman character input mode to the hiragana input mode by touching the hiragana correction button 517b.

名前入力画面510(図29参照)において、ひらがな入力モードがデフォルトで設定されている理由を説明する。一般的に、ひらがなの名前の文字数は、ローマ字の名前の文字数よりも少ない。このため、利用者は、ひらがな入力モードで名前を入力することにより少ない操作回数で、ローマ字の名前をローマ字表示エリアに表示させることができる。また、ローマ字入力よりもひらがな入力の方が、利用者にとって馴染みがある。ユーザが効率的に名前を入力できるように、ひらがな入力モードがデフォルトで設定される。   The reason why the hiragana input mode is set by default on the name input screen 510 (see FIG. 29) will be described. Generally, hiragana names have fewer characters than Roman names. Therefore, the user can display the Roman name in the Roman display area with a small number of operations by inputting the name in the hiragana input mode. In addition, hiragana input is more familiar to users than romaji input. Hiragana input mode is set by default so that the user can input the name efficiently.

ひらがなを入力できる入力パレット510Lの構成を説明する。入力パレット510Lは、ひらがな表示エリア511と、ローマ字表示エリア512と、一つ戻るボタン513と、全部消すボタン514と、ひらがな入力ボタン515とを有する。ひらがな表示エリア511には、ユーザがタッチしたひらがな入力ボタン515に対応するひらがなが表示される。ローマ字表示エリア512には、ひらがな表示エリア511に表示されたひらがなから特定されたローマ字が表示される。つまり、ひらがな表示エリア511に表示されたひらがなが変更された場合、ローマ字表示エリア512に表示されるローマ字が、変更されたひらがなに応じて変更される。   A configuration of the input palette 510L that can input hiragana will be described. The input palette 510L has a hiragana display area 511, a romaji display area 512, a back button 513, a delete all button 514, and a hiragana input button 515. In the hiragana display area 511, hiragana corresponding to the hiragana input button 515 touched by the user is displayed. In the romaji display area 512, the romaji specified from the hiragana displayed in the hiragana display area 511 is displayed. That is, when the hiragana displayed in the hiragana display area 511 is changed, the roman character displayed in the romaji display area 512 is changed according to the changed hiragana.

一つ戻るボタン513と、全部消すボタン514は、ひらがな表示エリア511と、ローマ字表示エリア512のどちらの文字に対する指示かを明らかにするため、ひらがな入力モードの時はひらがな表示エリア511の右隣に、ローマ字入力モードの時はローマ字表示エリア512の右隣に表示される。   A back button 513 and an erase all button 514 are located on the right side of the hiragana display area 511 in the hiragana input mode in order to clarify which instruction is in the hiragana display area 511 or the romaji display area 512. In the romaji input mode, it is displayed on the right side of the romaji display area 512.

入力パレット510Rは、ローマ字入力ボタン516が表示されている。このため、入力パレット510Rでは、一つ戻るボタン513及び全部消すボタン514が、ローマ字表示エリア512の右隣に表示されている。   The input palette 510R displays a Roman character input button 516. For this reason, in the input palette 510R, a return button 513 and a delete all button 514 are displayed on the right side of the Roman character display area 512.

各ユーザは、名前入力画面510を操作して自分の名前を入力し、決定ボタン518をタッチする。これにより、CPU103は、入力されたユーザの名前(ひらがな、ローマ字)をメモリ105に保存する。入力されたユーザの名前は、後述の落書き処理で用いられる名前画像415,421,422及び編集画像などの生成に用いられる。   Each user operates the name input screen 510 to input his / her name and touches the enter button 518. As a result, the CPU 103 stores the input user name (Hiragana, Romaji) in the memory 105. The input user name is used to generate name images 415, 421, and 422 used in graffiti processing, which will be described later, and an edited image.

図28を参照して、入力パレット510Lが操作される場合を例にして、名前入力処理を説明する。CPU103は、入力パレット510Lに編集指示が入力された場合(ステップS132においてYes)、ひらがなの編集指示であるか否かを確認する(ステップS133)。編集指示とは、1つ戻るボタン513、全部消すボタン514、ひらがな入力ボタン515、ローマ字入力ボタン516のいずれかがタッチされることである。   With reference to FIG. 28, the name input process will be described with reference to an example in which the input palette 510L is operated. When an editing instruction is input to the input palette 510L (Yes in step S132), the CPU 103 confirms whether the editing instruction is for hiragana (step S133). The editing instruction is to touch any one of the back button 513, the erase all button 514, the hiragana input button 515, and the Roman character input button 516.

CPU103は、入力パレット510Lがひらがな入力モードである場合、ひらがなの編集指示が入力されたと判定し(ステップS133においてYes)、編集指示に基づいて、ひらがなの名前を更新する(ステップS134)。CPU103は、更新されたひらがなの名前に基づいて、ローマ字の名前を更新する(ステップS135)。一方、CPU103は、入力パレット510Lがローマ字入力モードである場合、ローマ字の編集指示が入力されたと判定し(ステップS133においてNo)、編集指示に基づいて、ローマ字の名前を更新する(ステップS139)。   If the input palette 510L is in the hiragana input mode, the CPU 103 determines that the hiragana editing instruction has been input (Yes in step S133), and updates the hiragana name based on the editing instruction (step S134). The CPU 103 updates the Roman name based on the updated hiragana name (step S135). On the other hand, when the input palette 510L is in the Roman alphabet input mode, the CPU 103 determines that an Romaji editing instruction has been input (No in step S133), and updates the Romaji name based on the editing instruction (step S139).

CPU103は、ステップS135又はS139の後に、ひらがな表示エリア511及びローマ字表示エリア512に表示されている名前を更新する(ステップS136)。CPU103は、決定ボタン518がタッチされた場合(ステップS137においてYes)、ひらがな表示エリア511及びローマ字表示エリア512に表示された名前を保存し(ステップS138)、図28に示す処理を終了する。なお、図28に示す名前入力処理において、CPU103は、ステップS139の後に、更新されたローマ字の名前に基づいて、ひらがなの名前を更新してもよい。   After step S135 or S139, the CPU 103 updates the names displayed in the hiragana display area 511 and the Roman character display area 512 (step S136). When the determination button 518 is touched (Yes in step S137), the CPU 103 stores the names displayed in the hiragana display area 511 and the Roman character display area 512 (step S138), and ends the process shown in FIG. In the name input process shown in FIG. 28, after step S139, the CPU 103 may update the hiragana name based on the updated Roman name.

再び図27を参照して、事前接客処理を説明する。CPU103は、背景選択画面を受付用ディスプレイ51に表示し(ステップS106)、通常合成画像の生成に用いられる背景画像をユーザに選択させる。図30は、通常合成画像のうち全身写真画像用の背景画像を選択するための背景選択画面540を示す図である。   With reference to FIG. 27 again, the advance customer service process will be described. The CPU 103 displays a background selection screen on the reception display 51 (step S106), and allows the user to select a background image used for generating a normal composite image. FIG. 30 is a diagram illustrating a background selection screen 540 for selecting a background image for a whole body photographic image from the normal composite image.

実際には、アップ写真画像用の背景選択画面が表示された後に、全身写真画像用の背景選択画面540が表示される。具体的には、まず、アップ写真画像用の背景選択画面が表示され、ユーザが背景画像を4枚選択すると、自動的に全身写真画像用の背景選択画面に切り替わる。   Actually, after the background selection screen for the up-photo image is displayed, the background selection screen 540 for the whole-body photo image is displayed. Specifically, first, a background selection screen for up-photo images is displayed, and when the user selects four background images, the background selection screen for whole-body photo images is automatically switched.

ここでは、既にアップ写真画像用の背景画像が4枚全て選択されている状態を示す図8を参照しながら背景画像の選択について説明する。   Here, background image selection will be described with reference to FIG. 8 showing a state where all four background images for the up-photo image have already been selected.

背景選択画面540は、複数のタブ541を有するパレット542と、ユーザにより選択された背景画像が配置される配置領域544a〜544fとを含む。配置領域544a〜544dには、選択されたアップ写真画像用の背景画像が表示される。配置領域544e,544fには、選択された全身写真画像用の背景画像が表示される。   The background selection screen 540 includes a palette 542 having a plurality of tabs 541 and arrangement areas 544a to 544f in which background images selected by the user are arranged. In the arrangement areas 544a to 544d, a background image for the selected up-photo image is displayed. In the arrangement areas 544e and 544f, a background image for the selected whole body photographic image is displayed.

各タブ541には、「柄」、「ノーマル」、「セット」等の背景ジャンルが表記される。各タブ541をタッチすると、タブ541の背景ジャンルに対応するパレット542が表示される。図30では、一例として、「柄」背景ジャンルのパレット542が表示されている。パレット542には、選択されたタブ(背景ジャンル)に属する複数の背景画像543が配置されている。   In each tab 541, background genres such as “pattern”, “normal”, and “set” are written. When each tab 541 is touched, a palette 542 corresponding to the background genre of the tab 541 is displayed. In FIG. 30, as an example, a “pattern” background genre palette 542 is displayed. In the palette 542, a plurality of background images 543 belonging to the selected tab (background genre) are arranged.

複数の背景画像543は、脚補正処理の対象となる背景画像と、脚補正処理の対象とならない背景画像とを含む。脚補正処理は、全身写真画像において、下側の所定領域を縦に伸ばす処理であり、被写体の脚を長く見せることができる。ユーザが、脚補正処理を実行するか否かを選択できるように、脚補正処理の対象となる背景画像543の下には、「脚を長くするよ」と表示され、脚補正処理の対象とならない背景画像543の下には、「脚を長くしないよ」と表示される。なお、脚補正処理は、アップ写真画像に対して施されないため、アップ写真画像用の背景選択画面540には、「脚を長くしないよ」は表示されない。   The plurality of background images 543 include a background image that is a target of leg correction processing and a background image that is not a target of leg correction processing. The leg correction process is a process of vertically extending a predetermined area on the lower side in the whole body photographic image, and can make the leg of the subject appear long. In order to allow the user to select whether or not to execute the leg correction process, “Longer leg” is displayed below the background image 543 that is the target of the leg correction process. Under the background image 543 which should not be displayed, “Do not lengthen the legs” is displayed. Since the leg correction process is not performed on the up-photo image, “Do not lengthen the leg” is not displayed on the background selection screen 540 for the up-photo image.

ユーザがパレット542に表示された背景画像543の1つにタッチすることにより、タッチされた背景画像543が、配置領域543eに配置される。また配置された背景画像543の下にキャンセルボタン545が配置され、タブ541の上に決定ボタン546が配置される。ユーザは、全身写真画像用の背景選択画面540において全身写真画像と合成される2つの背景画像を選択する。ユーザは、2つの背景画像の選択が終了した場合、決定ボタン546にタッチして背景画像の選択を終了する。   When the user touches one of the background images 543 displayed on the palette 542, the touched background image 543 is arranged in the arrangement area 543e. Further, a cancel button 545 is arranged below the arranged background image 543, and an enter button 546 is arranged on the tab 541. The user selects two background images to be combined with the whole body photo image on the background selection screen 540 for the whole body photo image. When the selection of the two background images is completed, the user touches the enter button 546 to end the selection of the background image.

ユーザがキャンセルボタン545をタッチすると、キャンセルボタン545に対応する背景画像の選択を解除することができる。例えば、配置領域544aのキャンセルボタン545をタッチすると、配置領域544aに表示されている背景画像が消え、アップ写真画像用の背景画像の選択を1枚やりなおす必要があるため、アップ写真画像用の背景選択画面540の表示に切り替わる。アップ写真画像用の背景画像の選択が済むと、再度、全身写真画像用の背景選択画面に切り替わる。   When the user touches the cancel button 545, the selection of the background image corresponding to the cancel button 545 can be cancelled. For example, when the cancel button 545 of the arrangement area 544a is touched, the background image displayed in the arrangement area 544a disappears, and it is necessary to reselect one background image for the up photo image. The display is switched to the display of the selection screen 540. After selecting the background image for the up-photo image, the screen is switched again to the background selection screen for the whole-body photo image.

図6に戻って、ステップS106の後に、CPU103は、スペシャル撮影選択画面を受付用ディスプレイ51に表示する。スペシャル撮影選択画面には、全身コラージュ、カバーショット、全身ピンプリのいずれかを選択する画面が表示される。   Returning to FIG. 6, after step S <b> 106, the CPU 103 displays a special shooting selection screen on the reception display 51. On the special shooting selection screen, a screen for selecting one of whole body collage, cover shot, and whole body pin-up is displayed.

全身コラージュが選択された場合(ステップS107において「全身コラージュ」)、図9Aに示すような全身コラージュ画像41が生成される。CPU103は、図31に示すように、全身コラージュ画像41の背景選択画面550を受付用ディスプレイ51に表示する(ステップS108)。   When the whole body collage is selected (“whole body collage” in step S107), a whole body collage image 41 as shown in FIG. 9A is generated. As shown in FIG. 31, the CPU 103 displays a background selection screen 550 of the whole body collage image 41 on the reception display 51 (step S108).

背景選択画面550には、全身コラージュ画像41の背景画像551〜554が配置される。ユーザは、背景画像551〜554のうちいずれか1つを選択する。図31において、集合人物画像411,412(図9A参照)が配置される領域418a,418cと、個別人物画像413,414(図9A参照)が配置される領域418b,418dとを四角い枠で表示している。しかし実際には、領域418a,418cにモデルの集合人物画像411,412を配置し、領域418b,418dにモデルの個別人物画像413,434を配置してもよい。これにより、ユーザは、全身コラージュ画像41(全身コラージュ)の仕上がりを容易にイメージすることができる。   On the background selection screen 550, background images 551 to 554 of the whole body collage image 41 are arranged. The user selects any one of the background images 551 to 554. In FIG. 31, areas 418a and 418c in which the collective person images 411 and 412 (see FIG. 9A) are arranged and areas 418b and 418d in which the individual person images 413 and 414 (see FIG. 9A) are arranged are displayed in a square frame. doing. However, in practice, the model collective person images 411 and 412 may be arranged in the areas 418a and 418c, and the model individual person images 413 and 434 may be arranged in the areas 418b and 418d. Thereby, the user can easily image the finish of the whole body collage image 41 (whole body collage).

カバーショットが選択された場合(ステップS107において「カバーショット」)、ユーザは、図32に示すような、ファッション雑誌の表紙をイメージしたカバーショット画像48を生成することができる。CPU103は、カバーショット用の背景選択画面(図示省略)を受付用ディスプレイ51に表示して(ステップS109)、背景画像を選択させる。   When the cover shot is selected (“cover shot” in step S107), the user can generate a cover shot image 48 that is an image of a cover of a fashion magazine as shown in FIG. The CPU 103 displays a background selection screen for cover shots (not shown) on the reception display 51 (step S109) to select a background image.

全身ピンプリが選択された場合(ステップS107において「全身ピンプリ」)、ユーザは、図33に示すような、ピンプリ写真画像が背景画像に合成された全身ピンプリ画像49を生成することができる。CPU103は、全身ピンプリ用の背景選択画面(図示省略)を受付用ディスプレイ51に表示して(ステップS110)、背景画像を選択させる。ピンプリ写真画像については後述する。   When the whole body image is selected (“whole body image” in step S107), the user can generate a whole body image image 49 in which the image data is synthesized with the background image as shown in FIG. The CPU 103 displays a background selection screen (not shown) for the whole body impression on the reception display 51 (step S110), and selects a background image. The pin-pri photo image will be described later.

これら全身コラージュ画像41、カバーショット画像48、全身ピンプリ画像49を総称して特殊合成画像といい、これら特殊合成画像を生成するための撮影を総称してスペシャル撮影という。   The whole body collage image 41, the cover shot image 48, and the whole body pin pre-image 49 are collectively referred to as a special composite image, and shooting for generating these special composite images is collectively referred to as special shooting.

ステップS108〜S110のいずれかの処理が終了すると、CPU103は、撮影ブース2が空いているか否かを判断する(ステップS111)。撮影ブース2が空いていない場合(ステップS111においてNo)、CPU103は、待機を指示する待機画面を受付用ディスプレイ51に表示する(ステップS112)。このとき、ユーザをその場に留まらせるように広告などを表示してもよい。   When any one of steps S108 to S110 is completed, the CPU 103 determines whether or not the shooting booth 2 is vacant (step S111). When shooting booth 2 is not empty (No in step S111), CPU 103 displays a standby screen for instructing standby on reception display 51 (step S112). At this time, an advertisement or the like may be displayed so that the user stays on the spot.

一方、撮影ブース2が空いている場合(ステップS111においてYes)、CPU103は、撮影ブース2への移動をユーザに促す誘導画面を受付用ディスプレイ51に表示し(ステップS113)、このユーザに対する事前接客処理を終了する。CPU103は、写真撮影遊戯機1の電源がONされている間、次のユーザのプレイ開始を待機するためのデモ画面表示に戻り、事前接客処理を繰り返し実行する。   On the other hand, when the photography booth 2 is vacant (Yes in step S111), the CPU 103 displays a guidance screen for prompting the user to move to the photography booth 2 on the reception display 51 (step S113), and pre-service to this user The process ends. The CPU 103 returns to the demonstration screen display for waiting for the next user to start playing while the power of the photography amusement machine 1 is turned on, and repeatedly executes the pre-service process.

[撮影処理]
図34は、写真撮影遊戯機1により実行される撮影処理のフローチャートである。以下、図34を参照して、ユーザが2人である場合を例にして、撮影処理を詳しく説明する。
[Shooting process]
FIG. 34 is a flowchart of the photographing process executed by the photography game machine 1. Hereinafter, the shooting process will be described in detail with reference to FIG. 34, taking as an example a case where there are two users.

CPU103は、制御プログラムに基づいて撮影処理を実行する。具体的には、CPU103は、撮影開始画面を撮影用ディスプレイ23に表示する(ステップS201)。たとえば、撮影開始ボタンと、撮影開始ボタンにタッチすることにより撮影を開始することを通知するメッセージとが、撮影開始画面内に表示される。ユーザが撮影開始ボタンにタッチすることにより、CPU103は、ステップS202以降の処理を実行する。ここで、撮影開始ボタンとは、カメラ22にシャッタ動作を指示するためのボタンではない。   The CPU 103 executes photographing processing based on the control program. Specifically, the CPU 103 displays a shooting start screen on the shooting display 23 (step S201). For example, a shooting start button and a message notifying that shooting is started by touching the shooting start button are displayed in the shooting start screen. When the user touches the shooting start button, the CPU 103 executes processing from step S202 onward. Here, the shooting start button is not a button for instructing the camera 22 to perform a shutter operation.

CPU103は、最初に、通常撮影処理を実行する(ステップS202)。CPU103は、通常撮影処理(ステップS202)において、最初に4枚のアップ写真画像を得るようにカメラ22を制御し、その次に2枚の全身写真画像を得るようにカメラ22を制御する。通常撮影処理(ステップS202)の詳細は後述する。   First, the CPU 103 executes normal shooting processing (step S202). In the normal photographing process (step S202), the CPU 103 controls the camera 22 to obtain four up-photo images first, and then controls the camera 22 to obtain two whole-body photo images. Details of the normal photographing process (step S202) will be described later.

次に、CPU103は、スペシャル撮影時の説明画面を撮影用ディスプレイ23に表示する(ステップS222〜S224)。たとえば、通常撮影処理の後にスペシャル撮影を開始することを通知するメッセージを表示する。スペシャル撮影は、特殊合成画像を生成するために行う撮影である。   Next, the CPU 103 displays an explanation screen for special photographing on the photographing display 23 (steps S222 to S224). For example, a message notifying that the special shooting is started after the normal shooting process is displayed. Special shooting is shooting performed to generate a special composite image.

具体的には、CPUは、事前接客処理(図27参照)において選択されたスペシャル撮影に応じた説明画面を表示する。全身コラージュが選択されていた場合(ステップS221において「全身コラージュ」)、CPU103は、全身コラージュ用の説明画面を撮影用ディスプレイ23に表示する(ステップS222)。CPU103は、スペシャル撮影を実行する(ステップS225)。スペシャル撮影の詳細は、後述する。   Specifically, the CPU displays an explanation screen corresponding to the special shooting selected in the pre-service process (see FIG. 27). When the whole body collage has been selected (“whole body collage” in step S221), the CPU 103 displays an explanation screen for the whole body collage on the photographing display 23 (step S222). The CPU 103 executes special shooting (step S225). Details of the special shooting will be described later.

カバーショットが選択されていた場合(ステップS221において「カバーショット」)、CPU103は、カバーショット用の説明画面を撮影用ディスプレイ23に表示する(ステップS223)。CPU103は、スペシャル撮影を実行する(ステップS226)。   If a cover shot has been selected (“cover shot” in step S221), the CPU 103 displays a cover shot explanation screen on the photographing display 23 (step S223). The CPU 103 executes special shooting (step S226).

全身ピンプリが選択されていた場合(ステップS221において「全身ピンプリ」)、CPU103は、全身ピンプリ用の説明画面を撮影用ディスプレイ23に表示する(ステップS224)。CPU103は、スペシャル撮影を実行する(ステップS227)。   When the whole body pin pre is selected (“full body pre pre” in step S221), the CPU 103 displays an explanation screen for the whole body pin pre-print on the photographing display 23 (step S224). The CPU 103 executes special shooting (step S227).

全撮影の終了後、CPU103は、目の写りを選択するための目の写り選択画面530を撮影用ディスプレイ23に表示する(ステップS205)。上述したように、目の写り選択画面530には、撮影された1又は2枚以上の写真画像と、目の写りを選択するためのサイズ選択ボタン535a〜535cと、選択された目の写りを決定する決定ボタン536とが表示される。好ましくは、後述するアップ撮影モードで撮影された写真画像のみが表示され、後述する全身撮影モードで撮影された写真画像は表示されない。全身の写真画像は目の写りがわかりにくいためである。サイズ選択ボタン535a〜535cは、たとえば3段階の目の写りのうちいずれかを選択できるよう構成される。CPU103は、選択された目の写りに応じて、表示された写真画像の目の写りを変更して表示する。ユーザは、選択された目の写りで満足すれば、決定ボタン536にタッチする。これにより、目の写りの選択が終了する。目の写り選択処理の詳細は、後述する。   After the completion of all shooting, the CPU 103 displays an eye shot selection screen 530 for selecting the eye shot on the shooting display 23 (step S205). As described above, the shot image selection screen 530 includes one or more photographed images, size selection buttons 535a to 535c for selecting the shot image, and the selected shot image. A determination button 536 to be determined is displayed. Preferably, only photographic images taken in an up shooting mode, which will be described later, are displayed, and photographic images taken in a whole body shooting mode, which will be described later, are not displayed. This is because the photographic image of the whole body is difficult to see in the eyes. The size selection buttons 535a to 535c are configured so as to be able to select any one of, for example, three stages of image. The CPU 103 changes and displays the image of the displayed photographic image according to the selected image of the image. If the user is satisfied with the selected image, the user touches the enter button 536. Thereby, the selection of the reflection of the eyes is completed. Details of the eye reflection selection process will be described later.

次に、CPU103は、写真画像の明るさを選択するための明るさ選択画面を撮影用ディスプレイ23に表示する(ステップS206)。図35は、明るさ選択画面560を示す図である。図35を参照して、明るさ選択画面560は、4枚のアップ写真画像531〜534と、明るさを選択するための複数の明るさ選択ボタン561a〜561eと、選択された明るさを決定する決定ボタン562とが表示される。   Next, the CPU 103 displays a brightness selection screen for selecting the brightness of the photographic image on the photographing display 23 (step S206). FIG. 35 is a diagram showing a brightness selection screen 560. Referring to FIG. 35, brightness selection screen 560 determines four up-photo images 531 to 534, a plurality of brightness selection buttons 561a to 561e for selecting brightness, and the selected brightness. A determination button 562 to be displayed is displayed.

明るさ選択画面560には、目の写り選択画面530と同様に、通常撮影処理(ステップS202)により得られたNu1枚のアップ写真画像及びNz1枚の全身写真画像のうち、Nu2枚のアップ写真画像及びNz2枚の全身写真画像が表示されればよい。Nu1,Nz1,Nu2,Nz2は、上述の式(1)及び(2)を満たす。 The brightness selection screen 560, similarly to the show-through selection screen 530 of the eye, the normal shooting process (step S202) of the obtained Nu 1 sheet of up image and Nz 1 Like systemic photographic images, the two Nu It is only necessary to display an up-photograph image and two Nz whole-body photo images. Nu 1 , Nz 1 , Nu 2 , and Nz 2 satisfy the above formulas (1) and (2).

明るさ選択ボタン561a〜561eは、たとえば5段階の明るさのうちいずれかを選択できるよう構成される。CPU103は、選択された明るさに応じて、表示された写真画像の明るさを変更して表示する。ユーザは、選択された明るさで満足すれば、決定ボタン562にタッチする。これにより、写真画像の明るさの選択が終了する。   The brightness selection buttons 561a to 561e are configured to select any one of, for example, five levels of brightness. The CPU 103 changes and displays the brightness of the displayed photographic image according to the selected brightness. If the user is satisfied with the selected brightness, the user touches enter button 562. Thereby, the selection of the brightness of the photographic image is completed.

次に、CPU103は、編集ブース3が空いているか否かを判断する(ステップS207)。編集ブース3が空いていない場合(ステップS207においてNo)、CPU103は、編集ブース3が空くまで待機を指示する待機画面を撮影用ディスプレイ23に表示する(ステップS208)。このとき、ユーザをその場に留まらせるように広告などを表示してもよい。編集ブース3が空いた場合(ステップS207においてYes)、CPU103は、編集ブース3への移動を指示する誘導画面を撮影用ディスプレイ23に表示する(ステップS209)。これにより、このユーザに対する撮影処理が終了する。CPU103は、写真撮影遊戯機1の電源がONされている間、次のユーザの撮影開始を待機するためのデモ画面表示に戻り(図示せず)、撮影処理を繰り返し実行する。   Next, the CPU 103 determines whether or not the editing booth 3 is vacant (step S207). If the editing booth 3 is not empty (No in step S207), the CPU 103 displays a standby screen for instructing standby until the editing booth 3 is empty (step S208). At this time, an advertisement or the like may be displayed so that the user stays on the spot. When the editing booth 3 is vacant (Yes in step S207), the CPU 103 displays a guidance screen for instructing movement to the editing booth 3 on the photographing display 23 (step S209). Thereby, the photographing process for this user is completed. The CPU 103 returns to the demonstration screen display (not shown) for waiting for the next user to start shooting while the power of the photo game machine 1 is turned on, and repeatedly executes the shooting process.

[通常撮影処理(ステップS202)]
図36Aは、通常撮影処理のフローチャートである。図36Aを参照して、CPU103は、ステップS2021〜S2030の処理を繰り返し実行することにより、6枚の写真画像を生成する。6枚の写真画像のうち最初の4枚はアップ撮影モードで生成され、残りの2枚は全身撮影モードで生成される。つまり、撮影枚数ごとに、アップ撮影モードと全身撮影モードのいずれかが設定される。
[Normal Shooting Process (Step S202)]
FIG. 36A is a flowchart of normal imaging processing. Referring to FIG. 36A, CPU 103 generates six photographic images by repeatedly executing the processes of steps S2021 to S2030. Of the six photographic images, the first four are generated in the up shooting mode, and the remaining two are generated in the whole body shooting mode. That is, either the up shooting mode or the whole body shooting mode is set for each number of shots.

CPU103は、全6回の撮影を終了したか否かを判断する(ステップS2021)。全6回の撮影が終了していない場合(ステップS2021においてNo)、CPU103は、次の撮影がアップ撮影か否かを判断する(ステップS2022)。次の撮影がアップ撮影の場合(ステップS2022においてYes)、CPU103は、アップ撮影モードに入り、アップ撮影用案内画面を撮影用ディスプレイ23に表示する(ステップS2023)。アップ撮影用案内画面は、1回目のアップ撮影を行う前のみ表示され、2〜4回目の撮影の前には表示されない。   The CPU 103 determines whether or not all six shootings have been completed (step S2021). If all six shootings have not been completed (No in step S2021), CPU 103 determines whether or not the next shooting is an up shooting (step S2022). When the next shooting is up shooting (Yes in step S2022), the CPU 103 enters the up shooting mode and displays an up shooting guide screen on the shooting display 23 (step S2023). The up shooting guide screen is displayed only before the first up shooting and is not displayed before the second to fourth shooting.

アップ撮影モードは、ユーザの顔を大きく上半身を撮影するためのモードである。アップ撮影モードでは、ユーザは、カメラ22に近い位置に立っていることが望ましい。このため、アップ撮影用案内画面では、ユーザにカメラに近づくように促すメッセージが表示される。CPU103は、カメラ22の撮影方向及び焦点距離を調整する。具体的には、カメラ22の撮影方向は、上半身の撮影(アップ撮影)に適した方向(全身撮影に適した方向よりも上)に向けられる。カメラ22の焦点距離は、アップ撮影に適した長さ(全身撮影に適した焦点距離よりも短い)に設定される。なお、アップ撮影モードの設定は、1回目の撮影前に行われる。4回目の撮影が終了するまで、アップ撮影モードが設定されたままである。   The up shooting mode is a mode for shooting the upper body of the user's face. In the up shooting mode, it is desirable for the user to stand at a position close to the camera 22. For this reason, a message prompting the user to approach the camera is displayed on the up shooting guide screen. The CPU 103 adjusts the shooting direction and focal length of the camera 22. Specifically, the shooting direction of the camera 22 is directed to a direction suitable for upper body shooting (up shooting) (above a direction suitable for whole body shooting). The focal length of the camera 22 is set to a length suitable for up-shooting (shorter than the focal length suitable for whole-body shooting). The up shooting mode is set before the first shooting. The up shooting mode remains set until the fourth shooting is completed.

一方、次の撮影がアップ撮影でない場合(ステップS2022においてNo)、CPU103は、次の撮影が全身撮影か否かを判断する(ステップS2024)。次の撮影が全身撮影の場合(ステップS2024においてYes)、CPU103は、全身撮影モードに入り、全身撮影用案内画面を撮影用ディスプレイ23に表示する(ステップS2025)。全身撮影用案内画面は、1回目の全身撮影を行う前のみ表示され、2回目の撮影の前には表示されない。   On the other hand, when the next shooting is not an up shooting (No in step S2022), the CPU 103 determines whether or not the next shooting is a whole body shooting (step S2024). When the next photographing is whole body photographing (Yes in step S2024), the CPU 103 enters the whole body photographing mode and displays the whole body photographing guidance screen on the photographing display 23 (step S2025). The whole body photographing guide screen is displayed only before the first whole body photographing, and is not displayed before the second photographing.

また、スペシャル撮影で全身コラージュを選択した場合は、全身撮影用案内画面内、若しくは別の画面で、これから行う2回の全身写真画像(集合人物画像411,412)が、全身コラージュ画像のどの位置(領域418a,418c)に配置されるかを案内する。そうすることで、全身コラージュ背景に合わせてポーズを取ることができ、ユーザが意図しない全身写真画像が全身コラージュに配置され難くなる。   In addition, when the whole body collage is selected in the special shooting, the position of the whole body collage image is the two whole body photo images (the collective person images 411 and 412) to be performed on the whole body shooting guide screen or another screen. It guides whether it is arrange | positioned (area | region 418a, 418c). By doing so, it is possible to take a pose in accordance with the whole body collage background, and it becomes difficult for a whole body photo image not intended by the user to be placed in the whole body collage.

全身撮影モードは、ユーザの全身を撮影するためのモードである。全身撮影モードでは、ユーザは、カメラ22から離れた位置に立っていることが望ましい。このため、全身撮影用案内画面には、ユーザにカメラから離れた位置に立つように促すメッセージが表示される。CPU103は、カメラ22の撮影方向及び焦点距離を調整する。具体的には、カメラ22の撮影方向は、全身撮影に適した方向(アップ撮影に適した方向よりも下)に向けられる。カメラ22の焦点距離は、全身撮影に適した長さ(アップ撮影に適した焦点距離よりも長い)に設定される。なお、アップ撮影モードから全身撮影モードへの設定の変更は、4回目の撮影が終了した直後に行われてもよい。後述するスペシャル撮影処理が終了するまで、全身撮影モードが設定されたままである。   The whole body photographing mode is a mode for photographing the whole body of the user. In the whole body photographing mode, it is desirable that the user stands at a position away from the camera 22. For this reason, a message prompting the user to stand at a position away from the camera is displayed on the whole body photographing guide screen. The CPU 103 adjusts the shooting direction and focal length of the camera 22. Specifically, the shooting direction of the camera 22 is directed in a direction suitable for whole-body shooting (below the direction suitable for up-shooting). The focal length of the camera 22 is set to a length suitable for whole body photography (longer than the focal length suitable for up photography). The setting change from the up shooting mode to the whole body shooting mode may be performed immediately after the fourth shooting is finished. The whole body shooting mode remains set until the special shooting process described later is completed.

なお、全身撮影モードによる撮影が行われる場合、脚補正処理の対象となる領域が、撮影用ディスプレイ23に表示されるライブ映像上に明示される。脚補正処理の詳細については、後述する。   Note that, when shooting is performed in the whole body shooting mode, the region to be subjected to the leg correction process is clearly indicated on the live video displayed on the shooting display 23. Details of the leg correction process will be described later.

上記ステップS2021〜S2025の撮影に関する案内又は撮影に関する設定の後、CPU103は、ユーザにポーズを指示する(ステップS2026)。具体的には、「胸に手を当てて!」等のポーズの指示するメッセージがモデルの画像とともに撮影用ディスプレイ23に表示される。さらに、CPU103は、音声によるポーズの指示をスピーカ450から出力する。ユーザは、指示に応じてポーズをとる。   After the guidance related to shooting or the setting related to shooting in steps S2021 to S2025, the CPU 103 instructs the user to pause (step S2026). Specifically, a message for instructing a pose such as “put your hand on the chest!” Is displayed on the photographing display 23 together with the model image. Further, CPU 103 outputs a voice pause instruction from speaker 450. The user poses according to the instruction.

CPU103は、ライブ映像を撮影用ディスプレイ23に表示する(ステップS2027)。つまり、カメラ22で撮影されている人物の映像がリアルタイムで表示される。このため、ユーザは、ユーザ自身の写りを撮影用ディスプレイ23で確認しながら撮影することができる。   The CPU 103 displays the live video on the shooting display 23 (step S2027). That is, the image of the person photographed by the camera 22 is displayed in real time. Therefore, the user can take a picture while confirming his / her own image on the photographing display 23.

CPU103は、カウントダウンを開始し(ステップS2028)、所定時間経過後にシャッタ動作を行うことにより撮影を行う(ステップS2029)。これにより、写真画像が生成される。CPU103は、生成された写真画像をプレビューとして撮影用ディスプレイ23に表示する(ステップS2030)。   The CPU 103 starts counting down (step S2028), and performs photographing by performing a shutter operation after a predetermined time has elapsed (step S2029). Thereby, a photographic image is generated. The CPU 103 displays the generated photographic image on the photographing display 23 as a preview (step S2030).

[スペシャル撮影処理(S225〜S227)]
図36Bは、スペシャル撮影処理のフローチャートである。図36Bに示すフローチャートは、ステップS225〜S227で共通である。ただし、スペシャル撮影用の表示画面は、選択されたスペシャル撮影によって異なる。
[Special Shooting Process (S225-S227)]
FIG. 36B is a flowchart of the special shooting process. The flowchart shown in FIG. 36B is common to steps S225 to S227. However, the display screen for special shooting differs depending on the selected special shooting.

[スペシャル撮影処理(全身コラージュ)]
まず、全身コラージュがスペシャル撮影として選択された場合を例に説明し、その他のスペシャル撮影(カバーショット及び全身ピンプリ)で用いられるスペシャル撮影用の表示画面については後述する。
[Special shooting process (whole body collage)]
First, a case where the whole body collage is selected as the special shooting will be described as an example, and a display screen for special shooting used in other special shooting (cover shot and whole body pin pre) will be described later.

図36Bを参照して、CPU103は、ステップS2041〜S2045の処理を実行することにより、全身コラージュ画像用の個別人物画像を生成する。   Referring to FIG. 36B, CPU 103 generates the individual person image for the whole body collage image by executing the processes of steps S2041 to S2045.

図37は、ステップS225で用いられるスペシャル撮影用の撮影画面を示す図である。図37を参照して、撮影画面521には、四角い枠で囲まれた透明の矩形領域521L,521Rが配置される。矩形領域521Lは撮影画面521の左に配置され、矩形領域521Rは撮影画面521の右に配置される。撮影画面521における矩形領域521L,521R以外の領域は、たとえば白などで塗りつぶされている。   FIG. 37 is a diagram showing a shooting screen for special shooting used in step S225. Referring to FIG. 37, transparent rectangular areas 521L and 521R surrounded by a square frame are arranged on the photographing screen 521. The rectangular area 521L is arranged on the left side of the shooting screen 521, and the rectangular area 521R is arranged on the right side of the shooting screen 521. Areas other than the rectangular areas 521L and 521R on the shooting screen 521 are filled with, for example, white.

CPU103は、このような撮影画面521を撮影用ディスプレイ23に表示し、ユーザにポーズを指示する(ステップS2041)。具体的には、「枠の中に入るように立ってね!」等のメッセージが表示される。   The CPU 103 displays such a shooting screen 521 on the shooting display 23 and instructs the user to pause (step S2041). Specifically, a message such as “Stand up within the frame!” Is displayed.

CPU103は、カメラ22により撮影されたライブ映像を撮影画面521上に合成し、撮影用ディスプレイ23に表示する(ステップS2042)。より具体的には、ライブ映像のうち、左半分の映像を不要な個所(上下及び左部分)を除いて切り出し矩形領域521Lに配置し、右半分の映像を不要な個所(上下及び左部分)を除いて切り出し矩形領域521Rに配置し、撮影画面521上に合成されて表示される。これにより、2人のユーザは矩形領域521L,521Rの中に入るように移動する。   The CPU 103 synthesizes the live video shot by the camera 22 on the shooting screen 521 and displays it on the shooting display 23 (step S2042). More specifically, in the live video, the left half of the video is removed from the unnecessary portion (upper and lower portions) and arranged in the rectangular area 521L, and the right half of the video is not required (upper and lower portions). Are arranged in the cutout rectangular area 521R, and are combined and displayed on the shooting screen 521. As a result, the two users move so as to enter the rectangular areas 521L and 521R.

CPU103は、ステップS2043〜2045を実行することにより、全身コラージュ画像用の個別人物画像を生成する。具体的には、2人の全身を一緒に撮影した全身写真画像より、矩形領域521Lに表示された映像に対応する画像を静止画として個別人物画像413を生成し、矩形領域521Rに表示された映像に対応する画像を静止画として個別人物画像414を生成する。   CPU103 produces | generates the individual person image for a whole body collage image by performing step S2043-2045. Specifically, an individual person image 413 is generated as a still image from a whole-body photo image obtained by photographing the whole body of two people together and displayed on the rectangular area 521R. An individual person image 414 is generated using an image corresponding to the video as a still image.

ステップS2043〜2045は、図36Aに示した通常撮影処理におけるステップS2028〜2030に相当する。   Steps S2043 to 2045 correspond to steps S2028 to 2030 in the normal photographing process shown in FIG. 36A.

本実施の形態では、上記の通り、ステップS225で用いられる撮影画面521における矩形領域521L,521R以外の領域は白などで塗りつぶされているが、図38に示すような撮影画面521を表示してもよい。図38に示す撮影画面521において、矩形領域521L,521R以外の領域は、事前接客処理で選択した全身コラージュ画像の背景画像に通常撮影処理で撮影された全身写真画像(集合人物画像411,412)が合成され表示される。   In the present embodiment, as described above, areas other than the rectangular areas 521L and 521R in the shooting screen 521 used in step S225 are filled with white or the like, but the shooting screen 521 as shown in FIG. 38 is displayed. Also good. In the shooting screen 521 shown in FIG. 38, areas other than the rectangular areas 521L and 521R are whole body photo images (collection person images 411 and 412) shot by the normal shooting process on the background image of the whole body collage image selected by the prior customer service process. Is synthesized and displayed.

スペシャル撮影が行われていないため、2つの個別人物画像413,414は合成されていない。個別人物画像413,414が合成されるべき位置に、矩形領域521L,521Rが配置される。この場合、後述する特殊合成画像生成処理の一部を先行して実行する必要がある。具体的には、2人の全身を一緒に撮影した2枚の写真画像から集合人物画像411,412をそれぞれ抽出し、その抽出された集合人物画像411,412を背景画像418(事前接客処理で選択した全身コラージュ画像の背景画像)に合成する。あるいは、これに代えて、図27中のステップS108〜S110のいずれかで選択されたスペシャル撮影のサンプル画像を表示するようにしてもよい。   Since the special shooting is not performed, the two individual person images 413 and 414 are not synthesized. Rectangular areas 521L and 521R are arranged at positions where the individual person images 413 and 414 are to be synthesized. In this case, it is necessary to execute a part of the special composite image generation process described later in advance. Specifically, the collective person images 411 and 412 are extracted from two photographic images obtained by photographing the whole body of the two persons, respectively, and the extracted collective person images 411 and 412 are extracted as the background image 418 (in advance customer service processing). To the background image of the selected whole body collage image. Alternatively, instead of this, the sample image of the special shooting selected in any of steps S108 to S110 in FIG. 27 may be displayed.

このように、事前接客処理で選択した全身コラージュ画像の背景画像に通常撮影処理で撮影された全身写真画像を合成した画像を表示しながら撮影を行うため、ユーザは全身コラージュ画像41の完成形を確認しながら撮影を行うことができる。   In this way, the user captures a completed form of the whole body collage image 41 in order to perform shooting while displaying an image obtained by synthesizing the whole body photograph image taken in the normal photographing process on the background image of the whole body collage image selected in the prior customer service process. You can shoot while checking.

ステップS225で用いられる撮影画面521において、図39に示すように、1つの矩形領域525を配置してもよい。矩形領域525は、四角い枠で囲まれた透明な領域である。矩形領域525は、直線524により、左側領域525L及び右側領域525Rに区分される。CPU103は、「1人ずつ枠の中に入って撮影してね!」というメッセージを撮影画面521に表示して、2人のユーザが左側領域525L及び右側領域525Rにそれぞれ入るように誘導する。矩形領域525の左側に、全身コラージュの見本画像526を表示してもよい。CPU103は、カメラ22により撮影された1つのライブ映像を矩形領域525に配置する。   On the shooting screen 521 used in step S225, one rectangular area 525 may be arranged as shown in FIG. The rectangular area 525 is a transparent area surrounded by a square frame. The rectangular area 525 is divided into a left area 525L and a right area 525R by a straight line 524. The CPU 103 displays a message “Please enter the frame one by one and shoot!” On the shooting screen 521 to guide the two users to enter the left region 525L and the right region 525R, respectively. A sample image 526 of the whole body collage may be displayed on the left side of the rectangular area 525. The CPU 103 arranges one live image captured by the camera 22 in the rectangular area 525.

[スペシャル撮影処理(全身ピンプリ)]
次に、全身ピンプリがスペシャル撮影として選択された場合のスペシャル撮影用の表示画面について説明する。
[Special shooting process (whole body image)]
Next, a display screen for special imaging when the whole body pin pre is selected as special imaging will be described.

全身ピンプリがスペシャル撮影として選択されていた場合には(ステップS221において「全身ピンプリ」)、図40Aに示すような撮影画面521が表示される。図40Aを参照して、1つの矩形領域525が、撮影画面521の中央に配置される。全身ピンプリの2つの見本画像527が、矩形領域525の左右に配置される。矩形領域525は、直線524により、左側領域525Lと、右側領域525Rに区分される。図40Bに示すように、CPU103は、カメラ22により撮影されたひとつのライブ映像を矩形領域525に配置する。   When the whole body Pimpuri is selected as the special shooting (“whole body Pimp” in Step S221), a shooting screen 521 as shown in FIG. 40A is displayed. Referring to FIG. 40A, one rectangular area 525 is arranged at the center of the shooting screen 521. Two sample images 527 of the whole body pinpuri are arranged on the left and right of the rectangular area 525. The rectangular area 525 is divided into a left area 525L and a right area 525R by a straight line 524. As illustrated in FIG. 40B, the CPU 103 arranges one live image captured by the camera 22 in a rectangular area 525.

また、全身ピンプリがスペシャル撮影として選択されていた場合(ステップS221において「全身ピンプリ」)、図41に示すような撮影画面521を表示してもよい。図41を参照して、矩形領域525Lの左側には、全身ピンプリ画像の背景画像527Lが配置され、矩形領域525Rの左側には、全身ピンプリ画像の背景画像527Rが配置される。矩形領域525Lと背景画像527Lとを合わせた領域529Lで、1つの見本画像が表現され、矩形領域525Rと背景画像527Rとを合わせた領域529Rで、1つの見本画像が表現される。これにより、ユーザは全身ピンプリ画像49の完成形を確認しながら撮影を行うことができる。なお、CPU103は、全身ピンプリ画像49を実際に生成する場合、ピンプリ写真画像の位置と背景画像の位置とを入れ替えてもよい。   In addition, when the whole body Pimpli is selected as the special shooting (“whole body Pimpli” in Step S221), a shooting screen 521 as shown in FIG. 41 may be displayed. Referring to FIG. 41, a background image 527L of the whole body pin-up image is arranged on the left side of the rectangular region 525L, and a background image 527R of the whole body pin-up image is arranged on the left side of the rectangular region 525R. One sample image is represented by an area 529L obtained by combining the rectangular area 525L and the background image 527L, and one sample image is represented by an area 529R obtained by combining the rectangular area 525R and the background image 527R. As a result, the user can take a picture while confirming the complete form of the whole body pin pre-image 49. Note that the CPU 103 may interchange the position of the pin pre-photo image and the position of the background image when actually generating the whole body pin pre-image 49.

なお、図40A、図40B及び図41において、直線524を破線で示しているが、これに限られない。例えば、直線524を、実線又は一点鎖線で表示してもよい。あるいは、左側領域525Lの背景色を、右側領域525Rの背景色と異なるようにしてもよい。直線524の上端を示す矢印と、直線524の下端を示す矢印とを表示することによって、直線524の存在を示唆するようにしてもよい。背景の色を分けて表示する場合及び矢印を表示する場合、直線524の表示を省略できる。図39についても同様である。すなわち、矩形領域525が左側領域525L及び右側領域525Rに区分されているとユーザに認識できるようにすればよい。   In FIGS. 40A, 40B, and 41, the straight line 524 is indicated by a broken line, but the present invention is not limited to this. For example, the straight line 524 may be displayed as a solid line or a one-dot chain line. Alternatively, the background color of the left region 525L may be different from the background color of the right region 525R. The presence of the straight line 524 may be suggested by displaying an arrow indicating the upper end of the straight line 524 and an arrow indicating the lower end of the straight line 524. When the background color is displayed separately and the arrow is displayed, the display of the straight line 524 can be omitted. The same applies to FIG. In other words, the user may be able to recognize that the rectangular area 525 is divided into the left area 525L and the right area 525R.

CPU103は、ステップS2043〜S2045を実行することにより、全身ピンプリ画像用のピンプリ写真画像を生成する。具体的には、2人の全身を一緒に撮影した全身写真画像より、矩形領域525Lに表示された映像に対応する画像を静止画として1枚のピンプリ写真画像を生成し、矩形領域525Rに表示された映像に対応する画像を静止画としてピンプリ写真画像を生成する。   The CPU 103 executes steps S <b> 2043 to S <b> 2045 to generate a pin-up photo image for the whole-body pin-up image. Specifically, from the whole body photographic image obtained by photographing the whole body of two people, an image corresponding to the image displayed in the rectangular area 525L is generated as a still image, and a single photographic image is generated and displayed in the rectangular area 525R. A pin-up photo image is generated with the image corresponding to the recorded video as a still image.

[スペシャル撮影処理(カバーショット)]
また、カバーショットがスペシャル撮影として選択されていた場合には(ステップS221において「カバーショット」)、背景画像がファッション雑誌の表紙をイメージした画像であること以外は、通常撮影の全身撮影と同じである。このため、スペシャル撮影用の表示画面は、通常撮影用の全身写真撮影の表示画面と同様である。また、一緒に撮影した2人の人物がそれぞれ個別の画像やピンプリの画像として生成されるわけではない。
[Special shooting process (cover shot)]
If the cover shot is selected as the special shooting (“cover shot” in step S221), the background image is the same as the whole body shooting in the normal shooting except that the background image is an image of the cover of a fashion magazine. is there. For this reason, the display screen for special photography is the same as the display screen for whole body photography for normal photography. In addition, the two persons photographed together are not generated as individual images or images of the pins.

[照明制御処理]
ストロボ制御部110は、通常撮影処理及びスペシャル撮影処理において、シャッタ動作が行わる際に、前方照明装置27a,27b、中間照明装置28a,28b及び背面照明装置29が備えるストロボ15の光量を制御する。以下、詳しく説明する。
[Lighting control processing]
The strobe controller 110 controls the amount of light of the strobe 15 included in the front illumination devices 27a and 27b, the intermediate illumination devices 28a and 28b, and the back illumination device 29 when the shutter operation is performed in the normal shooting process and the special shooting process. . This will be described in detail below.

図42は、ストロボ制御部110により実行される光量制御処理のフローチャートである。図43は、ストロボ制御部110により参照される光量設定テーブルを示す図である。   FIG. 42 is a flowchart of the light amount control process executed by the flash controller 110. FIG. 43 is a diagram showing a light amount setting table referred to by the strobe control unit 110.

ストロボ制御部110は、撮影モードがアップ撮影モードである場合(ステップS151においてYes)、光量設定テーブルを参照して、アップ撮影モードに応じた光量を後側照明装置の各々に設定する(ステップS152)。具体的には、ストロボ制御部110は、前方照明装置27a,27bの光量をLuに設定し、中間照明装置28a,28bの光量をLvに設定し、背面照明装置29の光量をLwに設定する。光量Luは、光量Lv,Lwのいずれよりも大きい。   When the shooting mode is the up shooting mode (Yes in step S151), the flash control unit 110 refers to the light amount setting table and sets the light amount corresponding to the up shooting mode in each of the rear illumination devices (step S152). ). Specifically, the strobe control unit 110 sets the light amount of the front illumination devices 27a and 27b to Lu, sets the light amount of the intermediate illumination devices 28a and 28b to Lv, and sets the light amount of the back illumination device 29 to Lw. . The light quantity Lu is larger than both the light quantities Lv and Lw.

ストロボ制御部110は、カメラのシャッタ動作(図36AのステップS2029、図36BのステップS2044)に合わせて、後側照明装置の発光を制御する(ステップS154)。これにより、アップ撮影モードにおいて、撮影空間24cの前側が、撮影空間24cの後側よりも明るく照らされる。   The strobe controller 110 controls the light emission of the rear illumination device in accordance with the shutter operation of the camera (step S2029 in FIG. 36A and step S2044 in FIG. 36B) (step S154). Thereby, in the up shooting mode, the front side of the shooting space 24c is illuminated brighter than the rear side of the shooting space 24c.

一方、ストロボ制御部110は、撮影モードが全身撮影モードである場合(ステップS151においてNo)、光量設定テーブルを参照して、全身撮影モードに応じた光量を後側照明装置の各々に設定する(ステップS153)。具体的には、ストロボ制御部110は、前方照明装置27a,27bの光量をLpに設定し、中間照明装置28a,28bの光量をLqに設定し、背面照明装置29の光量をLrに設定する。光量Lpは、光量Lq,Lrのいずれよりも小さい。   On the other hand, when the photographing mode is the whole body photographing mode (No in step S151), the flash control unit 110 refers to the light amount setting table and sets the light amount corresponding to the whole body photographing mode to each of the rear illumination devices ( Step S153). Specifically, the strobe controller 110 sets the light amount of the front illumination devices 27a and 27b to Lp, sets the light amount of the intermediate illumination devices 28a and 28b to Lq, and sets the light amount of the back illumination device 29 to Lr. . The light amount Lp is smaller than both the light amounts Lq and Lr.

ストロボ制御部110は、カメラのシャッタ動作に合わせて、後側照明装置の発光を制御する(ステップS154)。これにより、全身撮影モードにおいて、撮影空間24cの後側が、撮影空間24cの前方よりも明るく照らされる。
[目の写り選択・明るさ選択(事前の画像処理)]
まずは、図34で示した目の写り選択処理(ステップS205)及び明るさ選択処理(ステップS206)に先立って行われる画像処理について説明する。
The strobe controller 110 controls the light emission of the rear illumination device in accordance with the shutter operation of the camera (step S154). Thereby, in the whole body photographing mode, the rear side of the photographing space 24c is illuminated brighter than the front of the photographing space 24c.
[Selection of eyes and brightness (prior image processing)]
First, the image processing performed prior to the eye image selection processing (step S205) and the brightness selection processing (step S206) shown in FIG. 34 will be described.

図44は、通常撮影であるアップ撮影・全身撮影、スペシャル撮影、これら撮影した写真画像に対する目の写り又は明るさに関する画像処理、及び目の写り選択画面の表示が実行されるタイミングを示すタイミングチャートである。図44において、1枚目〜6枚目の「撮影」とは、通常撮影処理(図36A参照)におけるステップS2022〜S2030までの一連の処理が1回実行される期間を示す。スペシャル撮影における「撮影」とは、スペシャル撮影処理(図36B参照)のステップS2041〜S2045の一連の処理が実行される期間を示す。   FIG. 44 is a timing chart showing the timing at which up-shooting / whole body shooting, which is normal shooting, special shooting, image processing relating to the image or brightness of the captured image, and display of the image selection screen are executed. It is. 44, “shooting” of the first to sixth sheets indicates a period in which a series of processes from step S2022 to S2030 in the normal shooting process (see FIG. 36A) is executed once. “Shooting” in the special shooting indicates a period during which a series of processing in steps S2041 to S2045 of the special shooting processing (see FIG. 36B) is executed.

図44を参照して、CPU103は、1枚目の撮影(アップ撮影)が行われた後に続けて、2枚目の撮影(アップ撮影)を行う。CPU103は、2枚目の撮影に並行して、1枚目の撮影により得られたアップ写真画像に対する画像処理を実行する。   Referring to FIG. 44, CPU 103 performs the second image capturing (up image capturing) after the first image capturing (up image capturing) is performed. The CPU 103 executes image processing on the up-photo image obtained by the first shooting in parallel with the second shooting.

画像処理では、目の写り選択画面530に表示するため、1枚の写真画像に対して、「ハデ目」「オススメ」「ナチュラル」の3種類に対応するように目のサイズを調整した、表示用の写真画像を3つ生成する。あわせて、明るさ選択画面に表示するため、1枚の写真画像に対して、後述の「美白」「ちょっと美白」「オススメ」「ちょっと美黒」「美黒」の5種類に対応するように明るさを調整した、表示用の写真画像を5つ生成する。なお、1枚の写真画像に対して、目の写りに関する画像処理を施した写真画像3種類それぞれについて、5種類の明るさを調整し、3種類×5種類=15種類の表示用の写真画像を生成してもよい。   In the image processing, display is performed on the eye-selection selection screen 530, and the size of the eyes is adjusted to correspond to three types of “defect eyes”, “recommendations”, and “natural” for one photographic image. Three photographic images are generated. In addition, since it is displayed on the brightness selection screen, it corresponds to the following five types of “whitening”, “slightly whitening”, “recommended”, “slightly beautiful black”, and “brightening black” for one photographic image. Five photographic images for display with adjusted brightness are generated. It should be noted that, for each of three types of photographic images subjected to image processing relating to the reflection of a single photographic image, five types of brightness are adjusted, and three types × 5 types = 15 types of photographic images for display. May be generated.

図44に戻って、CPU103は、1枚目の撮影により得られたアップ写真画像に対する画像処理が終了すれば、2枚目の撮影により得られたアップ写真画像に対して画像処理を開始する。このとき、3枚目の撮影(アップ撮影)は並行して、実行されている。以下、スペシャル撮影処理が終了するまで、CPU103は、撮影により得られた写真画像に対する画像処理を、撮影した順番に、撮影と並行して実行する。   Referring back to FIG. 44, when the image processing for the up-photo image obtained by the first shooting is completed, the CPU 103 starts the image processing for the up-photo image obtained by the second shooting. At this time, the third shooting (up shooting) is performed in parallel. Hereinafter, until the special shooting process is completed, the CPU 103 executes image processing on the photographic images obtained by shooting in the shooting order in parallel with shooting.

図44において、選択画面表示の左側に示す一点鎖線(時間taを示す線)は、選択画面が表示されるまでに、アップ撮影の4枚の写真画像に対する画像処理が完了していることを示す。また、全身撮影(5枚目)の写真画像に対する画像処理途中であっても、選択画面が表示できることを示している。   In FIG. 44, an alternate long and short dash line (a line indicating time ta) on the left side of the selection screen display indicates that the image processing for the four photographic images of the up-shooting is completed before the selection screen is displayed. . Further, it is shown that the selection screen can be displayed even during the image processing for the photographic image of the whole body photographing (fifth image).

このようにすることにより、選択画面には表示しない全身写真画像に対する画像処理の完了を待たずに選択画面を表示し選択の受け付けを開始することができ、プレイ時間を短縮することが可能となる。   In this way, the selection screen can be displayed and the acceptance of the selection can be started without waiting for completion of the image processing for the whole body photo image not displayed on the selection screen, and the play time can be shortened. .

[目の写り選択画面の表示]
以下、図21に示す目の写り選択画面530が表示される場合を例にして、CPU103により実行される目の写り選択処理を詳しく説明する。
[Displaying the screen selection screen]
In the following, the eye shadow selection process executed by the CPU 103 will be described in detail, taking as an example the case where the eye shadow selection screen 530 shown in FIG. 21 is displayed.

図45は、CPU103により実行される目の写り選択処理のフローチャートである。まず、CPU103は、目の写り選択画面530を表示する(ステップS251)。   FIG. 45 is a flowchart of the eye image selection process executed by the CPU 103. First, the CPU 103 displays an eye-shadow selection screen 530 (step S251).

CPU103は、目の写りの選択の制限時間が終了したかを判定する(ステップS252)。制限時間が終了していない場合(ステップS252においてNo)、決定ボタン536がタッチされたか否かを判定する(ステップS253)。決定ボタンがタッチされていない場合(ステップS253でNo)、サイズ選択ボタン535a〜535cのいずれかがタッチされたか判定する(ステップS254)。サイズ選択ボタン535a〜535cのいずれもタッチされていない場合(ステップS254でNo)、ステップS252に戻り、処理を繰り返す。つまり、制限時間に達するか、決定ボタンがタッチされるまで、処理を繰り返す。   The CPU 103 determines whether or not the time limit for selecting the appearance of eyes has expired (step S252). If the time limit has not expired (No in step S252), it is determined whether or not the enter button 536 has been touched (step S253). If the determination button is not touched (No in step S253), it is determined whether any of the size selection buttons 535a to 535c is touched (step S254). If none of the size selection buttons 535a to 535c is touched (No in step S254), the process returns to step S252 and the process is repeated. That is, the process is repeated until the time limit is reached or the determination button is touched.

CPU103は、サイズ選択ボタン535a〜535cのいずれかがタッチされた場合(ステップS254においてYes)、目の写り選択画面530に表示されているアップ写真画像531〜534を切り替える(ステップS255)。具体的には、目の写り選択画面530に表示されているアップ写真画像531〜534が、事前に画像処理され、タッチされたボタンに対応する目のサイズのアップ写真画像に変更される。   When any of the size selection buttons 535a to 535c is touched (Yes in step S254), the CPU 103 switches the up-photo images 531 to 534 displayed on the eye-copying selection screen 530 (step S255). Specifically, the up-photo images 531 to 534 displayed on the eye-selection selection screen 530 are subjected to image processing in advance and changed to an up-size photo image having an eye size corresponding to the touched button.

前述したとおり、CPU103は、通常撮影処理又はスペシャル撮影処理の間に、3種類の目のサイズに対応するアップ写真画像を既に生成している。このため、CPU103は、サイズ選択ボタン535a〜535cのいずれかがタッチされた場合、アップ写真画像531〜534を速やかに切り替えることができる。ユーザの操作のイライラ感を抑えることができる。   As described above, the CPU 103 has already generated up-photo images corresponding to three types of eye sizes during the normal shooting process or the special shooting process. Therefore, the CPU 103 can quickly switch the up photo images 531 to 534 when any of the size selection buttons 535a to 535c is touched. An irritated feeling of the user's operation can be suppressed.

CPU103は、目の写りの選択の制限時間が終了した場合(ステップS252でYes)、又は決定ボタン536がタッチされた場合(ステップS253でYes)、現在選択されている目のサイズで決定し、そのサイズ情報を保存し(ステップS257)、図20に示す処理を終了する。   When the time limit for selecting the appearance of the eye has expired (Yes in step S252) or when the determination button 536 is touched (Yes in step S253), the CPU 103 determines the size of the currently selected eye, The size information is saved (step S257), and the process shown in FIG.

[明るさ選択処理(ステップS206)]
CPU103は、目の写り選択処理(ステップS205)の後に、明るさ選択処理(ステップS206)を実行する。明るさ選択処理(ステップS206)は、画像処理の内容が明るさの変更処理である点、図21に示す目の写り選択画面に代えて図35に示す明るさ選択画面が表示される点を除き、上述の目の写り選択処理と同様に実行される。
[Brightness selection processing (step S206)]
The CPU 103 executes a brightness selection process (step S206) after the eye shadow selection process (step S205). The brightness selection process (step S206) is that the content of the image process is a brightness change process, and that the brightness selection screen shown in FIG. 35 is displayed instead of the image selection screen shown in FIG. Except for this, it is executed in the same manner as in the above-described eye image selection process.

なお、事前の画像処理で目の写り3種類×明るさ5種類の15種類の写真画像が生成されている場合は、先の目の写り選択で選択された種類の写真画像が表示される。具体的には、目の写り選択で「ハデ目」が選択された場合、事前の画像処理において、目の写りが「ハデ目」で明るさが「オススメ」で画像処理された写真画像が表示され、たとえばユーザが「美白」にタッチすると、目の写りが「ハデ目」で、明るさが「美白」で画像処理された写真画像に切り替わる。   If 15 types of photographic images of 3 types of eye exposure × 5 types of brightness have been generated in advance image processing, the photographic image of the type selected by the previous eye image selection is displayed. Specifically, when “Spotted Eye” is selected in the image selection, a photographic image that has been processed with “Spotted Eye” and brightness “Recommended” is displayed in advance image processing. For example, when the user touches “whitening”, the image is switched to a photographic image in which the image of the eyes is “deformed” and the brightness is “whitening”.

このようにすることで、操作のイライラ感がなく、また目の写りと明るさが組み合わさったイメージでの選択が可能となる。   By doing so, there is no irritating feeling of the operation, and it is possible to select an image in which the image of the eyes and brightness are combined.

[脚補正処理]
以下、全身写真画像に対して施される脚補正処理について詳しく説明する。CPU103は、図27に示す事前接客処理において背景選択画面を表示する(ステップS106)。ユーザが、全身写真画像と合成する背景画像として、脚補正処理の対象となる背景画像を選択した場合(図30参照)、CPU103は、全身写真画像に対して脚補正処理を実行する。また、CPU103は、全身写真画像を得るようにカメラ22を制御する際に、脚補正の対象領域を、撮影用ディスプレイ23に表示される映像に重ねて表示する。
[Leg correction processing]
Hereinafter, the leg correction process performed on the whole body photographic image will be described in detail. The CPU 103 displays a background selection screen in the prior customer service process shown in FIG. 27 (step S106). When the user selects a background image to be subjected to leg correction processing as a background image to be combined with the whole body photographic image (see FIG. 30), the CPU 103 executes leg correction processing on the whole body photographic image. Further, when the CPU 103 controls the camera 22 so as to obtain a whole body photographic image, the leg correction target region is displayed so as to overlap the video displayed on the photographing display 23.

最初に、脚補正の対象領域を、撮影用ディスプレイ23に表示される映像に重ねて表示する理由を説明する。   First, the reason why the leg correction target area is displayed so as to overlap the image displayed on the photographing display 23 will be described.

図46は、脚補正処理の概略を説明する図である。図46(a)は、脚補正処理が行われていない全身写真画像57を示す図である。図46(b)は、脚補正処理が行われた全身写真画像57を示す図である。図46(a)を参照して、全身写真画像57中の下側領域571の画像が、脚補正領域の対象となる。図46(a)では、下側領域571が、人物572の脚の範囲と対応しているが、下側領域571が、人物572の脚と一致するとは限らない。   FIG. 46 is a diagram for explaining the outline of the leg correction process. FIG. 46A shows a whole body photographic image 57 that has not been subjected to leg correction processing. FIG. 46B is a diagram showing a whole body photographic image 57 on which leg correction processing has been performed. Referring to FIG. 46A, the image of the lower region 571 in the whole body photographic image 57 is the target of the leg correction region. In FIG. 46A, the lower region 571 corresponds to the leg range of the person 572, but the lower region 571 does not necessarily match the leg of the person 572.

CPU103は、下側領域571の画像を縦方向に伸ばすことにより、脚補正処理を行う。2人の人物572の脚が下側領域571に存在する場合、脚補正処理により、2人の人物572の脚が長くなるため、人物572のスタイルを良く見せることができる。   The CPU 103 performs leg correction processing by extending the image of the lower region 571 in the vertical direction. When the legs of the two persons 572 are present in the lower region 571, the legs of the two persons 572 are lengthened by the leg correction process, so that the style of the person 572 can be shown well.

図47は、脚補正処理を実行することにより生じる問題点を説明する図である。図47(a)は、脚補正処理が行われていない全身写真画像58を示す図である。図47(b)は、脚補正処理が行われた全身写真画像58を示す図である。   FIG. 47 is a diagram for explaining a problem caused by executing the leg correction process. FIG. 47A is a diagram showing a whole body photographic image 58 that has not undergone leg correction processing. FIG. 47B is a diagram showing the whole body photographic image 58 on which the leg correction process has been performed.

図47(a)を参照して、全身写真画像58は、4人の人物の顔を含み、4人の人物のうち2人の人物58aの顔が、脚補正の対象となる下側領域581に位置している。図47(a)に示す全身写真画像58に対して脚補正処理を実行した場合、2人の人物58aの顔が、全身写真画像58の上側に位置する2人の人物58bの顔よりも縦方向に長くなり、写真写りが人物ごとに異なるという問題が発生する。   Referring to FIG. 47 (a), whole body photo image 58 includes the faces of four persons, and the face of two persons 58a out of the four persons is a lower region 581 that is subject to leg correction. Is located. When the leg correction process is executed on the whole body photographic image 58 shown in FIG. 47A, the faces of the two persons 58a are longer than the faces of the two persons 58b positioned above the whole body photographic image 58. It becomes longer in the direction, and the problem arises that the photo is different for each person.

このような問題の発生を防ぐために、CPU103は、脚補正処理の対象である背景画像が選択された場合、脚補正の対象領域を撮影時に表示する。これにより、人物の顔のサイズが脚補正処理により変化することを防ぐことができる。以下、詳しく説明する。   In order to prevent the occurrence of such a problem, the CPU 103 displays a leg correction target area at the time of photographing when a background image that is a target of leg correction processing is selected. Thereby, it can prevent that the size of a person's face changes by leg correction processing. This will be described in detail below.

図48は、CPU103により実行される脚補正処理のフローチャートである。図48に示す脚補正処理は、実際には、撮影処理(図34参照)の一部として実行される。   FIG. 48 is a flowchart of leg correction processing executed by the CPU 103. The leg correction process shown in FIG. 48 is actually executed as part of the shooting process (see FIG. 34).

図48を参照して、CPU103は、脚補正処理の対象となる背景画像が選択されているか否かを判定する(ステップS221)。ステップS221は、通常撮影処理(ステップS202、図36A参照)の前に実行される。   Referring to FIG. 48, CPU 103 determines whether or not a background image to be subjected to leg correction processing has been selected (step S221). Step S221 is executed before the normal photographing process (step S202, see FIG. 36A).

CPU103は、アップ撮影モードによる撮影を実行して、アップ写真画像を生成する(ステップS222)。CPU103は、生成されたアップ写真画像に対して顔認識処理を実行して、生成されたアップ写真画像に含まれる人物の顔の数をカウントする(ステップS223)。ステップS222、S223は、アップ写真画像が生成されるたびに実行される。つまり、ステップS222、S223は、4回繰り返して実行される。   The CPU 103 executes shooting in the up shooting mode and generates an up photo image (step S222). The CPU 103 performs face recognition processing on the generated up-photo image and counts the number of human faces included in the generated up-photo image (step S223). Steps S222 and S223 are executed each time an up photo image is generated. That is, steps S222 and S223 are repeated four times.

CPU103は、アップ撮影モードによる撮影が終了した場合(全身撮影モードによる撮影の前に)、各アップ写真画像でカウントされた顔の数の合計が所定数以上であるか否を判定する(ステップS224)。合計が所定数以上である場合(ステップS224において)、CPU103は、多人数での撮影であり、人物の顔が全身写真画像における脚補正の対象領域に存在する可能性が高いと判定する。CPU103は、撮影用ディスプレイ23に表示されるライブ映像に、脚補正の対象領域を表示する(ステップS225)。なお、CPU103は、ステップS224において、アップ写真画像1枚当たりの顔の数を計算し、所定数と比較してもよい。   When the shooting in the up shooting mode is completed (before shooting in the whole body shooting mode), the CPU 103 determines whether or not the total number of faces counted in each up shooting image is a predetermined number or more (step S224). ). When the total is equal to or greater than the predetermined number (in step S224), the CPU 103 determines that there is a high possibility that the face of a person is present in the leg correction target region in the whole body photographic image because the image is taken by a large number of people. The CPU 103 displays the leg correction target area on the live video displayed on the photographing display 23 (step S225). In step S224, the CPU 103 may calculate the number of faces per up-photo image and compare it with a predetermined number.

図49は、脚補正の対象領域が表示されたライブ映像の一例を示す図である。図49を参照して、CPU103は、水平方向に延びる点線592を、ライブ映像591上に重ねて表示される。点線592は、脚補正の対象領域の上限に配置される。また、CPU103は、ライブ映像591とともに、「点線より下の部分に顔を写すと顔が伸びちゃうよ!」というメッセージを表示して、点線592より下の領域が脚補正の対象領域であることをユーザに知らせる。   FIG. 49 is a diagram illustrating an example of a live video in which a leg correction target area is displayed. Referring to FIG. 49, CPU 103 displays a dotted line 592 extending in the horizontal direction on live video 591. A dotted line 592 is arranged at the upper limit of the leg correction target area. In addition, the CPU 103 displays a message “A face will be stretched if a face is captured below the dotted line!” Along with the live video 591, and the area below the dotted line 592 is the leg correction target area. To the user.

なお、CPU103は、脚補正の対象領域と対象外領域とを色分け表示することにより、脚補正の対象領域をユーザに知らせてもよい。あるいは、CPU103は、脚補正の対象領域を示す矢印を、ライブ映像591の左右両側に配置してもよい。つまり、CPU103は、ステップS225において、ライブ映像を表示する際に、脚補正の対象領域を明示すればよい。   Note that the CPU 103 may notify the user of the leg correction target area by displaying the leg correction target area and the non-target area in different colors. Alternatively, the CPU 103 may arrange arrows indicating the leg correction target area on both the left and right sides of the live video 591. That is, in step S225, the CPU 103 may clarify the target area for leg correction when displaying a live video.

再び図48を参照する。CPU103は、脚補正の対象領域を表示した(ステップS225)後に、カメラ22を制御して全身写真画像を得る。CPU103は、全身写真画像に対して脚補正処理を施し(ステップS226)、図48に示す処理を終了する。   Refer to FIG. 48 again. After displaying the leg correction target area (step S225), the CPU 103 controls the camera 22 to obtain a whole body photographic image. CPU103 performs a leg correction process with respect to a whole body photograph image (step S226), and complete | finishes the process shown in FIG.

ステップS224において、合計が所定値よりも小さい場合(ステップS224においてNo)、撮影人数が少ないため、脚補正の対象領域に顔が存在する可能性は小さいと考えられる。この場合、CPU103は、ライブ映像591上に脚補正の対象領域を示さずに全身写真画像を生成し、全身写真画像に対して脚補正処理を実行する(ステップS226)。   In step S224, when the total is smaller than the predetermined value (No in step S224), it is considered that the possibility that a face exists in the leg correction target area is small because the number of photographers is small. In this case, the CPU 103 generates a whole body photographic image without showing the target region for leg correction on the live video 591 and executes leg correction processing on the whole body photographic image (step S226).

ステップS221において、選択された背景画像が脚補正の対象でない場合(ステップS221においてNo)、CPU103は、脚補正の対象領域をライブ映像591上に表示せず、脚補正処理も行わないことを決定し(ステップS227)、図48に示す処理を終了する。   In step S221, when the selected background image is not a leg correction target (No in step S221), the CPU 103 determines that the leg correction target area is not displayed on the live video 591 and the leg correction process is not performed. (Step S227), and the process shown in FIG. 48 is terminated.

このように、CPU103は、アップ写真画像に含まれる人物の顔の合計値が所定数以上である場合、脚補正の対象領域をライブ映像の上に重ねて表示する。これにより、ユーザは、顔が脚補正の対象領域に入らないように撮影することが可能となるため、ユーザの意図に反して顔が縦に長くなることを防ぐことができる。   As described above, when the total value of the human faces included in the up-photo image is equal to or larger than the predetermined number, the CPU 103 displays the leg correction target region so as to overlap the live video. Accordingly, the user can take an image so that the face does not enter the leg correction target area, and thus it is possible to prevent the face from being lengthened against the user's intention.

なお、CPU103は、脚補正処理として、図50に示す処理を実行してもよい。図50は、脚補正処理のフローチャートの変形例を示す図である。図50を参照して、CPU103は、顔の数の合計が所定数よりも小さい場合(ステップS224においてYes)、生成された全身写真画像に対して脚補正処理を実行する(ステップS226)。一方、合計値が所定数以上である場合(ステップS224においてYes)、生成された全身写真画像に対して脚補正処理を施さないことを決定し(ステップS228)、図49に示す処理を終了する。   Note that the CPU 103 may execute the process shown in FIG. 50 as the leg correction process. FIG. 50 is a diagram illustrating a modification of the flowchart of the leg correction process. Referring to FIG. 50, when the total number of faces is smaller than the predetermined number (Yes in step S224), CPU 103 executes leg correction processing on the generated whole body photo image (step S226). On the other hand, if the total value is equal to or larger than the predetermined number (Yes in step S224), it is determined that the leg correction process is not performed on the generated whole body photo image (step S228), and the process shown in FIG. 49 is ended. .

また、CPU103は、脚補正処理を実行するか否かを、撮影処理が終了した後にユーザに選択させるようにしてもよい。また、脚補正処理を実行するか否かを、全身写真画像の一枚単位でユーザに選択させるようにしてもよい。   Further, the CPU 103 may allow the user to select whether or not to execute the leg correction process after the photographing process is completed. Further, the user may select whether or not to execute the leg correction process for each whole body photo image.

[画像編集処理]
次に、画像編集処理の詳細を説明する。CPU103は、制御プログラムに基づいて画像編集処理を実行する。画像編集処理では、CPU103は、落書き処理を実行し、落書き処理で生成された編集画像と通常写真画像を合成し、通常合成画像を生成する。また、ユーザの事前の選択に応じて、全身コラージュ画像41、カバーショット画像48、及び全身ピンプリ画像49のいずれかの特殊合成画像を生成する。その後、CPU103は、特殊合成画像及び通常合成画像を含むシート画像40を生成してシール紙に印刷する。全身ピンプリ画像49はシール紙に印刷されなくてもよく、後述の携帯電話機などに送信される画像として生成するだけでもよい。
[Image editing processing]
Next, details of the image editing process will be described. The CPU 103 executes image editing processing based on the control program. In the image editing process, the CPU 103 executes a graffiti process, synthesizes the edited image generated by the graffiti process and the normal photo image, and generates a normal composite image. Also, a special composite image of any one of the whole body collage image 41, the cover shot image 48, and the whole body pin pre-image 49 is generated according to the user's prior selection. Thereafter, the CPU 103 generates a sheet image 40 including the special composite image and the normal composite image and prints it on the sticker paper. The whole body pin pre-image 49 does not have to be printed on the sticker paper, but may be generated only as an image to be transmitted to a later-described mobile phone or the like.

落書き処理において、ユーザは、上記撮影処理で生成された写真画像に対して落書きをすることができる。落書きした内容に基づき編集画像が生成される。たとえば、ユーザは、落書きの際に、予め用意されたスタンプ画像やペンツールによりユーザが入力した文字列、図形などの手書き画像などが、写真画像の上に配置される編集画像として生成される。スペシャル撮影処理で生成された写真画像は、落書きの対象としてもよく、対象としなくてもよい。落書きの対象としない写真画像については編集画像は生成されない。   In the graffiti process, the user can make a graffiti on the photographic image generated by the shooting process. An edited image is generated based on the doodled content. For example, when a user doodles, a stamp image prepared in advance or a handwritten image such as a character string or a figure input by the user with a pen tool is generated as an edited image arranged on the photographic image. The photographic image generated by the special shooting process may or may not be a graffiti target. Edited images are not generated for photographic images that are not subject to graffiti.

図51は、写真撮影遊戯機1により実行される画像編集処理のフローチャートである。図51を参照して、CPU103は、画像編集処理の開始を促す移動待ち画像画面を編集用ディスプレイ311に表示する(ステップS301)。ユーザが、タッチペン312で編集用ディスプレイ311をタッチしたとき、残り編集時間のカウントダウンを開始する(ステップS302)。   FIG. 51 is a flowchart of the image editing process executed by the photography game machine 1. Referring to FIG. 51, CPU 103 displays a movement waiting image screen for prompting the start of image editing processing on editing display 311 (step S301). When the user touches the editing display 311 with the touch pen 312, the remaining editing time starts to be counted down (step S302).

[落書き処理]
次に、CPU103は落書き処理を実行する(S303)。図52は、写真撮影遊戯機1により実行される落書き処理のフローチャートである。図53は、落書き処理のときに、編集用ディスプレイ311に表示される編集画面を示す図である。
[Doodle processing]
Next, the CPU 103 executes graffiti processing (S303). FIG. 52 is a flowchart of the graffiti process executed by the photography game machine 1. FIG. 53 is a diagram showing an editing screen displayed on the editing display 311 during the graffiti process.

図52を参照して、CPU103は、Myエッセンス編集画像を作成し(ステップS401)、図53に示す編集画面を編集用ディスプレイ311に表示する(ステップS402)。Myエッセンス編集画像については、後述する。   Referring to FIG. 52, CPU 103 creates a My essence edited image (step S401), and displays the editing screen shown in FIG. 53 on editing display 311 (step S402). The My essence edited image will be described later.

図53を参照して、編集画面には、左右に2つの編集領域60L及び60Rが表示される。2人のユーザは、編集領域60L,60Rで写真画像をそれぞれ編集することができる。また、写真画像が落書ききりかえ75に表示され、左右のユーザの選択操作により、編集領域60L及び60Rのいずれかに割り当てられる。これにより、各々の編集領域60で異なる写真画像を編集することができる。したがって、編集画像が写真画像ごとに作成される。   Referring to FIG. 53, the edit screen displays two edit areas 60L and 60R on the left and right. Two users can edit the photographic images in the editing areas 60L and 60R, respectively. Also, a photographic image is displayed on the graffiti replacement 75 and is assigned to one of the editing areas 60L and 60R by the selection operation of the left and right users. Thereby, a different photographic image can be edited in each editing area 60. Therefore, an edited image is created for each photographic image.

編集画面にはさらに、写真シール用に編集処理を行うための「通常落書きへ」のボタン76Lと、ブログに貼り付ける素材(ブログパーツ)用に編集処理を行うための「ブログ用落書きへ」のボタン76Rとが表示される。   The edit screen further includes a button 76L for “to normal graffiti” for editing processing for photo stickers and “to graffiti for blog” for editing processing for material (blog parts) to be pasted on a blog. A button 76R is displayed.

編集画面にはさらに、Myエッセンス、スペシャル、スタンプ、クルクル、メッセージ、ペン、といった編集ツールを選択するための編集ツール選択ボタン61が表示される。編集ツール選択ボタン61は、「通常落書きへ」のボタン76Lを選択した場合と、「ブログ用落書きへ」のボタン76Rを選択した場合とで、異なる。具体的には、「通常落書きへ」のボタン76Lが選択された場合、編集ツール選択ボタン61Rが表示される。一方、「ブログ用落書きへ」のボタン76Rが選択された場合、編集ツール選択ボタン61Lが表示される。つまり、「通常落書き」の場合、Myエッセンス、スペシャル、スタンプ、クルクル、メッセージ及びペンボタンが表示される。一方、「ブログ用落書きへ」のボタン76Rが選択された場合、編集ツール選択ボタン61Lが表示される。つまり、写真画像からブログパーツを作成するために、トップ画像ボタン、プロフ画像ボタン、コメント用画像ボタンが表示される。ここで、トップ画像は、ブログの一番上に配置されるタイトル用の画像である。プロフ画像は、ブログにおいて、ユーザのプロフィールを表示する欄に配置される画像である。コメント用画像は、ブログのコメント欄に配置される画像である。   The editing screen further displays an editing tool selection button 61 for selecting an editing tool such as My Essence, Special, Stamp, Twirl, Message, and Pen. The editing tool selection button 61 is different depending on whether the “to normal graffiti” button 76L is selected or the “to blog graffiti” button 76R is selected. Specifically, when the button 76L “to normal graffiti” is selected, an editing tool selection button 61R is displayed. On the other hand, when the “to blog graffiti” button 76R is selected, an editing tool selection button 61L is displayed. That is, in the case of “normal graffiti”, My essence, special, stamp, curl, message, and pen button are displayed. On the other hand, when the “to blog graffiti” button 76R is selected, an editing tool selection button 61L is displayed. That is, in order to create a blog part from a photographic image, a top image button, a prof image button, and a comment image button are displayed. Here, the top image is an image for a title arranged at the top of the blog. A prof image is an image arranged in a field for displaying a user's profile in a blog. The comment image is an image arranged in the comment field of the blog.

タッチペン312により所望の編集ツール選択ボタン61がタッチされると、タッチされた編集ツールに対応したパレット67が編集領域60の下に表示される。本実施の形態では、左側のパレット67において、「ブログ用落書き」用のトップ画像ツールが選択され、右側のパレット67において、「通常落書き」用のスペシャルツールが選択されている。各パレット67には、選択された編集ツールで利用可能なデザインの編集画像が表示された複数の選択ボタン64が配列されている。たとえば、スペシャルツールが選択された右側のパレット67には、スタンプ画像、クルクル画像、メッセージ画像、ペン画像の複数の編集画像が表示された複数の選択ボタン64が表示されている。   When a desired editing tool selection button 61 is touched with the touch pen 312, a palette 67 corresponding to the touched editing tool is displayed under the editing area 60. In the present embodiment, the top image tool for “blog graffiti” is selected in the left palette 67, and the special tool for “normal graffiti” is selected in the right palette 67. In each palette 67, a plurality of selection buttons 64 on which edit images of designs that can be used with the selected editing tool are displayed are arranged. For example, a plurality of selection buttons 64 displaying a plurality of edited images of a stamp image, a kurukuru image, a message image, and a pen image are displayed on the right pallet 67 from which the special tool is selected.

編集ツール選択ボタン61R内の「Myエッセンス」ツールを選択した場合、図54及び図55のように、名前入力画面(図27のステップS105参照)に入力された文字列に応じて作成された複数の編集画像(文字列画像)がパレット67の選択ボタン64内に表示される。たとえば、文字列「まい」と、文字列「さおり」が、ユーザの名前として入力された場合、CPU103は、「まい」と「さおり」に基づいて、種々の編集画像を作製する。   When the “My Essence” tool in the editing tool selection button 61R is selected, as shown in FIG. 54 and FIG. 55, a plurality of items created according to the character string input on the name input screen (see step S105 in FIG. 27). The edited image (character string image) is displayed in the selection button 64 of the palette 67. For example, when the character string “Mai” and the character string “Saori” are input as the user's name, the CPU 103 creates various edited images based on “Mai” and “Saori”.

具体的には、図54では、CPU103は、各文字列「まい」「さおり」の文字列画像からなる編集画像を作製する。CPU103はさらに、「マイ」、「MAI」、「まっちゃん」等、文字列「まい」を変換した編集画像や、「まい」に基づいて作成された新たな編集画像(ニックネーム等)を作成したりする。図55では、CPU103は、「まい」及び「さおり」に基づいて、「まい」と「さおり」をペアで表記する種々の編集画像を作成する。   Specifically, in FIG. 54, the CPU 103 creates an edited image composed of character string images of the character strings “Mai” and “Saori”. The CPU 103 further creates an edited image obtained by converting the character string “mai”, such as “My”, “MAI”, “machan”, or a new edited image (nickname, etc.) created based on “mai”. To do. In FIG. 55, the CPU 103 creates various edited images that represent “mai” and “saori” in pairs based on “mai” and “saori”.

これら「Myエッセンス」の編集画像は、編集画面が表示される前に、CPU103が、ステップS105で表示される名前入力画面に入力された文字列に基づいて、CPU103により作成される(図52のステップS401)。このように、ステップS105で表示される名前入力画面に入力された文字列は、編集画像として利用される。   These edited images of “My Essence” are created by the CPU 103 based on the character string input to the name input screen displayed in step S105 before the editing screen is displayed (FIG. 52). Step S401). Thus, the character string input on the name input screen displayed in step S105 is used as an edited image.

また、図54及び図55を参照して、「Myエッセンス」ツールが選択された場合に表示されるパレット67は、名前修正ボタン671を備える。ユーザは、名前修正ボタン671にタッチすることにより、名前入力処理(図27のステップS105参照)で入力した文字列を修正することができる。修正された名前に応じて図54及び図55に示すパレット67に表示される編集画像を作製しなおすことができる。   Referring to FIGS. 54 and 55, the palette 67 displayed when the “My Essence” tool is selected includes a name correction button 671. The user can correct the character string input in the name input process (see step S105 in FIG. 27) by touching the name correction button 671. The edited image displayed on the palette 67 shown in FIGS. 54 and 55 can be recreated according to the corrected name.

図53に戻って、編集画面には、他の編集ツールとして、編集処理ツール74も表示される。編集処理ツール74には、落書きを初めからやり直す「最初から」のボタンや、1つ前の編集処理に戻る「戻る」のボタン、1つ後の編集処理に進む「進む」のボタン、各パレット67内に表示されている複数の編集画像を回転する「回転」のボタン、編集により入力された編集画像を消去する「消しゴム」のボタン等が含まれる。   Returning to FIG. 53, an editing processing tool 74 is also displayed on the editing screen as another editing tool. The editing processing tool 74 includes a “start from the beginning” button for redoing the graffiti from the beginning, a “back” button for returning to the previous editing processing, a “forward” button for proceeding to the next editing processing, and each palette. 67 includes a “rotate” button for rotating a plurality of edited images displayed in 67, an “eraser” button for deleting an edited image input by editing, and the like.

他の編集ツールとして、「一発落書き」のボタン77も表示される。「一発落書き」のボタン77を選択した場合、複数のサンプル画像が表示される。表示されるサンプル画像は、「通常落書き」と、携帯電話機などへ送信される画像として、たとえば「ブログ用落書き」とで異なる。ユーザが、複数のサンプル画像の中からいずれか一つを選択した場合、サンプル画像内の複数の編集画像の組合せが、編集領域60内の写真画像に対応して表示される。要するに、「一発落書き」のボタン77を利用すれば、短時間で編集処理を終えることができる。   As another editing tool, a “one-shot graffiti” button 77 is also displayed. When the “one-shot graffiti” button 77 is selected, a plurality of sample images are displayed. The displayed sample image is different from “normal graffiti” and, for example, “blog graffiti” as an image transmitted to a mobile phone or the like. When the user selects any one of the plurality of sample images, a combination of the plurality of edited images in the sample image is displayed corresponding to the photographic image in the editing area 60. In short, the editing process can be completed in a short time by using the “one-shot graffiti” button 77.

また、右側のパレット67において、「半透明」タブ69が選択された場合、図56に示すように、半透明スタンプを選択するための半透明パレット62が編集画面に表示される。半透明パレット62は、様々なスタンプの絵柄ボタン67aと、透明度を設定する透明度設定ボタン67bと、スタンプの色を設定するカラーパレット67cとを備える。ユーザは、半透明パレット62を操作することによって、半透明スタンプを編集画像として作成することができる。   When the “semi-transparent” tab 69 is selected in the right palette 67, a semi-transparent palette 62 for selecting a semi-transparent stamp is displayed on the editing screen as shown in FIG. The translucent palette 62 includes various stamp pattern buttons 67a, a transparency setting button 67b for setting the transparency, and a color palette 67c for setting the color of the stamp. The user can create a translucent stamp as an edited image by operating the translucent palette 62.

たとえば、ユーザが、ハートマークが描画された絵柄ボタン67aを選択し、カラーパレット67cにおいて青を選択したと仮定する。この場合、CPU103は、青のハートが描画された編集画像を生成する。そして、ユーザは、「薄い」、「普通」、「濃い」の透明度設定ボタン67bのいずれかを選択する。「薄い」の透明度設定ボタン67bが選択された場合、CPU103は、透明度が70%に設定された青いハートの画像(編集画像)を生成する。同様に、「普通」、「濃い」の透明度設定ボタン67bが選択された場合、CPU103は、透明度が50%、30%に設定された編集画像を生成する。ユーザが、生成された半透明スタンプ(編集画像)の貼り付け位置を指定した場合、半透明スタンプが、編集領域60R内の写真画像に貼り付けられる。   For example, assume that the user selects the design button 67a on which a heart mark is drawn and selects blue in the color palette 67c. In this case, the CPU 103 generates an edited image in which a blue heart is drawn. Then, the user selects one of the transparency setting buttons 67b of “light”, “normal”, and “dark”. When the “light” transparency setting button 67b is selected, the CPU 103 generates a blue heart image (edited image) with transparency set to 70%. Similarly, when the “normal” or “dark” transparency setting button 67b is selected, the CPU 103 generates an edited image whose transparency is set to 50% or 30%. When the user designates the paste position of the generated translucent stamp (edited image), the translucent stamp is pasted on the photographic image in the edit area 60R.

なお、CPU103は、「薄い」の透明度設定ボタン67bがタッチされた回数に応じて、編集画像の透明度が順次高くなるようにしてもよい。逆に、CPU103は、「濃い」の透明度設定ボタン67bがタッチされた回数に応じて、編集画像の透明度が順次低くなるようにしてもよい。ただし、透明度を余り高くすると、編集画像が見にくくなるおそれがあるため、変更可能な透明度の範囲には所定の制限がある。また、半透明パレット62内の全ての編集画像の透明度が変化するようになっていてもよく、また、選択された1つの編集画像の透明度のみが変化するようになっていてもよい。また、半透明スタンプ以外の通常の不透明スタンプを半透明にするようになっていてもよい。また、半透明スタンプの透明度は絵柄ボタン67aごとに予め設定されていてもよい。   Note that the CPU 103 may sequentially increase the transparency of the edited image in accordance with the number of times the “light” transparency setting button 67b is touched. Conversely, the CPU 103 may sequentially decrease the transparency of the edited image in accordance with the number of times the “dark” transparency setting button 67b is touched. However, if the transparency is too high, the edited image may be difficult to see, and therefore there is a predetermined limitation on the range of transparency that can be changed. Further, the transparency of all the edited images in the semi-transparent palette 62 may be changed, or only the transparency of one selected edited image may be changed. Also, a normal opaque stamp other than the translucent stamp may be made translucent. Further, the transparency of the translucent stamp may be set in advance for each pattern button 67a.

また、右側のパレット67において、「ハート」タブ80が選択された場合、図57に示すように、様々な模様のハートのスタンプを選択するためのパレット81が編集画面に表示される。パレット81は、絵柄ボタン82と、回転ボタン84a,84bと、回転解除ボタン85と、サイズボタン86とを備える。絵柄ボタン82には、スタンプの絵柄としてハートが描かれている。ユーザは、回転ボタン84a,84bを操作することによって、ハートのスタンプを、編集画面に並行な水平軸を中心に回転させることができる。   Further, when the “heart” tab 80 is selected in the right palette 67, as shown in FIG. 57, a palette 81 for selecting heart stamps of various patterns is displayed on the editing screen. The palette 81 includes a pattern button 82, rotation buttons 84a and 84b, a rotation release button 85, and a size button 86. A heart is drawn on the design button 82 as a design of the stamp. The user can rotate the heart stamp around a horizontal axis parallel to the editing screen by operating the rotation buttons 84a and 84b.

なお、回転ボタン84a,84b及び回転解除ボタン85は、パレット81だけでなく、回転可能なスタンプの編集用パレットに表示される。たとえば、回転ボタン84a,84b及び回転解除ボタンは、文字列スタンプの編集用パレットにも表示される。   The rotation buttons 84a and 84b and the rotation release button 85 are displayed not only on the palette 81 but also on a rotatable stamp editing palette. For example, the rotation buttons 84a and 84b and the rotation release button are also displayed on the character string stamp editing palette.

以下、ユーザが、文字列スタンプを回転させる場合を例にして、スタンプの回転操作について説明する。図58は、回転ボタン84aがタッチされたときにおける、文字列スタンプ87の変化を示す図である。図58を参照して、ユーザが回転ボタン84aを1回タッチした場合、CPU103は、文字列スタンプ87の上側を奥方向に倒すようにして、水平軸88を中心に文字列スタンプ87を5°回転させる。ユーザは、回転ボタン84aを繰り返しタッチすることにより、回転角を増加させることができる。回転角のピッチは、1回のタッチあたり5°である。CPU103は、回転角が45°となった場合、回転ボタン84aがタッチされても、回転角を増加させない。   Hereinafter, the stamp rotation operation will be described with reference to an example in which the user rotates the character string stamp. FIG. 58 is a diagram showing a change in the character string stamp 87 when the rotation button 84a is touched. Referring to FIG. 58, when the user touches rotation button 84a once, CPU 103 tilts the upper side of character string stamp 87 in the back direction, and causes character string stamp 87 to move 5 ° about horizontal axis 88. Rotate. The user can increase the rotation angle by repeatedly touching the rotation button 84a. The pitch of the rotation angle is 5 ° per touch. When the rotation angle reaches 45 °, the CPU 103 does not increase the rotation angle even if the rotation button 84a is touched.

図59は、回転ボタン84bがタッチされたときにおける、文字列スタンプ87の変化を示す図である。図59を参照して、水平軸88は、編集画面に平行した水平な直線である。ユーザが回転ボタン84bを1回タッチした場合、CPU103は、文字列スタンプ87の上側を手前方向に倒すようにして、水平軸88を中心に文字列スタンプ87を5°回転させる。ユーザは、回転ボタン84aと同様に、回転ボタン84bを繰り返しタッチすることで、回転角を増加させることができる。回転角の最大値は、45°である。   FIG. 59 is a diagram showing a change in the character string stamp 87 when the rotation button 84b is touched. Referring to FIG. 59, horizontal axis 88 is a horizontal straight line parallel to the editing screen. When the user touches the rotation button 84b once, the CPU 103 rotates the character string stamp 87 by 5 degrees about the horizontal axis 88 so that the upper side of the character string stamp 87 is tilted forward. Similarly to the rotation button 84a, the user can increase the rotation angle by repeatedly touching the rotation button 84b. The maximum value of the rotation angle is 45 °.

ユーザは、回転解除ボタン85にタッチすることにより、文字列スタンプ87の回転を解除することができる。   The user can cancel the rotation of the character string stamp 87 by touching the rotation cancel button 85.

再び図52を参照して、落書き処理の続きを説明する。編集画面が表示された後(ステップS402)、CPU103は、落書き時間が制限時間に達するか(ステップS404でYes)、ENDボタン68がタッチペン312でタッチされる(ステップS405でYes)までの間、選択された写真画像に対応する編集画像の入力を受け付ける。具体的には、CPU103がパレット67内の所望の選択ボタン64のタッチを検知すると(ステップS403でYes、ステップS406でYes)、タッチされた選択ボタン64に表示されたデザインのツールが設定される(ステップS407)。そして、編集領域60内をタッチすると(ステップS403でYes、ステップS406でNo)、タッチされた位置に、選択されたデザインの編集画像を入力する(ステップS408)。入力された編集画像は、写真画像に対応付けてメモリ105に格納される。   Referring to FIG. 52 again, the continuation of the graffiti process will be described. After the editing screen is displayed (step S402), the CPU 103 waits until the graffiti time reaches the time limit (Yes in step S404) or until the END button 68 is touched with the touch pen 312 (Yes in step S405). An input of an edited image corresponding to the selected photographic image is received. Specifically, when the CPU 103 detects a touch of a desired selection button 64 in the palette 67 (Yes in step S403, Yes in step S406), the design tool displayed on the touched selection button 64 is set. (Step S407). When the editing area 60 is touched (Yes in step S403, No in step S406), an edited image of the selected design is input to the touched position (step S408). The input edited image is stored in the memory 105 in association with the photographic image.

落書き時間が制限時間に達したとき(ステップS404でYes)、または、ENDボタン68へのタッチを検知したとき(ステップS405でYes)、CPU103は、落書き処理を終了する。   When the graffiti time reaches the time limit (Yes in step S404) or when a touch on the END button 68 is detected (Yes in step S405), the CPU 103 ends the graffiti process.

[シートレイアウト選択]
図51を参照して、落書き処理(ステップS303)の後に、CPU103は、シートレイアウトの選択画面を編集用ディスプレイ311に表示して、シート画像40を生成するためのシートレイアウトをユーザに選択させる。すなわち、CPU103は、選択されたスペシャル撮影に対応するシートレイアウト選択画面を表示して、シートレイアウトをユーザに選択させる。(ステップS321〜324)。
[Select sheet layout]
Referring to FIG. 51, after the graffiti process (step S <b> 303), CPU 103 displays a sheet layout selection screen on editing display 311 to allow the user to select a sheet layout for generating sheet image 40. That is, the CPU 103 displays a sheet layout selection screen corresponding to the selected special shooting, and allows the user to select a sheet layout. (Steps S321-324).

全身コラージュがスペシャル撮影として選択されている場合(ステップS321において「全身コラージュ」)、CPU103は、名前入力確認処理を実行し(ステップS329)、名前対応確認処理を実行する(ステップS330)。名前入力確認処理(ステップS329)では、写真撮影遊戯機1は、名前入力処理(ステップS105、図27参照)でユーザが名前を入力したか否かを確認し、名前が入力されていない場合、名前の入力をさらに促す。名前対応確認処理(ステップS330)では、写真撮影遊戯機1は、図24に示す名前確認画面610を表示して、事前接客処理で入力された名前と、個別人物画像413,414に含まれる人物41A,41Bとの対応付けを確認する(図9B参照)。名前入力確認処理(ステップS329)及び名前対応確認処理(ステップS330)の詳細は後述する。   When the whole body collage is selected as the special shooting (“whole body collage” in step S321), the CPU 103 executes a name input confirmation process (step S329), and executes a name correspondence confirmation process (step S330). In the name input confirmation process (step S329), the photography game machine 1 confirms whether or not the user has entered a name in the name input process (step S105, see FIG. 27). Prompt for a name. In the name correspondence confirmation process (step S330), the photography amusement machine 1 displays the name confirmation screen 610 shown in FIG. 24, and displays the name input in the prior customer service process and the person included in the individual person images 413 and 414. The association with 41A and 41B is confirmed (see FIG. 9B). Details of the name input confirmation process (step S329) and the name correspondence confirmation process (step S330) will be described later.

ステップS330の後に、CPU103は、全身コラージュ用のシートレイアウト選択画面(図示省略)を編集用ディスプレイ311に表示する(ステップS322)。このため、シートレイアウトの選択画面には、様々な配置パターンを有するシートレイアウトが表示される。ユーザは、シートレイアウトの選択画面の中から、好みのシートレイアウトを選択する。   After step S330, the CPU 103 displays a sheet layout selection screen (not shown) for the whole body collage on the editing display 311 (step S322). For this reason, sheet layouts having various arrangement patterns are displayed on the sheet layout selection screen. The user selects a preferred sheet layout from the sheet layout selection screen.

カバーショットがスペシャル撮影として選択されている場合(ステップS321において「カバーショット」)、CPU103は、カバーショット用のシートレイアウト選択画面(図示省略)を編集用ディスプレイ311に表示する(ステップS323)。全身ピンプリがスペシャル撮影として選択されている場合(ステップS321において「全身ピンプリ」)、CPU103は、全身ピンプリ用のシートレイアウト選択画面(図示省略)を編集用ディスプレイ311に表示する(ステップS324)。   When the cover shot is selected as the special shooting (“cover shot” in step S321), the CPU 103 displays a cover shot sheet layout selection screen (not shown) on the editing display 311 (step S323). When the whole body pin pre is selected as the special photographing (“whole body pin pre” in step S321), the CPU 103 displays a sheet layout selection screen (not shown) for the whole body pin pre on the editing display 311 (step S324).

以下、全身コラージュがスペシャル撮影として選択されている場合を例に説明する。ユーザが、たとえば、図8に示すシート画像40のシートレイアウトを選択した場合、CPU103は、ステップS107(図27参照)で選択されたデザインと、選択されたシートレイアウトとに基づいて、全身コラージュ画像41の背景画像418と、通常合成画像42〜47の背景画像42b〜47bを決定する。これにより、1,2枚目の写真画像が、背景画像42b,43bに対応づけられる。3,4枚目の写真画像が、背景画像45b,46bに対応付けられる。5,6枚目の写真画像が、背景画像44b,47bに対応付けられる。また、CPU103は、選択されたデザイン及びシートレイアウトに基づいて、全身コラージュ画像41及び通常合成画像42〜47の各々のサイズを決定する。   Hereinafter, a case where the whole body collage is selected as the special shooting will be described as an example. For example, when the user selects the sheet layout of the sheet image 40 shown in FIG. 8, the CPU 103 selects the whole body collage image based on the design selected in step S107 (see FIG. 27) and the selected sheet layout. 41 background images 418 and background images 42b to 47b of the normal composite images 42 to 47 are determined. As a result, the first and second photographic images are associated with the background images 42b and 43b. The third and fourth photographic images are associated with the background images 45b and 46b. The fifth and sixth photograph images are associated with the background images 44b and 47b. Further, the CPU 103 determines the sizes of the whole body collage image 41 and the normal composite images 42 to 47 based on the selected design and sheet layout.

[名前入力確認処理]
図60Aは、名前入力処理(ステップS329)のフローチャートである。図60Aを参照して、CPU103は、ユーザの名前が2人分入力されている場合(ステップS3291においてYes)、名前の入力が名前入力処理(ステップS105、図27参照)で完了していると判断して、図60Aに示す処理を終了する。
[Name input confirmation process]
FIG. 60A is a flowchart of the name input process (step S329). Referring to FIG. 60A, when two user names have been input (Yes in step S3291), CPU 103 determines that name input has been completed in the name input process (step S105, see FIG. 27). Determination is made, and the processing shown in FIG. 60A ends.

一方、ユーザの名前が2人分入力されていない場合(ステップS3291においてNo)、CPU103は、ユーザの名前が1人分のみ入力されているか否かを確認する(ステップS3292)。   On the other hand, if two user names have not been input (No in step S3291), the CPU 103 checks whether only one user name has been input (step S3292).

ユーザの名前が1人分のみ入力されている場合(ステップS3292においてYes)、CPU103は、もう一人分の名前を入力するか否かを確認する確認画面を編集用ディスプレイ311に表示する(ステップS3293)。ユーザが名前を入力する場合(ステップS3293においてYes)、CPU103は、図29に示す名前入力画面510を表示し(ステップS3294)、ユーザに名前の入力を促す。このとき、入力済みの名前を修正できるようにしてもよいし、修正できないようにしてもよい。一方、ユーザが名前を入力しない場合(ステップS3293においてNo)、CPU103は、入力されていないユーザの名前に代えて、デフォルトの文字列を使用することを決定し、図60Aに示す処理を入力する。デフォルトの文字列については、後述する。   If only one user name has been input (Yes in step S3292), the CPU 103 displays on the editing display 311 a confirmation screen for confirming whether another user name is to be input (step S3293). ). When the user inputs a name (Yes in step S3293), the CPU 103 displays a name input screen 510 shown in FIG. 29 (step S3294) and prompts the user to input the name. At this time, the input name may be corrected or may not be corrected. On the other hand, when the user does not input a name (No in step S3293), CPU 103 determines to use the default character string instead of the name of the user who has not been input, and inputs the processing shown in FIG. 60A. . The default character string will be described later.

ステップS3292の説明に戻る。2人のユーザの名前が入力されていない場合(ステップS3292においてNo)、CPU103は、名前を入力するか否かを確認する確認画面を編集用ディスプレイ311に表示する(ステップS3295)。ユーザが名前を入力する場合(ステップS3295においてYes)、CPU103は、図29に示す名前入力画面510を表示し(ステップS3296)、ユーザに名前の入力を促す。一方、ユーザが名前を入力しない場合(ステップS3295においてNo)、CPU103は、2人のユーザの名前に代えて、デフォルトの文字列を使用することを決定し、図60Aに示す処理を終了する。   Returning to the description of step S3292. When the names of the two users are not input (No in step S3292), the CPU 103 displays a confirmation screen for confirming whether or not to input the names on the editing display 311 (step S3295). When the user inputs a name (Yes in step S3295), the CPU 103 displays a name input screen 510 shown in FIG. 29 (step S3296) and prompts the user to input the name. On the other hand, if the user does not input a name (No in step S3295), CPU 103 determines to use the default character string instead of the names of the two users, and ends the process shown in FIG. 60A.

[名前対応確認処理]
図60Bは、名前対応確認処理(ステップS330)のフローチャートである。図24、図25及び図60Bを参照して、CPU103は、名前確認画面610を表示する(ステップS3301)。名前表示領域614Lには、入力パレット510Lに入力された名前が表示され、名前表示領域614Rには、入力パレット510Rに入力された名前が表示される。
[Name correspondence check process]
FIG. 60B is a flowchart of the name correspondence confirmation process (step S330). Referring to FIG. 24, FIG. 25 and FIG. 60B, CPU 103 displays a name confirmation screen 610 (step S3301). The name input to the input palette 510L is displayed in the name display area 614L, and the name input to the input palette 510R is displayed in the name display area 614R.

図24及び図25に示すように、名前表示領域614L,614Rには、ひらがな及びローマ字の名前が表示される。例えば、ユーザがひらがなの名前を入力したにも関わらず、ローマ字の名前が名前表示領域614L,614Rに表示された場合、ユーザはローマ字の名前を自分の名前ではないと判断するおそれがある。ひらがな及びローマ字の両者が名前表示領域614L,614Rに表示されることにより、ユーザは、ひらがな及びローマ字のどちらで名前を入力しても、自分で名前を容易に確認できる。   As shown in FIG. 24 and FIG. 25, hiragana and Roman names are displayed in the name display areas 614L and 614R. For example, when a Roman character name is displayed in the name display areas 614L and 614R even though the user inputs a hiragana name, the user may determine that the Roman character name is not his / her name. By displaying both hiragana and romaji in the name display areas 614L and 614R, the user can easily check the name himself regardless of whether the user inputs the name in hiragana or romaji.

なお、CPU103は、ひらがなの名前及びローマ字の名前のいずれか一方を表示してもよい。ひらがな及びローマ字の名前のうち、ユーザが入力した名前を名前表示領域614L,614Rに表示することにより、ユーザは、入力した名前が人物41A,41Bに対応付けられているか否かを容易に判断することができる。   Note that the CPU 103 may display either the hiragana name or the Roman name. By displaying the name input by the user among the hiragana and roman names in the name display areas 614L and 614R, the user can easily determine whether or not the input name is associated with the person 41A or 41B. be able to.

ユーザは、名前表示領域614L,614Rに表示されている名前が画像表示領域611L,611R中の人物41A,41Bに対応していないと判断した場合、名前入れ替えボタン612にタッチする。CPU103は、名前入れ替えボタン612がタッチされた場合(ステップS3302においてYes)、名前表示領域614L,614Rに表示されている名前を入れ替える(ステップS3303)。   When the user determines that the names displayed in the name display areas 614L and 614R do not correspond to the persons 41A and 41B in the image display areas 611L and 611R, the user touches the name exchange button 612. When the name exchange button 612 is touched (Yes in step S3302), the CPU 103 exchanges the names displayed in the name display areas 614L and 614R (step S3303).

ユーザは、名前表示領域614L,614Rに表示されている名前が画像表示領域611L,611R中の人物41A,41Bに対応していると判断した場合、決定ボタン613にタッチする。決定ボタン613がタッチされた場合(ステップS3304においてYes)、CPU103は、個別人物画像413,414を名前表示領域614L,614Rに表示されている名前に対応付けて保存する。図25を参照して、個別人物画像413が名前「REINA」及び「れいな」に対応付けられ、個別人物画像414が名前「KANA」及び「かな」に対応付けられる。   When the user determines that the names displayed in the name display areas 614L and 614R correspond to the persons 41A and 41B in the image display areas 611L and 611R, the user touches the determination button 613. When the enter button 613 is touched (Yes in step S3304), the CPU 103 stores the individual person images 413 and 414 in association with the names displayed in the name display areas 614L and 614R. Referring to FIG. 25, individual person image 413 is associated with names “REINA” and “Reina”, and individual person image 414 is associated with names “KANA” and “Kana”.

なお、名前入力確認処理(ステップS329)において、2人の名前が入力されなかった場合、名前対応確認処理(ステップS330)は、実行されない。また、文字列「SWEET&GIRL」がデフォルトの文字列として使用される。文字列「SWEET&GIRL」を含む画像が、名前画像415に代えて用いられる。文字列「SWEET」が一方のユーザの名前に代えて用いられ、文字列「GIRL」が一方のユーザの名前に代えて用いられる。すなわち、文字列「SWEET」を含む画像が、名前画像421に代えて用いられ、文字列「GIRL」を含む画像が、名前画像422に代えて用いられる。   In the name input confirmation process (step S329), if two names are not input, the name correspondence confirmation process (step S330) is not executed. The character string “SWEET & GIRL” is used as a default character string. An image including the character string “SWEET & GIRL” is used instead of the name image 415. The character string “SWEET” is used instead of the name of one user, and the character string “GIRL” is used instead of the name of one user. That is, an image including the character string “SWEET” is used instead of the name image 421, and an image including the character string “GIRL” is used instead of the name image 422.

また、1人分のユーザしか入力されなかった場合、入力されなかった分の名前に代えて、文字列「SWEET」又は「GIRL」を用いればよい。例えば、入力パレット510L(図29参照)に名前が入力されなかった場合、文字列「SWEET」を含む画像を名前画像421に代えて使用し、文字列「SWEET&(入力された名前)」を含む画像を名前画像415に代えて使用すればよい。逆に、入力パレット510R(図29参照)に名前が入力されなかった場合、文字列「GIRL」を使用して、文字列「GIRL」を含む画像を名前画像422に代えて使用し、文字列「(入力された名前)&GIRL」を含む画像を名前画像415に代えて使用すればよい。   When only one user is input, the character string “SWEET” or “GIRL” may be used in place of the name not input. For example, when a name is not input to the input palette 510L (see FIG. 29), an image including the character string “SWEET” is used instead of the name image 421, and the character string “SWEET & (input name)” is included. An image may be used instead of the name image 415. On the other hand, when the name is not input to the input palette 510R (see FIG. 29), the character string “GIRL” is used, the image including the character string “GIRL” is used instead of the name image 422, and the character string An image including “(input name) & GIRL” may be used instead of the name image 415.

また、名前確認処理(ステップS329)が実行されるタイミングは、名前入力処理(ステップS106)の後であればいつでもよい。あるいは、CPU103は、名前確認処理(ステップS329)を省略してもよい。   The timing for executing the name confirmation process (step S329) may be any time after the name input process (step S106). Alternatively, the CPU 103 may omit the name confirmation process (step S329).

[通常合成画像生成]
次に、CPU103は、1〜6枚目の写真画像を利用して、通常合成画像42〜47を生成する(ステップS305)。図61は、通常合成画像の作成手順を示すフローチャートである。なお、ここでは、スペシャル撮影によって撮影された7枚目の写真画像は、通常合成画像の生成に用いられない。
[Normal composite image generation]
Next, the CPU 103 generates normal composite images 42 to 47 using the first to sixth photograph images (step S305). FIG. 61 is a flowchart showing a procedure for creating a normal composite image. Note that, here, the seventh photographic image taken by special photography is not normally used for generating a composite image.

図61を参照して、CPU103は、1〜6枚目の写真画像からいずれか1つを選択する(ステップS501)。ここでは、全身撮影モードで得られた5枚目の写真画像が選択された場合を説明する。5枚目の写真画像は、人物画像44a(図8参照)を含む。   Referring to FIG. 61, CPU 103 selects one of the first to sixth photograph images (step S501). Here, a case where the fifth photographic image obtained in the whole body photographing mode is selected will be described. The fifth photographic image includes a person image 44a (see FIG. 8).

CPU103は、5枚目の写真画像に対応付けられた背景画像44bをHDD104から取得する(ステップS502)。CPU103は、5枚目の写真画像に対して前処理を実行する(ステップS503)。前処理とは、ステップS104(図27参照)で選択された画像処理の内容、ステップS205(図34参照)で選択された目の大きさ、ステップS206(図34参照)で選択された画像の明るさなど、ユーザにより選択された画像処理を、5枚目の写真画像に対して施す処理である。   The CPU 103 acquires the background image 44b associated with the fifth photographic image from the HDD 104 (step S502). The CPU 103 executes preprocessing for the fifth photographic image (step S503). Pre-processing refers to the contents of the image processing selected in step S104 (see FIG. 27), the size of the eye selected in step S205 (see FIG. 34), and the image selected in step S206 (see FIG. 34). This is processing for performing image processing selected by the user, such as brightness, on the fifth photographic image.

CPU103は、選択されたデザイン及びシートレイアウトに基づいて決定された通常合成画像44のサイズに基づいて、5枚目の写真画像のサイズを調整する(ステップS504)。   The CPU 103 adjusts the size of the fifth photographic image based on the size of the normal composite image 44 determined based on the selected design and sheet layout (step S504).

CPU103は、サイズ調整された5枚目の写真画像から人物を抽出する(ステップS505)。具体的には、CPU103は、サイズ調整された5枚目の写真画像から人物41A,41Bを抽出して人物画像44aを生成する。5枚目の写真画像は、全身撮影モードにより撮影された画像であるため、人物41A,41Bの全身が5枚目の写真画像から抽出される。   The CPU 103 extracts a person from the fifth photographic image whose size has been adjusted (step S505). Specifically, the CPU 103 extracts the persons 41A and 41B from the size-adjusted fifth photographic image to generate a person image 44a. Since the fifth photographic image is an image taken in the whole body photographing mode, the whole body of the persons 41A and 41B is extracted from the fifth photographic image.

CPU103は、抽出された人物画像44aを背景画像44b上に合成して通常合成画像44を生成する(ステップS506)。通常合成画像44は、シート画像40の生成に用いられる。   The CPU 103 combines the extracted person image 44a with the background image 44b to generate a normal composite image 44 (step S506). The normal composite image 44 is used for generating the sheet image 40.

CPU103は、通常撮影処理(ステップS202)によって撮影された1枚目〜6枚目の写真画像を全て選択した場合(ステップS507においてYes)、通常合成画像生成処理(ステップS305)を終了する。一方、未選択の写真画像がある場合(ステップS507においてNo)、CPU103は、次の写真画像を選択するために、ステップS501に戻る。   When the CPU 103 selects all the first to sixth photographic images taken in the normal shooting process (step S202) (Yes in step S507), the CPU 103 ends the normal composite image generation process (step S305). On the other hand, if there is an unselected photo image (No in step S507), the CPU 103 returns to step S501 to select the next photo image.

[特殊合成画像生成]
CPU103は、ユーザに選択されたスペシャル撮影に内容に従い、全身コラージュ画像41、カバーショット画像48、及び全身ピンプリ画像49のいずれかの特殊合成画像を生成する(ステップS307)。なお、全身ピンプリ画像は、1回のプレイで2枚生成される。
[Special composite image generation]
The CPU 103 generates a special composite image of any one of the whole body collage image 41, the cover shot image 48, and the whole body pin pre-image 49 in accordance with the content of the special shooting selected by the user (step S307). Note that two whole body pin-up images are generated in one play.

[全身コラージュ画像生成]
CPU103は、ステップS307において、全身コラージュがスペシャル撮影として選択されていた場合、全身コラージュ画像41を生成する。
[Full-body collage image generation]
In step S307, the CPU 103 generates the whole body collage image 41 when the whole body collage is selected as the special shooting.

図62は、全身コラージュ画像41の作成手順を示すフローチャートである。図62を参照して、図9Bに示す全身コラージュ画像41を生成する場合を説明する。CPU103は、全身撮影モードにより撮影された5,6枚目の写真画像と、ピンプリ画像とを選択する(ステップS601)。5枚目の写真画像は、集合人物画像411(人物画像47a)を含む。6枚目の写真画像は、集合人物画像412(人物画像44a)を含む。ピンプリ画像は、個別人物画像413,414を含む。   FIG. 62 is a flowchart showing a procedure for creating the whole body collage image 41. With reference to FIG. 62, the case where the whole body collage image 41 shown to FIG. 9B is produced | generated is demonstrated. The CPU 103 selects the fifth and sixth photograph images photographed in the whole body photographing mode and the pin pre-image (step S601). The fifth photographic image includes a collective person image 411 (person image 47a). The sixth photographic image includes a collective person image 412 (person image 44a). The pin-up image includes individual person images 413 and 414.

CPU103は、選択されたデザインに対応する背景画像418を取得する(ステップS602)。CPU103は、取得した背景画像418のサイズを、全身コラージュ画像41のサイズに合わせて変更する。全身コラージュ画像41のサイズは、シートレイアウトが選択されたときに(ステップS304)、決定されている。   The CPU 103 acquires a background image 418 corresponding to the selected design (step S602). The CPU 103 changes the size of the acquired background image 418 according to the size of the whole body collage image 41. The size of the whole body collage image 41 is determined when the sheet layout is selected (step S304).

CPU103は、選択されたそれぞれの写真画像に対して、前処理を施す(ステップS603)。ステップS603の処理は、ステップS503(図61参照)の処理と同様である。   The CPU 103 performs preprocessing on each selected photographic image (step S603). The process in step S603 is the same as the process in step S503 (see FIG. 61).

CPU103は、全身コラージュ画像41のサイズに合わせて、5,6枚目の写真画像及びピンプリ画像のサイズを調整する(ステップS604)。このとき、ピンプリ画像のサイズは、5,6枚目の写真画像のサイズよりも小さい所定のサイズに変更される。   The CPU 103 adjusts the sizes of the fifth and sixth photographic images and the pin pre-image in accordance with the size of the whole body collage image 41 (step S604). At this time, the size of the pin-up image is changed to a predetermined size smaller than the size of the fifth and sixth photographic images.

CPU103は、サイズ変更された5,6枚目の写真画像及びピンプリ画像から、被写体である人物以外の部分(背景画像に写り込んだグリーンバックの部分)を除去して人物を抽出する抽出処理を行うことにより、人物画像411〜414を生成する(ステップS605)。   The CPU 103 performs an extraction process for extracting a person by removing a part other than the person who is the subject (a part of the green background reflected in the background image) from the resized fifth and sixth photograph images and the pin-up image. By doing so, person images 411 to 414 are generated (step S605).

具体的には、CPU103は、5枚目の写真画像から人物41A,41Bの全身を抽出して集合人物画像411を生成する。CPU103は、6枚目の写真画像から人物41A,41Bの全身を抽出して集合人物画像412を生成する。CPU103は、ピンプリ画像から人物41Aのみの全身を抽出して人物画像413を生成し、ピンプリ画像から人物41Bのみの全身を抽出して個別人物画像414を生成する。CPU103は、クロマキ技術を用いて、各写真画像において人物と特定された領域を、人物の全身として抽出する。上述のように、ピンプリ画像のサイズは、5,6枚目の写真画像のサイズよりも小さくなるように変更されているため、個別人物画像413,414のサイズは、5,6枚目の写真画像から抽出される集合人物画像411,412のサイズよりも小さくなる。   Specifically, the CPU 103 extracts the whole body of the persons 41A and 41B from the fifth photograph image and generates the collective person image 411. The CPU 103 extracts the whole body of the persons 41A and 41B from the sixth photograph image to generate a collective person image 412. The CPU 103 extracts the whole body of only the person 41A from the Pimpuri image to generate a person image 413, and extracts the whole body of only the person 41B from the Pimpuri image to generate the individual person image 414. CPU103 extracts the area | region identified with the person in each photograph image as a whole body of a person using a chroma technique. As described above, since the size of the Pimpuri image is changed to be smaller than the size of the fifth and sixth photograph images, the size of the individual person images 413 and 414 is the fifth and sixth photograph. It becomes smaller than the size of the collective person images 411 and 412 extracted from the image.

CPU103は、生成された人物画像411〜414を背景画像418上に合成することにより、全身コラージュ画像41を生成する(ステップS606)。このとき、装飾画像417と、ステップS105(図27参照)において入力されたユーザの名前から生成された名前画像415,421,422と、現在の日付から生成された日付画像416とが、背景画像418上に合成される。人物画像411〜414が背景画像418上に配置される位置は、背景画像418において予め指定されている。これにより、図9Aに示すような、全身コラージュ画像41が生成される。   The CPU 103 generates the whole body collage image 41 by synthesizing the generated person images 411 to 414 on the background image 418 (step S606). At this time, the decoration image 417, the name images 415, 421, and 422 generated from the user name input in step S105 (see FIG. 27), and the date image 416 generated from the current date are the background image. 418 is synthesized. The positions where the person images 411 to 414 are arranged on the background image 418 are designated in advance in the background image 418. Thereby, the whole body collage image 41 as shown to FIG. 9A is produced | generated.

図9Bに示すように、全身コラージュ画像41において、人物41Aを含む個別人物画像413が左側に配置され、人物41Bを含む個別人物画像414が右側に配置されると仮定する。また、入力された名前と個別人物画像413,414との対応関係は、図25に示す通りであると仮定する。この場合、CPU103は、「REINA&KANA」の文字列を含む名前画像415を生成する。名前画像415において、「REINA」の文字が先に表示されるため、全身コラージュ画像41を見る第三者は、全身コラージュ画像41の左側にいる人物の名前が「REINA」に対応し、右側にいる人物の名前が「KANA」であると推測することができる。   As shown in FIG. 9B, in the whole body collage image 41, it is assumed that the individual person image 413 including the person 41A is arranged on the left side and the individual person image 414 including the person 41B is arranged on the right side. Further, it is assumed that the correspondence between the input name and the individual person images 413 and 414 is as shown in FIG. In this case, the CPU 103 generates a name image 415 including the character string “REINA & KANA”. Since the name “REINA” is displayed first in the name image 415, a third person who views the whole body collage image 41 corresponds to the name of the person on the left side of the whole body collage image 41 corresponding to “REINA” on the right side. It can be inferred that the name of the person is “KANA”.

また、CPU103は、名前画像421,422を背景画像418上の予め指定された位置に配置する。名前「REINA」が個別人物画像413に対応付けられているため、名前「REINA」を含む名前画像421は、個別人物画像413が配置される領域の下方に配置される。名前「KANA」が個別人物画像414に対応付けられているため、名前「KANA」を含む名前画像422は、個別人物画像414が配置される領域の下方に配置される。   In addition, the CPU 103 arranges the name images 421 and 422 at positions designated in advance on the background image 418. Since the name “REINA” is associated with the individual person image 413, the name image 421 including the name “REINA” is arranged below the area where the individual person image 413 is arranged. Since the name “KANA” is associated with the individual person image 414, the name image 422 including the name “KANA” is arranged below the area where the individual person image 414 is arranged.

なお、図11を参照して、シート画像40において、2つの分割全身コラージュ画像41P,41Qが、シート画像40の左右に配置されている。この場合、CPU103は、ステップS604により生成された全身コラージュ画像41を左右に分割することによって、分割全身コラージュ画像41P,41Qを生成してもよい。あるいは、CPU103は、分割全身コラージュ画像41P,41Qを個別に生成してもよい。たとえば、CPU103は、集合人物画像411及び個別人物画像413を1枚の背景画像上に合成することにより分割全身コラージュ画像41Pを生成し、かつ、集合人物画像412及び個別人物画像414をもう1枚の背景画像上に合成することにより分割全身コラージュ画像41Qを生成してもよい。   Referring to FIG. 11, in the sheet image 40, two divided whole body collage images 41 </ b> P and 41 </ b> Q are arranged on the left and right of the sheet image 40. In this case, the CPU 103 may generate divided whole body collage images 41P and 41Q by dividing the whole body collage image 41 generated in step S604 into left and right. Alternatively, the CPU 103 may generate the divided whole body collage images 41P and 41Q individually. For example, the CPU 103 generates a divided whole body collage image 41P by synthesizing the group person image 411 and the individual person image 413 on one background image, and also generates another group person image 412 and one individual person image 414. The divided whole body collage image 41Q may be generated by compositing on the background image.

再び図51を参照して、CPU103は、生成した特殊合成画像及び通常合成画像を、ユーザが選択したシートレイアウトに基づき、1枚のシートに印刷するためのシート画像40を生成する(ステップS308)。   Referring to FIG. 51 again, CPU 103 generates sheet image 40 for printing the generated special composite image and normal composite image on one sheet based on the sheet layout selected by the user (step S308). .

CPU103は、ステップS308により生成されたシート画像をプリンタ601に送信し印刷を開始する。プリンタ601は、送信されたシート画像を印刷する(ステップS309)。印刷が完了すると、プリンタ601は、シート画像が印刷された写真シール紙を排出口321に排出する。   The CPU 103 transmits the sheet image generated in step S308 to the printer 601 and starts printing. The printer 601 prints the transmitted sheet image (step S309). When printing is completed, the printer 601 discharges the photographic sticker paper on which the sheet image is printed to the discharge port 321.

CPU103は、ステップS308により生成されたシート画像をプリンタ601に送信し印刷を開始する。プリンタ601は、送信されたシート画像を印刷する(ステップS309)。印刷が完了すると、プリンタ601は、シート画像が印刷された写真シール紙を排出口321に排出する。   The CPU 103 transmits the sheet image generated in step S308 to the printer 601 and starts printing. The printer 601 prints the transmitted sheet image (step S309). When printing is completed, the printer 601 discharges the photographic sticker paper on which the sheet image is printed to the discharge port 321.

印刷が完了するまで、ユーザを待たせることになるので、携帯電話機等に送信するための操作を提供する。   Since the user is kept waiting until the printing is completed, an operation for transmitting to a mobile phone or the like is provided.

CPU103は、携帯電話機、スマートフォン、パソコンなどで取得したい通常合成画像や特殊合成画像、ブログ用落書きで作成した画像などの選択を促す送信画像選択画面を編集用ディスプレイ311に表示し、さらに、送信先のメールアドレスの入力を促すアドレス入力画面を編集用ディスプレイ311に表示する(ステップS310)。CPU103は、選択された1又は2枚以上の画像を、入力されたメールアドレスとともにサーバ宛てに送信する(ステップS311)。この後、サーバは、送信されたメールアドレス宛に、選択された画像を取得するための情報(URLなど)を記載したメールを送信し、ユーザは、そのメールに記載のURLにアクセスし画像を取得する。   The CPU 103 displays on the editing display 311 a transmission image selection screen that prompts the user to select a normal composite image, a special composite image, an image created with a blog graffiti, or the like to be acquired by a mobile phone, a smartphone, a personal computer, or the like. Is displayed on the editing display 311 (step S310). The CPU 103 transmits the selected one or more images to the server together with the input mail address (step S311). Thereafter, the server transmits an e-mail describing information (such as a URL) for acquiring the selected image to the e-mail address transmitted, and the user accesses the URL described in the e-mail to display the image. get.

以上説明したように、写真撮影遊戯機1は、異なるタイミングで撮影された複数の写真画像から人物の全身を抽出して人物画像411〜414を生成し、生成された人物画像411〜414を単一の背景画像418上に配置して、全身コラージュ画像41を生成する。人物画像411〜414が単一の背景画像418上に配置されることにより、全身コラージュ画像41は、異なるタイミングで撮影された複数の人物画像が合成されているにもかかわらず、まるで1枚の写真画像であるかのように認識される。   As described above, the photography game machine 1 extracts the whole body of a person from a plurality of photograph images taken at different timings to generate person images 411 to 414, and the generated person images 411 to 414 are simply displayed. The whole body collage image 41 is generated by arranging on one background image 418. The person images 411 to 414 are arranged on the single background image 418, so that the whole body collage image 41 is like a single sheet, even though a plurality of person images taken at different timings are combined. Recognized as if it were a photographic image.

上記実施の形態において、人物画像211〜214が配置される位置が、背景画像418に予め設定されている例を説明したが、これに限られない。ユーザが、全身コラージュ画像41における人物画像411〜414の位置を指定できるようにしてもよい。要するに、写真撮影遊戯機1は、異なるタイミングで撮影された2つの写真画像のうち、一方の写真画像から人物41A,41Bの全身を抽出して人物画像を抽出し、他方の写真画像から人物41Aの全身を抽出して人物画像を抽出し、抽出された2つの人物画像を単一の背景画像上に合成することにより、全身コラージュ画像41を生成すればよい。   In the above embodiment, the example in which the positions where the person images 211 to 214 are arranged is set in the background image 418 in advance has been described. However, the present invention is not limited to this. The user may be allowed to specify the positions of the person images 411 to 414 in the whole body collage image 41. In short, the photography game machine 1 extracts the person image by extracting the whole body of the persons 41A and 41B from one of the two photograph images taken at different timings, and the person 41A from the other photograph image. The whole body collage image 41 may be generated by extracting a person image by extracting the whole body and synthesizing the two extracted person images on a single background image.

上記実施の形態において、全身コラージュ画像41は、シート画像40の生成のみに用いられ、携帯電話機などに送信されない例を説明したが、これに限られない。写真撮影遊戯機1は、全身コラージュ画像41を入力されたメールアドレスに送信してもよい。たとえば、図11に示す分割全身コラージュ画像41P,41Qを送信することができる。また、このように合成画像を送信する代わりに、合成画像を取得するために必要なアクセス情報(たとえばURL)を送信してもよい。   In the above embodiment, the whole body collage image 41 is used only for generating the sheet image 40 and is not transmitted to a mobile phone or the like. However, the present invention is not limited to this. The photography game machine 1 may transmit the whole body collage image 41 to the input e-mail address. For example, the divided whole body collage images 41P and 41Q shown in FIG. 11 can be transmitted. Further, instead of transmitting the composite image in this way, access information (for example, URL) necessary for acquiring the composite image may be transmitted.

上記実施の形態において、ピンプリ画像から生成された個別人物画像413,414のサイズが、5,6枚目の写真画像から生成された集合人物画像411,412のサイズよりも小さい例を説明したが、これに限られない。逆に、集合人物画像411,412のサイズが、個別人物画像413,414のサイズよりも小さくてもよい。つまり、写真撮影遊戯機1は、2人の人物画像と、1人の人物画像との一方のサイズを、他方のサイズよりも小さくすればよい。   In the above embodiment, an example has been described in which the size of the individual person images 413 and 414 generated from the Pimpuri image is smaller than the size of the collective person images 411 and 412 generated from the fifth and sixth photograph images. Not limited to this. Conversely, the size of the collective person images 411 and 412 may be smaller than the size of the individual person images 413 and 414. That is, the photography game machine 1 only needs to make one size of two person images and one person image smaller than the other size.

上記実施の形態において、写真撮影遊戯機1が、全身撮影モードにおいて、前方照明装置27a,27bの光量が、中間照明装置28a,28bの光量及び背面照明装置29の光量よりも小さくなるように、後側照明装置の各々を制御する例を説明したが、これに限られない。写真撮影遊戯機1は、前方照明装置27a,27bを発光させなくてもよい。同様に、写真撮影遊戯機1は、アップ撮影モードにおいて、中間照明装置28a,28b及び背面照明装置29を発光させなくてもよい。   In the above embodiment, in the photography game machine 1, in the whole body shooting mode, the light amount of the front illumination devices 27a and 27b is smaller than the light amount of the intermediate illumination devices 28a and 28b and the light amount of the back illumination device 29. Although the example which controls each of a rear side illuminating device was demonstrated, it is not restricted to this. The photography game machine 1 may not emit the front illumination devices 27a and 27b. Similarly, the photography amusement machine 1 does not have to cause the intermediate lighting devices 28a and 28b and the back lighting device 29 to emit light in the up shooting mode.

上記実施の形態において、写真撮影遊戯機1は、撮影処理において、6枚の写真画像のうち最初の4枚をアップ撮影モードで撮影し、残りの2枚を全身撮影モード撮影する例を説明したが、これに限られない。例えば、写真撮影遊戯機1は、6枚の写真画像のうち、最初の2枚をアップ撮影モードで撮影し、残りの4枚を全身撮影モードで撮影してもよい。あるいは、アップ撮影モードでの撮影及び全身撮影モードでの撮影の順序が入れ替わってもよい。つまり、写真撮影遊戯機1は、予め設定された撮影モードで撮影を行えばよい。   In the above-described embodiment, the photography game machine 1 explained an example in which, in the photographing process, the first four of the six photographic images are photographed in the up photographing mode and the remaining two are photographed in the whole body photographing mode. However, it is not limited to this. For example, the photographic game machine 1 may shoot the first two of the six photographic images in the up shooting mode and the remaining four in the whole body shooting mode. Alternatively, the order of shooting in the up shooting mode and shooting in the whole body shooting mode may be switched. That is, the photography game machine 1 may shoot in a preset shooting mode.

また、写真撮影遊戯機1は、アップ撮影モードによる撮影と、全身撮影モードによる撮影とを、ユーザが選択できるようにしてもよい。例えば、写真撮影遊戯機1は、図36Aに示すステップS2022を実行する前に、撮影用ディスプレイ23にモデルの全身画像と、モデルの顔が大きく撮影されたアップ画像とを表示し、いずれかの画像をユーザに選択させる。写真撮影遊戯機1は、モデルの全身画像が選択された場合には、全身撮影モードで撮影し、モデルのアップ画像が選択された場合には、アップ撮影モードで撮影する。   Moreover, the photography game machine 1 may allow the user to select photographing in the up photographing mode and photographing in the whole body photographing mode. For example, before executing step S2022 shown in FIG. 36A, the photography game machine 1 displays the whole body image of the model and the up image in which the model's face is photographed large on the photographing display 23. Let the user select an image. The photographic game machine 1 shoots in the whole body shooting mode when the whole body image of the model is selected, and shoots in the up shooting mode when the up image of the model is selected.

上記実施の形態において、名前入力確認処理(ステップS329)及び名前対応確認処理(ステップS330)がレイアウト選択(ステップS322,323,324、図51参照)の後に実行される例を説明したが、これに限られない。名前入力確認処理及び名前対応確認処理は、落書き処理(ステップS303)の前に実行されてもよい。あるいは、CPU103は、スペシャル撮影処理(ステップS225〜S227)の後に、撮影用ディスプレイ23を用いて名前入力確認処理(ステップS329)及び名前対応確認処理(ステップS330)を実行してもよい。   In the above embodiment, an example has been described in which the name input confirmation process (step S329) and the name correspondence confirmation process (step S330) are executed after layout selection (see steps S322, 323, 324, FIG. 51). Not limited to. The name input confirmation process and the name correspondence confirmation process may be executed before the graffiti process (step S303). Alternatively, the CPU 103 may execute a name input confirmation process (step S329) and a name correspondence confirmation process (step S330) using the photographing display 23 after the special photographing process (steps S225 to S227).

また、CPU103は、スペシャル撮影処理時に、図63に示すような撮影画面521を表示して、矩形領域521L,521Rに入るユーザを誘導してもよい。図63に示す撮影画面521において、矩形領域521L,521Rの下に、名前表示領域614L,614Rが設けられる点が、図38に示す撮影画面521と異なる。そして、CPU103は、プレビュー表示の際に(ステップS2045、図36B参照)、図64に示すような名前確認画面610を表示して、名前の確認をユーザに求めてもよい。図64に示す名前確認画面610には、全身コラージュ画像41の完成イメージ図が表示され、完成イメージ図中の個別人物画像413,414の足元に名前表示領域614L,614Rが表示される。なお、上記実施の形態において、図64に示す名前確認画面610を、編集用ディスプレイ311に表示してもよい。   Further, the CPU 103 may display a shooting screen 521 as shown in FIG. 63 and guide a user who enters the rectangular areas 521L and 521R during the special shooting process. The imaging screen 521 shown in FIG. 63 differs from the imaging screen 521 shown in FIG. 38 in that name display areas 614L and 614R are provided below the rectangular areas 521L and 521R. Then, the CPU 103 may display a name confirmation screen 610 as shown in FIG. 64 and ask the user to confirm the name when displaying the preview (see step S2045, FIG. 36B). A completed image diagram of the whole body collage image 41 is displayed on the name confirmation screen 610 shown in FIG. 64, and name display areas 614L and 614R are displayed at the feet of the individual person images 413 and 414 in the completed image diagram. In the above embodiment, the name confirmation screen 610 shown in FIG. 64 may be displayed on the editing display 311.

また、CPU103は、スペシャル撮影処理(ステップS223、図36B参照)のライブ映像を表示しているときに(ステップS2042)、名前確認を行ってもよい。この場合、図63に示す撮影画面521に、名前入れ替えボタン612及び決定ボタンが配置される。   Further, the CPU 103 may perform name confirmation when displaying a live video of the special shooting process (step S223, see FIG. 36B) (step S2042). In this case, a name exchange button 612 and a determination button are arranged on the shooting screen 521 shown in FIG.

上記実施の形態において、名前入力処理(ステップS105、図27参照)において入力された名前が、全身コラージュ画像41に反映される例を説明したが、これに限られない。入力された名前は、全身コラージュ以外のスペシャル撮影によって生成されるカバーショット画像48及び全身ピンプリ画像49に反映されてもよい。図30に示すように、入力された名前が、アップ写真画像又は全身写真画像と合成される背景画像に反映されてもよい。あるいは、入力された名前が、アップ写真画像又は全身写真画像と合成される前景画像(フレーム)に反映されてもよいし、編集画像に反映されてもよい。写真撮影遊戯機1は、入力された名前を上記のいずれかの画像に反映させる際に、名前入力確認処理(ステップS329)及び名前対応確認処理(ステップS330)を実行すればよい。   In the said embodiment, although the name input in the name input process (refer step S105, FIG. 27) was reflected in the whole body collage image 41, it was not restricted to this. The input name may be reflected in the cover shot image 48 and the whole body pin pre-image 49 generated by special shooting other than the whole body collage. As shown in FIG. 30, the input name may be reflected in the background image combined with the up-photo image or the whole-body photo image. Alternatively, the input name may be reflected in the foreground image (frame) combined with the up-photo image or the whole-body photo image, or may be reflected in the edited image. The photography game machine 1 may execute the name input confirmation process (step S329) and the name correspondence confirmation process (step S330) when the input name is reflected in any of the above images.

上記実施の形態において、ユーザが2人である場合、各ユーザは、編集画面(図53参照)内の編集領域60L,60Rのいずれを使用してもよい例を説明したが、これに限られない。図51を参照して、名前対応確認処理(ステップS330)が、落書き処理(ステップS303)の前に実行される場合、CPU103は、編集領域60L,60Rをユーザごとに割り当ててもよい。たとえば、CPU103は、人物41Aを含む個別人物画像413を編集領域60Lに表示して、個別人物画像413に対応付けられた名前の人物に、編集領域60Lで落書きを行うように促すメッセージを表示する。そして、左側のパレット67に、個別人物画像413に対応付けられた名前のスタンプなどを表示する。これにより、編集画面の右側、左側を、ユーザごとにカスタマイズすることが可能となる。   In the above embodiment, when there are two users, each user can use either of the editing areas 60L and 60R in the editing screen (see FIG. 53). However, the present invention is not limited to this. Absent. Referring to FIG. 51, when the name correspondence confirmation process (step S330) is executed before the graffiti process (step S303), CPU 103 may assign editing areas 60L and 60R for each user. For example, the CPU 103 displays the individual person image 413 including the person 41 </ b> A in the editing area 60 </ b> L, and displays a message that prompts the person with the name associated with the individual person image 413 to perform graffiti in the editing area 60 </ b> L. . Then, a name stamp associated with the individual person image 413 is displayed on the left palette 67. As a result, the right and left sides of the editing screen can be customized for each user.

上記実施の形態において、写真撮影遊戯機1の制御プログラムが、コンピュータ装置101のHDD104にインストールされている例を説明した。制御プログラムをインストールする方法は、特に限定されない。たとえば、制御プログラムは、ネットワークに接続されたサーバからダウンロードされ、コンピュータ装置101にインストールされてもよい。あるいは、制御プログラムを記録したコンピュータ読み取り可能な媒体(たとえば、光ディスク、USB(Universal Serial Bus)メモリ、フレキシブルディスクなど)が配布されている場合、制御プログラムは、その媒体からコンピュータ装置101にインストールされてもよい。   In the above-described embodiment, the example in which the control program for the photographic game machine 1 is installed in the HDD 104 of the computer apparatus 101 has been described. The method for installing the control program is not particularly limited. For example, the control program may be downloaded from a server connected to the network and installed in the computer apparatus 101. Alternatively, when a computer-readable medium (for example, an optical disk, a USB (Universal Serial Bus) memory, a flexible disk, etc.) in which the control program is recorded is distributed, the control program is installed in the computer apparatus 101 from the medium. Also good.

以上、本発明の実施の形態を説明したが、上述した実施の形態は本発明を実施するための例示に過ぎない。よって、本発明は上述した実施の形態に限定されることなく、その趣旨を逸脱しない範囲内で上述した実施の形態を適宜変形して実施することが可能である。   While the embodiments of the present invention have been described above, the above-described embodiments are merely examples for carrying out the present invention. Therefore, the present invention is not limited to the above-described embodiment, and can be implemented by appropriately modifying the above-described embodiment without departing from the spirit thereof.

1 写真撮影遊戯機
15 ストロボ
17 クロマキキャプチャボード
22 カメラ
27a,27b 前方照明装置
28a,28b 中間照明装置
29 背面照明装置
40 シート画像
41 全身コラージュ画像
41P,41Q 分割全身コラージュ画像
42〜49 通常合成画像
42a〜47a,211〜214 人物画像
42b〜47b,418,418P,418Q 背景画像
110 ストロボ制御部
271 グリッド
282,292 拡散板
411,412 集合人物画像
413,414 個別人物画像
521L,521R 矩形領域
530 目の写り選択画面
531〜534 アップ写真画像
535a〜535c サイズ選択ボタン
537 全身写真画像
610 名前確認画面
612 名前入れ替えボタン
611,611L,611R 画像表示領域
614,614L,614R 名前表示領域
DESCRIPTION OF SYMBOLS 1 Photographing game machine 15 Strobe 17 Chromaki capture board 22 Cameras 27a, 27b Front illumination device 28a, 28b Intermediate illumination device 29 Back illumination device 40 Sheet image 41 Whole body collage image 41P, 41Q Division whole body collage image 42-49 Normal composite image 42a to 47a, 211 to 214 People image 42b to 47b, 418, 418P, 418Q Background image 110 Strobe control unit 271 Grid 282, 292 Diffuser plate 411, 412 Collective person image 413, 414 Individual person image 521L, 521R Rectangular area 530 eyes Image selection screen 531 to 534 Up photo image 535a to 535c Size selection button 537 Whole body photo image 610 Name confirmation screen 612 Name exchange button 611, 611L, 611R Image display area 614, 614L, 14R name display area

Claims (4)

2人の人物を撮影する前に、左右の入力パレットを含む画面を表示し、前記2人の人物各々に関する性情報の入力を受け付ける属性情報入力部と、
前記2人の人物を撮影するカメラと、
前記カメラにより撮影された2人の人物の画像を表示するディスプレイと、
前記属性情報入力部に入力された性情報のうち左の入力パレットで入力された属性情報を、前記ディスプレイに表示された画像に含まれる2人の人物のうち左側の人物に対応付けるとともに前記属性情報入力部に入力された属性情報のうち右の入力パレットで入力された属性情報を、前記ディスプレイに表示された画像に含まれる2人の人物のうち右側の人物に対応付け、前記ディスプレイの表示画面上において、前記ディスプレイに表示された画像に含まれる人物各々の属性情報を認識することができる位置各人物に対応付けられた性情報を表示する対応付け部と
入力操作に応じて、前記対応付け部による対応付けを変更する対応付け変更部とを備える、写真撮影遊戯機。
Before taking the two persons, it displays a screen containing the left and right input pallet, and the attribute information input section that receives an input of attribute information relating to the two persons each,
A camera for photographing the two persons ;
A display for displaying images of two persons photographed by the camera;
Attribute information input in the input palette left of the attribute information attribute information input to the input unit, the association Rutotomoni to the left of the person of the two persons included in the image displayed on the display The attribute information input in the right input palette among the attribute information input to the attribute information input unit is associated with the right person among the two persons included in the image displayed on the display, in the display of the display screen, and the associating unit for displaying attribute information associated with each person in a position that can recognize the attribute information of the person, each contained in the image displayed on the display,
A photography amusement machine comprising: an association change unit that changes association by the association unit according to an input operation .
請求項に記載の写真撮影遊戯機であって、
前記対応付け変更部は、入力操作に応じて、前記2人の人物のうち左側の人物に関する属性情報と右側の人物に関する属性情報とを入れ替える、写真撮影遊戯機。
A photography game machine according to claim 1 ,
The association changing unit is a photographic game machine that exchanges attribute information related to a left person and attribute information related to a right person among the two persons according to an input operation.
カメラ及びディスプレイを備える写真撮影遊戯機の制御方法であって、
2人の人物を撮影する前に、左右の入力パレットを含む画面を表示し、前記2人の人物各々に関する性情報の入力を受け付けるステップと、
前記2人の人物を撮影するように前記カメラを制御するステップと、
前記カメラにより撮影された2人の人物の画像を表示するように前記ディスプレイを制御するステップと、
前記入力された性情報のうち左の入力パレットで入力された属性情報を、前記ディスプレイに表示された画像に含まれる2人の人物のうち左側の人物に対応付けるとともに前記入力された属性情報のうち右の入力パレットで入力された属性情報を、前記ディスプレイに表示された画像に含まれる2人の人物のうち右側の人物に対応付け、前記ディスプレイの表示画面上において、前記ディスプレイに表示された画像に含まれる人物各々の属性情報を認識することができる位置各人物に対応付けられた性情報を表示するステップと
入力操作に応じて、前記ディスプレイに表示された画像に含まれる各人物と属性情報との対応付けを変更するステップとを備える、写真撮影遊戯機の制御方法。
A method for controlling a photography amusement machine comprising a camera and a display,
Before taking the two persons, and displays a screen containing the left and right input pallet receives an input of attribute information relating to the two persons each step,
Controlling the camera to shoot the two persons ;
Controlling the display to display images of two persons taken by the camera;
Attribute information input in the input palette left among the inputted attribute information, correspondence Rutotomoni was the input to the left of the person of the two persons included in the image displayed on the display attribute information input in the right input palette of attribute information, the correspondence to the right of the person of the two person included in the image displayed on the display, the display screen of the display, on the display and displaying the attribute information associated with each person in a position that can recognize the attribute information of the person, each included in the display image,
A method for controlling a photography amusement machine, comprising: a step of changing correspondence between each person included in an image displayed on the display and attribute information according to an input operation .
カメラ及びディスプレイを備える写真撮影遊戯機に搭載されるコンピュータに、
2人の人物を撮影する前に、左右の入力パレットを含む画面を表示し、前記2人の人物各々に関する性情報の入力を受け付けるステップと、
前記2人の人物を撮影するように前記カメラを制御するステップと、
前記カメラにより撮影された2人の人物の画像を表示するように前記ディスプレイを制御するステップと、
前記入力された性情報のうち左の入力パレットで入力された属性情報を、前記ディスプレイに表示された画像に含まれる2人の人物のうち左側の人物に対応付けるとともに前記入力された属性情報のうち右の入力パレットで入力された属性情報を、前記ディスプレイに表示された画像に含まれる2人の人物のうち右側の人物に対応付け、前記ディスプレイの表示画面上において、前記ディスプレイに表示された画像に含まれる人物各々の属性情報を認識することができる位置各人物に対応付けられた性情報を表示するステップと
入力操作に応じて、前記ディスプレイに表示された画像に含まれる各人物と属性情報との対応付けを変更するステップとを実行させる、制御プログラム。
In a computer mounted on a photography game machine equipped with a camera and a display,
Before taking the two persons, and displays a screen containing the left and right input pallet receives an input of attribute information relating to the two persons each step,
Controlling the camera to shoot the two persons ;
Controlling the display to display images of two persons taken by the camera;
Attribute information input in the input palette left among the inputted attribute information, correspondence Rutotomoni was the input to the left of the person of the two persons included in the image displayed on the display attribute information input in the right input palette of attribute information, the correspondence to the right of the person of the two person included in the image displayed on the display, the display screen of the display, on the display and displaying the attribute information associated with each person in a position that can recognize the attribute information of the person, each included in the display image,
A control program that executes , in response to an input operation, a step of changing association between each person included in an image displayed on the display and attribute information .
JP2012207511A 2012-09-20 2012-09-20 Photo game machine Active JP5802912B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012207511A JP5802912B2 (en) 2012-09-20 2012-09-20 Photo game machine

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012207511A JP5802912B2 (en) 2012-09-20 2012-09-20 Photo game machine

Publications (2)

Publication Number Publication Date
JP2014081395A JP2014081395A (en) 2014-05-08
JP5802912B2 true JP5802912B2 (en) 2015-11-04

Family

ID=50785661

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012207511A Active JP5802912B2 (en) 2012-09-20 2012-09-20 Photo game machine

Country Status (1)

Country Link
JP (1) JP5802912B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6183721B2 (en) * 2015-07-03 2017-08-23 株式会社メイクソフトウェア Photography game machine and control program
JP6664062B2 (en) * 2016-02-05 2020-03-13 フリュー株式会社 Photo sticker making device and photographing method
JP6687839B2 (en) * 2016-03-18 2020-04-28 フリュー株式会社 Photo creation game machine and display method
JP7113606B2 (en) * 2017-10-12 2022-08-05 加賀デバイス株式会社 Photo shooting game machine, control method for photo shooting game machine, and control program for photo shooting game machine
JP7172678B2 (en) * 2019-02-06 2022-11-16 大日本印刷株式会社 Photographic device, photographic image creation method, and program

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4693344B2 (en) * 2003-08-29 2011-06-01 フリュー株式会社 Photo sticker making apparatus and photo sticker making method
JP2008117333A (en) * 2006-11-08 2008-05-22 Sony Corp Information processor, information processing method, individual identification device, dictionary data generating and updating method in individual identification device and dictionary data generating and updating program
JP5888694B2 (en) * 2011-01-13 2016-03-22 株式会社メイクソフトウェア Photography game machine, photography game method and control program

Also Published As

Publication number Publication date
JP2014081395A (en) 2014-05-08

Similar Documents

Publication Publication Date Title
JP5045842B1 (en) Image providing apparatus and method, and program
JP5196060B1 (en) Photo sticker creation apparatus, photo sticker creation method, and program
JP5802912B2 (en) Photo game machine
JP2013042314A (en) Photography game machine
JP2012235314A (en) Image processing device and image processing method
JP5435601B1 (en) Photo game machine
JP2017032780A (en) Photograph shooting play machine
JP5802965B2 (en) Photo game machine
JP6051391B2 (en) Photography game machine and control program
JP5916143B2 (en) Photo game machine
JP2017032779A (en) Photograph shooting play machine
JP6232662B2 (en) Photography game machine and its control program
JP2018125751A (en) Photography creation game machine and image processing method
JP5483136B1 (en) Imaging apparatus and display control method
JP6855115B2 (en) Control method of photography game machine, photography game machine, and control program of photography game machine
JP2015034936A (en) Image processing apparatus and display control method
JP5725245B2 (en) Image printing apparatus and image printing method
JP5962643B2 (en) Imaging apparatus and display control method
JP2014048387A (en) Photographing game machine
JP6645947B2 (en) Photography amusement machine and control program
JP6455550B2 (en) Photo sticker creation apparatus and display control method
JP6867587B2 (en) Photographing game consoles, information processing methods, and programs
JP5830740B2 (en) Photography game machine, control program for photography game machine, and control method for photography game machine
JP2014006542A (en) Image processing device and image processing method
JP2021043797A (en) Image processing device, image processing method, and image processing program

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20140107

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140328

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20140416

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20140606

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150615

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150717

R150 Certificate of patent or registration of utility model

Ref document number: 5802912

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313114

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250