JP6635170B2 - Photo shooting game device, image processing method, and image processing program - Google Patents

Photo shooting game device, image processing method, and image processing program Download PDF

Info

Publication number
JP6635170B2
JP6635170B2 JP2018198643A JP2018198643A JP6635170B2 JP 6635170 B2 JP6635170 B2 JP 6635170B2 JP 2018198643 A JP2018198643 A JP 2018198643A JP 2018198643 A JP2018198643 A JP 2018198643A JP 6635170 B2 JP6635170 B2 JP 6635170B2
Authority
JP
Japan
Prior art keywords
image
editing
displayed
face
shooting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018198643A
Other languages
Japanese (ja)
Other versions
JP2019050582A (en
Inventor
竜介 中西
竜介 中西
ももこ 高崎
ももこ 高崎
夏生 木下
夏生 木下
幸輔 大北
幸輔 大北
野間 忠
忠 野間
Original Assignee
辰巳電子工業株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 辰巳電子工業株式会社 filed Critical 辰巳電子工業株式会社
Priority to JP2018198643A priority Critical patent/JP6635170B2/en
Publication of JP2019050582A publication Critical patent/JP2019050582A/en
Application granted granted Critical
Publication of JP6635170B2 publication Critical patent/JP6635170B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、写真撮影遊戯装置、画像処理方法、及び画像処理プログラムに関する。   The present invention relates to a photographing game device, an image processing method, and an image processing program.

従来より、ユーザを含む被写体をカメラで撮影し、その撮影画像を写真印刷シートとして出力する写真撮影遊戯装置が知られている(例えば、特許文献1)。このような写真撮影遊戯装置では、ユーザの嗜好に応じて、例えば、次のような編集処理を行えるものが多く提案されている。まず、撮影された被写体の画像に対してクロマキー処理を施し、被写体部分を抽出した被写体画像を生成する。そして、この被写体画像にユーザが選択した背景画像を合成し、合成画像を生成する。その後、合成画像に対して編集を施した出力用画像を生成し、これを写真印刷シートとして出力している。   2. Description of the Related Art Conventionally, there has been known a photographing game apparatus that photographs a subject including a user with a camera and outputs the photographed image as a photograph print sheet (for example, Patent Document 1). Many of such photographing and amusement devices have been proposed that can perform, for example, the following editing processing according to the user's preference. First, chroma key processing is performed on a captured image of a subject to generate a subject image in which a subject portion is extracted. Then, a background image selected by the user is combined with the subject image to generate a combined image. Thereafter, an output image obtained by editing the composite image is generated and output as a photographic print sheet.

特許第4648092号公報Japanese Patent No. 4648092

ところで、上記のような写真撮影遊戯装置では、撮影画像に対して、例えば、被写体の目を大きくするなどの補正を行うことができるものが多い。このような補正は、撮影画像に対して一律に行うことができるようになっている。しかしながら、補正の内容によっては、特定の撮影画像に対して行ったときに初めて効果があるものも多く、すべての撮影画像に対して、補正の機会を付与すると、適切な補正の効果が得られなかったり、プレイ時間が長くなるなどの不都合があった。   By the way, many of the above-mentioned photography amusement devices can perform correction such as enlarging a subject's eyes on a captured image, for example. Such correction can be uniformly performed on a captured image. However, depending on the content of the correction, there are many effects that are effective only when performed on a specific captured image, and an appropriate correction effect can be obtained by giving a correction opportunity to all the captured images. There were inconveniences such as no play and long play time.

本発明は、上記問題を解決するためになされたものであり、撮影態様に応じて、撮影画像に適切な補正を施すことができる、写真撮影遊戯装置、画像処理方法、及び画像処理プログラムを提供することを目的とする。   The present invention has been made to solve the above problems, and provides a photographing game apparatus, an image processing method, and an image processing program that can appropriately correct a captured image according to a shooting mode. The purpose is to do.

本発明に係る写真撮影遊戯装置は、少なくとも1つのカメラを有し、当該カメラによって被写体を撮像し、撮影画像を生成する撮影部と、前記被写体の撮像態様に応じて、前記撮影画像に対する複数の補正の候補を表示する表示部と、前記複数の補正の候補の中から、一の候補の選択を受け付ける入力部と、前記選択された候補に基づいて、前記撮影画像を補正する画像処理を行う画像処理部と、を備えている。   A photography amusement device according to the present invention has at least one camera, captures an image of a subject with the camera, and generates a captured image, and a plurality of captured images corresponding to the imaging mode of the subject. A display unit for displaying correction candidates; an input unit for receiving selection of one of the plurality of correction candidates; and performing image processing for correcting the photographed image based on the selected candidates. An image processing unit.

この構成によれば、カメラによって被写体を撮影する際に、被写体の撮影態様に応じて、補正を行うようになっている。すなわち、被写体の撮影態様に応じて、補正の候補を表示し、その中から選択された補正の候補に基づいて、撮影画像に対して補正のための画像処理を行うように構成されている。そのため、すべての撮影画像に対して、一律に補正を行うのではなく、撮影態様に応じた補正を提案することができるため、補正の効果を向上することができる。また、撮影態様によっては補正の候補を表示しない、つまり補正を行わないこともあるため、プレイ時間の短縮にもつながる。   According to this configuration, when the subject is photographed by the camera, the correction is performed according to the photographing mode of the subject. That is, correction candidates are displayed in accordance with the shooting mode of the subject, and image processing for correction is performed on the captured image based on the correction candidates selected from the correction candidates. Therefore, instead of performing the correction uniformly for all the captured images, it is possible to propose a correction in accordance with a shooting mode, so that the effect of the correction can be improved. Further, depending on the shooting mode, no correction candidate is displayed, that is, no correction is performed, which leads to a reduction in play time.

本発明に係る画像処理方法は、少なくとも1つのカメラによって被写体を撮像し、撮影画像を生成するステップと、前記被写体の撮像態様に応じて、前記撮影画像に対する複数の補正の候補を表示するステップと、前記複数の補正の候補の中から、一の候補の選択を受け付けるステップと、前記選択された候補に基づいて、前記撮影画像を補正する画像処理を行うステップと、を備えている。   An image processing method according to the present invention includes the steps of: capturing an image of a subject with at least one camera to generate a captured image; and displaying a plurality of correction candidates for the captured image according to an imaging mode of the subject. Receiving a selection of one of the plurality of correction candidates; and performing image processing for correcting the photographed image based on the selected candidates.

本発明に係る画像処理プログラムは、コンピュータに、少なくとも1つのカメラによって被写体を撮像し、撮影画像を生成するステップと、前記被写体の撮像態様に応じて、前記撮影画像の複数の補正の候補を表示するステップと、前記複数の補正の候補の中から、一の候補の選択を受け付けるステップと、前記選択された候補に基づいて、前記撮影画像を補正する画像処理を行うステップと、を実行させる。   An image processing program according to the present invention includes the steps of: causing a computer to capture an image of a subject with at least one camera to generate a captured image; and displaying a plurality of correction candidates for the captured image in accordance with an imaging mode of the subject. Performing, performing a step of receiving a selection of one of the plurality of correction candidates, and performing an image process of correcting the captured image based on the selected candidate.

本発明に係る写真撮影遊戯装置によれば、撮影画像に対し、撮影態様に応じた適切な補正を施すことができる。   ADVANTAGE OF THE INVENTION According to the photography amusement apparatus which concerns on this invention, an appropriate correction according to a photography mode can be performed to a photography image.

本発明の一実施形態に係る写真撮影遊戯装置を左前側から見た斜視図である。It is the perspective view which looked at the photography amusement device concerning one embodiment of the present invention from the left front side. 図1の写真撮影遊戯装置を上から見た平面図である。It is the top view which looked at the photography amusement apparatus of FIG. 1 from the top. 撮影筐体の正面図である。It is a front view of a photography housing. 編集筐体の斜視図である。It is a perspective view of an editing housing. 出力筐体の正面図である。It is a front view of an output case. 写真撮影遊戯装置の内部の機能的構成を示すブロック図である。It is a block diagram showing the functional composition inside a photography amusement device. 本実施形態における写真撮影遊戯装置でのプレイの手順を示すフローチャートである。It is a flowchart which shows the procedure of the play in the photography amusement apparatus in this embodiment. プレイ準備処理の処理手順を示すフローチャートである。It is a flowchart which shows the processing procedure of a play preparation process. モニタに示される画像の例である。It is an example of the image shown on a monitor. モニタに示される画像の例である。It is an example of the image shown on a monitor. 撮影処理の処理手順を示すフローチャートである。It is a flowchart which shows the processing procedure of a photography process. モニタに示される画像の例である。It is an example of the image shown on a monitor. モニタに示される画像の例である。It is an example of the image shown on a monitor. モニタに示される画像の例である。It is an example of the image shown on a monitor. 編集用モニタに表示される編集対象画像の編集用画面を示す模式図である。FIG. 9 is a schematic diagram showing an editing screen of an image to be edited displayed on an editing monitor. 編集用モニタに表示される編集対象画像の編集用画面を示す模式図である。FIG. 9 is a schematic diagram showing an editing screen of an image to be edited displayed on an editing monitor. SNSのトップ画面の一例を示す図である。It is a figure showing an example of the top screen of SNS. モニタに示される画像の例である。It is an example of the image shown on a monitor. モニタに示される画像の例である。It is an example of the image shown on a monitor. モニタに示される画像の例である。It is an example of the image shown on a monitor. モニタに示される画像の例である。It is an example of the image shown on a monitor. モニタに示される画像の例である。It is an example of the image shown on a monitor. モニタに示される画像の例である。It is an example of the image shown on a monitor. モニタに示される画像の例である。It is an example of the image shown on a monitor. 印刷シートの例である。It is an example of a print sheet. 印刷シートの例である。It is an example of a print sheet.

以下、本発明に係る写真撮影遊戯装置の一実施形態について、図面を参照しつつ説明する。本実施形態に係る写真撮影遊戯装置は、写真撮影により生成された画像データに対して落書き編集を行った後、写真印刷シートとして印刷したり、画像データとして外部装置(携帯端末や画像蓄積サーバ等)に出力するものである。まず、この写真撮影遊戯装置の全体構造について説明する。   Hereinafter, an embodiment of a photography amusement device according to the present invention will be described with reference to the drawings. The photographing game device according to the present embodiment performs graffiti editing on image data generated by photographing, and then prints the image data as a photographic print sheet, or outputs the image data to an external device (such as a mobile terminal or an image storage server). ). First, the overall structure of the photographing game apparatus will be described.

<1.全体構造>
図1は、本実施形態に係る写真撮影遊戯装置を左前側から見た斜視図、図2は図1の写真撮影遊戯装置を上から見た平面図である。以下では、図1に示す前後左右の方向を基準として、他の図面の説明も行う。図1及び図2に示すように、この写真撮影遊技装置は、前部側の撮影部1と後部側の編集部2とを備えており、前後方向に長いほぼ直方体状を呈している。そして、撮影部1の側面には、撮影に必要な情報などを入力するプレイ準備部3が設けられ、編集部2の後端には、編集後の写真の出力などを行う出力部4が設けられている。
<1. Overall Structure>
FIG. 1 is a perspective view of the photographing game apparatus according to the present embodiment viewed from the front left side, and FIG. 2 is a plan view of the photographing game apparatus of FIG. 1 viewed from above. Hereinafter, other drawings will be described with reference to the front, rear, left, and right directions shown in FIG. As shown in FIGS. 1 and 2, the photo game machine includes a photographing section 1 on the front side and an editing section 2 on the rear side, and has a substantially rectangular parallelepiped shape elongated in the front-rear direction. A play preparation unit 3 for inputting information and the like necessary for shooting is provided on a side surface of the shooting unit 1, and an output unit 4 for outputting edited photos and the like is provided at a rear end of the editing unit 2. Have been.

撮影部1は、4つの壁によって平面視矩形状の撮影空間10を規定する枠体100を備えており、この枠体100の前壁14の内面に、ユーザを撮影するカメラが内蔵された撮影筐体11が配置されている。また、枠体100の両側壁13には、それぞれ撮影空間10への出入口である第1出入口101a,101bが設けられている。そして、上述したプレイ準備部3は、左側の第1出入口101aの側方に配置されるプレイ準備筐体31を有しており、撮影空間10に入る前に、所定の情報を入力するようになっている。また、撮影空間10の上方には、照明及びフラッシュ照射する天井照明ユニット(図示省略)が設けられている。   The imaging unit 1 includes a frame 100 that defines an imaging space 10 having a rectangular shape in plan view by four walls, and an imaging device in which a camera for imaging a user is built in an inner surface of a front wall 14 of the frame 100. A housing 11 is provided. Further, on both side walls 13 of the frame 100, first entrances 101a and 101b, which are entrances to the photographing space 10, respectively, are provided. The above-mentioned play preparation unit 3 has a play preparation housing 31 arranged on the left side of the first entrance 101a so that predetermined information can be input before entering the shooting space 10. Has become. A ceiling illumination unit (not shown) for illuminating and irradiating a flash is provided above the imaging space 10.

枠体100の後壁12は、撮影筐体11とほぼ同じ幅及び高さの板状部材によって形成され、撮影筐体11を向く面には、クロマキー処理のための単一の色(例えば、青色または緑色)が着色されている。着色については、直接ペンキなどで着色するほか、着色された布地、プレート等を取付けてもよい。   The rear wall 12 of the frame body 100 is formed of a plate-like member having substantially the same width and height as the imaging housing 11, and a surface facing the imaging housing 11 has a single color (for example, (Blue or green). For coloring, in addition to coloring directly with paint or the like, a colored cloth, plate, or the like may be attached.

編集部2は、枠体100の後壁12の後方に隣接して配置されており、この編集筐体21には、左右の方向を向く一対の操作面が設けられている。そして、各操作面への入力作業を行う編集空間20a,20bへは第2出入口201a,201bを介して入ることができる。   The editing unit 2 is disposed adjacent to and behind the rear wall 12 of the frame 100, and the editing housing 21 is provided with a pair of operation surfaces facing left and right. Then, the user can enter the editing spaces 20a and 20b for performing input work on each operation surface through the second entrances 201a and 201b.

本実施形態の編集筐体21は、左右両側から2組のユーザが同時に編集可能な対面式であり、左右それぞれに操作面が設けられるとともに、左右方向長さが後壁12の同方向幅よりも小さい筐体である。編集筐体21は、その前端面を後壁12の背面の中央部に接続されており、この編集筐体21の左右両側方のスペースが、2組のユーザがそれぞれ編集作業を行う編集空間20a,20bとなっている。編集筐体21の上方には、平面視においてほぼコの字状のカーテンフレーム22が設けられている。このカーテンフレーム22は、前後方向に延びる一対の側部フレーム221と、この側部フレーム221の後端同士を連結する左右方向に延びる後部フレーム222とからなる。   The editing casing 21 of the present embodiment is a face-to-face type in which two sets of users can simultaneously edit from both left and right sides, and an operation surface is provided on each of the left and right sides. Is also a small housing. The editing housing 21 has its front end face connected to the center of the back surface of the rear wall 12, and the left and right spaces on the left and right sides of the editing housing 21 are used as editing spaces 20a in which two users respectively perform editing work. , 20b. A substantially U-shaped curtain frame 22 is provided above the editing housing 21 in plan view. The curtain frame 22 includes a pair of side frames 221 extending in the front-rear direction, and a rear frame 222 extending in the left-right direction connecting rear ends of the side frames 221.

各側部フレーム221の前端は、後壁12に連結されており、後部フレーム222の中央部は、編集筐体21の後上端部に設けられた支持部材23によって支持されている。そして、後壁12と、左側の側部フレーム221とから、編集空間20aに出入りするための第2出入口201aが構成されており、後壁12と、右側の側部フレーム221とから、編集空間20bに出入りするための第2出入口201bが構成されている。   The front end of each side frame 221 is connected to the rear wall 12, and the center of the rear frame 222 is supported by a support member 23 provided at the rear upper end of the editing housing 21. The rear wall 12 and the left side frame 221 form a second entrance / exit 201a for entering and exiting the editing space 20a. The rear wall 12 and the right side frame 221 form the editing space. The 2nd entrance / exit 201b for entering / exiting 20b is comprised.

出力部4は、編集筐体21の後端面と接する出力筐体41を有しており、この出力筐体41に対しては、写真撮影遊戯装置の後端側から操作を行うように、操作面が後端側を向いている。したがって、この出力筐体41の後端側の空間が、出力操作を行う出力空間40となる。   The output unit 4 has an output housing 41 that is in contact with the rear end face of the editing housing 21. The output housing 41 is operated so as to be operated from the rear end side of the photo game device. The surface is facing the rear end. Therefore, the space on the rear end side of the output housing 41 becomes the output space 40 for performing the output operation.

<2.プレイ準備筐体>
次に、プレイ準備筐体31について説明する。図1に示すように、このプレイ準備筐体31は、枠体100の左側の側壁13に接する矩形状の筐体であり、ユーザが撮影部1の撮影空間10に入るのに先立って、情報を入力するために用いられる。例えば、撮影空間10に既に他のユーザが入っているときの待ち時間に情報の入力が行われることがある。このプレイ準備筐体31の正面には、タッチパネル式の液晶モニタ32が設けられており、このモニタ32に情報の入力を促す表示がなされ、これに対して、ユーザが所定の情報を入力する。また、この液晶モニタ32の下方には、コイン投入口33とコイン返却口34とが設けられている。
<2. Play-ready housing>
Next, the play preparation housing 31 will be described. As shown in FIG. 1, the play preparation housing 31 is a rectangular housing that is in contact with the left side wall 13 of the frame 100, and the information is prepared before the user enters the shooting space 10 of the shooting unit 1. Used to enter For example, information may be input during a waiting time when another user is already in the imaging space 10. A liquid crystal monitor 32 of a touch panel type is provided on the front of the play preparation housing 31, and a display prompting input of information is displayed on the monitor 32, and the user inputs predetermined information. A coin insertion slot 33 and a coin return slot 34 are provided below the liquid crystal monitor 32.

<3.撮影筐体>
次に、撮影筐体11について詳細に説明する。図3は撮影筐体の正面図である。同図に示すように、本実施形態の撮影筐体11は、カメラユニット111と、モニタ113と、正面ストロボユニット115とを含む。
<3. Shooting housing>
Next, the photographing housing 11 will be described in detail. FIG. 3 is a front view of the photographing housing. As shown in the figure, the imaging housing 11 of the present embodiment includes a camera unit 111, a monitor 113, and a front strobe unit 115.

カメラユニット111は、撮影筐体11の正面の略中央部に配置され、撮影空間10の被写体を撮影する。このカメラユニット111は、上カメラ111a及び下カメラ111bから構成され、上からこの順で配置されている。上カメラ111aは、被写体を上方から撮影するためのものであり、主として被写体のフェイスアップ撮影(胸より上の撮影)、及び全身撮影に利用される。上カメラ111aによる全身撮影では、被写体を上方から撮影するため、顔が近く、足下が遠くなるように撮影される。一方、下カメラ111bは、主として被写体の全身撮影に利用される。下カメラ111bによる全身撮影では、被写体を正面よりも少し下方から(被写体を少し見上げるように)撮影するため、脚が近く、顔が遠くなるように撮影される。これにより、実際よりも脚が長く見える撮影画像が得られる。また、フェイスアップ撮影では、顔ができるだけ大きく写るようにするため、縦横比がほぼ同じである画像や若干縦長の画像が得られるように設定されている。しかし、全身撮影では、被写体の全身が写るようにするため、フェイスアップ撮影の場合よりも縦長の画像が得られるように設定されている。そして、上カメラ111aでは、図示を省略するモータなどの駆動手段により、レンズのズームリングが回転するように構成されており、これによって画角を変化させ、フェイスアップ撮影及び全身撮影の2つの撮影に対応するようになっている。すなわち、フェイスアップ撮影では被写体の顔を中心に撮影するための画角とし、全身撮影では顔を中心として全身を撮影するため、フェイスアップ撮影の際の画角よりも大きい所定の画角とする。   The camera unit 111 is arranged at a substantially central portion on the front of the photographing housing 11 and photographs a subject in the photographing space 10. The camera unit 111 includes an upper camera 111a and a lower camera 111b, and is arranged in this order from the top. The upper camera 111a is for photographing the subject from above, and is mainly used for face-up photographing of the subject (photographing above the chest) and whole body photographing. In the whole body photographing by the upper camera 111a, since the subject is photographed from above, the photographing is performed such that the face is near and the feet are far away. On the other hand, the lower camera 111b is mainly used for full-body imaging of a subject. In the whole body photographing by the lower camera 111b, since the subject is photographed from slightly below the front (as if looking up the subject a little), the photographing is performed such that the legs are near and the face is far. As a result, a captured image in which the legs look longer than in reality can be obtained. Further, in face-up shooting, in order to make the face appear as large as possible, an image having almost the same aspect ratio or a slightly vertically long image is set. However, in the whole body photographing, the setting is made so that a vertically long image can be obtained as compared with the case of the face-up photographing in order to capture the whole body of the subject. The upper camera 111a is configured so that the zoom ring of the lens is rotated by a driving unit such as a motor (not shown), thereby changing the angle of view, and performing two shootings, face-up shooting and whole body shooting. It corresponds to. That is, in the face-up shooting, the angle of view is set to be centered on the face of the subject, and in the whole body shooting, since the whole body is shot centered on the face, the predetermined angle of view is larger than the angle of view in face-up shooting. .

モニタ113は、撮影条件などの入力操作が可能なタッチパネル式の液晶モニタであり、カメラユニット111の下側に配置される。   The monitor 113 is a touch-panel type liquid crystal monitor on which an input operation such as a photographing condition can be performed, and is disposed below the camera unit 111.

正面ストロボユニット115は、撮影空間10を前方から照明する。この正面照明ユニット115は、上ストロボ115Aと、下ストロボ115Bと、左ストロボ115Cと、右ストロボ115Dと、足元ストロボ115Eとからなる。上ストロボ115Aは、カメラユニット111の位置を基準として、その上方に配置される。また、左ストロボ115Cがその左方に、右ストロボ115Dがその右方に、下ストロボ115Bがその下方にそれぞれ配置される。また、足元ストロボ115Eが、下ストロボ115Bの下方に配置される。   The front strobe unit 115 illuminates the photographing space 10 from the front. The front lighting unit 115 includes an upper strobe 115A, a lower strobe 115B, a left strobe 115C, a right strobe 115D, and a foot strobe 115E. The upper strobe 115A is arranged above the position of the camera unit 111 as a reference. Further, a left strobe 115C is arranged on the left side, a right strobe 115D is arranged on the right side, and a lower strobe 115B is arranged below the left strobe 115B. Also, a foot strobe 115E is arranged below the lower strobe 115B.

上ストロボ115Aは、被写体を上方から照射する。左ストロボ115Cは被写体を左方から照射し、右ストロボ115Dは、被写体を右方から照射する。下ストロボ115Bは、被写体を下方から照射する。また、足元ストロボ115Eは、全身撮影用であり、撮撮影空間10で立っている被写体の足元を照射する。各ストロボ115A〜115Eの内部には蛍光灯が設けられており、撮影空間10内の照明として用いられる。各蛍光灯の発光量が調整されることによって、または、発光させる蛍光灯の数が調整されることによって、撮影空間10内の明るさが、利用者が行っている撮影作業の内容に応じて適宜調整される。   The upper strobe 115A irradiates the subject from above. The left strobe 115C irradiates the subject from the left, and the right strobe 115D irradiates the subject from the right. The lower strobe 115B irradiates the subject from below. The foot strobe 115 </ b> E is for full-body shooting, and irradiates the foot of a standing subject in the shooting space 10. A fluorescent lamp is provided inside each of the strobes 115 </ b> A to 115 </ b> E, and is used as illumination in the photographing space 10. By adjusting the amount of light emitted from each fluorescent lamp, or by adjusting the number of fluorescent lamps to emit light, the brightness in the imaging space 10 is adjusted according to the content of the imaging operation performed by the user. It is adjusted appropriately.

<4.編集筐体>
続いて、編集筐体21について詳細に説明する。図4は編集筐体の斜視図である。同図に示すように、本実施形態の編集筐体21は、下部側の制御ボックス211と、この制御ボックス211の上に設けられた編集台部212とを有する。制御ボックス211の内部には、メインコンピュータユニット及びI/Oコントローラなどの各種の制御装置が内蔵されており、この制御装置が写真撮影遊戯装置全体の動作の制御を行う。
<4. Editing case>
Next, the editing housing 21 will be described in detail. FIG. 4 is a perspective view of the editing housing. As shown in the figure, the editing housing 21 of the present embodiment has a lower control box 211 and an editing table 212 provided on the control box 211. Various control devices such as a main computer unit and an I / O controller are built in the control box 211, and this control device controls the operation of the entire photographing game device.

編集台部212は、左右方向を向く山型の傾斜面により形成されており、各傾斜面に編集作業を行うための操作面が設置されている。具体的には、各操作面にはタブレットを内蔵した液晶モニタで構成された編集用モニタ213が設けられており、各編集用モニタ213の左右両側には2本のタッチペン214A,214Bが接続されている。このタッチペン214A,214Bのペン先を編集用モニタ213の画面に接触させることにより、画面表示されたアイコンを選択する選択入力や、文字や描画の落書きを行う場合の手書き入力を行うことができる。なお、図4では、左側の編集用モニタ213を示しているが、右側の編集用モニタ213も左側と同じ構造である。また、制御ボックス211の制御装置は、左右両側の編集用モニタ213への入力情報に対応する処理を個別に並列処理できるようになっている。   The editing base 212 is formed by a mountain-shaped inclined surface facing in the left-right direction, and an operation surface for performing an editing operation is installed on each inclined surface. Specifically, an editing monitor 213 composed of a liquid crystal monitor with a built-in tablet is provided on each operation surface, and two touch pens 214A and 214B are connected to both left and right sides of each editing monitor 213. ing. By bringing the tips of the touch pens 214A and 214B into contact with the screen of the editing monitor 213, it is possible to perform a selection input for selecting an icon displayed on the screen and a handwriting input for performing graffiti of characters and drawings. FIG. 4 shows the editing monitor 213 on the left side, but the editing monitor 213 on the right side has the same structure as that on the left side. Further, the control device of the control box 211 can individually and in parallel execute processing corresponding to input information to the editing monitors 213 on the left and right sides.

<5.出力筐体>
次に、出力筐体41について詳細に説明する。図5は出力筐体の正面図である。同図に示すように、出力筐体41は、編集筐体21の後端部に接する矩形状の筐体であり、後端側を向く面に操作面が設けられている。操作面の上部中央にはタッチパネル式の液晶モニタ411が設けられており、このモニタ411に、出力の説明などが表示される。
<5. Output housing>
Next, the output housing 41 will be described in detail. FIG. 5 is a front view of the output housing. As shown in the figure, the output housing 41 is a rectangular housing in contact with the rear end of the editing housing 21, and has an operation surface on the surface facing the rear end. A touch panel type liquid crystal monitor 411 is provided at the upper center of the operation surface, and an explanation of the output is displayed on the monitor 411.

液晶モニタ411の下方には非接触通信部412が設けられており、近接された非接触型ICと通信を行うことで、非接触型ICからのデータの読み出しや非接触型ICに対するデータの書き込みを行う。例えば、FeliCa(登録商標)などを利用することができる。また、この非接触通信部412の下にはシール紙排出口413が設けられている。シート排出口413には、編集部において編集処理を行うことによって作成した画像が印刷された写真印刷シートが排出される。そのため、出力筐体41にはプリンタが内蔵されており、写真印刷シートの印刷がそのプリンタにより行われる。また、シール紙排出口413の下にはスピーカ414が設けられており、出力処理における案内音声、BGM、効果音等の音を出力する。なお、本実施形態では、出力筐体41を編集筐体21と別体としているが、これらを一体的な筐体で構成することもできる。   A non-contact communication unit 412 is provided below the liquid crystal monitor 411. The non-contact communication unit 412 communicates with an adjacent non-contact IC to read data from the non-contact IC and write data to the non-contact IC. I do. For example, FeliCa (registered trademark) can be used. A seal paper outlet 413 is provided below the non-contact communication unit 412. The photographic print sheet on which the image created by performing the editing process in the editing unit is printed is discharged to the sheet discharge port 413. Therefore, a printer is built in the output housing 41, and printing of a photographic print sheet is performed by the printer. Further, a speaker 414 is provided below the seal paper outlet 413, and outputs sounds such as guidance voice, BGM, and sound effects in the output processing. In the present embodiment, the output housing 41 is provided separately from the editing housing 21. However, the output housing 41 may be formed as an integrated housing.

<6.写真撮影遊戯装置の機能的構成>
次に、本実施形態に係る写真撮影遊戯装置の機能的構成について説明する。図6は、写真撮影遊戯装置の内部の機能的構成を示すブロック図である。
<6. Functional Configuration of Photo Shooting Game Device>
Next, a functional configuration of the photographing game apparatus according to the present embodiment will be described. FIG. 6 is a block diagram showing a functional configuration inside the photographing game apparatus.

図6に示すように、この写真撮影遊戯装置では、バスXを介して、制御部9、記憶部5、撮影部1、編集部2、プレイ準備部3、出力部4が電気的に接続されている。制御部9は、公知のCPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)を備えている。そして、制御部9では、記憶部5に記憶されているプログラムを実行し、写真撮影遊戯装置の全体の動作を制御する。また、バスXには、通信部6、外部ドライブ7も接続されている。なお、制御部9、記憶部5、通信部6及び外部ドライブ7は、公知のコンピュータにより構成してもよく、このようなコンピュータが上述した編集筐体21の制御ボックス211に内蔵されている。   As shown in FIG. 6, in this photographing game apparatus, a control unit 9, a storage unit 5, a photographing unit 1, an editing unit 2, a play preparation unit 3, and an output unit 4 are electrically connected via a bus X. ing. The control unit 9 includes a known CPU (Central Processing Unit), ROM (Read Only Memory), and RAM (Random Access Memory). Then, the control unit 9 executes the program stored in the storage unit 5 and controls the overall operation of the photographing game device. The communication unit 6 and the external drive 7 are also connected to the bus X. Note that the control unit 9, the storage unit 5, the communication unit 6, and the external drive 7 may be configured by a known computer, and such a computer is built in the control box 211 of the editing casing 21 described above.

記憶部5は、ハードディスクやフラッシュメモリなどの不揮発性の記憶媒体で構成され、制御部9から送信された各種の設定情報を記憶する。記憶部5に記憶されている情報は制御部9により適宜読み出される。この記憶部5には、画像の編集のために用いられる各種画像データ、印刷シートに係る画像データ、画像処理のためのデータが記憶されている。例えば、撮影画像の背景画像となる背景画像データ、補正のサンプルに関する画像データ、印刷シートのサンプルに関する画像データなどが記憶されている。また、制御部9のROMには、記憶部2におけるプログラムの実行を開始させるためのプログラムやデータが記憶されており、RAMは、制御部9において処理するデータやプログラムを一時的に記憶する。以下では、RAM, ROMをまとめてメモリということがある。   The storage unit 5 is configured by a non-volatile storage medium such as a hard disk or a flash memory, and stores various setting information transmitted from the control unit 9. The information stored in the storage unit 5 is appropriately read by the control unit 9. The storage unit 5 stores various image data used for editing an image, image data relating to a print sheet, and data for image processing. For example, background image data serving as a background image of a captured image, image data regarding a correction sample, image data regarding a print sheet sample, and the like are stored. The ROM of the control unit 9 stores programs and data for starting the execution of the programs in the storage unit 2, and the RAM temporarily stores the data and programs to be processed in the control unit 9. Hereinafter, the RAM and the ROM may be collectively referred to as a memory.

通信部6はインターネットなどのネットワークと接続するためのインタフェースであり、制御部9による制御に従って外部の装置と通信を行う。外部ドライブ7では、光ディスクや半導体メモリなどのリムーバブルメディアに対する読み書きが行われる。例えば、外部ドライブ7によりリムーバブルメディアから読み出されたコンピュータプログラムやデータは、制御部9に送信され、記憶部5に記憶されたり、プログラムとしてインストールされる。   The communication unit 6 is an interface for connecting to a network such as the Internet, and communicates with an external device under the control of the control unit 9. The external drive 7 reads and writes data on a removable medium such as an optical disk or a semiconductor memory. For example, a computer program or data read from the removable medium by the external drive 7 is transmitted to the control unit 9 and stored in the storage unit 5 or installed as a program.

プレイ準備部3は、撮影前の情報の入力などの処理を行うモニタ32及びコイン処理部175により構成される。   The play preparation unit 3 includes the monitor 32 and a coin processing unit 175 that perform processing such as input of information before shooting.

モニタ113は、公知のタッチパネルを有しており、撮影前に所定の情報を表示するとともに、画面をタッチすることによりユーザからの情報の入力を受け付ける。詳細は、後述するが、例えば、撮影コースの選択、名前の入力などの操作を受け付ける。これらの操作を示す信号は、操作信号として制御部9に入力される。   The monitor 113 has a known touch panel, displays predetermined information before shooting, and accepts input of information from a user by touching a screen. Although details will be described later, for example, operations such as selection of a shooting course and input of a name are accepted. Signals indicating these operations are input to the control unit 9 as operation signals.

コイン処理部35は、コイン投入口に対するコインの投入を検出する。コイン処理部35は、プレイに要する金額分(プレイ料金分)のコインが投入されたことを検出した場合、そのことを表す起動信号を制御部9に出力する。なお、コイン処理部35は、電子マネーやクレジットカードによるプレイ料金の支払を受け付け、当該起動信号を制御部9に出力するようなものとすることもできる。   The coin processing unit 35 detects insertion of a coin into a coin insertion slot. When the coin processing unit 35 detects that coins of the amount required for play (for the play fee) have been inserted, the coin processing unit 35 outputs an activation signal indicating this to the control unit 9. In addition, the coin processing unit 35 may receive payment of a play fee by electronic money or a credit card, and output the activation signal to the control unit 9.

撮影部1は、撮影空間10における撮影処理を行う構成である照明制御部18、上カメラ111a、下カメラ111b、モニタ113、及びスピーカ19から構成される。   The imaging unit 1 includes an illumination control unit 18 that performs an imaging process in the imaging space 10, an upper camera 111a, a lower camera 111b, a monitor 113, and a speaker 19.

上カメラ111a及び下カメラ111bは、制御部9による制御に従って撮影を行い、撮影によって得られた画像を制御部9に出力する。上述したように、上カメラ111aは、被写体を上方から撮影するためものであり、下カメラ111bは、被写体を正面から撮影するためのものである。そのため、これらのカメラ111a,111bはそれぞれ、最適な画像を得るために理想的な画角やトリミング範囲などの設定が予め行われている。特に、上カメラ111aについては、上述した通り、撮影の種類によって画角を変化させるため、制御部9によって、ズームリングを駆動するモータの制御も行われる。各カメラ111a、111bは、リアルタイムに画像を取り込んで当該画像を表す画像信号を出力する。各カメラ111a,111bから出力された画像信号は制御部9に入力されて、その内部のメモリに一時的に記憶されるとともに、モニタ113に送信され、当該画像信号に基づくライブ映像が表示される。なお、実際には、静止画像として保存される撮影画像データ(以下、単に「撮影画像」ということもある)は高解像度の静止画データであり、ライブ映像表示を行うための撮影画像データ(「スルー画像データ」とも呼ばれる)は低解像度の動画データである場合が多いが、高解像度の動画データとしてもよい。   The upper camera 111a and the lower camera 111b perform shooting under the control of the control unit 9, and output an image obtained by shooting to the control unit 9. As described above, the upper camera 111a is for photographing the subject from above, and the lower camera 111b is for photographing the subject from the front. Therefore, for each of the cameras 111a and 111b, an ideal angle of view, a trimming range, and the like are set in advance to obtain an optimal image. In particular, for the upper camera 111a, as described above, in order to change the angle of view according to the type of shooting, the control unit 9 also controls the motor that drives the zoom ring. Each of the cameras 111a and 111b captures an image in real time and outputs an image signal representing the image. The image signal output from each of the cameras 111a and 111b is input to the control unit 9 and is temporarily stored in an internal memory thereof, and is also transmitted to the monitor 113 to display a live video based on the image signal. . Actually, photographed image data stored as a still image (hereinafter, also simply referred to as a “photographed image”) is high-resolution still image data, and photographed image data for live video display (“ The “through image data” is often low-resolution moving image data, but may be high-resolution moving image data.

また、撮影部1では、後述するように、撮影画像の補正も行われる。すなわち、モニタ113は、撮影画像の補正の候補を表示し、ユーザにより選択された補正の候補が信号として、制御部9に入力される。そして、制御部9は、選択された補正の候補に基づいて、撮影画像データの画像処理を行い、モニタ113に送信する。これにより、モニタ113は、画像処理された撮影画像を表示する。   Further, in the photographing section 1, correction of a photographed image is also performed as described later. That is, the monitor 113 displays the correction candidates of the captured image, and the correction candidates selected by the user are input to the control unit 9 as signals. Then, the control unit 9 performs image processing of the captured image data based on the selected correction candidate, and transmits the captured image data to the monitor 113. As a result, the monitor 113 displays the image-processed captured image.

照明制御部18は、制御部9より供給される照明制御信号に従って、撮影空間10内の正面照明ユニット115及び天井照明ユニットから照射されるストロボ光を制御する。また、照明制御部18は、これら照明ユニットの内部に設けられる電灯(蛍光灯など)を制御することで、ユーザによる撮影処理の段階に応じて撮影空間10内の明るさを調整する。スピーカ19は、ユーザによる撮影処理の段階応じた音声を出力する。   The illumination control unit 18 controls strobe light emitted from the front illumination unit 115 and the ceiling illumination unit in the imaging space 10 according to the illumination control signal supplied from the control unit 9. In addition, the lighting control unit 18 adjusts the brightness in the photographing space 10 according to the stage of the photographing process by the user by controlling an electric lamp (such as a fluorescent lamp) provided inside these lighting units. The speaker 19 outputs sound according to the stage of the shooting process by the user.

編集部2a,2bは、編集空間20a,20bそれぞれで編集処理を行うためのものである。編集部2aおよび編集部2の機能的構成は同じであるので、以下では編集部2aの機能的構成のみを説明し、編集部2bの機能的構成の説明を省略する。   The editing units 2a and 2b are for performing editing processing in the editing spaces 20a and 20b, respectively. Since the functional configurations of the editing unit 2a and the editing unit 2 are the same, only the functional configuration of the editing unit 2a will be described below, and the description of the functional configuration of the editing unit 2b will be omitted.

編集部2aは、タブレット内蔵モニタとしての編集用モニタ213、2本のタッチペン214A,214B、およびスピーカ215から構成される。編集用モニタ213は、制御部9による制御に従って編集画面を表示し、編集画面に対するユーザの編集操作等を検出する。すなわち、ユーザにより、編集用モニタ213がタッチペン214A,214Bでタッチされると、その操作およびタッチペン214A,214Bのいずれでタッチされたのかが検出され、操作信号として制御部9に送信される。これにより、編集対象である合成画像(後述)の編集が行われる。具体的には、編集用モニタ213に表示された画像に対し、例えば、文字、模様、図形などのいわゆる落書きを、タッチペン214A,214Bなどの入力デバイスで入力する。これにより、合成画像に、落書きが重ね合わされた出力用画像が生成される。画像の編集については、後述する。こうして生成された出力用画像に基づく画像データは、出力部4へ送信される。   The editing unit 2a includes an editing monitor 213 as a built-in tablet monitor, two touch pens 214A and 214B, and a speaker 215. The editing monitor 213 displays an editing screen according to the control of the control unit 9 and detects a user's editing operation on the editing screen. That is, when the user touches the editing monitor 213 with the touch pens 214A and 214B, the operation and whether the touch was performed with the touch pens 214A and 214B are detected and transmitted to the control unit 9 as an operation signal. As a result, the edited image (described later) to be edited is edited. Specifically, for example, so-called graffiti such as characters, patterns, and graphics is input to the image displayed on the editing monitor 213 by using an input device such as the touch pens 214A and 214B. Thus, an output image in which graffiti is superimposed on the composite image is generated. Editing of the image will be described later. The image data based on the output image thus generated is transmitted to the output unit 4.

出力部4は、出力空間40における出力処理を行う構成であるタッチパネル式の液晶モニタ411、非接触通信部412、およびスピーカ414から構成される。その他、印刷を行うためのプリンタ44、およびシール紙ユニット45も備えている。プリンタ44は、合成画像、または編集処理によって得られた編集済みの出力用画像を、プリンタ44に装着されたシール紙ユニット45に収納されているシール紙に印刷し、シール紙排出口413に排出する。非接触通信部412は、携帯端末との間のデータの受送信を行うものである。なお、編集部2で作成された画像データは、通信部6によってネットワークを通じて外部の画像蓄積サーバに送信される。   The output unit 4 includes a touch panel-type liquid crystal monitor 411, a non-contact communication unit 412, and a speaker 414 that perform output processing in the output space 40. In addition, a printer 44 for printing and a seal paper unit 45 are also provided. The printer 44 prints the synthesized image or the edited output image obtained by the editing process on the seal paper housed in the seal paper unit 45 attached to the printer 44, and discharges it to the seal paper discharge port 413. I do. The non-contact communication unit 412 transmits and receives data to and from the mobile terminal. The image data created by the editing unit 2 is transmitted by the communication unit 6 to an external image storage server via a network.

<7.写真撮影遊戯装置における処理手順>
続いて、本実施形態に係る写真撮影遊戯装置のプレイ方法及び画像処理について説明する。上述したように、この写真撮影遊戯装置には、撮影部1、編集部2、プレイ準備部3、及び出力部4が含まれている。プレイ準備部3では撮影前の所定の情報の入力が行われ、撮影部1では撮影処理が行われる。そして、編集部2では後述する編集処理が行われ、出力部4では出力処理が行われる。これらの処理は、記憶部5または外部ドライブ7に記憶されたプログラム、あるいはインストールされたプログラムを制御部9により実行することにより、行われる。以下では、まず、プレイの流れとそれに伴うユーザの移動について、図2及び図7に示すフローチャートを参照しつつ説明し、その後、各処理について詳細に説明する。
<7. Processing procedure in the photography amusement device>
Subsequently, a playing method and image processing of the photographing game apparatus according to the present embodiment will be described. As described above, the photographing and amusement device includes the photographing unit 1, the editing unit 2, the play preparation unit 3, and the output unit 4. The play preparation unit 3 inputs predetermined information before shooting, and the shooting unit 1 performs shooting processing. Then, the editing unit 2 performs an editing process described later, and the output unit 4 performs an output process. These processes are performed by the control unit 9 executing a program stored in the storage unit 5 or the external drive 7 or an installed program. Hereinafter, first, the flow of play and the movement of the user accompanying the play will be described with reference to the flowcharts shown in FIGS. 2 and 7, and then each process will be described in detail.

<7−1.プレイの流れ>
以下、図7のフローチャートにしたがい、プレイの流れについて説明する。図2に示すように、まず、ユーザは、矢印Aで示すように枠体100の左側の側壁13に配置されたプレイ準備部3によりプレイ準備処理を行う。プレイ準備筐体31のモニタ32において、デモ画像の表示中にユーザがコイン投入口33にコインを所定の金額を投入すると(ステップS100のYES)、プレイが開始され、プレイ準備処理が始まる(ステップS110)。そして、撮影コース、背景画像の選択などの所定の情報が入力されると、ユーザは、矢印Bで示すように第1出入口101aを使って撮影空間10に移動する。このとき、プレイ準備筐体31のモニタ32によって、撮影空間10への移動を促す表示や通知がなされる(ステップS120)。例えば、撮影空間10が他のユーザによって利用されていないときは、撮影空間10への移動を促す表示などを行う。一方、撮影空間10に他のユーザが存在する場合には、撮影空間10への移動を待つように表示などを行う。
<7-1. Flow of play>
Hereinafter, the flow of play will be described with reference to the flowchart of FIG. As shown in FIG. 2, first, the user performs play preparation processing by the play preparation unit 3 arranged on the left side wall 13 of the frame 100 as shown by the arrow A. When the user inserts a predetermined amount of coins into the coin insertion slot 33 while the demonstration image is being displayed on the monitor 32 of the play preparation housing 31 (YES in step S100), play is started, and play preparation processing starts (step S100). S110). Then, when predetermined information such as selection of a shooting course and a background image is input, the user moves to the shooting space 10 using the first entrance 101a as shown by an arrow B. At this time, a display or notification is displayed on the monitor 32 of the play preparation housing 31 to prompt the user to move to the shooting space 10 (step S120). For example, when the photographing space 10 is not used by another user, a display or the like prompting the user to move to the photographing space 10 is performed. On the other hand, when another user exists in the photographing space 10, display or the like is performed so as to wait for movement to the photographing space 10.

続いて、ユーザは、撮影空間10に入り、撮影部1に設けられたカメラ111a,111bやモニタ113など利用して撮影処理を行う(ステップS130)。そして、撮影処理を終えたユーザは、矢印Cで示すように第1及び第2出入口101a,101bを使って撮影空間10から装置外部に出た後、いずれかの編集空間20a,20bに移動する。このとき、撮影筐体11のモニタ113およびスピーカ19によって、編集空間20a,20bへの移動を促す表示や通知がなされる(ステップS140)。例えば、いずれの編集空間20a,20bもユーザが利用していないときは、いずれか一方の編集空間への移動を促す表示などを行う。また、いずれか一方の編集空間20a,20bにユーザが存在する場合には、空いている編集空間への移動を促す表示などを行う。そして、いずれの編集空間20a,20bもユーザによって利用されている場合には、編集空間20a,20bへの移動を待つように表示などを行う。   Subsequently, the user enters the photographing space 10 and performs photographing processing using the cameras 111a and 111b and the monitor 113 provided in the photographing unit 1 (step S130). Then, the user who has completed the photographing process exits the apparatus from the photographing space 10 using the first and second entrances 101a and 101b as shown by arrows C, and then moves to one of the editing spaces 20a and 20b. . At this time, the monitor 113 and the speaker 19 of the photographing housing 11 display or notify the user to move to the editing spaces 20a and 20b (step S140). For example, when neither of the editing spaces 20a and 20b is used by the user, a display or the like prompting the user to move to one of the editing spaces is performed. When a user exists in one of the editing spaces 20a and 20b, a display for prompting the user to move to an empty editing space is performed. When both of the editing spaces 20a and 20b are used by the user, a display or the like is performed so as to wait for movement to the editing spaces 20a and 20b.

編集空間20a,20bに移動したユーザは編集処理を開始する。各編集空間20a,20bのユーザは、同時に編集処理を行うことができる。ユーザは、プレイ準備処理で選択された背景画像が被写体画像(撮影画像から被写体部分を抽出した画像)の背景として合成された合成画像に対して、編集処理を行う(ステップS150)。そして、編集処理が終了すると、編集済みの合成画像を含む画像の印刷が開始される(ステップS160)。続いて、編集筐体21の編集用モニタ213には出力空間30への移動を促す表示がなされるとともに、スピーカ215によって出力空間40への移動を促す音声が通知される(ステップS170)。これに従って、編集処理を終えたユーザは、いずれかの編集空間20a,20bから、矢印Dで示すように出力空間40に移動して印刷が完了するのを待機させる。なお、出力空間40で他のユーザが出力処理をしている場合には、編集用モニタ213およびスピーカ215によって、出力空間40への移動を待たせる表示や通知がなされる。また、出力空間40への移動を促す通知後に、印刷処理を開始することもできる。   The user who has moved to the editing spaces 20a and 20b starts the editing process. The user of each editing space 20a, 20b can perform editing processing at the same time. The user performs an editing process on the synthesized image obtained by synthesizing the background image selected in the play preparation process as the background of the subject image (an image obtained by extracting the subject portion from the photographed image) (step S150). When the editing process is completed, printing of an image including the edited composite image is started (step S160). Subsequently, a display urging the user to move to the output space 30 is displayed on the editing monitor 213 of the editing housing 21, and a sound urging the user to move to the output space 40 is notified by the speaker 215 (step S170). In accordance with this, the user who has completed the editing process moves from any one of the editing spaces 20a and 20b to the output space 40 as shown by the arrow D, and waits for printing to be completed. If another user is performing output processing in the output space 40, a display or a notification is made by the editing monitor 213 and the speaker 215 to wait for movement to the output space 40. Further, the printing process can be started after the notification prompting the user to move to the output space 40.

そして、出力空間40では、ユーザに画像の印刷を待たせている間、本プレイによって生成した画像をユーザの携帯端末で取得できるようにするための操作(例えば、メールアドレスの入力)をモニタ411に対して行わせる(ステップS180)。画像の印刷が終了したとき、ユーザは、出力筐体41に設けられたシール紙排出口413からシール紙を受け取り、一連のプレイを終えることになる。以上のようなユーザの移動を促す表示は、制御部9により行われる。   In the output space 40, an operation (for example, input of an e-mail address) for enabling the user to obtain the image generated by the play on the portable terminal while the user waits for the image to be printed is performed on the monitor 411. (Step S180). When the printing of the image is completed, the user receives the seal paper from the seal paper outlet 413 provided in the output housing 41 and ends a series of play. The display for prompting the user to move as described above is performed by the control unit 9.

<7−2 プレイ準備処理>
次に、図7のステップS110で示したプレイ準備処理の詳細について、図8を参照しつつ説明する。図8は、本実施形態におけるプレイ準備処理の処理手順を示すフローチャートである。
<7-2 Play preparation processing>
Next, details of the play preparation processing shown in step S110 of FIG. 7 will be described with reference to FIG. FIG. 8 is a flowchart showing the procedure of the play preparation process in the present embodiment.

コインが投入され、プレイが開始されると、制御部9は、プレイ準備筐体31のモニタ32に撮影コースの表示を行う。本実施形態では、図9に示すように、2種類の撮影コース、つまり第1撮影コースと、第2撮影コースとがモニタ32に表示され、ユーザはいずれか一方を選択する(ステップS200)。これらの撮影コースには、それぞれ、上述したようにフェイスアップ撮影と、全身撮影とが含まれるが、全身撮影の方法が相違する。すなわち、第1撮影コースを選択した場合には、上カメラ111aによって全身撮影が行われる。一方、第2撮影コースを選択した場合には、下カメラ111bによって全身撮影が行われる。   When a coin is inserted and play is started, the control unit 9 displays a shooting course on the monitor 32 of the play preparation housing 31. In the present embodiment, as shown in FIG. 9, two types of shooting courses, that is, a first shooting course and a second shooting course are displayed on the monitor 32, and the user selects one of them (step S200). Each of these shooting courses includes face-up shooting and whole body shooting as described above, but the method of whole body shooting is different. That is, when the first photography course is selected, the whole body is photographed by the upper camera 111a. On the other hand, when the second photographing course is selected, the whole body is photographed by the lower camera 111b.

撮影コースの選択が完了すると、モニタ32には、名前の入力を促す画面が表示される。図示を省略するが、モニタには、ひらがな、カタカナ、アルファベットの一覧が表示され、ユーザは、この画面から適宜名前を入力する(ステップS210)。ここで入力した名前は、例えば、編集処理で使用される落書き用のツールの一つである名前スタンプを作成するための情報として利用される。   When the selection of the shooting course is completed, a screen prompting the input of the name is displayed on the monitor 32. Although not shown, a list of hiragana, katakana, and alphabets is displayed on the monitor, and the user inputs a name as appropriate from this screen (step S210). The name input here is used, for example, as information for creating a name stamp which is one of the graffiti tools used in the editing process.

名前の入力が完了すると、モニタ32には、背景画像の選択を促す画面が表示される。例えば、図10の例では、4つテーマに係る背景画像が設定されており、各テーマには6種類の背景画像セット343が含まれている。そして、各背景画像セット343には、6種類の背景画像が含まれており、これらは、後述する6枚の撮影画像にそれぞれ対応している。4つのテーマを示す画面は、モニタ32の上部に表示されたタブ341をタッチすることで切替えることができる。ユーザは、所定時間内に、いずれかの背景画像セットを選択する(ステップS220)。   When the input of the name is completed, a screen prompting the selection of the background image is displayed on the monitor 32. For example, in the example of FIG. 10, background images related to four themes are set, and each theme includes six types of background image sets 343. Each background image set 343 includes six types of background images, which correspond to six captured images described later. The screens showing the four themes can be switched by touching the tab 341 displayed at the top of the monitor 32. The user selects one of the background image sets within a predetermined time (step S220).

こうして、背景画像セットの選択が完了すると、モニタ113には、撮影部1の撮影空間10への移動を促す表示がなされる。なお、背景画像セットは、後述する第1フェイスアップ撮影用の長方形の背景画像、第2フェイスアップ撮影用の円形の背景画像及び全身撮影用の長方形の背景画像をそれぞれ2枚ずつ含む。第1及び第2フェイスアップ撮影用の背景画像は、第1及び第2撮影コースのいずれが選択された場合でも同じデザインである。一方、全身撮影用の背景画像は、第1及び第2撮影コースのいずれが選択されたかによってそのデザインが異なる。具体的には、上から被写体を撮影する第1撮影コースの場合は、上から被写体が撮影されていることがわかるような奥行きを持ったデザインの背景画像とし、正面より若干下方から被写体を撮影する第2撮影コースの場合は、正面より若干下方から被写体が撮影されていることがわかるような奥行きを持ったデザインの背景画像とする。   When the selection of the background image set is completed in this way, a display is displayed on the monitor 113 prompting the photographing unit 1 to move to the photographing space 10. The background image set includes two rectangular background images for first face-up imaging, a circular background image for second face-up imaging, and two rectangular background images for full-body imaging, which will be described later. The background images for the first and second face-up photography have the same design regardless of which of the first and second photography courses is selected. On the other hand, the background image for full-body imaging has a different design depending on which of the first and second imaging courses is selected. Specifically, in the case of the first shooting course in which the subject is photographed from above, the background image is designed to have a depth so that the subject can be seen from above, and the subject is photographed from slightly below the front. In the case of the second photographing course, the background image is designed to have a depth such that it can be seen that the subject is photographed from slightly below the front.

なお、上述した例では、プレイ準備処理においては、ユーザにより、3種類の情報の入力が行われたが、これ以外の情報の入力、例えば、メールアドレスなどの入力などを行わせることもできる。   In the example described above, three types of information are input by the user in the play preparation processing. However, input of other information, for example, input of a mail address or the like may be performed.

<7−3 撮影処理>
次に、図7のステップS130で示した撮影処理の詳細について、図11を参照しつつ説明する。図11は、本実施形態における撮影処理の処理手順を示すフローチャートである。
<7-3 Shooting process>
Next, details of the photographing process shown in step S130 of FIG. 7 will be described with reference to FIG. FIG. 11 is a flowchart illustrating a processing procedure of a photographing process according to the present embodiment.

ユーザが撮影空間に入ると、制御部9は、3種類の画像の撮影を行う。第1撮影コースが選択されている場合には(ステップS300のYES)、上カメラ111aによる2種類のフェイスアップ撮影、及び上カメラ111aによる全身撮影が行われる。一方、第2撮影コースが選択されている場合には(ステップS300のNO)、上カメラ111aによる2種類のフェイスアップ撮影、及び下カメラ111bによる全身撮影が行われる。   When the user enters the shooting space, the control unit 9 shoots three types of images. When the first shooting course is selected (YES in step S300), two types of face-up shooting by upper camera 111a and whole body shooting by upper camera 111a are performed. On the other hand, when the second shooting course is selected (NO in step S300), two types of face-up shooting by the upper camera 111a and whole body shooting by the lower camera 111b are performed.

まず、2種類のフェイスアップ撮影について説明する。この撮影は、いずれの撮影コースを選択しても同じである。最初に、第1フェイスアップ撮影が行われる。制御部9は、上カメラ111aに設けられたモータを駆動し、ズームリングを回転させてフェイスアップ撮影に適した画角を設定する(ステップS310)。このとき、モニタ113には、図12に示すような画面が表示される。ユーザは、この画面の矩形状の撮影画像表示領域1131にリアルタイムに表示される撮影動画像(スルー画像)を見ながら撮影を行う。撮影画像表示領域1131に表示されるスルー画像は、上カメラ111aにより撮影されたものであり、クロマキー処理により、撮影画像から抽出された被写体画像と、背景画像とが合成された画像である(以下、合成画像と称する)。この背景画像は、プレイ準備部で選択された背景画像セットの中に含まれる背景画像であって、第1フェイスアップ撮影用の長方形の背景画像である。なお、図示を省略するが、スルー画像の表示に先立って、ユーザをフェイスアップ撮影に適した位置へ誘導するため、モニタ113に、誘導用の画面を表示させる。   First, two types of face-up shooting will be described. This shooting is the same regardless of which shooting course is selected. First, the first face-up shooting is performed. The control unit 9 drives the motor provided in the upper camera 111a, rotates the zoom ring, and sets an angle of view suitable for face-up shooting (step S310). At this time, a screen as shown in FIG. 12 is displayed on the monitor 113. The user performs photographing while watching a photographed moving image (through image) displayed in real time in the rectangular photographed image display area 1131 of this screen. The through image displayed in the captured image display area 1131 is an image captured by the upper camera 111a, and is an image in which a subject image extracted from a captured image and a background image are synthesized by chroma key processing (hereinafter, referred to as a “through image”). , A composite image). This background image is a background image included in the background image set selected by the play preparation unit, and is a rectangular background image for the first face-up shooting. Although illustration is omitted, a screen for guidance is displayed on the monitor 113 in order to guide the user to a position suitable for face-up shooting before displaying the through image.

このフェイスアップ撮影(静止画の取得)が2回連続して行われる(ステップS320)。このとき、撮影する(表示されるスルー画像を静止画として固定する)タイミングで、足元ストロボ115E以外の正面照明ユニット115、天井照明ユニットのストロボが発光する。   This face-up shooting (acquisition of a still image) is performed twice consecutively (step S320). At this time, at the timing of shooting (fixing the displayed through image as a still image), the strobes of the front lighting unit 115 and the ceiling lighting unit other than the foot strobe 115E emit light.

撮影は秒数表示1132を示してカウントダウンを行いながら所定時間ごとにシャッターが切られることで行われる。つまり、制御部9より上カメラ111aに制御信号が送信され撮影が行われる。そして、撮影された矩形状の画像のサムネイルが、画面下部のサムネイル表示領域1133に順に表示されていく。なお、このサムネイルは、上述した合成画像のサムネイルである。こうして、2回の撮影により、2種類の画像に係る撮影画像データが生成され、メモリに格納される。ここで撮影される画像を、以下、第1フェイスアップ画像と称する。また、メモリに格納される第1フェイスアップ画像データは、クロマキー処理(クロマキーマスク)によって抽出された被写体画像、及び選択された背景画像を含むデータである。この点は、以下の撮影においても同じである。   The photographing is performed by releasing the shutter at predetermined time intervals while performing countdown while indicating the number of seconds display 1132. That is, a control signal is transmitted from the control unit 9 to the upper camera 111a to perform photographing. Then, thumbnails of the captured rectangular images are sequentially displayed in the thumbnail display area 1133 at the bottom of the screen. This thumbnail is a thumbnail of the above-described composite image. In this way, the captured image data of the two types of images is generated by the two capturing operations and stored in the memory. The image captured here is hereinafter referred to as a first face-up image. The first face-up image data stored in the memory is data including a subject image extracted by chroma key processing (chroma key mask) and a selected background image. This point is the same in the following photographing.

次に、第2フェイスアップ撮影が行われる(ステップS330)。第1フェイスアップ撮影との相違は、撮影される画像の形状であり、モニタ113には、円形状の撮影画像表示領域1131が表示される。すなわち、第2フェイスアップ撮影では、円形状の画像が生成される。このような円形状の画像の生成には、種々の方法があるが、画像データについては、例えば、クロマキー処理された矩形状の被写体画像、及び矩形状の背景画像において、円形とすべき領域の各画素に対応するアルファ値を「255」とし、その周縁の各画素に対応するアルファ値を「0」にする。これにより、被写体画像及び背景画像の周縁が透明になり、円形の被写体画像及び背景画像を生成することができる。なお、スルー画像については、矩形状のスルー画像上に、この矩形状のスルー画像と同じか、それよりも大きい画像であって、円形の透明領域が形成された画像を重畳することで、円形のスルー画像を実現している。   Next, a second face-up shooting is performed (step S330). The difference from the first face-up photographing is the shape of the image to be photographed. The monitor 113 displays a circular photographed image display area 1131. That is, in the second face-up shooting, a circular image is generated. There are various methods for generating such a circular image. For example, regarding image data, for example, in a rectangular subject image subjected to chroma key processing and a rectangular background image, an area to be made circular may be used. The alpha value corresponding to each pixel is set to “255”, and the alpha value corresponding to each peripheral pixel is set to “0”. Accordingly, the periphery of the subject image and the background image becomes transparent, and a circular subject image and a background image can be generated. Note that the through image is circular by superimposing on the rectangular through image an image that is the same as or larger than the rectangular through image and in which a circular transparent region is formed. Through images are realized.

撮影は第1フェイスアップ撮影と同じく、秒数表示1132を示してカウントダウンを行いながら所定時間ごとにシャッターが切られることで行われる。照明についても同じである。そして、撮影された円形状の画像のサムネイルが、第1フェイスアップ画像に続いて、画面下部のサムネイル表示領域1133に順に表示されていく。こうして、2回の撮影により、2種類の画像に係る撮影画像データが生成され、メモリに格納される。ここで撮影される画像を、以下、第2フェイスアップ画像と称する。メモリに格納される第2フェイスアップ画像データに含まれる被写体画像及び背景画像データは、例えば正方形であるが、円形に見えるようにするためのアルファチャンネルに関する情報を含む。   As in the case of the first face-up shooting, the shooting is performed by releasing the shutter at predetermined time intervals while showing the number of seconds display 1132 and performing countdown. The same is true for lighting. Then, thumbnails of the shot circular images are sequentially displayed in the thumbnail display area 1133 at the bottom of the screen following the first face-up image. In this way, the captured image data of the two types of images is generated by the two capturing operations and stored in the memory. The image captured here is hereinafter referred to as a second face-up image. The subject image and the background image data included in the second face-up image data stored in the memory are, for example, square, but include information regarding an alpha channel for making the image look circular.

続いて、第1撮影コースを選択した場合には、上カメラ111aによって全身撮影が行われる。これに先立って、制御部9は、上カメラ111aに設けられたモータを駆動し、ズームリングを回転させて全身撮影に適した画角を設定する(ステップS340)。より具体的には、フェイスアップ撮影の際に設定された画角よりも広い画角となるように設定する。また、モニタ113には、ユーザを全身撮影に適した位置へ誘導するため、モニタ113に、誘導用の画面を表示させる。そして、フェイスアップ画像の撮影時と同様に全身撮影が行われる(ステップS350)。つまり、撮影画像表示領域1131には、スルー画像が表示され、ユーザはこれを見ながら2回の全身撮影を行う。ここで撮影される画像を、以下、第1全身画像という。第1全身画像は、上述したように顔が近く、足下が遠くなるように撮影された画像である。   Subsequently, when the first photographing course is selected, the whole body is photographed by the upper camera 111a. Prior to this, the control unit 9 drives a motor provided in the upper camera 111a, rotates the zoom ring, and sets an angle of view suitable for whole-body imaging (step S340). More specifically, the angle of view is set to be wider than the angle of view set during face-up shooting. In addition, the monitor 113 displays a guidance screen on the monitor 113 to guide the user to a position suitable for full-body imaging. Then, the whole body is photographed in the same manner as when the face-up image is photographed (step S350). That is, a through image is displayed in the photographed image display area 1131, and the user performs two whole body photographings while watching the through image. The image taken here is hereinafter referred to as a first whole body image. As described above, the first whole body image is an image photographed such that the face is near and the feet are far away.

一方、第2撮影コースを選択した場合には(ステップS300のNO)、第1撮影コースと同様に、上カメラ111aによる2種類のフェイスアップ撮影により合計4回の撮影が行われる(ステップS360〜S380)。これに続いて、下カメラ111bによって2回の全身撮影が行われる(ステップS390)。このとき、下カメラ111bにおける画角などは予め設定されている。ここで撮影される画像を、以下、第2全身画像という。第2全身画像は、上述したように正面より若干下方から撮影される画像であり、被写体において、脚が長く見えるように撮影される画像である。   On the other hand, when the second shooting course is selected (NO in step S300), a total of four shootings are performed by two types of face-up shooting using the upper camera 111a, similarly to the first shooting course (steps S360 to S360). S380). Subsequently, the whole body is photographed twice by the lower camera 111b (step S390). At this time, the angle of view and the like of the lower camera 111b are set in advance. The image captured here is hereinafter referred to as a second whole body image. As described above, the second whole body image is an image photographed from slightly below the front, and is an image photographed so that the leg of the subject looks long.

こうして、いずれの撮影コースにおいても、合計6回の撮影により、6枚の画像に係る撮影画像データが生成され、メモリに格納される。また、サムネイル表示領域1133には、第1フェイスアップ画像、第2フェイスアップ画像、及び全身画像に係る合成画像が、それぞれ2枚ずつ、合計6枚のサムネイルが表示される。   Thus, in any of the photographing courses, photographed image data relating to six images is generated by a total of six photographings and stored in the memory. In the thumbnail display area 1133, a total of six thumbnails are displayed, two each of the first face-up image, the second face-up image, and the composite image relating to the whole body image.

続いて、撮影が完了した後に、さらに撮影時間が残っていたとすると(ステップS400のYES)、ボーナスショットの撮影が行われる(ステップS410)。ボーナスショットは、選択されたコースでの全身撮影で行われる。なお、選択されたコースで撮影しなかった方の全身撮影をボーナスショットとして提供してもよい。ボーナスショットで使用される背景画像は、図10で選択した背景画像セット343に応じて決定される。   Subsequently, if the photographing time still remains after the photographing is completed (YES in step S400), a bonus shot is photographed (step S410). The bonus shot is performed by full-body shooting on the selected course. In addition, you may provide the whole body imaging | photography of the person who did not image | photograph in the selected course as a bonus shot. The background image used in the bonus shot is determined according to the background image set 343 selected in FIG.

<7−4 第1補正処理>
こうして、すべての撮影が完了すると、得られた撮影画像に対して第1補正処理を行う(ステップS420)。まず、撮影された撮影画像の第1補正処理を促す画面がモニタ113に表示される。撮影画像の補正は種々の態様があるが、ここでは、撮影画像の明るさと、撮影画像に含まれる被写体の目の大きさの補正を行うため、図13に示すような画面がモニタ113に表示される。同図に示すように、画面の左側には、既に撮影された第2フェイスアップ画像がプレビュー画像1134として表示されており、画面の右側には、3種類の目の大きさを示す補正サンプルボタン1135と、5種類の明るさを示す補正サンプルボタン1136が表示されている。なお、プレビュー画像とは、補正の内容をユーザに確認させるための画像である。ここでは、目の大きさとして、異なる3種類ずつの補正サンプルを設定しているが、目に関する補正であれば目の大きさに限らない。例えば、補正サンプルとしては、例えば、メイク、アイライン、まつげ、アイシャドー、黒目などを適宜調整したものを複数種準備することができる。
<7-4 First correction process>
When all the photographing is completed in this way, a first correction process is performed on the obtained photographed image (step S420). First, a screen for prompting a first correction process of a captured image is displayed on the monitor 113. There are various modes for correcting the captured image. Here, a screen as shown in FIG. 13 is displayed on the monitor 113 in order to correct the brightness of the captured image and the size of the eyes of the subject included in the captured image. Is done. As shown in the figure, a second face-up image that has already been taken is displayed as a preview image 1134 on the left side of the screen, and a correction sample button showing three types of eye sizes is displayed on the right side of the screen. 1135 and a correction sample button 1136 indicating five types of brightness are displayed. Note that the preview image is an image for allowing the user to confirm the details of the correction. Here, three different correction samples are set as eye sizes, but the correction is not limited to the eye size as long as the correction is for the eyes. For example, as the correction sample, for example, a plurality of samples, which are appropriately adjusted for makeup, eye line, eyelash, eye shadow, iris, etc., can be prepared.

そして、いずれかの補正サンプルボタン1135,1136をタッチすると、タッチした補正サンプルボタンに対応する目の補正や明るさの補正が施された第2フェイスアップ画像が、プレビュー画像1134として表示される。また、他の補正サンプルボタンをタッチすれば、その補正がなされた第2フェイスアップ画像がプレビュー画像1134として表示される。したがって、ユーザは、自身のフェイスアップ画像を用いて目の大きさや明るさを確認することができる。特に、顔が大きく写っているフェイスアップ画像をプレビュー画像として使用することで、目の大きさの確認をよりしやすい、という効果がある。   Then, when one of the correction sample buttons 1135 and 1136 is touched, the second face-up image to which the eye correction and the brightness correction corresponding to the touched correction sample button have been performed is displayed as the preview image 1134. If another correction sample button is touched, the corrected second face-up image is displayed as preview image 1134. Therefore, the user can check the size and brightness of the eyes using his / her face-up image. In particular, by using a face-up image in which a face is largely displayed as a preview image, there is an effect that the size of the eyes can be more easily checked.

なお、本例では、第2フェイスアップ画像をプレビュー画像として使用するようにしたが、プレビュー画像1134をタッチすることで、他の撮影画像に切替えることもできる。また、取得したすべての撮影画像から顔検出を行い、もっとも多くの顔が検出された1枚の撮影画像、あるいは、撮影画像中に含まれるすべての顔の大きさの平均値が最も大きい1枚の撮影画像を最初に表示するプレビュー画像として使用することもできる。さらには、取得したすべての撮影画像から個体認証を行い、別人と判別されたすべての利用者の顔画像をプレビュー画像として表示することもできる。   In this example, the second face-up image is used as a preview image. However, the user can switch to another captured image by touching the preview image 1134. In addition, face detection is performed from all acquired captured images, and one captured image in which the most faces are detected, or one image in which the average value of the sizes of all faces included in the captured image is the largest. Can be used as a preview image to be displayed first. Furthermore, individual authentication can be performed from all acquired captured images, and face images of all users who have been determined to be different persons can be displayed as preview images.

そして、OKボタン1137を押下すれば、OKボタン1137を押下する直前に選択されていた補正が、すべての撮影画像に対してなされ、補正後の画像データがメモリに記憶される。なお、OKボタン1137が押下されない場合には、所定時間が経過後、その時点で選択されていた補正が、すべての撮影画像に対してなされる。こうして、補正後の画像データがメモリに記憶され、目の大きさと明るさに関する第1補正処理が終了する。   When the user presses the OK button 1137, the correction selected immediately before pressing the OK button 1137 is performed on all captured images, and the corrected image data is stored in the memory. If the OK button 1137 is not pressed, the correction selected at that time is performed on all captured images after a predetermined time has elapsed. In this way, the corrected image data is stored in the memory, and the first correction processing on the size and brightness of the eyes is completed.

なお、補正処理は、公知の画像処理技術を利用することができる。例えば、目の補正については、画像の中から目に該当する領域を検出し、この領域を選択した補正サンプルに適合するように、目の大きさなどを調整するように画像処理を行う。   Note that a known image processing technique can be used for the correction processing. For example, for eye correction, an area corresponding to the eye is detected from the image, and image processing is performed so as to adjust the size of the eye and the like so that this area matches the selected correction sample.

<7−5 第2補正処理>
次に、第2撮影コースを選択している場合には(ステップS430のYES)、第2補正処理が行われる(ステップS440)。まず、第2撮影コースにおいて撮影された全身画像の第2補正処理を促す画面がモニタ113に表示される。ここでは、脚の長さの補正を行うため、図14に示すような画面がモニタ113に表示される。同図に示すように、画面の左側には、既に撮影された全身画像がプレビュー画像1138として表示されており、画面の右側には、3種類の脚の長さ(例えば、左側から長い、少し長い、とても長い)を示す補正サンプルボタン1139が表示されている。
<7-5 Second correction process>
Next, when the second shooting course is selected (YES in step S430), a second correction process is performed (step S440). First, a screen for prompting a second correction process of the whole body image taken in the second shooting course is displayed on the monitor 113. Here, a screen as shown in FIG. 14 is displayed on the monitor 113 to correct the leg length. As shown in the figure, on the left side of the screen, a whole body image that has already been taken is displayed as a preview image 1138, and on the right side of the screen, three types of leg lengths (for example, a long (Long, very long).

そして、いずれかの補正サンプルボタン1139をタッチすると、タッチした補正サンプルボタンに対応する脚の長さの補正が施された全身画像が、プレビュー画像1138として表示される。また、他の補正サンプルボタンをタッチすれば、その補正がなされた全身画像がプレビュー画像1138として表示される。したがって、ユーザは、自身の全身画像を用いて脚の長さを確認することができる。   Then, when one of the correction sample buttons 1139 is touched, a whole body image in which the leg length corresponding to the touched correction sample button has been corrected is displayed as a preview image 1138. If another correction sample button is touched, the corrected whole body image is displayed as preview image 1138. Therefore, the user can confirm the length of the leg using his / her whole body image.

そして、OKボタン1140を押下すれば、OKボタン1140を押下する直前に選択されていた補正が、全身画像に対してなされ、補正後の画像データがメモリに記憶される。なお、OKボタン1140が押下されない場合には、所定時間が経過後、その時点で選択されていた補正が、全身画像に対して施され、補正後の画像データがメモリに記憶され、脚の長さに関する第2補正処理が終了する。   When the OK button 1140 is pressed, the correction selected immediately before pressing the OK button 1140 is performed on the whole body image, and the corrected image data is stored in the memory. If the OK button 1140 is not pressed, the correction selected at that time is applied to the whole body image after a predetermined time has elapsed, the corrected image data is stored in the memory, and the leg length is set. Then, the second correction process for the correction is completed.

なお、脚の長さに関する補正処理は、公知の画像処理技術を利用することができる。例えば、画像の中から脚に該当する領域を検出し、この領域を選択した補正サンプルに適合するように、脚の長さを調整するように画像処理を行う。   Note that a known image processing technique can be used for the correction processing relating to the leg length. For example, a region corresponding to the leg is detected from the image, and image processing is performed so as to adjust the length of the leg so that the region matches the selected correction sample.

こうして、第2補正処理が完了すると、モニタ113には、編集部2のいずれか一方の編集空間20a,20bへの移動を促す表示がなされるとともに、スピーカ19によって、編集空間20a,20bへの移動を促す通知がなされる。また、生成された各撮影画像は、編集部2に送信される。なお、上述した例では、合計6回の撮影が行われたが、撮影回数は特には限定されない。   When the second correction process is completed in this manner, the monitor 113 displays a message prompting the user to move to one of the editing spaces 20a, 20b of the editing unit 2, and the speaker 19 transmits the message to the editing spaces 20a, 20b. A notification to move is given. The generated captured images are transmitted to the editing unit 2. In the above-described example, a total of six shootings were performed, but the number of shootings is not particularly limited.

上記のように、第2撮影コースを選択した場合には、第2補正処理が行われるが、第1撮影コースを選択していた場合には(ステップS430のNO)、第2補正処理は行われず、撮影処理が終了する。すなわち、モニタ113に、編集部2のいずれか一方の編集空間20a,20bへの移動を促す表示がなされる。   As described above, when the second shooting course is selected, the second correction processing is performed. When the first shooting course is selected (NO in step S430), the second correction processing is performed. And the photographing process ends. That is, a display is displayed on the monitor 113 prompting the user to move to one of the editing spaces 20a and 20b of the editing unit 2.

<7−6.編集処理>
こうして撮影処理が完了すると、編集処理が開始される。ここでは、編集処理を行う際に、編集用モニタ213に表れる画面の構成について説明する。以下、このような落書きのための編集用モニタ213の画面構成について、図15を参照しつつ詳細に説明する。図15は編集用モニタに表示される編集対象画像の編集用画面を示す模式図である。
<7-6. Editing process>
When the photographing process is completed, the editing process is started. Here, a configuration of a screen appearing on the editing monitor 213 when performing the editing process will be described. Hereinafter, the screen configuration of the editing monitor 213 for such graffiti will be described in detail with reference to FIG. FIG. 15 is a schematic diagram showing an editing screen of an image to be edited displayed on the editing monitor.

図15に示すように、この編集画面において、編集用モニタ213は、左右一対の編集スペースに区分けされ、2人のユーザが同時並行して使用できるようになっている。編集用モニタ213の左側の編集スペースにおいては、左側のタッチペン214Aによる入力受け付けが可能となっており、右側の編集スペースにおいては、右側のタッチペン214Bによる入力受け付けが可能となっている。各編集スペースの上部中央には、編集対象の合成画像を表示し、その合成画像に対してスタンプ等の合成用画像の合成(落書き)を行う矩形状の落書き領域501が設けられている。各落書き領域501の上方には、6枚の合成画像(第1及び第2フェイスアップ画像、全身画像に係る合成画像)のサムネイル502が表示されており、ここから選択された1枚の合成画像が、落書き領域501に表示される。   As shown in FIG. 15, on the editing screen, the editing monitor 213 is divided into a pair of left and right editing spaces so that two users can use them in parallel. In the editing space on the left side of the editing monitor 213, input by the left touch pen 214A can be accepted, and in the editing space on the right side, input by the right touch pen 214B can be accepted. In the upper center of each editing space, there is provided a rectangular graffiti area 501 for displaying a composite image to be edited and compositing (graffitting) a compositing image such as a stamp with the composite image. Above each graffiti area 501, thumbnails 502 of six composite images (first and second face-up images, composite images related to the whole body image) are displayed, and one composite image selected from the thumbnails is displayed. Is displayed in the graffiti area 501.

落書き領域501の側部には、編集ボタンが配置されている。具体的には、上から、「エンド」ボタン503、消しゴムボタン504、「進む」ボタン505、「戻る」ボタン506、及び「モバイル」ボタン507が配置されている。「エンド」ボタン503は、編集を終了するためのボタンであり、この「エンド」ボタン503を押下すると、編集処理が自発的に終了し、出力処理へと移行する。消しゴムボタン504は、4種類のものが配置されており、3種類の大きさ消しゴムボタンと、すべての落書きを消すための「全消し」ボタンとが配置されている。例えば、いずれかの大きさ消しゴムボタンをタッチペン214A,214Bで押下すると、その大きさ消しゴムが設定され、この状態で落書き領域501をタッチペン214A,214Bでなぞると、なぞった部分の落書きが消去されるようになっている。また、「全消し」ボタンを押下すると、すべての落書きが消去される。   An edit button is arranged on the side of the graffiti area 501. Specifically, an “end” button 503, an eraser button 504, a “forward” button 505, a “back” button 506, and a “mobile” button 507 are arranged from the top. An “end” button 503 is a button for ending the editing. When the “end” button 503 is pressed, the editing process is spontaneously ended, and the process shifts to an output process. Four types of eraser buttons 504 are arranged, and three types of size eraser buttons and an "all erase" button for erasing all graffiti are arranged. For example, when one of the size eraser buttons is pressed with the touch pens 214A and 214B, the size eraser is set. In this state, if the graffiti area 501 is traced with the touch pens 214A and 214B, the graffiti in the traced portion is erased. It has become. Pressing the "Erase All" button erases all graffiti.

「戻る」ボタン506は、直前に行った落書き処理を取り消して元に戻すためのボタンであり、「進む」ボタン505は、反対に、「戻る」ボタン506を押下する直前の落書き処理を復活させるためのボタンである。「モバイル」ボタン507は、後述するモバイル編集画面に遷移するためのボタンである。   A “return” button 506 is a button for canceling the previous graffiti processing and returning to the original state, and a “forward” button 505 conversely restores the graffiti processing immediately before pressing the “return” button 506. Button. A “mobile” button 507 is a button for transitioning to a mobile editing screen described later.

また、左右の編集ボタンの間には、カウントダウン用のタイマー508が設けられている。このタイマーは、種々の設定ができるが、例えば、落書き編集を行える基本制限時間(例えば、300秒)を予め設定しておき、落書き編集が開始されると同時にカウントダウンを始め、タイマーの表示がゼロになったときに落書き編集を強制的に終了させるように構成することができる。あるいは、撮影部1にユーザがいないとき、つまり、編集作業を待つ後続のユーザがいないときには、カウントダウンを行わず、制限なく編集作業を行えるようにしてもよいし、最大制限時間(例えば、20分)を設定しておき、最大制限時間まで編集作業を行えるようにしてもよい。但し、このような状態になったとき、もう一方の編集部2に後続のユーザがいる状態で、新たなユーザによる撮影処理が開始された場合、撮影処理の開始に合わせて、予め設定された時間(例えば、60秒)からのカウントダウンを始めるようにすることが好ましい。このタイマー508は、左右のユーザで共通であり、両ユーザの編集処理時間が1つのタイマー508で管理される。   A timer 508 for countdown is provided between the left and right edit buttons. Various settings can be made for this timer. For example, a basic time limit (for example, 300 seconds) for performing graffiti editing is set in advance, and a countdown starts at the same time that graffiti editing is started. Can be configured to forcibly end the graffiti editing when it becomes. Alternatively, when there is no user in the photographing unit 1, that is, when there is no subsequent user waiting for the editing operation, the editing operation may be performed without limitation without performing the countdown, or the maximum time limit (for example, 20 minutes) ) May be set so that editing work can be performed up to the maximum time limit. However, in such a state, when a photographing process is started by a new user in a state where a subsequent user is present in the other editing unit 2, the photographing process is set in advance according to the start of the photographing process. It is preferable to start a countdown from a time (for example, 60 seconds). This timer 508 is common to the left and right users, and the editing processing time of both users is managed by one timer 508.

落書き領域501の下方には、落書き編集を行うためのツールを選択するためのパレット509が配置されている。パレット509は、複数の領域に分けられている。まず、パレット509の上段には、複数のカテゴリーが表示されたカテゴリー領域510が配置されている。ここでは、例として「オススメ」、「スタンプ」、「ペン」、「メッセージ」、及び「メイク」という5つのカテゴリーが表示されている。   Below the graffiti area 501, a palette 509 for selecting a tool for performing graffiti editing is arranged. The pallet 509 is divided into a plurality of areas. First, a category area 510 in which a plurality of categories are displayed is arranged in the upper part of the palette 509. Here, five categories of “recommended”, “stamp”, “pen”, “message”, and “make” are displayed as examples.

カテゴリー領域510の下方には、詳細ツール領域511が配置されており、上記各カテゴリーに関連した落書き用のツールが表示される。例えば、「スタンプ」というカテゴリーを選択すると、種々の種類のスタンプ(ツール)が表示される。この領域の上段には、6つの種類ボタン(A〜F)512が配置され、その下方には、複数種のスタンプが表示されたツールボタン513が配置されている。また、ツールボタン513の側方には、ツール編集ボタン、及び大きさ調整ボタン518が配置されている。   Below the category area 510, a detailed tool area 511 is arranged, and graffiti tools related to the respective categories are displayed. For example, when the category “stamp” is selected, various types of stamps (tools) are displayed. Six types of buttons (A to F) 512 are arranged in the upper part of this area, and tool buttons 513 displaying a plurality of types of stamps are arranged below them. A tool edit button and a size adjustment button 518 are arranged beside the tool button 513.

種類ボタン512は、選択されたカテゴリーをさらに分類するものである。図15には、1つの種類ボタンに対応する複数のスタンプが示されているが、これと同様に、他の種類ボタンを押下すると、同じカテゴリーでさらに種類の異なるスタンプが表示される。例えば、図15のツールが表示された状態で落書き処理を行う場合には、いずれかのツールをタッチペン214A,214Bで押下してツールを選択し、その後、タッチペン214A,214Bで落書き領域501の任意の位置を押下する。これにより、選択されたツールが落書き領域501における押下された位置に表示される。一旦設定されたツールは、他のツールを選択するまで維持される。   The type button 512 is for further classifying the selected category. FIG. 15 shows a plurality of stamps corresponding to one type button. Similarly, when another type button is pressed, a different type of stamp is displayed in the same category. For example, when performing the graffiti processing in a state in which the tool of FIG. 15 is displayed, one of the tools is pressed down with the touch pens 214A and 214B to select the tool, and then, the touch pen 214A or 214B is used to select any tool in the graffiti area 501. Press the position of. As a result, the selected tool is displayed at the pressed position in the graffiti area 501. Once a tool is set, it is maintained until another tool is selected.

ツール編集ボタンは、4種類のボタンを有している。上から、第1回転ボタン514、第2回転ボタン515及び反転ボタン516が配置されており、その側方に大きさ調整ボタン518が配置されている。第1回転ボタン514は、画面に垂直な軸回りに選択されたツールを回転するためのものであり、第2回転ボタン515は、画面に平行で上下に延びる軸回りに選択されたツールを回転する(奥行き方向に回転する)ためのものである。反転ボタン516は、落書き領域に表示されたツールの左右を反転させるものである。また、大きさ調整ボタン518は、落書き領域501に表示するツールの大きさを決定するためのものであり、5種類の大きさが表示されている。例えば、カテゴリーとしてスタンプを選択して、大きさ調整ボタン518を押下した後、いずれかのツールを選択すると、選択した大きさに応じたスタンプが落書き領域501に表示される。   The tool edit button has four types of buttons. From the top, a first rotation button 514, a second rotation button 515, and a reversing button 516 are arranged, and a size adjustment button 518 is arranged on the side. The first rotation button 514 is for rotating the selected tool about an axis perpendicular to the screen, and the second rotation button 515 is for rotating the selected tool about an axis extending up and down in parallel with the screen. (Rotate in the depth direction). The inversion button 516 is for inverting the left and right of the tool displayed in the graffiti area. The size adjustment button 518 is used to determine the size of a tool to be displayed in the graffiti area 501, and five sizes are displayed. For example, when a stamp is selected as a category and the size adjustment button 518 is pressed, and then one of the tools is selected, a stamp corresponding to the selected size is displayed in the graffiti area 501.

ここで、カテゴリー領域510で、「メイク」を選択したときの処理について、図16を参照しつつ説明する。図16の右側の編集スペースにおいて、「メイク」ボタンを押下すると、その下方には、メイクに応じた種類ボタン512が表示される。ここでは、一例として、左端のアイメイクボタンを押下したときの処理について説明する。   Here, the processing when “make” is selected in the category area 510 will be described with reference to FIG. When the “make” button is pressed in the editing space on the right side of FIG. 16, a type button 512 corresponding to the make is displayed below the “make” button. Here, as an example, a process when the leftmost eye make button is pressed will be described.

アイメイクボタンを押下すると、その下方には、3つのアイメイクのサンプル、つまりナチュラルアイ、リッチアイ、インパクトアイが表示されるとともに、その右側にアイメイクをしていない落書き前のサンプルが表示される。また、サンプルの左側には、いずれかのサンプルを選択する前、及び選択後のアイメイクのイメージが分かるように、顔の画像例が表示されている。このとき、落書き領域501の表示されている画像に対しては、顔検出が行われ、検出された顔の上に、当該顔を示す矩形状の枠588が表示される。   When the eye makeup button is pressed, three eye makeup samples, that is, a natural eye, a rich eye, and an impact eye, are displayed below the eye makeup button, and a sample before graffiti without eye makeup is displayed on the right side thereof. . Further, on the left side of the sample, a face image example is displayed so that the image of the eye makeup before and after selecting any sample can be understood. At this time, face detection is performed on the image in which the graffiti area 501 is displayed, and a rectangular frame 588 indicating the face is displayed on the detected face.

上述した3つのアイメイクのサンプルの1つをタッチした上で、落書き領域501の枠588(あるいは、顔)をタッチすると、選択したアイメイクのサンプルが落書き領域501の画像に反映される。より具体的には、選択したアイメイクのサンプルに対応する画像処理(以下、「アイメイク処理」という)が、タッチされた枠588に対応する顔に施される。図16に示すように、落書き領域501の画像に2人分の顔が含まれており、それぞれに対応する2つの枠588が表示されている場合、タッチした枠588に対応する顔のみにアイメイク処理が施され、タッチされていない別の枠588に対応する顔にはアイメイク処理は施されない。またこの場合、アイメイクのいずれかのサンプルが選択されている間に、各枠588を順にタッチすると、そのタッチしたサンプルに対応するアイメイク処理が各枠588に対応する顔に施される。なお、「OFF」ボタンをタッチした後に各枠588をタッチすると、タッチされた枠588に対応する顔に施されていたアイメイク処理が除去され、アイメイクを施す前の状態に戻る。   When one of the three eye makeup samples described above is touched and then the frame 588 (or face) of the graffiti area 501 is touched, the selected eye makeup sample is reflected on the image of the graffiti area 501. More specifically, image processing corresponding to the selected eye makeup sample (hereinafter referred to as “eye makeup processing”) is performed on the face corresponding to the frame 588 touched. As illustrated in FIG. 16, when two images of faces are included in the image of the graffiti area 501 and two frames 588 corresponding to the respective faces are displayed, only the face corresponding to the touched frame 588 is displayed. The face corresponding to another frame 588 that has been subjected to makeup processing and not touched is not subjected to eye makeup processing. Further, in this case, if any of the frames 588 is sequentially touched while any eye makeup sample is being selected, the eye makeup process corresponding to the touched sample is performed on the face corresponding to each frame 588. When each frame 588 is touched after touching the “OFF” button, the eye makeup process performed on the face corresponding to the touched frame 588 is removed, and the state returns to the state before the eye makeup was performed.

また、上記したものに代えて次のようなやり方でアイメイクを施すこともできる。まず、アイメイクを施したい顔に対応する枠588の1つをタッチした後に、いずれかのアイメイクのサンプルをタッチする。すると、選択したアイメイクのサンプルに対応するアイメイク処理が、タッチした枠588に対応する顔に施される。このとき、別の枠588をタッチしたり、他の落書きツールに切り替えたりするまでの間に、他のアイメイクのサンプルをタッチすると、当該タッチした枠588に対応する顔に対してそのサンプルに対応するアイメイク処理が施される。すなわち、別の顔を選ぶ等しなければ、所定の顔に対するアイメイク処理の選び直しをユーザの気に入るまで行うことができる。そして、他の枠をタッチすると、直前に選択したアイメイクのサンプルが、アイメイクとして固定される。もちろん、最初の枠588をもう一度タッチすれば、アイメイクを再度変更できる。なお、「OFF」ボタンをタッチすると、アイメイクを施す前の画像に戻る。   In addition, instead of the above, eye makeup can be applied in the following manner. First, after touching one of the frames 588 corresponding to the face to which the eye makeup is to be applied, one of the eye makeup samples is touched. Then, an eye makeup process corresponding to the selected eye makeup sample is performed on the face corresponding to the touched frame 588. At this time, if another eye makeup sample is touched before touching another frame 588 or switching to another graffiti tool, the face corresponding to the touched frame 588 is added to the sample. A corresponding eye makeup process is performed. That is, if another face is not selected, the eye makeup process for a predetermined face can be selected again until the user likes. Then, when another frame is touched, the eye makeup sample selected immediately before is fixed as eye makeup. Of course, by touching the first frame 588 again, the eye makeup can be changed again. In addition, if an "OFF" button is touched, it will return to the image before applying eye makeup.

この画像処理の方法は種々のものがあるが、例えば、次のような方法がある。まず、撮影画像の中から目を検出し、検出された目の輪郭から外側に向かって一定の幅の領域(以下、「まつ毛領域」という)において、画素値を変化させる。なお、まつ毛領域の幅については、撮影画像における顔や目の大きさに基づいて決定される。より具体的には、顔や目の大きさが大きいほど、まつ毛領域の幅を長く設定し、顔や目の大きさが小さいほど、まつ毛領域の幅を短く設定する。また、一般的に上まつ毛の領域のほうが下まつ毛の領域よりも広いので、まつ毛領域に関して、上まつ毛に対応する領域の幅を、下まつ毛に対応する領域の幅よりも長く設定することが好ましい。以上により、上まつ毛及び下まつ毛が適切に強調された撮影画像とすることができる。ただし、目の色を変化させたくない場合は、検出された目の輪郭に含まれる各画素を除いて画素値を変化させればよい。上述した例では、ナチュラルアイ、リッチアイ、インパクトアイにいくにしたがって、色が濃くなるようにまつ毛領域の画素値を変化させる。これにより、目の大きさを変化させるような処理を行うことなく、目を強調することができる。なお、画素値を変化させる程度は、撮影画像の種類によって変化させることもできる。例えば、フェイスアップ画像では、顔、すなわち目が大きく表示されているため、あまり画素値を変化させない。それに対して、全身画像では、目が小さく表示されるため、フェイスアップ画像の場合よりも画素値を変化させる度合いを大きくする。これにより、全身画像においても、利用者が満足するような目の補正を施すことができる。   There are various image processing methods, for example, the following method. First, an eye is detected from a captured image, and a pixel value is changed in an area having a constant width outward from the detected outline of the eye (hereinafter, referred to as an “eyelash area”). Note that the width of the eyelash region is determined based on the size of the face and eyes in the captured image. More specifically, the width of the eyelash region is set longer as the size of the face or eyes is larger, and the width of the eyelash region is set shorter as the size of the face or eyes is smaller. In addition, since the upper lash region is generally wider than the lower lash region, it is preferable to set the width of the region corresponding to the upper lash to the lash region longer than the width of the region corresponding to the lower lash. . As described above, a photographed image in which the upper eyelashes and the lower eyelashes are appropriately emphasized can be obtained. However, when it is not desired to change the eye color, the pixel value may be changed except for each pixel included in the detected outline of the eye. In the above-described example, the pixel value of the eyelash region is changed so that the color becomes darker as the color goes toward the natural eye, the rich eye, and the impact eye. Thus, the eyes can be emphasized without performing a process of changing the size of the eyes. Note that the degree to which the pixel value is changed can be changed according to the type of the captured image. For example, in the face-up image, since the face, that is, the eyes are displayed large, the pixel value is not changed much. On the other hand, in the whole-body image, since the eyes are displayed small, the degree of changing the pixel value is made larger than in the case of the face-up image. This makes it possible to perform eye correction that satisfies the user even in the whole-body image.

以上の画面構成は、左右の編集スペースで同じである。ユーザは、適宜、編集すべき編集対象画像をサムネイル502から選択し、落書き領域501に表示させる。そして、表示された合成画像に対して、編集作業を行う。   The above screen configuration is the same for the left and right editing spaces. The user appropriately selects an image to be edited from the thumbnail 502 to be edited and displays the image in the graffiti area 501. Then, an editing operation is performed on the displayed composite image.

こうして、ユーザは、タイマー46の残り時間が0になる(またはユーザが終了させる操作を行う)まで、落書きを行う。そして、タイマーの残り時間が0になるか、あるいはユーザが終了ボタンをタッチして自発的に落書きを終了させると、編集用モニタ213に「落書き終了」との表示が表れる。そして、その時点において、編集画面で編集されている合成画像が編集済画像(出力用画像)とされ、この編集済画像に係る編集済画像データがメモリに保存され、編集処理が終了する。ここで、生成された編集済画像は、先に選択した印刷シートと合成され、後述する出力処理により印刷シートあるいはデータとして出力される。   In this way, the user performs graffiti until the remaining time of the timer 46 becomes 0 (or the user performs an operation to end). Then, when the remaining time of the timer becomes 0 or when the user touches the end button to voluntarily end the graffiti, the display of "graffiti end" appears on the editing monitor 213. Then, at that time, the composite image edited on the editing screen is set as an edited image (image for output), the edited image data relating to the edited image is stored in the memory, and the editing process ends. Here, the generated edited image is combined with the previously selected print sheet, and is output as a print sheet or data by an output process described later.

<7−7.モバイルモード>
<7−7−1.モバイルモードで作成される画像>
次に、上述したモバイルモードについて説明する。モバイルモードでは、SNS(Social Networking Service)で提供されるユーザ画面において使用する画像データを生成することができる。例えば、Facebook(登録商標),Twitter(登録商標),Line(登録商標)などのSNSではアカウントを取得したユーザに個人サイトが提供されるのであるが、その個人サイトのトップ画面は、概ね以下のように構成されている。すなわち、図17に示すように、トップ画面の上部には、カバー画像81が配置されている。このカバー画像81は、任意の画像をカバー画像81として使用することができる。当該個人サイトのイメージや、ユーザの嗜好に合わせて設定される。また、このカバー画像81と重ね合わせるようにアイコン画像82が配置されている。このアイコン画像82は、例えば、ユーザ個人を表すものとして使用され、ユーザ自身の顔写真が用いられることが多い。このように、近年のSNSのトップ画面には、上述した3つのSNSを含め、大きさや配置位置は異なるものの、カバー画像81とアイコン画像82とが表示されることが多い。そこで、モバイルモードでは、SNSで用いることができるカバー画像と、アイコン画像を作成する。
<7-7. Mobile mode>
<7-7-1. Image created in mobile mode>
Next, the mobile mode described above will be described. In the mobile mode, image data used on a user screen provided by an SNS (Social Networking Service) can be generated. For example, in SNSs such as Facebook (registered trademark), Twitter (registered trademark), and Line (registered trademark), a personal site is provided to a user who has acquired an account. It is configured as follows. That is, as shown in FIG. 17, the cover image 81 is arranged at the top of the top screen. As the cover image 81, any image can be used as the cover image 81. The setting is made according to the image of the personal site or the user's preference. Further, an icon image 82 is arranged so as to overlap with the cover image 81. The icon image 82 is used, for example, to represent the individual user, and a photograph of the user's own face is often used. As described above, the cover image 81 and the icon image 82 are often displayed on the top screen of recent SNSs, including the three SNSs described above, although the size and the arrangement position are different. Therefore, in the mobile mode, a cover image and an icon image that can be used in the SNS are created.

<7−7−2.モバイルモードにおける画像の編集>
次に、モバイルモードにおける画面の編集について説明する。上記編集画面において、右側の編集スペースにおいて、モバイルモードボタン507(図15,16参照)を押下すると、図18に示すように、モバイルモードの選択画面601が表示される。この画面は、カバー画像、アイコン画像のどれを作成するかを選択する画面である。例えば、「カバー画像」ボタンを押下してOKボタンを押下すると、カバー画像作成画面に遷移し、「アイコン画像」ボタンを押下してOKボタンを押下すると、アイコン画像作成画面に遷移する。このとき、「やめる」ボタンを押下すると、元の画面、つまり、左側の編集スペースと同じ画面に遷移する。なお、両編集スペースでいずれもモバイルモードボタン507をタッチしたときには、両編集スペースに選択画面601が表示される。
<7-7-2. Editing images in mobile mode>
Next, editing of a screen in the mobile mode will be described. When the mobile mode button 507 (see FIGS. 15 and 16) is pressed in the editing space on the right side of the editing screen, a mobile mode selection screen 601 is displayed as shown in FIG. This screen is a screen for selecting which of a cover image and an icon image is to be created. For example, when the “cover image” button is pressed and the OK button is pressed, the screen transitions to a cover image creation screen. When the “icon image” button is pressed and the OK button is pressed, the screen transitions to an icon image creation screen. At this time, when the “quit” button is pressed, the screen is changed to the original screen, that is, the same screen as the editing space on the left side. When the mobile mode button 507 is touched in both editing spaces, a selection screen 601 is displayed in both editing spaces.

図18の選択画面601において、「カバー画像」ボタンを押下すると、図19に示すように、右側の編集スペースに例えば、第1カバー画像作成画面602が表示される。同図に示すように、この画面には、複数(ここでは9種類)のカバー画像サンプルが表示される。ここで表示される複数のサンプルは、プレイ準備部3で選択した背景画像セットに基づいて、準備されている。すなわち、選択した背景画像セットに最も適合したカバー画像サンプル、例えば、デザイン、色合いなどにおいて統一性のあるカバー画像サンプルが表示される。そして、ユーザが、いずれのカバー画像サンプルをタッチし、OKボタンを押下すると、第2カバー画像作成画面に遷移する。このとき、「やめる」ボタンを押下すると、図18の選択画面に戻り、「モバイルモードをやめる」ボタンを押下すると、左側の編集スペースと同じ画面に遷移する。この操作について、以下の画面についても同じである。   When the "cover image" button is pressed on the selection screen 601 in FIG. 18, for example, a first cover image creation screen 602 is displayed in the right editing space as shown in FIG. As shown in the figure, a plurality of (here, nine types) cover image samples are displayed on this screen. The plurality of samples displayed here are prepared based on the background image set selected by the play preparation unit 3. That is, a cover image sample most suitable for the selected background image set, for example, a cover image sample having uniformity in design, color, and the like is displayed. Then, when the user touches any of the cover image samples and presses the OK button, the display transits to the second cover image creation screen. At this time, if the “quit” button is pressed, the screen returns to the selection screen of FIG. 18, and if the “quit mobile mode” button is pressed, the screen changes to the same screen as the editing space on the left. This operation is the same for the following screens.

図19に示す第1カバー画像作成画面602において、OKボタンを押下すると、右側の編集スペースに、例えば、図20に示す第2カバー画像作成画面603が表示される。同図に示すように、この画面では、上部に、6枚のサムネイルが表示されている。このサムネイルは、撮影処理にて作成された6枚の被写体画像のサムネイルであり、背景画像は合成されていない。そして、その下方にプレビュー画面が配置されている。プレビュー画面には、第1カバー画像作成画面602で選択されたカバー画像のサンプルを作るためのベースとなる画像であるカバー用装飾画像951が表示されている。このカバー用装飾画像951は、画像スペース701を有している。そして、画像スペース701に、6つのサムネイルから選択された被写体画像が配置される。   When the OK button is pressed on the first cover image creation screen 602 shown in FIG. 19, for example, a second cover image creation screen 603 shown in FIG. 20 is displayed in the right editing space. As shown in the figure, on this screen, six thumbnails are displayed at the top. These thumbnails are thumbnails of six subject images created in the photographing process, and the background images are not combined. A preview screen is arranged below the preview screen. On the preview screen, a decorative image for cover 951 that is a base image for creating a sample of the cover image selected on the first cover image creation screen 602 is displayed. The decorative image for cover 951 has an image space 701. Then, the subject images selected from the six thumbnails are arranged in the image space 701.

より詳細には、6つのサムネイルのいずれかをタッチすると、タッチしたサムネイルの被写体画像がプレビュー画面に表示されたカバー用装飾画像951の下に配置される。つまり、被写体画像に関して、カバー用装飾画像951の画像配置スペース701に重なっている部分は表示されるが、それ以外の部分はカバー用装飾画像951で隠れて表示されない。また、プレビュー画面には、このプレビュー画面に表示されている被写体画像の範囲を示す編集枠901が表示される。編集枠901内には移動用ハンドル911が表示されるとともに、編集枠901の4つの角にはそれぞれ拡縮用ハンドル921が表示されている。これにより、ユーザが、移動用ハンドル911をタッチペン214Aでドラッグすると、編集枠901が被写体画像とともに移動する。また、拡縮用ハンドル921をタッチペン214Aでドラッグすると、編集枠901の大きさが被写体画像とともに変化する。したがって、ユーザは、編集枠901を操作することで、カバー用装飾画像951に対する被写体画像の配置位置を任意の位置に移動させたり、あるいは任意の大きさに調整することができる。これにより、被写体画像の、画像スペース701を通じて見える範囲を変更することができる。   More specifically, when one of the six thumbnails is touched, the subject image of the touched thumbnail is arranged below the decorative image for cover 951 displayed on the preview screen. That is, with respect to the subject image, a portion overlapping the image arrangement space 701 of the cover decoration image 951 is displayed, but other portions are hidden by the cover decoration image 951 and are not displayed. An editing frame 901 indicating the range of the subject image displayed on the preview screen is displayed on the preview screen. A moving handle 911 is displayed in the editing frame 901, and a scaling handle 921 is displayed at each of the four corners of the editing frame 901. Thus, when the user drags the moving handle 911 with the touch pen 214A, the editing frame 901 moves together with the subject image. Also, when the enlargement / reduction handle 921 is dragged with the touch pen 214A, the size of the editing frame 901 changes together with the subject image. Therefore, the user can move the arrangement position of the subject image with respect to the cover decoration image 951 to an arbitrary position or adjust it to an arbitrary size by operating the editing frame 901. Thus, the range of the subject image that can be seen through the image space 701 can be changed.

そして、編集が完了し、OKボタンを押下すると、プレビュー画面で表示された状態となるように、被写体画像とカバー用装飾画像951とが合成される。これにより、カバー画像が生成され、メモリに保存される。この状態から選択画面601に戻って、アイコン画像を選択すると、アイコン画像作成画面に遷移し、アイコン画像を作成することができる。   When the editing is completed and the OK button is pressed, the subject image and the decorative image for cover 951 are combined so as to be displayed on the preview screen. Thereby, a cover image is generated and stored in the memory. When the user returns to the selection screen 601 from this state and selects an icon image, the screen transitions to an icon image creation screen and an icon image can be created.

アイコン画像作成画面は、3つの画面で構成されている。まず、図21に示す第1アイコン画像作成画面604が表示される。この画面では、複数のアイコン画像のサンプル(ここでは20個)の中から、所定のサンプルを選択する。なお、ここで表示されている20個のアイコン画像のサンプルも、プレイ準備部3で選択された背景画像に基づいて、決定される。ユーザは、複数のサンプルの1つをタッチして選択し、この状態でOKボタンを押下すると、第2アイコン画像作成画面605に遷移する。   The icon image creation screen is composed of three screens. First, a first icon image creation screen 604 shown in FIG. 21 is displayed. On this screen, a predetermined sample is selected from a plurality of icon image samples (here, 20). Note that the sample of the 20 icon images displayed here is also determined based on the background image selected by the play preparation unit 3. When the user touches and selects one of the plurality of samples and presses the OK button in this state, the screen transitions to the second icon image creation screen 605.

図22に示すに示す第2アイコン画像作成画面605では、図20と同様に、上部に6枚の被写体画像のサムネイルが表示されており、その下方にプレビュー画面が配置されている。このプレビュー画面には、第1アイコン画像作成画面604で選択されたアイコン画像のサンプルを作るためのベースとなるアイコン用装飾画像920が表示される。アイコン用装飾画像920は、正方形の画像であり、前景画像と背景画像とで構成されている。そして、このアイコン用装飾画像に、6つのサムネイルから選択された被写体画像が重ね合わせて表示される。より具体的には、アイコン用装飾画像920の前景画像、被写体画像、アイコン用装飾画像920の背景の順に重なって表示される。なお、このプレビュー画面において、被写体画像は、アイコン用装飾画像と重なる部分だけ表示され、それ以外の部分は表示されないようになっている。   On the second icon image creation screen 605 shown in FIG. 22, as in FIG. 20, thumbnails of six subject images are displayed at the top, and a preview screen is arranged below the thumbnails. On the preview screen, an icon decoration image 920 as a base for creating a sample of the icon image selected on the first icon image creation screen 604 is displayed. The icon decoration image 920 is a square image, and includes a foreground image and a background image. Then, the subject image selected from the six thumbnails is superimposed on the icon decoration image and displayed. More specifically, the foreground image of the icon decoration image 920, the subject image, and the background of the icon decoration image 920 are superimposed and displayed in this order. In the preview screen, only the portion of the subject image that overlaps the icon decoration image is displayed, and the other portions are not displayed.

このプレビュー画面には、このプレビュー画面に表示されている被写体画像の範囲を示す編集枠902が表示される。また、編集枠902内には移動用ハンドル932が表示されるとともに、編集枠902の4つの角にはそれぞれ拡縮用ハンドル931が表示されている。これにより、ユーザが、移動用ハンドル932をタッチペン214Aでドラッグすると、編集枠902が被写体画像とともに移動する。また、拡縮用ハンドル931をタッチペン214Aでドラッグすると、編集枠902の大きさが被写体画像とともに変化する。したがって、ユーザは、編集枠902を操作することで、アイコン用装飾画像に対する被写体画像の重ね位置を任意の位置に移動させたり、あるいは任意の大きさに調整することができる。これにより、被写体画像の表示範囲を変更することができる。   On the preview screen, an editing frame 902 indicating the range of the subject image displayed on the preview screen is displayed. A moving handle 932 is displayed in the editing frame 902, and enlargement / reduction handles 931 are displayed at four corners of the editing frame 902, respectively. Thus, when the user drags the moving handle 932 with the touch pen 214A, the editing frame 902 moves together with the subject image. Also, when the enlargement / reduction handle 931 is dragged with the touch pen 214A, the size of the editing frame 902 changes with the subject image. Therefore, by operating the editing frame 902, the user can move the superimposed position of the subject image on the icon decoration image to an arbitrary position or adjust it to an arbitrary size. Thus, the display range of the subject image can be changed.

そして、OKボタンを押下すると、その時点のプレビュー画面において、被写体画像の表示部分のみが抽出され、つまり被写体画像の非表示部分はトリミングされる。そして、抽出された被写体画像と、アイコン用装飾画像とが合成されアイコン画像が生成される。そして、第3アイコン画像作成画面606に遷移する。   When the OK button is pressed, only the display portion of the subject image is extracted on the preview screen at that time, that is, the non-display portion of the subject image is trimmed. Then, the extracted subject image and the icon decoration image are combined to generate an icon image. Then, the screen transitions to a third icon image creation screen 606.

図23に示す第3アイコン画像作成画面606は、図15に示す編集画面と同様の構成であり、第2アイコン画像作成画面605で作成されたアイコン画像に対して、落書き編集を行うことができる。落書き編集後、終了ボタンを押下すると、落書き済みのアイコン画像がメモリに保存されるとともに、図15の編集画面に遷移し、「前の画面に戻る」ボタンを押下すると、第2アイコン画像作成画面605に戻る。そして、図15の編集画面に戻ったとき、カバー画像、アイコン画像が一枚でも作成されていれば、モバイルモード507には、「作成済み」の表示が付加され、カバー画像やアイコン画像が既に作成されていることを視認させる。   The third icon image creation screen 606 shown in FIG. 23 has the same configuration as the editing screen shown in FIG. 15, and can perform graffiti editing on the icon image created on the second icon image creation screen 605. . When the end button is pressed after editing the graffiti, the icon image that has been graffitied is stored in the memory, and the screen transitions to the edit screen of FIG. 15. Return to 605. Then, when returning to the editing screen of FIG. 15, if at least one cover image or icon image has been created, the display of “created” is added to the mobile mode 507, and the cover image or the icon image is already displayed. Visualize that it has been created.

こうして、モバイルモードでは、SNSで用いるカバー画像とアイコン画像とを作成することができるが、左右一対の編集スペースにおいて、カバー画像とアイコン画像を1つずつ、合計4枚の画像を生成することができる。但し、ユーザがモバイルモードでの編集を行わなかった場合、あるいはカバー画像またはアイコン画像のいずれか一方しか作成しなかった場合には、制御部9は、自動的にカバー画像やアイコン画像を作成することができる。作成の手順は上記の通りであり、サンプルの選択、撮影画像の選択等は、制御部9が自動で選択する。なお、自動的に生成される画像の数は、特には限定されない。例えば、モバイルモードに移行しなかった場合には、カバー画像とアイコン画像を1つずつ自動作成し、カバー画像のみを2枚作成した場合には、アイコン画像を2枚自動作成し、一方の編集スペースにおいてのみカバー画像を1枚作成した場合には、アイコン画像を1枚だけ自動作成する、など、適宜決定することができる。   Thus, in the mobile mode, the cover image and the icon image used in the SNS can be created. However, in the pair of left and right editing spaces, it is possible to generate one cover image and one icon image, that is, a total of four images. it can. However, if the user has not edited in the mobile mode, or has created only one of the cover image and the icon image, the control unit 9 automatically creates the cover image and the icon image. be able to. The creation procedure is as described above, and the control unit 9 automatically selects a sample, a captured image, and the like. The number of automatically generated images is not particularly limited. For example, if the mode is not shifted to the mobile mode, one cover image and one icon image are automatically created, and if only two cover images are created, two icon images are automatically created, and one of the edits is performed. In the case where one cover image is created only in the space, it is possible to appropriately determine such as automatically creating only one icon image.

なお、モバイルモードでの編集を全く行わなかった場合、アイコン画像あるいは、カバー画像の自動生成を行うに当たっては、アイコン等のデザインを背景画像セットの選択結果に基づいて決定するようにしてもよい。これにより、ユーザの好みを反映したアイコン画像やカバー画像を作ることができる。   If no editing is performed in the mobile mode, the design of the icons and the like may be determined based on the selection result of the background image set in automatically generating the icon image or the cover image. As a result, an icon image or a cover image reflecting the user's preference can be created.

また、カバー画像(あるいは、アイコン画像)のみを作った場合は、作ったカバー画像(あるいは、アイコン画像)に対応するデザインのアイコン画像(あるいは、カバー画像)を自動生成するようにしてもよい。上述したように、カバー画像とアイコン画像は基本的にはセットで使用するものなので、デザインの統一性図ることができ、利用者の満足度を向上させることができる。   When only a cover image (or icon image) is created, an icon image (or cover image) of a design corresponding to the created cover image (or icon image) may be automatically generated. As described above, since the cover image and the icon image are basically used as a set, uniformity of design can be achieved, and user satisfaction can be improved.

<7−8.印刷シート選択処理>
次に、印刷シートの選択処理について説明する。まず、「印刷シートの選択処理」とは、「編集済合成画像を印刷シートにどのようなレイアウトで印刷するのかを決定するとともに、印刷シートの編集済合成画像が印刷されない領域に印刷する画像のデザインを決定する処理」のことを指す。また、「印刷シートを選ぶ(選択する)」とは、「編集済合成画像を印刷シートにどのようなレイアウトで印刷するのかを決定するとともに、印刷シートの編集済合成画像が印刷されない領域に印刷する画像のデザインを決定する」ことを指す。
<7-8. Print sheet selection processing>
Next, the print sheet selection processing will be described. First, “print sheet selection processing” means “determining the layout of the edited composite image to be printed on the print sheet and the image to be printed in an area of the print sheet where the edited composite image is not printed. The process of determining the design. " “Selecting (selecting) a print sheet” means “determining the layout of an edited composite image to be printed on a print sheet, and printing the edited composite image in an area of the print sheet where the edited composite image is not printed”. Determine the design of the image to be performed. "

上述した落書き編集が終了すると、編集部2では、印刷シートの選択処理が行われる。すなわち、編集用モニタ213に、図24に示す印刷シート選択画面が表示される。同図に示すように、この画面において、編集用モニタ213は、左右一対の編集スペースに区分けされ、2人のユーザが同時並行して使用できるようになっている。   When the graffiti editing described above is completed, the editing unit 2 performs a print sheet selection process. That is, the print sheet selection screen shown in FIG. 24 is displayed on the editing monitor 213. As shown in the figure, on this screen, the editing monitor 213 is divided into a pair of left and right editing spaces, and can be used by two users simultaneously in parallel.

この印刷シート選択画面は、4つのタブ381と、このタブ381の下方に2つの編集スペース382と、を有しており、編集スペース382には、プレビュー画面383と印刷シートの複数(ここでは6種類)のサンプル384が表示されている。本実施形態では、4種類の印刷シート、つまり横長デザインシート、縦長デザインシート、小分割シート、及び多分割シートが準備されており、4つのタブ381は、これら印刷シートに対応している。すなわち、ユーザがいずれかのタブ381をタッチすることで、いずれかの印刷シートを選択できるようになっている。なお、図24に示した画面は、横長デザインシート用タブ、あるいは、縦長デザインシート用タブが選ばれているときの印刷シート選択画面である。この2つのタブの場合は、2人のユーザが左右の画面を用いて個別に印刷シートを選べるようになっている。一方、小分割シート用タブ、あるいは、多分割シート用タブが選ばれている場合は、2人のユーザが1つの印刷シートを選ぶようになっており、図24の編集スペース382が一つだけが表示される。   The print sheet selection screen has four tabs 381 and two edit spaces 382 below the tabs 381. The edit space 382 includes a preview screen 383 and a plurality of print sheets (here, 6 Sample 384 is displayed. In the present embodiment, four types of print sheets, that is, a horizontally long design sheet, a vertically long design sheet, a small division sheet, and a multi division sheet are prepared, and the four tabs 381 correspond to these print sheets. That is, the user can select any one of the print sheets by touching any one of the tabs 381. The screen shown in FIG. 24 is a print sheet selection screen when the landscape design sheet tab or the portrait design sheet tab is selected. In the case of these two tabs, two users can individually select print sheets using the left and right screens. On the other hand, when the tab for the small split sheet or the tab for the multi-split sheet is selected, two users select one print sheet, and only one editing space 382 in FIG. Is displayed.

ここで、4つの印刷シートの例について説明する。図25(a)は、横長デザインシートの例であり、所定のテーマのデザインが施されるとともに、6つの画像スペース71を有している。各画像スペース71には、落書き編集が施された6枚の合成画像、つまり編集済画像が配置される。図25(b)は、縦長デザインシートであり、横長デザインシートとの相違点は、シートが縦長となっていることである。これらデザインシートは、シート自体にもデザインが施されている。図26(a)の例では、2人で分割できるように、6つの画像スペース71が2セット設定されており、そこに6枚の編集済画像が2セット配置される。そして、図26(b)は、5人以上用の多分割シートの例である。この多分割シートは、5人以上で分割できるように、5以上の領域に分割されている。各領域の構成は、小分割シートで説明したのと同じである。図26(b)の例では、6枚の編集済画像が5セット配置される。   Here, an example of four print sheets will be described. FIG. 25A shows an example of a landscape design sheet, which has a design of a predetermined theme and has six image spaces 71. In each image space 71, six composite images subjected to graffiti editing, that is, edited images are arranged. FIG. 25B illustrates a vertically long design sheet, which is different from the horizontally long design sheet in that the sheet is vertically long. These design sheets are also designed on the sheets themselves. In the example of FIG. 26A, two sets of six image spaces 71 are set so that two persons can divide the image space 71, and two sets of six edited images are arranged therein. FIG. 26B shows an example of a multi-split sheet for five or more people. This multi-divided sheet is divided into five or more areas so that the sheet can be divided by five or more persons. The configuration of each area is the same as that described for the small division sheet. In the example of FIG. 26B, five sets of six edited images are arranged.

初期状態では、図24に示すように、横長デザインシートのタブ381が選択されるとともに、選択された背景画像セットに最も適合する印刷シートのサンプルが選択され、画像スペース71に編集済画像が配置された状態で、プレビュー画面383に表示される。なお、適合するとは、例えば、デザイン、色合いなどで最も統一感があることをいう。このとき、6つのサンプル384の中で、選択された印刷シートのサンプルは、反転などの表示を伴って、ユーザが視認できるようになっている。また、ここで表示される印刷シートのサンプル384は、選択された背景画像セットごとに相違しており、デザイン、色合いなどで、選択された背景画像セットと統一感の高い、複数の印刷シートのサンプルが表示される。これは、各タブ381においても同じである。   In the initial state, as shown in FIG. 24, the tab 381 of the landscape design sheet is selected, and a sample of the print sheet most suitable for the selected background image set is selected, and the edited image is placed in the image space 71. In this state, it is displayed on the preview screen 383. Note that “fit” means that there is the most unity in design, color, and the like, for example. At this time, among the six samples 384, the sample of the selected print sheet can be visually recognized by the user with display such as inversion. Also, the print sheet sample 384 displayed here differs for each selected background image set, and has a high sense of unity with the selected background image set in terms of design, hue, etc. A sample is displayed. This is the same for each tab 381.

そして、ユーザが、別の印刷シートのサンプル384をタッチすると、現在表示中のものに代えて、選択された印刷シートに編集済画像が配置され、プレビュー画面382に表示される。ユーザは、OKボタン385を押下するまで、タブ381の切り替え、及びサンプル384の選択が可能である。そして、OKボタン385を押下すれば、OKボタン385を押下する直前に選択されていたサンプルが印刷シートとして選択され、メモリに記憶される。なお、OKボタン385が押下されない場合には、所定時間が経過後、その時点で選択されていたサンプルが、選択された印刷シートとしてメモリに記憶される。   Then, when the user touches another print sheet sample 384, the edited image is arranged on the selected print sheet instead of the one currently displayed, and displayed on the preview screen 382. The user can switch the tab 381 and select the sample 384 until the user presses the OK button 385. When the OK button 385 is pressed, the sample selected immediately before pressing the OK button 385 is selected as a print sheet and stored in the memory. If the OK button 385 is not pressed, after a predetermined time has elapsed, the sample selected at that time is stored in the memory as the selected print sheet.

OKボタン385を押下するに当たっては、いずれか一方の編集スペース382で、横長デザインシート用タブまたは縦長デザインシート用タブが選択された状態で、OKボタン385が押下されると、小分割シート用タブ、及び多分割シート用タブが消え、横長デザインシート用タブ及び縦長デザインシート用タブのみが表示される。すなわち、この状態では、いずれの編集スペース382においても、横長または縦長デザインシートからしか、印刷シートのサンプル384を選択できないようになっている。そして、両編集スペース382において、OKボタン385が押下されると、印刷シートの選択処理が完了する。これにより、編集部2での処理が完了し、出力処理に移行する。ただし、小分割シートあるいは多分割シートに関しては、上述したように2人で1つの印刷シートを選択するので、小分割シート用タブあるいは多分割シート用タブでOKボタンが押された場合は、その時点で印刷シート選択処理が完了する。   When the OK button 385 is pressed, when the OK button 385 is pressed in a state where the tab for the landscape design sheet or the tab for the portrait design sheet is selected in one of the editing spaces 382, the tab for the small division sheet is pressed. , And the multi-split sheet tab disappear, and only the horizontal design sheet tab and the vertical design sheet tab are displayed. That is, in this state, in any of the editing spaces 382, the sample 384 of the print sheet can be selected only from the horizontal or vertical design sheet. When the OK button 385 is pressed in both editing spaces 382, the print sheet selection process is completed. Thus, the processing in the editing unit 2 is completed, and the process proceeds to the output processing. However, as for the small split sheet or the multi-split sheet, as described above, one person selects one print sheet. Therefore, if the OK button is pressed on the small split sheet tab or the multi-split sheet tab, At this point, the print sheet selection process is completed.

<7−9 出力処理>
次に、出力処理について説明する。上記のように生成された編集済画像データ、アイコン画像及びカバー画像は、出力部4に送信される。そして、まず、編集済画像データ等の画像データの送信処理を行う。
<7-9 Output processing>
Next, the output processing will be described. The edited image data, the icon image, and the cover image generated as described above are transmitted to the output unit 4. Then, first, transmission processing of image data such as edited image data is performed.

送信に当たっては、複数の方法がある。まず、電子メールを入力させ、その電子メールに画像データを送信したり、あるいは画像データを取得できるインターネット上のサイトのURLを送信することもできる。このとき、モニタ411には、2人のユーザに対して、それぞれメールアドレスの入力を促す画面が表示される。なお、編集済画像データ等の画像データまたはURLは、写真撮影遊戯装置から直接ユーザの電子メールアカウントに送信することもできるし、写真撮影遊戯装置から外部のサーバを介して送信することもできる。   There are several methods for transmission. First, an e-mail can be input, and image data can be transmitted to the e-mail, or a URL of a site on the Internet from which image data can be obtained can be transmitted. At this time, a screen is displayed on the monitor 411 that prompts the two users to input their mail addresses. The image data or the URL such as the edited image data can be transmitted directly from the photographing game device to the user's e-mail account, or can be transmitted from the photographing game device via an external server.

また、出力部4の非接触通信部412から、編集済画像データ等の画像データを携帯端末へ送信することもできる。さらに、モニタ411にQRコード(登録商標)を表示させ、このQRコード(登録商標)を読み取ることで、上述したURLを取得することもできる。   Further, the non-contact communication unit 412 of the output unit 4 can transmit image data such as edited image data to the portable terminal. Further, by displaying a QR code (registered trademark) on the monitor 411 and reading the QR code (registered trademark), the above-mentioned URL can be acquired.

また、出力部4は、印刷シートの選択処理で選択された印刷シートに基づいて、複数の編集済み合成画像が印刷媒体に印刷する。そして、その印刷媒体がシール排出口413から排出される。   The output unit 4 prints a plurality of edited composite images on a print medium based on the print sheet selected in the print sheet selection process. Then, the print medium is discharged from the seal discharge port 413.

<8.効果>
以上のように、本実施形態によれば、カメラ111a,111bによって被写体を撮影する際に、被写体の撮影態様に応じて、補正を行うようになっている。本実施形態の例では、2つの撮影コースのうち、第2撮影コースを選択した場合、つまり下カメラ111bによる全身撮影を行うことを選択した場合には、被写体の脚の長さを補正できるようになっている。より詳細に説明すると、第2撮影コースを選択した場合には、脚の長さに関する補正を行うために、複数の補正のサンプルを表示し、その中からユーザによって選択された補正のサンプルに基づいて、第2全身画像に対して脚の長さを補正するための画像処理を行っている。すなわち、すべての撮影画像に対して、一律に補正を行うのではなく、撮影態様に応じた補正を提案するため、補正の効果を向上することができる。例えば、第1撮影コースにおける第1全身画像では、全身撮影ではあるものの脚が小さく写るため、足を長くする補正を行ったとしても、その補正を視認することが難しく、補正の効果を十分に得られないことになる。したがって、本実施形態では、第2全身画像のように、脚が明確に写っている全身画像に対してのみ、脚の長さの補正を行うようになっている。これにより、補正の効果を撮影画像に対して確実に反映することができる。また、効果の低い補正を行わないことで、プレイ時間の短縮にもつながる。
<8. Effect>
As described above, according to the present embodiment, when an image of a subject is taken by the cameras 111a and 111b, correction is performed in accordance with the shooting mode of the subject. In the example of the present embodiment, when the second shooting course is selected from the two shooting courses, that is, when the whole camera is selected to be shot by the lower camera 111b, the length of the leg of the subject can be corrected. It has become. More specifically, when the second shooting course is selected, a plurality of correction samples are displayed in order to perform correction relating to leg length, and based on the correction sample selected by the user from among the correction samples. Thus, image processing for correcting the leg length is performed on the second whole body image. That is, the correction is not uniformly applied to all the captured images, but is proposed according to the imaging mode, so that the effect of the correction can be improved. For example, in the first whole body image in the first photographing course, although the whole body is taken, the legs are small, but even if the correction for lengthening the legs is performed, it is difficult to visually recognize the correction, and the effect of the correction is sufficiently sufficient. You will not get it. Therefore, in the present embodiment, the length of the leg is corrected only for the whole body image in which the leg is clearly shown, as in the second whole body image. Thus, the effect of the correction can be reliably reflected on the captured image. Further, not performing the correction having a low effect can lead to a reduction in the play time.

<9.変形例>
以上、本発明の一実施形態について説明したが、本発明は上記実施形態に限定されるものではなく、その趣旨を逸脱しない限りにおいて、種々の変更が可能である。
<9. Modification>
As mentioned above, although one Embodiment of this invention was described, this invention is not limited to said Embodiment, A various change is possible unless it deviates from the meaning.

<9−1>
上記実施形態では、撮影態様としていずれのカメラ111a,111bで撮影したかということを基準としているが、撮影態様はこれに限定されず、また、提案される補正も種々のものが可能である。なお、撮影態様とは、カメラによる撮影の態様のほか、撮影により生成される画像の背景の選択などの撮影に起因する画像処理に係るものも含む。したがって、撮影態様は、例えば、撮影方向、カメラの位置、撮影範囲、焦点距離、トリミング範囲、背景などに基づいたものとすることができる。カメラの位置を撮影態様とする場合には、例えば、カメラが撮影筐体11の上部にある場合と下部にある場合とで補正の内容を個別に設定したり、あるいは補正をしないように設定することができる。この場合、1つのカメラを移動させて、カメラの位置を変更するほか、上記実施形態のように2つのカメラを用いてカメラの位置を変更することもできる。撮影範囲を撮影態様とする場合には、その態様の種類として、例えば、全身撮影、フェイスアップ撮影、腰上撮影などがあり、撮影範囲ごとに補正の内容を設定したり、補正をしないようにすることができる。トリミング範囲を撮影態様とする場合には、その種類として、例えば、顔のみをトリミングする場合、腰より上をトリミングする場合などがある。背景を撮影態様とする場合には、プレイ準備部3で選択された背景によって、補正の候補を設定するものである。
<9-1>
In the above embodiment, the photographing mode is based on which camera 111a or 111b is used for the photographing. However, the photographing mode is not limited to this, and various corrections can be made. Note that the shooting mode includes not only a mode of shooting by a camera but also a mode related to image processing caused by shooting, such as selection of a background of an image generated by shooting. Therefore, the shooting mode can be based on, for example, the shooting direction, camera position, shooting range, focal length, trimming range, background, and the like. When the position of the camera is set to the shooting mode, for example, the content of correction is set individually when the camera is at the upper portion and at the lower portion of the shooting housing 11, or is set so as not to be corrected. be able to. In this case, in addition to changing the position of the camera by moving one camera, the position of the camera can be changed using two cameras as in the above-described embodiment. When the shooting range is set to the shooting mode, the type of the mode includes, for example, full-body shooting, face-up shooting, and waist-up shooting, and the content of correction is set for each shooting range or the correction is not performed. can do. When the trimming range is set to a shooting mode, the types include, for example, a case where only the face is trimmed and a case where the trimming is performed above the waist. When the background is in the shooting mode, correction candidates are set based on the background selected by the play preparation unit 3.

また、補正の内容としては、脚の長さのほか、例えば、目の大きさ、目の色、肌の色、顔の大きさ、体の一部の長さや太さなどの被写体の体型に関するものとすることができる。なお、色については、画素値を変更することで補正を行うことができる。例えば、フェイスアップ撮影と、全身撮影の場合で行う目の大きさの補正の内容を変更することができる。フェイスアップ撮影の撮影画像は、全身撮影の撮影画像よりも顔が大きく写っているので、全身撮影の撮影画像のほうがフェイスアップ撮影画像よりも目の拡大率が大きくなるようにしてもよい。   In addition, the content of the correction includes, in addition to the length of the legs, for example, the size of the subject such as eye size, eye color, skin color, face size, and length and thickness of a part of the body. Things. The color can be corrected by changing the pixel value. For example, it is possible to change the details of the eye size correction performed in the case of face-up shooting and the case of full-body shooting. Since the face-up shot image has a larger face than the whole-body shot image, the whole-body shot image may have a larger eye magnification than the face-up shot image.

<9−2>
上記実施形態では、撮影画像の補正を、撮影部1において行っているが、編集部2において行うこともできる。
<9-2>
In the above embodiment, the correction of the photographed image is performed in the photographing unit 1, but may be performed in the editing unit 2.

1 撮影部
111a 上カメラ
111b 下カメラ
113 モニタ(表示部、入力部)
9 制御部(画像処理部)
1 shooting unit 111a upper camera 111b lower camera 113 monitor (display unit, input unit)
9 control unit (image processing unit)

Claims (4)

被写体が写る撮影画像を取得する撮影部と、
制御部と、
を備え、
前記制御部は、
前記撮影画像に含まれる前記被写体の目を検出するステップと、
前記検出された目の輪郭から外側に向かう所定の幅の領域を、まつ毛領域として設定するステップと、
前記まつ毛領域の色が濃くなるように、前記撮影画像に画像処理を施すステップと、
を備え、
前記撮影部は、前記撮影画像として、フェイスアップ画像と全身画像とを取得可能となっており、
前記全身画像の前記まつ毛領域に関する画像処理は、前記フェイスアップ画像の前記まつ毛領域に関する画像処理よりも、前記画像処理前からの変化の度合いが大きい、画像処理装置。
A photographing unit for acquiring a photographed image of a subject,
A control unit;
With
The control unit includes:
Detecting the eyes of the subject included in the captured image;
Setting a region of a predetermined width outward from the detected eye contour as an eyelash region;
Performing image processing on the captured image so that the color of the eyelash region is darker;
Bei to give a,
The photographing unit is capable of acquiring a face-up image and a whole body image as the photographed image,
An image processing device , wherein the degree of change in the image processing on the eyelash region of the whole-body image from before the image processing is greater than that of the face-up image on the eyelash region .
前記まつ毛領域は、上まつ毛を示す上まつ毛領域と、下まつ毛を示す下まつ毛領域と、
を含み、
前記上まつ毛領域の前記幅が、前記下まつ毛領域の前記幅よりも広い、請求項1に記載の画像処理装置。
The eyelash region, an upper eyelash region showing an upper eyelash, a lower eyelash region showing a lower eyelash,
Including
The image processing device according to claim 1, wherein the width of the upper eyelash region is wider than the width of the lower eyelash region.
撮影画像に含まれる被写体の目を検出するステップと、
前記検出された目の輪郭から外側に向かう所定の幅の領域を、まつ毛領域として設定するステップと、
前記まつ毛領域の色が濃くなるように、前記撮影画像に画像処理を施すステップと、
を備え、
前記撮影画像として、フェイスアップ画像と全身画像とを取得可能となっており、
前記全身画像の前記まつ毛領域に関する画像処理は、前記フェイスアップ画像の前記まつ毛領域に関する画像処理よりも、前記画像処理前からの変化の度合いが大きい、画像処理方法。
Detecting the eyes of the subject included in the captured image;
Setting a region of a predetermined width outward from the detected eye contour as an eyelash region;
Performing image processing on the captured image so that the color of the eyelash region is darker;
With
As the photographed image, a face-up image and a whole body image can be acquired,
An image processing method, wherein the degree of change in the image processing on the eyelash region of the whole body image from before the image processing is greater than that of the image processing on the eyelash region of the face-up image .
コンピュータに、
撮影画像に含まれる被写体の目を検出するステップと、
前記検出された目の輪郭から外側に向かう所定の幅の領域を、まつ毛領域として設定するステップと、
前記まつ毛領域の色が濃くなるように、前記撮影画像に画像処理を施すステップと、
を実行させ、
前記撮影画像として、フェイスアップ画像と全身画像とを取得可能となっており、
前記全身画像の前記まつ毛領域に関する画像処理は、前記フェイスアップ画像の前記まつ毛領域に関する画像処理よりも、前記画像処理前からの変化の度合いが大きい、画像処理プログラム。
On the computer,
Detecting the eyes of the subject included in the captured image;
Setting a region of a predetermined width outward from the detected eye contour as an eyelash region;
Performing image processing on the captured image so that the color of the eyelash region is darker;
Was executed,
As the photographed image, a face-up image and a whole body image can be acquired,
An image processing program , wherein the degree of change in the image processing related to the eyelash region of the whole-body image from before the image processing is larger than that in the image processing related to the eyelash region of the face-up image .
JP2018198643A 2018-10-22 2018-10-22 Photo shooting game device, image processing method, and image processing program Active JP6635170B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018198643A JP6635170B2 (en) 2018-10-22 2018-10-22 Photo shooting game device, image processing method, and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018198643A JP6635170B2 (en) 2018-10-22 2018-10-22 Photo shooting game device, image processing method, and image processing program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2014165501A Division JP2016042641A (en) 2014-08-15 2014-08-15 Photographing game device, image processing method, and image processing program

Publications (2)

Publication Number Publication Date
JP2019050582A JP2019050582A (en) 2019-03-28
JP6635170B2 true JP6635170B2 (en) 2020-01-22

Family

ID=65905933

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018198643A Active JP6635170B2 (en) 2018-10-22 2018-10-22 Photo shooting game device, image processing method, and image processing program

Country Status (1)

Country Link
JP (1) JP6635170B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7339515B2 (en) 2019-09-05 2023-09-06 フリュー株式会社 Image processing device, image processing method, and program

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009064423A (en) * 2007-08-10 2009-03-26 Shiseido Co Ltd Makeup simulation system, makeup simulation device, makeup simulation method, and makeup simulation program
JP4862955B1 (en) * 2010-10-29 2012-01-25 オムロン株式会社 Image processing apparatus, image processing method, and control program
JP2013229848A (en) * 2012-12-03 2013-11-07 Furyu Kk Photograph seal machine, processing method of the same and program

Also Published As

Publication number Publication date
JP2019050582A (en) 2019-03-28

Similar Documents

Publication Publication Date Title
JP5201430B1 (en) Photo sticker creation apparatus and method, and program
JP5472365B2 (en) Photo sticker creation apparatus, image processing method, and program
JP6085838B2 (en) PHOTOGRAPHIC GAME DEVICE, IMAGE GENERATION METHOD, AND IMAGE GENERATION PROGRAM
JP6635170B2 (en) Photo shooting game device, image processing method, and image processing program
JP6881884B2 (en) Photography game device, image generation method, and image generation program
JP2016042641A (en) Photographing game device, image processing method, and image processing program
JP2019012153A (en) Image acquisition system
JP2016177015A (en) Photo seal creation device and image processing method
JP6468386B2 (en) PHOTOGRAPHIC GAME DEVICE, IMAGE PROCESSING METHOD, AND IMAGE PROCESSING PROGRAM
JP6582865B2 (en) Game shooting device, image editing method and program
JP5704205B2 (en) Image processing apparatus, photography game apparatus using the same, image processing method, image processing program, and photo print sheet
JP5904192B2 (en) Photo sticker creation apparatus, image processing method, and program
JP6659942B2 (en) Photo sticker making device and display method
JP2015035766A (en) Imaging apparatus and display control method
JP5962643B2 (en) Imaging apparatus and display control method
JP6303561B2 (en) Image processing apparatus and photographing method
JP7017724B2 (en) Image editing equipment, image editing methods and computer programs
JP6671015B2 (en) Photo sticker making apparatus and image processing method
JP7406065B2 (en) Photography equipment, photography method, and program
JP7364866B2 (en) Image processing device, editing device
JP5871083B2 (en) PHOTOGRAPHIC GAME DEVICE, IMAGE PROCESSING METHOD, AND IMAGE PROCESSING PROGRAM
JP5979463B1 (en) Photo sticker creation apparatus, information processing method, and program
JP6978660B2 (en) Photographing game equipment, image display method, and image display program
JP2016033821A (en) Photographing play device, image generation method, and image generation program
JP2018007002A (en) Photographing play device, image display method, and image display program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181116

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181126

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190826

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190910

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191101

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191119

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191202

R151 Written notification of patent or utility model registration

Ref document number: 6635170

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250