JP2012037735A - Image editing device, image editing method and program - Google Patents

Image editing device, image editing method and program Download PDF

Info

Publication number
JP2012037735A
JP2012037735A JP2010178151A JP2010178151A JP2012037735A JP 2012037735 A JP2012037735 A JP 2012037735A JP 2010178151 A JP2010178151 A JP 2010178151A JP 2010178151 A JP2010178151 A JP 2010178151A JP 2012037735 A JP2012037735 A JP 2012037735A
Authority
JP
Japan
Prior art keywords
image
user
editing
course
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010178151A
Other languages
Japanese (ja)
Other versions
JP5447276B2 (en
Inventor
Moeko Konishi
萌子 小西
Aki Imadaira
亜希 今平
Masato Tsukada
正人 塚田
Yukiyo Kanazawa
幸代 金澤
真吾 ▲浜▼口
Shingo Hamaguchi
Takashi Nakajima
孝 中嶋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Furyu Corp
Original Assignee
Furyu Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Furyu Corp filed Critical Furyu Corp
Priority to JP2010178151A priority Critical patent/JP5447276B2/en
Publication of JP2012037735A publication Critical patent/JP2012037735A/en
Application granted granted Critical
Publication of JP5447276B2 publication Critical patent/JP5447276B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Cameras Adapted For Combination With Other Photographic Or Optical Apparatuses (AREA)

Abstract

PROBLEM TO BE SOLVED: To improve user's satisfaction for photo sticker forming operation and a formed photo sticker.SOLUTION: A course selection control part 213 selects a course for determining a kind of image processing to be applied to an image in which a user is photographed as a subject, and a photographic image acquisition part 216 photographs the user as a subject to acquire a photographic image. An image processing control unit 217 performs control such that the image processing of the kind according to the course selected by the course selection control part 213 is applied to the photographic image, and an edition processing part 203 edits the image-processed photographic image based on a scribble edition input by the user. For example, the present invention can be applied to a photographic sticker forming apparatus.

Description

本発明は、画像編集装置および方法、並びにプログラムに関し、特に、写真シールの作成作業、および作成された写真シールに対する利用者の満足度を向上させることができるようにする画像編集装置および方法、並びにプログラムに関する。   The present invention relates to an image editing apparatus and method, and a program, and more particularly to an image editing apparatus and method capable of improving the work of creating a photo sticker and the satisfaction of a user with respect to the created photo sticker, and Regarding the program.

従来、利用者(被写体)を撮影し、得られた撮影画像に予め用意されている画像を合成したり、文字や線画を重畳させたりする落書き編集処理を行い、シール紙に印刷し、写真シールとして利用者に提供する写真シール機が存在する。   Conventionally, a user (subject) is photographed, and a graffiti editing process is performed in which a prepared image is combined with the obtained photographed image or a character or a line drawing is superimposed, printed on sticker paper, and a photo sticker There is a photographic seal machine provided to users.

この写真シール機は、例えば、ゲームセンタ等の娯楽(遊戯)施設に設置され、主に女子高校生や女子中学生等を中心とする利用者に有料でサービスを提供する。利用者は、写真シールの作成作業をゲームとして楽しむだけでなく、出力される様々なサイズの編集済み画像が印刷されている写真シールを仲間同士で切り分け合って、それぞれの所持品に貼り付けたりしている。   This photo sticker is installed, for example, in an entertainment (game) facility such as a game center, and provides services mainly to high school girls and female junior high school students for a fee. Users can not only enjoy creating photo stickers as a game, but also cut out photo stickers with edited images printed in various sizes and paste them on their belongings. is doing.

写真シール作成のゲームは、被写体の撮影、その撮影画像に対する落書き編集、そして、編集済み画像の写真シールへの出力、という流れで行われる。利用者は、この一連の工程を制限時間内でプレイし、その成果物として作成された写真シールを受け取る。したがって、利用者の満足度を向上させるためには、写真シール作成作業のゲームとしての面白さを向上させるとともに、写真シールの出来栄えを向上させることも重要になる。   The game for creating a photo sticker is performed by shooting a subject, editing a graffiti on the shot image, and outputting the edited image to a photo sticker. The user plays this series of processes within the time limit, and receives a photo sticker created as a product. Therefore, in order to improve user satisfaction, it is important to improve the fun of the photo sticker creation work as well as to improve the quality of the photo sticker.

このような写真シール作成のゲームを提供する写真シール機においては、撮影時に、利用者である被写体の画像が動画像(ライブビュー画像)としてリアルタイムで表示されるようになされており、利用者は、そのライブビュー画像を確認しながら撮影作業を行うことができる。   In a photo sticker that provides such a photo sticker creation game, an image of a subject that is a user is displayed in real time as a moving image (live view image) at the time of shooting. Then, shooting can be performed while checking the live view image.

さらには、ライブビュー画像に対して、補正したい部分を利用者が選択することで、選択された部分が補正されたライブビュー画像を表示する写真シール機がある(特許文献1参照)。   Furthermore, there is a photo sticker that displays a live view image in which a selected portion is corrected by a user selecting a portion to be corrected with respect to the live view image (see Patent Document 1).

なお、被写体に適した補正を行う技術としては、被写体の顔画像を検出し、顔画像の特徴量を用いて、被写体の性別や年齢を判定し、判定結果に基づいて、被写体の顔画像に対して補正処理を行うようにする手法が提案されている(特許文献2参照)。   As a technique for performing correction suitable for the subject, the face image of the subject is detected, the feature amount of the face image is used to determine the sex and age of the subject, and the face image of the subject is determined based on the determination result. On the other hand, there has been proposed a technique for performing correction processing (see Patent Document 2).

特開2005−277772号公報JP 2005-277772 A 特許第4277534号公報Japanese Patent No. 4277534

しかしながら、特許文献1の写真シール機では、利用者は、ライブビュー画像の確認と、ライブビュー画像において補正したい部分の選択とを、場合によっては納得のいくまで繰り返し行うことが必要となり、利用者にとっては面倒であった。   However, in the photo sticker of Patent Document 1, the user needs to repeatedly perform confirmation of the live view image and selection of a portion to be corrected in the live view image until satisfactory. It was troublesome for me.

また、特許文献2の手法においては、判定結果によっては、利用者の意図しない補正処理が行われる可能性があった。例えば、本来女性である被写体の性別が、誤って男性であるとして判定されてしまった場合、顔画像に対して男性向けの補正処理が施されたり、また、男性向けの補正処理として、いずれの補正処理も施されないことがあった。逆に、本来男性である被写体の性別が、誤って女性であるとして判定されてしまった場合には、顔画像に対して女性向けの補正処理が施されることがあった。このような場合、その補正処理の結果に対して、利用者が満足しない恐れがあった。   Moreover, in the method of Patent Document 2, there is a possibility that correction processing unintended by the user is performed depending on the determination result. For example, when the gender of a subject who is originally a woman is erroneously determined to be male, correction processing for men is performed on the face image, and any correction processing for men In some cases, correction processing was not performed. Conversely, when the gender of a subject who is originally a man is erroneously determined to be a woman, the face image may be subjected to a correction process for women. In such a case, the user may not be satisfied with the result of the correction process.

本発明は、このような状況に鑑みてなされたものであり、写真シールの作成作業、および作成された写真シールに対する利用者の満足度を向上させることができるようにするものである。   The present invention has been made in view of such a situation, and makes it possible to improve the work of creating a photo sticker and the satisfaction of a user with respect to the created photo sticker.

本発明の一側面の画像編集装置は、利用者を被写体として撮影し、得られた画像を出力する画像編集装置であって、利用者が被写体として撮影される前記画像に対して施される画像処理の種類を決定するコースを選択するコース選択手段と、前記利用者を被写体として撮影し撮影画像を得る撮影手段と、前記撮影画像に対して、前記コース選択手段により選択された前記コースに応じた種類の画像処理を施すように制御する画像処理制御手段と、利用者による落書き編集入力に基づいて、画像処理が施された前記撮影画像を編集する編集手段とを備える。   An image editing apparatus according to one aspect of the present invention is an image editing apparatus that captures an image of a user as a subject and outputs the obtained image. The image is applied to the image captured by the user as a subject. Course selection means for selecting a course for determining the type of processing, photographing means for photographing the user as a subject to obtain a photographed image, and for the photographed image according to the course selected by the course selection means Image processing control means for controlling the image processing to be performed, and editing means for editing the photographed image subjected to the image processing based on a graffiti editing input by the user.

この画像編集装置の、コース選択手段は、例えば、コース選択制御部により構成され、撮影手段は、例えば、撮影画像取得部により構成され、画像処理制御手段は、例えば、画像処理制御部により構成され、編集手段は、例えば、編集処理部により構成される。   In this image editing apparatus, the course selection means is configured by, for example, a course selection control unit, the imaging unit is configured by, for example, a captured image acquisition unit, and the image processing control unit is configured by, for example, an image processing control unit. The editing means is constituted by, for example, an editing processing unit.

本発明の画像編集装置においては、利用者が被写体として撮影される画像に対して施される画像処理の種類を決定するコースが選択され、利用者が被写体として撮影され撮影画像が得られ、撮影画像に対して、選択されたコースに応じた種類の画像処理が施されるように制御され、利用者による落書き編集入力に基づいて、画像処理が施された撮影画像が編集される。   In the image editing apparatus of the present invention, a course for determining the type of image processing to be performed on an image photographed as a subject by the user is selected, and the photographed image is obtained by photographing the user as the subject. The image is controlled to be subjected to the type of image processing corresponding to the selected course, and the photographed image subjected to the image processing is edited based on the graffiti editing input by the user.

これにより、撮影画像に対して、簡単な操作で利用者の意図した画像処理を行わせることができるので、写真シールの作成作業、および作成された写真シールに対する利用者の満足度を向上させることができる。   As a result, the image processing intended by the user can be performed on the photographed image with a simple operation, so that the work of creating the photo sticker and the satisfaction of the user with the created photo sticker are improved. Can do.

前記コース選択手段には、前記コースのうちの、前記利用者が被写体として撮影される前記撮影画像に対して、前記利用者の属性に応じた画像処理を施すための第1のコースを選択させ、前記画像処理制御手段には、前記コース選択手段により前記第1のコースが選択された場合、前記撮影画像に対して前記利用者の属性に応じた画像処理を施すように制御させることができる。   The course selection means selects a first course for performing image processing according to the attribute of the user with respect to the photographed image of the user as a subject. The image processing control means can be controlled to perform image processing according to the attribute of the user on the captured image when the first course is selected by the course selecting means. .

前記コース選択手段には、前記コースのうちの、前記第1のコースとは異なる、前記撮影画像に対して、前記利用者の指示に応じた画像処理を施すための第2のコースを選択させ、前記画像処理制御手段には、前記コース選択手段により前記第2のコースが選択された場合、前記撮影画像に対して前記利用者の指示に応じた画像処理を施すように制御させることができる。   The course selection means is configured to select a second course for performing image processing according to an instruction from the user on the captured image, which is different from the first course. The image processing control means can be controlled to perform image processing according to the user's instruction on the photographed image when the second course is selected by the course selecting means. .

前記コース選択手段には、前記第1のコースが選択された場合、前記利用者毎の属性をさらに選択させ、前記画像処理制御手段には、前記撮影画像における前記利用者それぞれに対して、前記コース選択手段により選択された前記利用者毎の性別に応じた画像処理を施すように制御させることができる。   When the first course is selected, the course selection unit further selects an attribute for each user, and the image processing control unit causes the image processing control unit to It can be controlled to perform image processing according to the sex of each user selected by the course selection means.

これにより、撮影画像に対して、簡単な操作で利用者の意図した画像処理を行わせることができるので、写真シール作成作業における撮影作業に対する利用者の満足度を向上させることができる。   Thereby, the image processing intended by the user can be performed with respect to the photographed image with a simple operation, and the satisfaction of the user with respect to the photographing work in the photo sticker creation work can be improved.

前記画像編集装置には、前記編集手段により編集される前記撮影画像上に、前記利用者が前記落書き編集入力を行うための編集画面の表示を制御する画面表示制御手段をさらに設け、前記画面表示制御手段には、前記コース選択手段により前記第1のコースが選択された場合、前記利用者の属性に応じた前記編集画面の表示を制御させることができる。   The image editing apparatus further includes screen display control means for controlling display of an editing screen for the user to perform the graffiti editing input on the photographed image edited by the editing means, and the screen display When the first course is selected by the course selection unit, the control unit can control display of the edit screen according to the attribute of the user.

この画像編集装置の画面表示制御手段は、例えば、編集画面表示制御部により構成される。   The screen display control means of this image editing apparatus is constituted by, for example, an editing screen display control unit.

前記画面表示制御手段には、前記コース選択手段により前記第1のコースが選択された場合、前記撮影画像における前記利用者の相対的な位置と、前記利用者の属性とに応じた前記編集画面の表示を制御させることができる。   In the screen display control means, when the first course is selected by the course selection means, the editing screen according to the relative position of the user in the captured image and the attribute of the user Display can be controlled.

これにより、例えば、男性の利用者には、編集作業を簡単に行える編集画面が提供されるようになり、写真シール作成作業における編集作業に対する利用者の満足度を向上させることができる。   Thereby, for example, a male user can be provided with an editing screen that allows easy editing work, and the user's satisfaction with the editing work in the photo sticker creation work can be improved.

前記画像編集装置には、前記撮影画像に合成させる合成用画像を、前記コース選択手段の選択に応じて選択する合成用画像選択手段をさらに設けることができる。   The image editing apparatus may further include a synthesis image selection unit that selects a synthesis image to be synthesized with the captured image in accordance with the selection of the course selection unit.

この画像編集装置の合成用画像選択手段は、例えば、合成用画像選択制御部により構成される。   The composition image selection means of this image editing apparatus is constituted by, for example, a composition image selection control unit.

これにより、写真シール作成ゲームにあまり慣れていない男性の利用者にとって、撮影時の操作を簡単にすることができる。   Thereby, it is possible to simplify the operation at the time of shooting for a male user who is not so familiar with the photo sticker creation game.

前記画像編集装置には、前記撮影手段により撮影された前記撮影画像を動画像としてリアルタイムで表示部に表示させるように制御する動画像表示制御手段をさらに設け、前記画像処理制御手段には、前記動画像に対して、前記コース選択手段の選択に応じた画像処理を施すよう制御させ、前記動画像表示制御手段には、前記画像処理制御手段により、前記コース選択手段の選択に応じた画像処理が施された前記動画像を、前記表示部に表示させるように制御させることができる。   The image editing apparatus further includes a moving image display control unit that controls the captured image captured by the imaging unit to be displayed as a moving image on a display unit in real time, and the image processing control unit includes: The moving image is controlled to be subjected to image processing according to the selection of the course selecting unit, and the moving image display control unit is configured to perform image processing according to the selection of the course selecting unit by the image processing control unit. It is possible to control to display the moving image on which the display is performed on the display unit.

この画像編集装置の動画像表示制御手段は、例えば、ライブビュー表示制御部により構成される。   The moving image display control means of this image editing apparatus is constituted by, for example, a live view display control unit.

前記画像編集装置には、編集結果を前記シールシートに印刷する印刷手段をさらに設け、前記印刷手段には、前記コース選択手段の選択に応じたデザインまたは大きさの前記シールシートに、前記編集結果を印刷させることができる。   The image editing apparatus further includes a printing unit that prints an editing result on the sticker sheet, and the printing unit includes the editing result on the sticker sheet having a design or size according to the selection of the course selecting unit. Can be printed.

この画像編集装置の印刷手段は、例えば、印刷処理部により構成される。   The printing means of this image editing apparatus is constituted by, for example, a print processing unit.

これにより、利用者の意図した画像処理が行われた撮影画像が印刷された写真シールを作成することができるので、作成された写真シールに対する利用者の満足度を向上させることができる。   This makes it possible to create a photo sticker on which a photographed image that has been subjected to image processing intended by the user is printed, so that the user's satisfaction with the created photo sticker can be improved.

前記コース選択手段には、前記利用者による名前入力に基づいて、前記利用者毎の性別を選択させることができる。   The course selection means can select the gender for each user based on the name input by the user.

前記コース選択手段には、前記撮影における前記利用者の顔の状態に基づいて認識された顔画像に応じて、前記コースを選択させることができる。   The course selecting means can select the course according to a face image recognized based on a state of the user's face in the photographing.

本発明の一側面の画像編集方法は、利用者を被写体として撮影し、得られた画像を出力する画像編集装置の画像編集方法であって、利用者が被写体として撮影される前記画像に対して施される画像処理の種類を決定するコースを選択するコース選択ステップと、前記利用者を被写体として撮影し撮影画像を得る撮影ステップと、前記撮影画像に対して、前記コース選択ステップの処理により選択された前記コースに応じた種類の画像処理を施すように制御する画像処理制御ステップと、利用者による落書き編集入力に基づいて、画像処理が施された前記撮影画像を編集する編集ステップとを含む。   An image editing method according to one aspect of the present invention is an image editing method of an image editing apparatus that captures a user as a subject and outputs the obtained image. A course selection step for selecting a course for determining the type of image processing to be performed, a photographing step for photographing the user as a subject to obtain a photographed image, and selecting the photographed image by the processing of the course selecting step An image processing control step for performing control so as to perform image processing of a type corresponding to the course that has been performed, and an editing step for editing the photographed image that has been subjected to image processing based on a graffiti editing input by a user .

本発明の画像編集方法においては、利用者が被写体として撮影される画像に対して施される画像処理の種類を決定するコースが選択され、利用者が被写体として撮影され撮影画像が得られ、撮影画像に対して、選択されたコースに応じた種類の画像処理が施されるように制御され、利用者による落書き編集入力に基づいて、画像処理が施された撮影画像が編集される。   In the image editing method of the present invention, a course for determining the type of image processing to be performed on an image photographed as a subject by the user is selected, and the photographed image is obtained by photographing the user as the subject. The image is controlled to be subjected to the type of image processing corresponding to the selected course, and the photographed image subjected to the image processing is edited based on the graffiti editing input by the user.

本発明の一側面のプログラムは、利用者を被写体として撮影し、得られた画像を出力する処理をコンピュータに実行させるプログラムであって、利用者が被写体として撮影される前記画像に対して施される画像処理の種類を決定するコースを選択するコース選択ステップと、前記利用者の被写体としての撮影を制御し撮影画像を得る撮影制御ステップと、前記撮影画像に対して、前記コース選択ステップの処理により選択された前記コースに応じた種類の画像処理を施すように制御する画像処理制御ステップと、利用者による落書き編集入力に基づいて、画像処理が施された前記撮影画像の編集を制御する編集ステップとを含む処理をコンピュータに実行させる。   A program according to an aspect of the present invention is a program that causes a computer to execute processing for capturing a user as a subject and outputting the obtained image, and is applied to the image captured by the user as a subject. A course selecting step for selecting a course for determining the type of image processing to be performed, a photographing control step for controlling photographing as the subject of the user to obtain a photographed image, and processing for the course selecting step for the photographed image An image processing control step for controlling to perform image processing of a type corresponding to the course selected by the editing, and editing for controlling editing of the photographed image subjected to image processing based on a graffiti editing input by a user And causing the computer to execute processing including steps.

このプログラムは、所定の記録媒体に記録されて、例えば、ドライブにより読み出され、写真シール作成装置にインストールされる。記録媒体は、フロッピ(登録商標)ディスクなどよりなる磁気ディスク、CD-ROM(Compact Disc Read Only Memory)、DVD-ROM(Digital Versatile Disc)などよりなる光ディスク、MD(Mini Disc)(登録商標)などよりなる光磁気ディスク、または半導体メモリなどのリムーバブルメディアにより構成される。   This program is recorded on a predetermined recording medium, read by a drive, for example, and installed in the photo sticker creating apparatus. Recording media include magnetic disks made of floppy (registered trademark) disks, optical disks made of CD-ROM (Compact Disc Read Only Memory), DVD-ROM (Digital Versatile Disc), MD (Mini Disc) (registered trademark), etc. And a removable medium such as a semiconductor memory.

本発明によれば、写真シールの作成作業、および作成された写真シールに対する利用者の満足度を向上させることが可能となる。   ADVANTAGE OF THE INVENTION According to this invention, it becomes possible to improve the user's satisfaction with the creation work of a photo sticker and the created photo sticker.

本発明を適用した写真シール作成装置の一実施の形態の例を示す斜視図である。It is a perspective view which shows the example of one Embodiment of the photograph sticker production apparatus to which this invention is applied. 図1の写真シール作成装置の他の角度からの斜視図である。It is a perspective view from the other angle of the photograph sticker production apparatus of FIG. 図1の写真シール作成装置の設置例を示す斜視図である。It is a perspective view which shows the example of installation of the photograph sticker production apparatus of FIG. 利用者の空間移動を説明する図である。It is a figure explaining a user's space movement. 前方ユニットの正面の構成例を示す図である。It is a figure which shows the structural example of the front of a front unit. 編集ユニットの側面の構成例を示す図である。It is a figure which shows the structural example of the side surface of an edit unit. 編集ユニットの他の側面の構成例を示す図である。It is a figure which shows the structural example of the other side of an edit unit. 写真シール作成装置の内部の構成例を示すブロック図である。It is a block diagram which shows the example of an internal structure of a photograph sticker production apparatus. 制御部の詳細な構成例を示す機能ブロック図である。It is a functional block diagram which shows the detailed structural example of a control part. 撮影処理部と編集処理部の詳細な構成例を示す機能ブロック図である。It is a functional block diagram which shows the detailed structural example of an imaging | photography process part and an edit process part. 写真シール作成ゲーム処理の流れの例を説明するフローチャートである。It is a flowchart explaining the example of the flow of photograph sticker creation game processing. 撮影処理の流れの例を説明するフローチャートである。It is a flowchart explaining the example of the flow of an imaging | photography process. カップルコース撮影処理の流れの例を説明するフローチャートである。It is a flowchart explaining the example of the flow of a couple course imaging | photography process. カップルコース撮影処理の流れの例を説明するフローチャートである。It is a flowchart explaining the example of the flow of a couple course imaging | photography process. タッチパネルモニタの表示の例を示す図である。It is a figure which shows the example of a display of a touchscreen monitor. タッチパネルモニタの表示の他の例を示す図である。It is a figure which shows the other example of a display of a touchscreen monitor. カップルコース撮影処理の流れの他の例を説明するフローチャートである。It is a flowchart explaining the other example of the flow of a couple course imaging | photography process. カップルコース撮影処理の流れの他の例を説明するフローチャートである。It is a flowchart explaining the other example of the flow of a couple course imaging | photography process. タッチパネルモニタの表示の例を示す図である。It is a figure which shows the example of a display of a touchscreen monitor. タッチパネルモニタの表示の他の例を示す図である。It is a figure which shows the other example of a display of a touchscreen monitor. フレンドコース撮影処理の流れの例を説明するフローチャートである。It is a flowchart explaining the example of the flow of a friend course imaging | photography process. フレンドコース撮影処理の流れの例を説明するフローチャートである。It is a flowchart explaining the example of the flow of a friend course imaging | photography process. タッチパネルモニタの表示の例を示す図である。It is a figure which shows the example of a display of a touchscreen monitor. タッチパネルモニタの表示の他の例を示す図である。It is a figure which shows the other example of a display of a touchscreen monitor. 編集処理の流れの例を説明するフローチャートである。It is a flowchart explaining the example of the flow of an edit process. 編集画面表示処理の流れの例を説明するフローチャートである。It is a flowchart explaining the example of the flow of an edit screen display process. 撮影情報について説明する図である。It is a figure explaining imaging | photography information. 編集画面の例を示す図である。It is a figure which shows the example of an edit screen. ライブビュー表示制御部の詳細な構成例を示す機能ブロック図である。It is a functional block diagram which shows the detailed structural example of a live view display control part. ライブビュー表示処理の流れの例を説明するフローチャートである。It is a flowchart explaining the example of the flow of a live view display process. タッチパネルモニタの表示の例を示す図である。It is a figure which shows the example of a display of a touchscreen monitor. 出来上がりフレーム画像の合成について説明する図である。It is a figure explaining the synthesis | combination of a completed frame image. タッチパネルモニタの表示の他の例を示す図である。It is a figure which shows the other example of a display of a touchscreen monitor.

図1は、本発明を適用した写真シール作成装置の一実施の形態の例を示す図である。   FIG. 1 is a diagram showing an example of an embodiment of a photo sticker creating apparatus to which the present invention is applied.

図1の写真シール作成装置1は、撮影や編集等の作業の娯楽性を高め、それらの作業を利用者にゲーム(遊戯サービス)として行わせ、撮影画像や編集済み画像を写真シールやデータとして利用者に提供する代わりに、利用者より代金を受け取るゲーム装置(遊戯サービス提供装置)である。   The photo sticker creating apparatus 1 in FIG. 1 enhances the amusement of work such as shooting and editing, and allows the user to perform such work as a game (play service), and uses the shot image or edited image as a photo sticker or data. It is a game device (play service providing device) that receives money from the user instead of providing it to the user.

この写真シール作成装置1が実行する写真シール作成ゲームにおいて、利用者は、ゲームの代金を投入し、写真シール作成装置1に設けられたカメラを用いて自分自身等を撮影し、その撮影画像に対して背景画像を合成したり、ペン入力やスタンプ入力等の編集機能により合成用画像を加える等の編集(落書き編集)を行い、撮影画像を彩り豊かなものにデザインする。そしてゲーム終了後、利用者は、編集済み画像が印刷された写真シール等を成果物として受け取る。   In the photo sticker creating game executed by the photo sticker creating apparatus 1, the user inputs the price of the game, takes a picture of himself / herself using the camera provided in the photo sticker creating apparatus 1, and displays the photographed image. On the other hand, the background image is synthesized, and editing (doodle editing) such as adding an image for synthesis by an editing function such as pen input or stamp input is performed, and the photographed image is designed to be rich. After the game ends, the user receives a photo sticker or the like on which the edited image is printed as a product.

このような写真シール作成装置1は、通常、ゲームセンタや観光地の店舗等に設置される。つまり、写真シール作成装置1は、例えば、メーカや販売会社などから、それらの店舗の経営者に販売される。写真シール作成装置1を購入した経営者は、店舗(例えばゲームセンタ)にその写真シール作成装置1を設置して管理・運営し、女子高校生や女子中学生に代表される一般の利用者に写真シール作成ゲームを有料でプレイさせ、その代金により収益を上げる。   Such a photo sticker creating apparatus 1 is normally installed in a game center, a store in a sightseeing spot, or the like. That is, the photo sticker creating apparatus 1 is sold to managers of those stores from, for example, manufacturers and sales companies. The manager who has purchased the photo sticker creating apparatus 1 installs the photo sticker creating apparatus 1 in a store (for example, a game center) to manage and operate the photo sticker creating apparatus 1 for general users represented by female high school students and female junior high school students. Play the created game for a fee, and make a profit by paying for it.

従って、店舗の経営者にとって、写真シール作成装置1の収益率の高さが重要となる。つまり、写真シール作成装置1は、単位時間当たりの収益率が高い方が望ましい。また、通常の店舗の場合、床面積や構造等の制限により、写真シール作成装置1の設置場所が限定される。従って、写真シール作成装置1は、単位床面積当たりの収益率が高い方が望ましい。さらに、各店舗の広さや形状は通常同じでなく、かつ、写真シール作成装置1とともに設置される他のゲーム機等も異なるため、設置場所の自由度が高いほど望ましい。   Therefore, the high profit rate of the photo sticker creating apparatus 1 is important for the store manager. That is, it is desirable that the photo sticker creating apparatus 1 has a high rate of return per unit time. Moreover, in the case of a normal store, the installation place of the photograph sticker production apparatus 1 is limited by restrictions, such as a floor area and a structure. Therefore, it is desirable that the photo sticker creating apparatus 1 has a high profit rate per unit floor area. Furthermore, since the size and shape of each store are usually not the same, and other game machines and the like installed together with the photo sticker creating apparatus 1 are also different, it is desirable that the degree of freedom of installation is higher.

収益率を向上させる方法として、例えば、写真シール作成ゲームの回転率を向上させる方法がある。つまり、所定の時間内にプレイされるゲーム数を増加させることにより単位時間当たりの収益率を増加させる方法である。しかしながら、写真シール作成ゲームをプレイする利用者がいなければ収益率は向上しない。したがって、写真シール作成装置1の写真シール作成ゲームに対する、利用者の期待度や満足度を向上させることも重要となる。   As a method of improving the profit rate, for example, there is a method of improving the rotation rate of the photo sticker creation game. That is, it is a method of increasing the rate of return per unit time by increasing the number of games played within a predetermined time. However, if there is no user who plays the photo sticker creation game, the profit rate is not improved. Therefore, it is also important to improve the user's expectation and satisfaction with respect to the photo sticker creating game of the photo sticker creating apparatus 1.

例えば、写真シール作成装置1は、ゲームをプレイしたことのない利用者が「プレイしてみたい」と思うような期待度の高い機能を設けることにより利用者数を増加させることができる。また、一度プレイした利用者が「楽しかった、もう一度プレイしたい」と思うような満足度の高い機能を設けることにより、写真シール作成装置1は、いわゆるリピータを増加させ、利用者数をさらに増加させることができる。その結果、写真シール作成装置1の収益が向上する。   For example, the photo sticker creating apparatus 1 can increase the number of users by providing a function with high expectation that a user who has never played a game wants to play. In addition, by providing a function with a high degree of satisfaction that a user who has played once thinks that “it was fun and would like to play again”, the photo sticker creating apparatus 1 increases the number of users by increasing so-called repeaters. be able to. As a result, the profit of the photo sticker creating apparatus 1 is improved.

利用者にとって、写真シール作成装置1には、大きく分けて、写真シール作成ゲームをプレイすること(写真シールの作成作業)と、成果物として写真シール用画像や写真シールを得ること(完成した写真シールそのもの)の2つの娯楽性がある。   For the user, the photo sticker creating apparatus 1 is roughly divided into playing a photo sticker making game (photo sticker making work) and obtaining a photo sticker image and a photo sticker as a result (finished photo). There are two types of entertainment: the seal itself.

前者の、写真シール作成作業の娯楽性を向上させる方法としては、例えば、撮影機能や、落書き編集等の編集機能の多機能化、操作性の向上、またはプレイ時間や待ち時間の調整等がある。後者の、完成した写真シールそのものの娯楽性を向上させる方法としては、例えば、シール紙の品質向上、高画質印刷、および特殊色印刷等のようなハードウェアの向上や、写真シールの画像に対する利用者の満足度を向上させることなどがある。   Examples of the former method for improving the amusement of photo sticker creation work include, for example, a multi-functionality of shooting functions and editing functions such as graffiti editing, improved operability, or adjustment of play time and waiting time. . The latter method of improving the amusement of the completed photo sticker itself is, for example, improvement of hardware such as improvement of the quality of sticker paper, high image quality printing, special color printing, etc. Improve the satisfaction level of the elderly.

また、主な利用者層である女子高校生や女子中学生は、得られた写真シールを所有物に貼り付けるだけでなく、その写真シールを交換したり、その写真シールを話題にして会話を行ったりする。従って、例えば、写真シールの画像内容が、派手だったり、面白かったり、希少性が高かったり、目新しさがあったりする場合、その写真シールを利用者自身が気に入ることもあるが、それだけでなく、その写真シールを話題として会話が盛り上がることも考えられる。   In addition, high school girls and junior high school students who are the main users not only stick the obtained photo sticker to their property, but also exchange the photo sticker or talk about the photo sticker as a topic. To do. Therefore, for example, when the image content of a photo sticker is flashy, interesting, scarce or novel, the user may like the photo sticker, but not only that, It is also possible that the conversation will be excited about the photo sticker.

このようにして、写真シールの娯楽性を向上させることは、単にその利用者の満足度を向上させるだけでなく、他者の期待度を向上させ、評判の広がりによる集客、すなわち、いわゆる口コミによる新規利用者を増やすことも期待することができる。従って、このような写真シールの利用により、写真シール自体が写真シール作成装置1の広告としての役割も果たすようにもなる。   In this way, improving the amusement of photo stickers not only improves the satisfaction of its users, but also increases the expectations of others, attracting customers due to the spread of reputation, ie, so-called word-of-mouth You can also expect to increase new users. Therefore, by using such a photo sticker, the photo sticker itself can also serve as an advertisement for the photo sticker creating apparatus 1.

つまり、写真シール作成ゲームにおいて、利用者らが気に入るような画像を作成することができる機能を提供することにより、利用者の写真シール作成ゲームに対する満足度だけでなく、写真シールに対する満足度も向上させることができ、さらに、写真シールの話題性や広告効果等も同時に向上させることができる。   In other words, in the photo sticker creation game, by providing a function that can create images that users will like, not only the user's satisfaction with the photo sticker creation game but also the satisfaction with the photo sticker is improved. Furthermore, the topicality of the photo sticker and the advertising effect can be improved at the same time.

写真シール作成装置1は、このような特徴を有するが、その筐体10は、図1に示すように、撮影ユニット12、編集ユニット13、天井ストロボユニット14、および背景カーテンユニット15の4つのユニットに大きく分けられる。   Although the photo sticker creating apparatus 1 has such a feature, the casing 10 includes four units, that is, a photographing unit 12, an editing unit 13, a ceiling strobe unit 14, and a background curtain unit 15, as shown in FIG. It is roughly divided into

撮影ユニット12は、利用者等を被写体として撮影する機能を有しており、後述する内部の撮影空間において被写体の撮影が行われる。この撮影ユニット12は、大きく、前方ユニット12Aと後方ユニット12Bの2つに分けられる。   The photographing unit 12 has a function of photographing a user or the like as a subject, and the subject is photographed in an internal photographing space described later. The photographing unit 12 is roughly divided into two units, a front unit 12A and a rear unit 12B.

前方ユニット12Aは、撮影空間の前方とされる側のユニットであり、撮影空間の利用者の撮影に関する処理を行ったり、利用者の写真シール作成ゲームに関する操作を受け付けたりする。後方ユニット12Bは、撮影空間の後方とされる側のユニットであり、前方ユニット12Aによる利用者の撮影の際に、背景の役割を果たすユニットである。この後方ユニット12Bの内部は、空洞(空間)となっており、利用者が撮影を行う際に利用される撮影空間の一部として構成される。この後方ユニット12Bの内部には、利用者がポーズをとるために利用するステージ等が設けられるようにしてもよい。また、前方ユニット12Aの側面には、外付けモニタ16、スピーカ17、およびタッチボタン18が設けられているが、その詳細は後述する。   The front unit 12A is a unit on the front side of the shooting space, and performs processing related to shooting of the user in the shooting space and accepts operations related to the user's photo sticker creation game. The rear unit 12B is a unit on the side that is the rear side of the shooting space, and is a unit that plays the role of the user when the front unit 12A takes a picture. The interior of the rear unit 12B is a cavity (space), and is configured as a part of a shooting space used when a user performs shooting. A stage or the like used for the user to pose may be provided in the rear unit 12B. An external monitor 16, a speaker 17, and a touch button 18 are provided on the side surface of the front unit 12A. Details thereof will be described later.

編集ユニット13は、利用者が撮影画像に対する落書き編集等を行うための構成(例えば、モニタ、タッチパネル、およびタッチペン等)が設けられている。後述するように1つの筺体からなる編集ユニット13は、2組の利用者が同時に編集作業を行うことができるように、2つの面のそれぞれに、落書き編集等を行うための構成が設けられている。後述するように、写真シール作成装置1は、複数の写真シール作成ゲームを並列的に実行することができる。換言すれば、複数組の利用者が、同時に写真シール作成装置1において写真シール作成ゲームをプレイすることができる。編集ユニット13は、写真シール作成ゲームのプレイの回転率を向上させるために、それらの複数組の利用者が同時に落書き編集を行うことができるように、2つの落書き編集等を行うための構成が設けられている。   The editing unit 13 is provided with a configuration (for example, a monitor, a touch panel, and a touch pen) for the user to perform graffiti editing or the like on the captured image. As will be described later, the editing unit 13 consisting of one frame is provided with a configuration for performing graffiti editing and the like on each of the two surfaces so that two sets of users can perform editing work simultaneously. Yes. As will be described later, the photo sticker creating apparatus 1 can execute a plurality of photo sticker creating games in parallel. In other words, a plurality of sets of users can play the photo sticker creation game in the photo sticker creation device 1 at the same time. The editing unit 13 has a configuration for performing two graffiti editing and the like so that a plurality of sets of users can simultaneously perform graffiti editing in order to improve the rotation rate of the photo sticker creation game. Is provided.

撮影空間の上方に設けられる天井ストロボユニット14は、撮影タイミングに合わせて撮影空間内に向けてフラッシュ発光するストロボを内蔵する。この天井ストロボユニット14には、さらに内部に蛍光灯が配置されており、撮影空間(撮影空間内の利用者)を常時照らす照明としても機能する。撮影空間は、後述するように簡易的に閉鎖的な空間として構成される。したがって、外部より光が進入しづらく、暗くなりがちで利用者の操作性が低下する恐れがある。そこで、天井ストロボユニット14が、その照明により撮影空間を明るく照らすことにより、そのような恐れを回避し、操作性を向上させることができる。なお、このような照明は前方ユニット12Aにも設けられている。前方ユニット12Aの構成例については、図5を参照して後述する。   The ceiling strobe unit 14 provided above the photographing space incorporates a strobe that emits flash light toward the photographing space in accordance with the photographing timing. The ceiling strobe unit 14 is further provided with a fluorescent lamp, and functions as illumination that constantly illuminates the shooting space (the user in the shooting space). The photographing space is simply configured as a closed space as will be described later. Therefore, it is difficult for light to enter from the outside, and the user's operability may be deteriorated because it tends to be dark. Therefore, the ceiling strobe unit 14 can illuminate the shooting space with the illumination to avoid such a fear and improve operability. Such illumination is also provided in the front unit 12A. A configuration example of the front unit 12A will be described later with reference to FIG.

また、後方ユニット12Bの上部には、例えば、背景に利用する可動式のカーテン(背景カーテン)を備える背景カーテンユニット15が設けられている。この背景カーテンユニット15は、例えば、互いに色または柄の異なる巻き取り式のカーテンが複数吊設されている。例えば、明るい色の単色、外国の絵本のようなお洒落でかわいい柄、彩り豊かなポップで(大衆向けの)お洒落な柄等、主な利用者である女性の若者に人気の高い色や柄が複数揃えられる。   Moreover, the background curtain unit 15 provided with the movable curtain (background curtain) utilized for a background is provided in the upper part of the back unit 12B, for example. In the background curtain unit 15, for example, a plurality of winding curtains having different colors or patterns are suspended. For example, there are colors and patterns that are popular among young women who are the main users, such as bright single colors, stylish and cute patterns like foreign picture books, and colorful pop patterns (for the masses). Multiple items are aligned.

背景カーテンユニット15は、前方ユニット12Aに設けられたカメラやストロボ等の撮影機能と連動して動作し、撮影の際に、例えば利用者に選択された色のカーテンを下ろし、その他のカーテンを巻き取る。このように動作することにより、背景カーテンユニット15は、容易に利用者の所望のデザインや、撮影モード等に応じたデザインの背景を提供することができる。これにより、写真シール作成装置1は、画像(写真シール)に対する利用者の満足度を向上させることができる。   The background curtain unit 15 operates in conjunction with a photographing function such as a camera or a strobe provided in the front unit 12A. At the time of photographing, for example, a curtain of a color selected by the user is lowered and other curtains are wound. take. By operating in this manner, the background curtain unit 15 can easily provide a background of a design desired by the user, a design according to the shooting mode, and the like. Thereby, the photograph sticker creation apparatus 1 can improve the user's satisfaction with respect to an image (photo sticker).

なお、背景カーテンユニット15が備えるカーテン(背景カーテン)の枚数は任意である。例えば、背景カーテンユニット15に1枚の背景カーテンのみが吊設されるようにしてもよい。また、この場合、写真シール作成装置1が、合成用の背景画像を複数種類用意し、その中から利用者により選択された背景画像を撮影画像に合成するようにしてもよい。このようにすることにより、写真シール作成装置1に設けられる物理的な背景カーテンが1枚のみであっても、写真シール作成装置1は、利用者の多様な好みに対応することができる。   The number of curtains (background curtains) provided in the background curtain unit 15 is arbitrary. For example, only one background curtain may be suspended from the background curtain unit 15. In this case, the photo sticker creating apparatus 1 may prepare a plurality of types of background images for composition, and may synthesize the background image selected by the user from the photographed images. By doing in this way, even if there is only one physical background curtain provided in the photo sticker creating apparatus 1, the photo sticker creating apparatus 1 can cope with various user preferences.

外付けモニタ16は、撮影ユニット12内の撮影空間で利用者の撮影が行われている場合には、次に撮影空間を利用しようと待機している利用者や、写真シール作成装置1の傍を通りかかった人に対して、撮影中の利用者のゲームの進行状況を示す映像を出力(表示)したり、写真シール作成ゲームの流れや遊び方等を案内(説明)するコンテンツ(デモンストレーション)、写真シール作成装置1が設置されている店舗や地域の広告等を出力する。また、写真シール作成装置1にエラーが発生している場合には、そのエラーの内容を出力する。   When the user is shooting in the shooting space in the shooting unit 12, the external monitor 16 is located next to the user who is waiting to use the shooting space next time or the photo sticker creating apparatus 1. Content (demonstration) and photos that output (display) a video showing the progress of the user's game during shooting, and guide (explain) the flow and play of the photo sticker creation game An advertisement or the like of a store or a region where the sticker creating apparatus 1 is installed is output. If an error has occurred in the photo sticker creating apparatus 1, the content of the error is output.

スピーカ17は、外付けモニタ16によって出力される映像やコンテンツ、広告等に合わせた音声を出力する。   The speaker 17 outputs sound that matches the video, content, advertisement, etc. output from the external monitor 16.

タッチボタン18は、機械的に動作する機構を有しない構成とされ、所定の利用者に操作(タッチ)されることで、そのタッチによる圧力や静電気を感知して、利用者の操作を受け付ける。タッチボタン18が利用者の操作を受け付けると、外付けモニタ16によって出力される映像やコンテンツ、広告等は、適宜、その内容が切り替わるようになされている。また、タッチボタン18は、外付けモニタ16が、その上にタッチパネルが重畳されて構成されている場合には、外付けモニタ16の表示領域の一部に表示されて構成されるようにしてもよいし、機械的に動作する機構を有するプッシュボタンとして構成されるようにしてもよい。   The touch button 18 is configured not to have a mechanically operating mechanism, and is operated (touched) by a predetermined user, thereby sensing pressure or static electricity caused by the touch and accepting the user's operation. When the touch button 18 receives a user operation, the contents of the video, content, advertisement, and the like output from the external monitor 16 are switched as appropriate. The touch button 18 may be configured to be displayed on a part of the display area of the external monitor 16 when the external monitor 16 is configured with a touch panel superimposed thereon. Alternatively, it may be configured as a push button having a mechanically operated mechanism.

また、外付けモニタ16、スピーカ17、およびタッチボタン18は、前方ユニット12Aの側面のいずれか一方に設けられるようになされている。すなわち、図1において図示されない前方ユニット12Aの側面は、図1において外付けモニタ16、スピーカ17、およびタッチボタン18が設けられている前方ユニット12Aの側面に外付けモニタ16、スピーカ17、およびタッチボタン18が設けられない場合に、外付けモニタ16、スピーカ17、およびタッチボタン18が設置可能な構造となっている。   Further, the external monitor 16, the speaker 17, and the touch button 18 are provided on any one of the side surfaces of the front unit 12A. That is, the side surface of the front unit 12A (not shown in FIG. 1) is connected to the side surface of the front unit 12A in which the external monitor 16, the speaker 17, and the touch button 18 are provided in FIG. When the button 18 is not provided, the external monitor 16, the speaker 17, and the touch button 18 can be installed.

図2は、図1の写真シール作成装置1を、編集ユニット13側より見た斜視図である。   FIG. 2 is a perspective view of the photo sticker creating apparatus 1 of FIG. 1 as viewed from the editing unit 13 side.

編集ユニット13は、図2に示すように、前方ユニット12Aの、後方ユニット12B側の面(つまり、撮影空間側の面)と反対の面に隣接して設置される。編集ユニット13の、前方ユニット12Aに直交する2つの側面には、利用者が撮影画像に対する落書き編集等を行うための第1編集インタフェース13Aと第2編集インタフェース13Bがそれぞれ設けられている。つまり、編集ユニット13には、写真シール作成ゲームを行う複数組の利用者が、前方ユニット12Aと後方ユニット12Bを結ぶ方向と直交する向きに、編集ユニット13を挟んで対向する状態で編集作業を行うことができるように、2つの編集インタフェースが設けられている。   As shown in FIG. 2, the editing unit 13 is installed adjacent to the surface of the front unit 12A opposite to the surface on the rear unit 12B side (that is, the surface on the imaging space side). A first editing interface 13A and a second editing interface 13B are provided on two side surfaces of the editing unit 13 that are orthogonal to the front unit 12A. That is, the editing unit 13 allows a plurality of sets of users who perform the photo sticker creation game to perform editing operations with the editing unit 13 facing each other in a direction orthogonal to the direction connecting the front unit 12A and the rear unit 12B. Two editing interfaces are provided so that this can be done.

また、編集ユニット13の、撮影ユニット12と対向する面には、写真シール作成ゲームがプレイされることにより作成された写真シールが排出されて利用者に提供される写真シール排出部13Cが設けられている。   Also, on the surface of the editing unit 13 that faces the photographing unit 12, a photo sticker discharge unit 13C that is provided to the user by discharging the photo sticker created by playing the photo sticker making game is provided. ing.

図3は、写真シール作成装置1の設置例を示す外観図である。   FIG. 3 is an external view showing an installation example of the photo sticker creating apparatus 1.

写真シール作成装置1がゲームセンタ等に設置される場合、例えば図3に示されるように、撮影ユニット12や編集ユニット13を囲むように、側面カーテン21が設けられる。この側面カーテン21は、撮影作業が行われる撮影空間や編集作業が行われる編集空間等を簡易的に囲み、各空間の閉鎖性を向上させている。つまり、側面カーテン21は、例えば、各空間内の環境を安定させることにより、高画質な撮影や編集画面の見易さ等に寄与したり、各空間外からの視界を遮断し、利用者が外部からの視線を意識せずに撮影や編集等の作業を行うことができるようにしたりする。   When the photo sticker creating apparatus 1 is installed in a game center or the like, for example, as shown in FIG. 3, a side curtain 21 is provided so as to surround the photographing unit 12 and the editing unit 13. The side curtain 21 simply surrounds an imaging space in which an imaging operation is performed, an editing space in which an editing operation is performed, and the like, and improves the closeability of each space. In other words, for example, the side curtain 21 contributes to high-quality shooting and the visibility of the editing screen by stabilizing the environment in each space, or blocks the field of view from outside each space. It is possible to perform operations such as shooting and editing without being conscious of the line of sight from the outside.

この側面カーテン21の外側の面は、通常、広告を掲載する場所として利用され、設置場所において注目度が高まるように、写真シール作成装置1の機種名や機種のイメージを表す派手なデザイン画が印刷される。   The outer surface of the side curtain 21 is usually used as a place to place an advertisement, and a flashy design image representing the model name and model image of the photo sticker creating apparatus 1 is provided so as to attract attention at the installation location. Printed.

以上のような写真シール作成装置1は、利用者の各組に対して、それぞれ、写真シール作成ゲームをプレイさせる。写真シール作成装置1は、複数の写真シール作成ゲームを同時に進行させることができる。つまり、写真シール作成装置1は、同時に複数の組に写真シール作成ゲームをプレイさせることができる。このとき、各組の利用者は、写真シール作成装置1に設けられた複数の空間を移動しながら、写真シール作成ゲームの各作業を行い、ゲームを進行させることができる。   The photo sticker creating apparatus 1 as described above causes each set of users to play a photo sticker creating game. The photo sticker creating apparatus 1 can simultaneously execute a plurality of photo sticker creating games. That is, the photo sticker creating apparatus 1 can cause a plurality of sets to play a photo sticker creating game at the same time. At this time, each group of users can perform each work of the photo sticker creation game while moving through a plurality of spaces provided in the photo sticker creation device 1 to advance the game.

次に、写真シール作成ゲームの流れと、それに伴う空間の移動について、図4を参照して説明する。   Next, the flow of the photo sticker creation game and the accompanying movement of the space will be described with reference to FIG.

図4は、利用者のゲーム中に、写真シール作成装置1を上から見た平面図である。図4に示すように、利用者は、外部(利用者Aまたは利用者A')から、前方ユニット12Aと後方ユニット12Bの間を通って、図中点線で示される、前方ユニット12Aと後方ユニット12Bとの間に形成される、撮影作業を行う撮影空間32に入場し、代金を投入することで写真シール作成ゲームを開始する(利用者B)。もし、前の組の利用者が撮影空間32を使用中であれば(撮影作業中であれば)、利用者は、ユニット外部において待機する(利用者Aまたは利用者A')。なお、図4において、利用者(利用者A)は、外付けモニタ16およびスピーカ17によって出力される、撮影中の利用者のゲームの進行状況を示す映像や写真シール作成ゲームの流れや遊び方等を案内するコンテンツを視聴しながら待機することができる。   FIG. 4 is a plan view of the photo sticker creating apparatus 1 as viewed from above during the user's game. As shown in FIG. 4, the user passes from the outside (user A or user A ′) between the front unit 12A and the rear unit 12B, and is indicated by the dotted line in the figure, the front unit 12A and the rear unit. The photograph sticker creation game is started by entering the photographing space 32 where the photographing work is performed and the price is inserted (User B). If the previous group of users is using the shooting space 32 (if shooting is in progress), the user waits outside the unit (user A or user A ′). In FIG. 4, the user (user A) outputs a video showing the progress of the user's game being photographed and the flow of the photo sticker creation game, how to play, etc., which are output from the external monitor 16 and the speaker 17. It is possible to wait while watching the content that guides the user.

代金が投入され、写真シール作成ゲームが開始されると、利用者(利用者B)は、前方ユニット12Aの正面に設けられたカメラやモニタを利用して自分自身等を撮影させる撮影作業を行う。   When the price is inserted and the photo sticker creation game is started, the user (user B) performs a shooting operation to photograph himself / herself using a camera or a monitor provided in front of the front unit 12A. .

撮影作業が終了すると利用者は、得られた撮影画像の中から編集対象用画像として保存するものを選択し、表示された移動案内にしたがって、撮影作業を行った撮影空間32から、図中点線で示す、編集作業を行う編集空間へと移動する。   When the photographing operation is completed, the user selects one of the obtained photographed images to be saved as an image to be edited, and in accordance with the displayed movement guide, from the photographing space 32 where the photographing operation is performed, a dotted line in the figure. It moves to the edit space which performs edit work shown by.

編集ユニット13の、前方ユニット12Aから見て左側(第1編集インタフェース13Aの前方)に第1編集空間33Aが設けられ、右側(第2編集インタフェース13Bの前方)に第2編集空間33Bが設けられている。つまり、この写真シール作成装置1においては、第1編集空間33Aの利用者(利用者C)および第2編集空間33Bの利用者(利用者C')の、合計2組の利用者が同時に編集作業を行うことができる。撮影空間32の利用者(利用者B)は、この2つの編集空間のうち、空いている方に案内される。第1編集空間33Aまたは第2編集空間33Bに移動すると、利用者は、落書き編集作業を行う。以下において、第1編集空間33Aと第2編集空間33Bとを区別する必要の無い場合、編集空間33と称する。   A first editing space 33A is provided on the left side of the editing unit 13 as viewed from the front unit 12A (in front of the first editing interface 13A), and a second editing space 33B is provided on the right side (in front of the second editing interface 13B). ing. That is, in this photo sticker creation apparatus 1, a total of two sets of users, the user (user C) of the first editing space 33A and the user (user C ') of the second editing space 33B, simultaneously edit. Work can be done. A user (user B) of the shooting space 32 is guided to a free one of the two editing spaces. When the user moves to the first editing space 33A or the second editing space 33B, the user performs a graffiti editing work. Hereinafter, when it is not necessary to distinguish the first editing space 33A and the second editing space 33B, they are referred to as an editing space 33.

その後、落書き編集が終了すると、利用者(利用者Cまたは利用者C')は、次に、印刷設定作業を行い、分割数等の設定を行う。そして印刷が開始されると、利用者は、その印刷中に携帯端末への画像の送信、アンケート入力、ミニゲーム等を行う。そして、印刷が終了すると、写真シール排出部13C前方の印刷物受取領域34に移動し(利用者D)、排出された写真シール紙を受け取り、写真シール作成ゲームを終了する。   Thereafter, when the graffiti editing is completed, the user (user C or user C ′) next performs print setting work and sets the number of divisions and the like. When printing is started, the user performs image transmission, questionnaire input, mini-games, and the like during the printing. Then, when printing is completed, it moves to the printed matter receiving area 34 in front of the photo sticker discharge unit 13C (user D), receives the discharged photo sticker paper, and ends the photo sticker creation game.

なお、以上のような写真シール作成ゲームにおいて、撮影空間32の利用者Bが、編集空間33に移動すると、撮影空間32が未使用になるので、写真シール作成装置1は、新たな組の利用者に撮影空間32を使用させることができる。さらに、第1編集空間33Aの利用者C、または、第2編集空間33Bの利用者C'が、印刷物受取領域34に移動すると、その第1編集空間33Aまたは第2編集空間33Bが未使用になるので、写真シール作成装置1は、新たな組の利用者(利用者B)に、その第1編集空間33Aまたは第2編集空間33Bを使用させることができる。なお、第1編集空間33Aおよび第2編集空間33Bがいずれも未使用である場合には、写真シール作成装置1は、利用者(利用者B)に対して、第1編集空間33Aおよび第2編集空間33Bのいずれか一方を使用させるように案内するとともに、利用者が案内された編集空間でない方に移動した場合には、案内された編集空間に利用者を誘導させることができる。   In the photo sticker creation game as described above, when the user B of the shooting space 32 moves to the editing space 33, the shooting space 32 becomes unused, so the photo sticker creation device 1 uses a new set. A person can use the photographing space 32. Further, when the user C of the first editing space 33A or the user C ′ of the second editing space 33B moves to the printed material receiving area 34, the first editing space 33A or the second editing space 33B is not used. Therefore, the photo sticker creating apparatus 1 can cause a new set of users (user B) to use the first editing space 33A or the second editing space 33B. Note that when both the first editing space 33A and the second editing space 33B are unused, the photo sticker creating apparatus 1 gives the user (user B) the first editing space 33A and the second editing space 33B. In addition to guiding the user to use one of the editing spaces 33B, when the user moves to a direction other than the guided editing space, the user can be guided to the guided editing space.

つまり、写真シール作成装置1は、写真シール作成ゲームの、単位時間辺りおよび単位床面積辺りの回転率を向上させるために、撮影空間32、第1編集空間33A、第2編集空間33B、および印刷物受取領域34を用いて、同時に、複数組の利用者に、写真シール作成ゲームをプレイさせることができる(多重接客を行うことができる)。   In other words, the photo sticker creating apparatus 1 uses the shooting space 32, the first editing space 33A, the second editing space 33B, and the printed matter in order to improve the rotation rate per unit time and unit floor area of the photo sticker creating game. Using the receiving area 34, a plurality of sets of users can play a photo sticker creation game at the same time (multiple customer service can be performed).

なお、このような筐体10の構成は任意であり、上述した以外の構成であってもよい。同様に、多重接客の仕方も任意である。   In addition, the structure of such a housing | casing 10 is arbitrary and may be a structure other than what was mentioned above. Similarly, the method of multiple customer service is also arbitrary.

次に、各ユニットの構成について説明する。   Next, the configuration of each unit will be described.

図5は、前方ユニット12Aの構成例を示す図である。図5の正面12A−1は、撮影空間32内に面する側面であり、撮影作業を行う利用者にとって前方に位置する面である。つまり、利用者は、撮影空間32において、基本的にこの正面12A−1に向かって(前方ユニット12A側を向いて)撮影作業を行う。   FIG. 5 is a diagram illustrating a configuration example of the front unit 12A. A front surface 12A-1 in FIG. 5 is a side surface facing the imaging space 32, and is a front surface for the user who performs the imaging operation. That is, the user basically performs a photographing operation in the photographing space 32 toward the front surface 12A-1 (facing the front unit 12A side).

この正面12A−1の中央付近には、撮影空間32内の被写体を撮影するカメラ51が設けられており、カメラ51の下側にタッチパネルモニタ52が設けられている。タッチパネルモニタ52は、例えば、カメラ51により光電変換されてリアルタイムに(即時)取り込まれている取り込み画像に背景や前景等の画像を合成した合成画像(動画像)を表示するライブビューモニタとしての機能と、各種GUI(Graphical User Interface)画像を表示するとともに、画面上に重畳されたタッチパネルにより利用者の指示を受け付ける機能とを備えている。また、正面12A−1には、曲面または平面で構成される乳白アクリル板53−1乃至乳白アクリル板53−6の背後に、撮影空間32内を照明したり、カメラ51による撮影タイミングに合わせてフラッシュ光を発光したりする照明装置が設置されている他、撮影作業中の利用者の手荷物等を置くための荷物置き場54−1および54−2、並びに、写真シール作成ゲームの代金が投入される硬貨投入返却口55が設けられている。   Near the center of the front surface 12 </ b> A- 1, a camera 51 for photographing a subject in the photographing space 32 is provided, and a touch panel monitor 52 is provided below the camera 51. The touch panel monitor 52 functions as, for example, a live view monitor that displays a composite image (moving image) obtained by combining an image such as a background or foreground with a captured image that has been photoelectrically converted by the camera 51 and captured in real time (immediately). And a function of displaying various GUI (Graphical User Interface) images and receiving a user's instruction through a touch panel superimposed on the screen. In addition, the front surface 12A-1 illuminates the inside of the photographing space 32 behind the milky white acrylic plate 53-1 to the milky white acrylic plate 53-6 formed of a curved surface or a flat surface, or matches the photographing timing by the camera 51. In addition to the installation of a lighting device that emits flash light, a fee for baggage storage areas 54-1 and 54-2 for placing user's baggage and the like during shooting, and a photo sticker creation game was introduced. A coin insertion / return port 55 is provided.

さらに、正面12A−1には、乳白アクリル板53−1乃至乳白アクリル板53−3の裏側であって、撮影空間32の天井付近に、写真シール作成ゲームの撮影作業における案内音声、BGM(Back Ground Music)、効果音等の音声が出力される、図示せぬスピーカ124(図8)が設けられている。なお、スピーカ124の数および設置位置は任意である。   Further, on the front surface 12A-1, on the back side of the milky white acrylic plate 53-1 to the milky white acrylic plate 53-3, near the ceiling of the shooting space 32, guidance sound in the shooting work of the photo sticker creation game, BGM (Back A speaker 124 (FIG. 8) (not shown) that outputs sound such as Ground Music) and sound effects is provided. In addition, the number and installation positions of the speakers 124 are arbitrary.

カメラ51は、CCD(Charge Coupled Device)を利用した撮像素子等により構成され、写真シール作成ゲームの撮影作業の工程において、撮影空間32内の利用者を撮像し、動画像を取り込み画像として取り込む。カメラ51により取り込まれた取り込み画像は、一部が切り出されたり、背景等の画像が合成されたりして、タッチパネルモニタ52に即時的に表示される。また、所定のタイミングでカメラ51により取り込まれた取り込み画像は、そのタイミングのフレームの画像が抜き出され、撮影画像(静止画像)として保存される。   The camera 51 is configured by an imaging device or the like using a CCD (Charge Coupled Device), and captures a moving image as a captured image by capturing a user in the photographing space 32 in the photographing work process of the photo sticker creation game. A part of the captured image captured by the camera 51 is cut out or an image such as a background is combined and displayed on the touch panel monitor 52 immediately. In addition, for the captured image captured by the camera 51 at a predetermined timing, an image of the frame at that timing is extracted and stored as a captured image (still image).

なお、カメラ51として、CCDの代わりに、例えばCMOSセンサを用いたカメラを使用してもよい。もちろん、これら以外にも、利用者を撮影し、デジタル画像データを得られるものであればどのようなカメラを用いるようにしてもよい。また、カメラ51の個数も設置位置も任意である。   For example, a camera using a CMOS sensor may be used as the camera 51 instead of the CCD. Of course, any camera other than these may be used as long as the user can be photographed and digital image data can be obtained. Further, the number of cameras 51 and the installation position are arbitrary.

タッチパネルモニタ52は、例えば、CRT(Cathode Ray Tube)やLCD(Liquid Crystal Display)等のライブビューモニタ123(図8)と、それに積層された無色透明のタッチパネルとにより構成され、撮影作業中の利用者が撮影結果を確認しながら立ち位置や姿勢を決定することができるようにするために、カメラ51により取り込まれた取り込み画像を即時的に(リアルタイムに)表示する。このとき、タッチパネルモニタ52に表示される取り込み画像は、例えば、背景や前景等、利用者に指定された画像が合成されたり、その画像の画サイズ等に合わせて一部分が切り出されたり(トリミングされたり)する。また、タッチパネルモニタ52は、撮影作業の手順を案内する案内画像等、撮影作業に関する画像を表示し、タッチパネル(例えば、感圧式や電磁誘導式等)が例えば利用者の指等によるタップ操作を受け付けるようになされている。   The touch panel monitor 52 includes, for example, a live view monitor 123 (FIG. 8) such as a CRT (Cathode Ray Tube) or an LCD (Liquid Crystal Display) and a colorless and transparent touch panel laminated thereon, and is used during photographing work. The captured image captured by the camera 51 is displayed immediately (in real time) so that the person can determine the standing position and posture while checking the photographing result. At this time, for example, the captured image displayed on the touch panel monitor 52 is synthesized with an image designated by the user, such as a background or a foreground, or a part of the captured image is trimmed (trimmed) according to the image size of the image. Or). In addition, the touch panel monitor 52 displays an image related to the shooting work such as a guide image for guiding the procedure of the shooting work, and the touch panel (for example, pressure-sensitive type or electromagnetic induction type) accepts a tap operation by a user's finger or the like, for example. It is made like that.

乳白アクリル板53−1乃至乳白アクリル板53−6の背後には、複数の、蛍光灯およびストロボ発光可能な照明装置が設置され、撮影空間32を明るくし、操作性や安全性を確保するために、撮影空間32を常時照らすとともに、撮影画像の画質を向上させるために、撮影タイミングに対応するタイミングでストロボ発光し、撮影される利用者に光を多様な角度から照射する。なお、以下において、乳白アクリル板53−1乃至乳白アクリル板53−6を互いに区別して説明する必要の無い場合、乳白アクリル板53と称する。また、所定の乳白アクリル板53の表面には、ストロボ発光による撮影空間32の明るさを調整するために、図示せぬLED(Light Emitting Diode)を設けるようにしてもよい。   Behind the milky white acrylic plate 53-1 to the milky white acrylic plate 53-6, a plurality of lighting devices capable of fluorescent light and strobe light emission are installed to brighten the shooting space 32 and ensure operability and safety. Furthermore, in order to constantly illuminate the shooting space 32 and improve the image quality of the shot image, the flash is emitted at a timing corresponding to the shooting timing, and the user who is shot is irradiated with light from various angles. Hereinafter, the milky white acrylic plate 53-1 to the milky white acrylic plate 53-6 are referred to as a milky white acrylic plate 53 when it is not necessary to distinguish between them. Further, an LED (Light Emitting Diode) (not shown) may be provided on the surface of the predetermined milk-white acrylic plate 53 in order to adjust the brightness of the photographing space 32 by flash emission.

荷物置き場54−1,54−2は、撮影時における利用者の手荷物の置き場所として利用する棚である。荷物置き場54−1,54−2は、撮影の邪魔にならないような位置、すなわち、利用者が撮影ポーズをとるのに邪魔にならず、かつ、上述した照明装置の光の照射の妨げとならない位置に設けられている。利用者は、手荷物を荷物置き場54−1,54−2に置くことにより、より快適に撮影作業を行うことができる。   The luggage storage areas 54-1 and 54-2 are shelves that are used as storage areas for user baggage at the time of photographing. The luggage storage areas 54-1 and 54-2 do not interfere with shooting, that is, do not interfere with the user's shooting pose and do not interfere with the above-described illumination of the illumination device. In the position. The user can perform photographing work more comfortably by placing the baggage in the luggage storage areas 54-1 and 54-2.

硬貨投入返却口55は、利用者が写真シール作成ゲームの代金として硬貨を投入したり、投入に失敗した硬貨やお釣りの硬貨を返却したりするユーザインターフェースである。   The coin insertion / return port 55 is a user interface that allows a user to insert a coin as a price for a photo sticker creation game, or to return a coin that has failed to be inserted or a coin for fishing.

もちろん、前方ユニット12Aの正面12A−1に上述した以外の構成が設けられるようにしてもよい。   Of course, a configuration other than that described above may be provided on the front surface 12A-1 of the front unit 12A.

次に、編集ユニット13の構成について説明する。   Next, the configuration of the editing unit 13 will be described.

図6は、編集ユニット13の、撮影ユニット12側から見て左側面の構成例(第1編集空間33A側の構成例)を示す図である。   FIG. 6 is a diagram illustrating a configuration example of the left side of the editing unit 13 as viewed from the photographing unit 12 side (configuration example on the first editing space 33A side).

図6において、第1編集インタフェース13Aの上側には、側面カーテン21等で仕切られているために暗くなる第1編集空間33Aを照らすための照明装置61が設けられている。この照明装置61により、写真シール作成装置1は、利用者の編集作業効率の低下を抑制し、第1編集空間33Aの安全性を向上させることができる。なお、図6の例においては、編集ユニット13の、照明装置61が設けられている第1編集インタフェース13Aの上側の部分が、第2編集空間33B側に貫通しており、照明装置61は、第1編集空間33Aと第2編集空間33Bとで共有されている。つまり、照明装置61は、第1編集空間33Aだけでなく第2編集空間33Bも照明し、安全性を向上させる。なお、この照明装置61の設置位置および個数は任意である。   In FIG. 6, an illumination device 61 is provided above the first editing interface 13A to illuminate the first editing space 33A that becomes dark because it is partitioned by the side curtain 21 or the like. The illuminating device 61 allows the photo sticker creating apparatus 1 to suppress a reduction in the user's editing work efficiency and improve the safety of the first editing space 33A. In the example of FIG. 6, the upper portion of the editing unit 13 on the first editing interface 13 </ b> A where the lighting device 61 is provided penetrates to the second editing space 33 </ b> B side. The first editing space 33A and the second editing space 33B are shared. That is, the illumination device 61 illuminates not only the first editing space 33A but also the second editing space 33B, thereby improving safety. Note that the installation position and the number of the illumination devices 61 are arbitrary.

第1編集インタフェース13Aには、タブレット内蔵モニタ62、2本のタッチペン63−1およびタッチペン63−2、スピーカ64、並びに追加硬貨投入返却口65が設けられている。   The first editing interface 13A is provided with a tablet built-in monitor 62, two touch pens 63-1, a touch pen 63-2, a speaker 64, and an additional coin insertion / return port 65.

タブレット内蔵モニタ62は、タッチペン63−1またはタッチペン63−2により位置情報を入力可能な無色透明のタブレットが、CRTディスプレイやLCD等の、画像を表示可能な表示デバイスの表示画面上に重畳されることにより構成される。したがって、タブレット内蔵モニタ62は、表示デバイスにより単にGUI画像等を表示するだけでなく、タブレットにより利用者からの入力操作を受け付ける。タブレット内蔵モニタ62には、例えば、撮影空間における撮影作業により得られた撮影画像を編集する編集作業用のGUI画像からなる編集画面が表示される。   In the tablet built-in monitor 62, a colorless and transparent tablet capable of inputting position information with the touch pen 63-1 or the touch pen 63-2 is superimposed on a display screen of a display device capable of displaying an image such as a CRT display or an LCD. It is constituted by. Accordingly, the tablet built-in monitor 62 not only displays a GUI image or the like by the display device but also accepts an input operation from the user by the tablet. On the tablet built-in monitor 62, for example, an editing screen including a GUI image for editing work for editing a shot image obtained by shooting work in a shooting space is displayed.

タッチペン63−1とタッチペン63−2は、タブレット内蔵モニタ62の左右近傍に、左右1本ずつ所定のアタッチメントにより編集ユニット13に着脱可能に固定されており、同じ組の2人の利用者が、これらのタッチペンをそれぞれ使用することにより、同時に、写真シール作成作業の編集作業の工程をプレイすることができるようになされている。なお、以下において、タッチペン63−1およびタッチペン63−2を互いに区別して説明する必要のない場合、単にタッチペン63と称する。   The touch pen 63-1 and the touch pen 63-2 are detachably fixed to the editing unit 13 by a predetermined attachment on the left and right sides of the tablet built-in monitor 62 one by one on the left and right sides. By using each of these touch pens, it is possible to play the editing process of the photo sticker creation process at the same time. In the following description, the touch pen 63-1 and the touch pen 63-2 are simply referred to as the touch pen 63 when it is not necessary to distinguish them from each other.

そのタッチペン63は、編集ユニット13内部に設置されたシステムと有線(または無線)により電気的に接続されている。タッチペン63は、タブレット内蔵モニタ62のタブレットと連携して動作する。利用者がタッチペン63を操作して、タブレットをタップする(タッチペン63とタブレット内蔵モニタ62の表示画面を接触(または近接)させる)ことにより、タブレットは、利用者からの入力を受け付ける入力手段として動作する。なお、タッチペン63の設置本数、設置位置、及び形状等は任意である。   The touch pen 63 is electrically connected to a system installed inside the editing unit 13 by wire (or wireless). The touch pen 63 operates in cooperation with the tablet of the tablet built-in monitor 62. When the user operates the touch pen 63 and taps the tablet (the touch pen 63 and the display screen of the tablet built-in monitor 62 are brought into contact (or close proximity)), the tablet operates as an input unit that receives input from the user. To do. The number of touch pens 63 to be installed, the installation position, the shape, and the like are arbitrary.

スピーカ64は、例えば、案内音声、効果音、またはBGM等、写真シール作成ゲームの編集作業に関する音声を出力する。このスピーカ64は、タブレット内蔵モニタ62の右側に配置される。右利きの利用者は、タッチペン63を右手で持ちながら編集作業を行うため、編集ユニット13に寄りかかりながら編集作業を行う場合であっても、タブレット内蔵モニタ62の右側に寄りかかる可能性は少ない。従って、タブレット内蔵モニタ62の右側にスピーカ64を配置することにより、右利きの利用者が編集ユニット13に寄りかかりながら編集作業を行う場合であっても、利用者がスピーカ64を塞ぎ、音声が聞こえなくなることを防止することができる。なお、スピーカ64の設置個数、デザイン、および形状等は任意である。   The speaker 64 outputs, for example, sound related to editing work of the photo sticker creation game, such as guidance sound, sound effects, or BGM. The speaker 64 is disposed on the right side of the tablet built-in monitor 62. Since a right-handed user performs an editing operation while holding the touch pen 63 with the right hand, even when the editing operation is performed while leaning on the editing unit 13, there is little possibility of leaning on the right side of the tablet built-in monitor 62. Therefore, by disposing the speaker 64 on the right side of the tablet built-in monitor 62, even when a right-handed user performs an editing operation while leaning on the editing unit 13, the user closes the speaker 64 and can hear sound. It can be prevented from disappearing. The number, design, shape, etc. of the speakers 64 are arbitrary.

追加硬貨投入返却口65は、利用者が編集可能時間を延長させたいときや写真シールを複数枚出力するときなどに追加代金としての硬貨を投入したり、お釣り等を返却したりするために設けられている。なお、この追加代金の支払いも硬貨に限定されるものではなく、当然、紙幣でも支払いができるようすることができる。また、実際に流通している現金(硬貨および紙幣)の代わりに、写真シール作成装置1が設置されている遊技施設などで流通されているプリペイドカード、コイン、電子マネーなどでも支払いができるようしてもよい。   The additional coin insertion / return port 65 is provided to allow the user to insert additional coins or return the change when the user wants to extend the editable time or outputs a plurality of photo stickers. It has been. In addition, payment of this additional price is not limited to a coin, Naturally, it can also be made to be able to pay also with a banknote. In addition, instead of cash (coins and banknotes) that are actually distributed, payment can also be made with prepaid cards, coins, electronic money, etc. distributed at amusement facilities where the photo sticker creation device 1 is installed. May be.

ただし、編集可能時間の延長は、現在、撮影空間32にて撮影作業が行われていない場合(次の利用者がいない場合)、または、もう一方の編集インタフェース(いまの場合、第2編集インタフェース13B)が空いている場合にのみ可能であり、撮影空間32にて撮影作業が行われており、かつ、もう一方の編集インタフェースが利用されている場合には延長できない。   However, the extension of the editable time is performed when the shooting operation is not currently performed in the shooting space 32 (when there is no next user) or the other editing interface (in this case, the second editing interface). 13B) is possible only when it is empty, and cannot be extended when the shooting operation is performed in the shooting space 32 and the other editing interface is used.

なお、編集ユニット13の第2編集空間33B側の構成も、図6に示す第1編集空間33A側の構成と基本的に同様であるので、その説明については省略する。以下においては、図6に示す構成例は、編集ユニット13の第2編集空間33B側の構成を説明する場合にも適用される。   Note that the configuration of the editing unit 13 on the second editing space 33B side is basically the same as the configuration of the first editing space 33A side shown in FIG. In the following, the configuration example shown in FIG. 6 is also applied to the case where the configuration of the editing unit 13 on the second editing space 33B side is described.

図7は、編集ユニット13の、写真シール排出部13Cの構成例を示す図である。   FIG. 7 is a diagram illustrating a configuration example of the photo sticker discharge unit 13 </ b> C of the editing unit 13.

図7に示すように、写真シール排出部13Cには、第1編集空間33Aにおいて編集作業を行った利用者が作成した写真シール(つまり、第1編集インタフェース13Aが操作されて作成された写真シール)と、第2編集空間33Bにおいて編集作業を行った利用者が作成した写真シール(つまり、第2編集インタフェース13Bが操作されて作成された写真シール)が排出される写真シール排出口71が設けられている。   As shown in FIG. 7, the photo sticker discharging unit 13C has a photo sticker created by a user who has performed editing work in the first editing space 33A (that is, a photo sticker created by operating the first editing interface 13A). And a photo sticker discharge port 71 through which a photo sticker created by a user who has performed editing work in the second edit space 33B (that is, a photo sticker created by operating the second edit interface 13B) is discharged. It has been.

編集ユニット13内部には、プリンタが設置されており、第1編集インタフェース13Aまたは第2編集インタフェース13Bが操作されて作成された印刷用の画像は、そのプリンタによりシール紙に印刷される。プリンタより出力された写真シールは、この写真シール排出口71より排出される。   A printer is installed inside the editing unit 13, and a printing image created by operating the first editing interface 13A or the second editing interface 13B is printed on sticker paper by the printer. The photo sticker output from the printer is discharged from the photo sticker discharge port 71.

また、写真シール排出部13Cには、図示せぬスピーカが設けられるようにもできる。この図示せぬスピーカは、例えば、案内音声、効果音、またはBGM等、写真シールの印刷および排出に関する音声を出力する。   Further, a speaker (not shown) may be provided in the photo sticker discharge unit 13C. The speaker (not shown) outputs sound relating to printing and discharging of the photo sticker such as guidance sound, sound effect, or background music.

次に、写真シール作成装置1の内部の構成例について説明する。   Next, an internal configuration example of the photo sticker creating apparatus 1 will be described.

図8は、写真シール作成装置1の機能的構成例を示すブロック図である。以上において説明した部分と同じ部分については、同じ番号を付してある。   FIG. 8 is a block diagram illustrating a functional configuration example of the photo sticker creating apparatus 1. The same parts as those described above are denoted by the same reference numerals.

図8において、写真シール作成装置1は、写真シール作成装置1の装置全体を制御する処理部である制御部101を有しており、その制御部101には、記憶部102、通信部103、ドライブ104、ROM(Read Only Memory)106、RAM(Random Access Memory)107、撮影部112、編集部113、プリンタ114、外付けモニタ16、スピーカ17、およびタッチボタン18がそれぞれ所定のバスを介して接続される。   In FIG. 8, the photo sticker creating apparatus 1 includes a control unit 101 that is a processing unit that controls the entire apparatus of the photo sticker creating apparatus 1. The control unit 101 includes a storage unit 102, a communication unit 103, A drive 104, a ROM (Read Only Memory) 106, a RAM (Random Access Memory) 107, a photographing unit 112, an editing unit 113, a printer 114, an external monitor 16, a speaker 17, and a touch button 18 are respectively connected via predetermined buses. Connected.

記憶部102は、例えばハードディスクやフラッシュメモリ等のような不揮発性の記憶媒体を有しており、制御部101より供給される各種設定情報をその記憶媒体に保存したり、記憶媒体に記録されている設定情報を読み出して制御部101に供給したりする。なお、この記憶媒体は、情報を記憶することができるものであれば、どのようなものであってもよい。   The storage unit 102 has a non-volatile storage medium such as a hard disk or a flash memory, and stores various setting information supplied from the control unit 101 in the storage medium or is recorded in the storage medium. The setting information is read and supplied to the control unit 101. Note that this storage medium may be anything as long as it can store information.

通信部103は、例えばインターネットや公衆電話回線網等のような外部のネットワーク(図示せず)を介して、または単に通信ケーブル(図示せず)を介して、他の通信装置(図示せず)に接続され、制御部101に制御されて、例えば利用者の携帯型電話機などの携帯端末、利用者のパーソナルコンピュータ、または中央管理サーバ等のような他の通信装置と通信を行う。例えば、通信部103は、制御部101より通信信号として供給される送信信号を他の通信装置に送信したり、他の通信装置より供給された受信信号を通信信号として制御部101に供給したりする。   The communication unit 103 is connected to another communication device (not shown) via an external network (not shown) such as the Internet or a public telephone line network, or simply via a communication cable (not shown). And is controlled by the control unit 101 to communicate with another communication device such as a mobile terminal such as a user's mobile phone, a user's personal computer, or a central management server. For example, the communication unit 103 transmits a transmission signal supplied as a communication signal from the control unit 101 to another communication device, or supplies a reception signal supplied from another communication device to the control unit 101 as a communication signal. To do.

ドライブ104には、磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disc-Read Only Memory)、DVD(Digital Versatile Disc)を含む)、光磁気ディスク、および、半導体メモリなどのリムーバブルメディア105が適宜装着され、それらから読み出されたコンピュータプログラムやデータが、必要に応じて制御部101に供給され、記憶部102等に保存されたり、インストールされたりする。   The drive 104 includes a removable medium such as a magnetic disk (including a flexible disk), an optical disk (including a CD-ROM (Compact Disc-Read Only Memory), a DVD (Digital Versatile Disc)), a magneto-optical disk, and a semiconductor memory. The computer program and data read out from them are supplied to the control unit 101 as necessary, and stored in the storage unit 102 or installed.

ROM106には、制御部101において実行されるプログラムやデータが予め格納されており、ROM106は、制御部101の指示に基づいて、プログラムやデータを制御部101に供給する。RAM107は、制御部101が処理するデータやプログラムを一時的に保持する。   The ROM 106 stores programs and data executed by the control unit 101 in advance, and the ROM 106 supplies the programs and data to the control unit 101 based on instructions from the control unit 101. The RAM 107 temporarily holds data and programs processed by the control unit 101.

撮影部112は、撮影ユニット12に関するブロックであり、硬貨処理部121、背景カーテンユニット15、照明制御部122、カメラ51、タッチパネルモニタ52、およびスピーカ124を有する。   The imaging unit 112 is a block related to the imaging unit 12 and includes a coin processing unit 121, a background curtain unit 15, an illumination control unit 122, a camera 51, a touch panel monitor 52, and a speaker 124.

硬貨処理部121は、制御部101から入力される起動信号に応じて起動し、硬貨投入返却口55に硬貨が投入されると、利用者による写真シール作成装置1の代金支払いに関する処理(ゲーム参加受け付け等)を行い、起動信号を制御部101に供給する。制御部101は、この起動信号に応じて、課金処理や案内等をタッチパネルモニタ52およびスピーカ124に行わせる。   The coin processing unit 121 is activated in response to an activation signal input from the control unit 101. When a coin is inserted into the coin insertion / return port 55, a process related to payment for the photo sticker creation device 1 by the user (game participation) And the activation signal is supplied to the control unit 101. In response to the activation signal, the control unit 101 causes the touch panel monitor 52 and the speaker 124 to perform charging processing, guidance, and the like.

背景カーテンユニット15は、制御部101より供給される背景制御信号に基づいて、提供する背景の選択、すなわち、可動式の背景カーテンの上げ下ろし(展開や収納)等を行う。なお、この背景の選択は利用者が手動で行うようにしてもよい。   Based on the background control signal supplied from the control unit 101, the background curtain unit 15 selects a background to be provided, that is, raises and lowers (expands and stores) the movable background curtain. The background may be selected manually by the user.

照明制御部122は、制御部101より供給される照明制御信号に基づいて、乳白アクリル板53の背後に設置されている照明装置を点灯したり、消灯したりする。   Based on the illumination control signal supplied from the control unit 101, the illumination control unit 122 turns on or off the illumination device installed behind the milky acrylic plate 53.

カメラ51は、制御部101に制御されて、写真シール作成ゲームの撮影作業の工程において、撮影空間32内の利用者等を被写体として撮影を行う。例えば、カメラ51は、制御部101の制御の下、動画像を取りこみ、取り込まれた動画像データを制御部101に供給する。また、カメラ51は、制御部101より供給されるシャッタ制御信号に基づいて、メカシャッタを動作させる等して、撮影画像(静止画像)の取得を行い、取得した静止画像データを記憶部102に記憶させる。   The camera 51 is controlled by the control unit 101 to shoot a user or the like in the shooting space 32 as a subject in the shooting process of the photo sticker creation game. For example, the camera 51 captures a moving image under the control of the control unit 101 and supplies the captured moving image data to the control unit 101. In addition, the camera 51 acquires a captured image (still image) by operating a mechanical shutter based on a shutter control signal supplied from the control unit 101, and stores the acquired still image data in the storage unit 102. Let

タッチパネルモニタ52は、ライブビューモニタ123を備えて構成される。タッチパネルモニタ52のライブビューモニタ123は、制御部101より供給されるRGB信号に基づく画像(カメラ51によりリアルタイムに取り込まれている画像や、撮影画像を用いて作成された合成画像、GUI画像など)を表示する。また、タッチパネルモニタ52は、利用者が、自分自身の指等を用いてこのタッチパネルモニタ52にタップ(接触または近接)すると、その位置情報を制御部101に供給する。制御部101は、その位置情報を解析し、表示画像に対して利用者が入力した情報や指示を特定し、受け付ける。   The touch panel monitor 52 includes a live view monitor 123. The live view monitor 123 of the touch panel monitor 52 is an image based on RGB signals supplied from the control unit 101 (an image captured in real time by the camera 51, a composite image created using a captured image, a GUI image, or the like). Is displayed. Further, when the user taps (touches or approaches) the touch panel monitor 52 using his / her own finger or the like, the touch panel monitor 52 supplies the position information to the control unit 101. The control unit 101 analyzes the position information, identifies and accepts information and instructions input by the user with respect to the display image.

スピーカ124は、撮影ユニット12の任意の位置に設けられ、例えば、制御部101より供給される音声信号の音声(撮影作業の案内音声、効果音、またはBGM等)を出力する。   The speaker 124 is provided at an arbitrary position of the photographing unit 12 and outputs, for example, sound of a sound signal supplied from the control unit 101 (such as shooting work guidance sound, sound effect, or background music).

編集部113は、編集ユニット13に関するブロックであり、第1編集インタフェース13Aに対応する第1編集部113Aと、第2編集インタフェース13Bに対応する第2編集部113Bよりなる。第1編集部113Aおよび第2編集部113Bは互いに同一の構成を有しており、以下の説明は、第1編集部113Aについて行うが、第2編集部113Bにも適用可能である。   The editing unit 113 is a block related to the editing unit 13, and includes a first editing unit 113A corresponding to the first editing interface 13A and a second editing unit 113B corresponding to the second editing interface 13B. The first editing unit 113A and the second editing unit 113B have the same configuration, and the following description is given with respect to the first editing unit 113A, but is also applicable to the second editing unit 113B.

第1編集部113Aは、図6を参照して説明したように、タブレット内蔵モニタ62、タッチペン63−1およびタッチペン63−2、並びにスピーカ64に加えて、硬貨処理部130を有する。   As described with reference to FIG. 6, the first editing unit 113 </ b> A includes a coin processing unit 130 in addition to the tablet built-in monitor 62, the touch pen 63-1 and the touch pen 63-2, and the speaker 64.

タブレット内蔵モニタ62は、上述したように、CRTディスプレイやLCD等の表示デバイスよりなる編集用モニタ141と、編集用モニタ141の表示画面上に重畳された無色透明のタブレット142により構成される。タブレット内蔵モニタ62は、制御部101より供給されるRGB信号に対応する、編集入力用のGUIや撮影画像等、編集に関する画像を、編集用モニタ141に表示する。また、利用者が、タッチペン63−1またはタッチペン63−2を操作してタブレット142にタップすると、タブレット内蔵モニタ62は、その位置情報を表す信号を入力信号として制御部101に供給する。制御部101は、その入力信号が表す位置情報を解析し、表示画像に対して利用者が入力した情報や指示を特定し、受け付ける。つまり、撮影画像に対する編集入力は、これらの構成を用いて行われる。   As described above, the tablet built-in monitor 62 includes the editing monitor 141 made of a display device such as a CRT display or LCD, and the colorless and transparent tablet 142 superimposed on the display screen of the editing monitor 141. The tablet built-in monitor 62 displays on the editing monitor 141 an image relating to editing, such as an editing input GUI and a photographed image, corresponding to the RGB signal supplied from the control unit 101. When the user operates the touch pen 63-1 or the touch pen 63-2 and taps the tablet 142, the tablet built-in monitor 62 supplies a signal representing the position information to the control unit 101 as an input signal. The control unit 101 analyzes the position information represented by the input signal, specifies and accepts information and instructions input by the user with respect to the display image. That is, editing input for the captured image is performed using these configurations.

スピーカ64は、制御部101より供給される音声信号の音声(編集作業の案内音声、効果音、またはBGM等の、写真シール作成ゲームの編集作業の工程に関する音声)を出力する。   The speaker 64 outputs the sound of the sound signal supplied from the control unit 101 (editing work guide sound, sound effect, or sound related to the editing work process of the photo sticker creation game, such as BGM).

硬貨処理部130は、制御部101から入力される起動信号に応じて起動し、追加硬貨投入返却口65に硬貨が投入されると、利用者による写真シール作成装置1の代金支払いに関する処理(追加印刷の受け付け)を行い、起動信号を制御部101に供給する。制御部101は、この起動信号に応じて、追加印刷処理をプリンタ114に行わせる。   The coin processing unit 130 is activated in response to an activation signal input from the control unit 101. When a coin is inserted into the additional coin insertion / return port 65, a process related to payment for the photo sticker creation apparatus 1 by the user (additional) Print acceptance), and supplies an activation signal to the control unit 101. The control unit 101 causes the printer 114 to perform additional printing processing in response to the activation signal.

プリンタ114は、編集部113により行われた編集作業結果をシール紙に印刷する。プリンタ114は、制御部101より第1編集部113Aにより行われた編集作業結果を取得すると、シール紙ユニット161よりシール紙162を取得し、編集作業結果をシール紙162に印刷する。プリンタ114は、印刷を終了すると、その印刷されたシール紙162を写真シールとして写真シール排出口71より排出し、利用者に提供する。   The printer 114 prints the result of editing work performed by the editing unit 113 on sticker paper. When the printer 114 acquires the editing work result performed by the first editing unit 113 </ b> A from the control unit 101, the printer 114 acquires the sticker paper 162 from the sticker paper unit 161 and prints the editing work result on the sticker paper 162. When the printing is finished, the printer 114 discharges the printed sticker paper 162 as a photo sticker from the photo sticker discharge port 71 and provides it to the user.

外付けモニタ16は、制御部101より、撮影ユニット12内の撮影空間32で利用者の撮影が行われている旨の情報を取得すると、次に撮影空間を利用しようと待機している利用者に対して、撮影中の利用者のゲームの進行状況を示す映像を出力する。また、外付けモニタ16は、制御部101より、撮影ユニット12内の撮影空間32で利用者の撮影が行われている旨の情報を取得していない間は、写真シール作成ゲームの流れや遊び方等を案内(説明)するコンテンツ(デモンストレーション)を出力する。スピーカ17は、制御部101の制御の下、外付けモニタ16によって出力される映像やコンテンツに合わせた音声を出力する。   When the external monitor 16 obtains information from the control unit 101 that the user is shooting in the shooting space 32 in the shooting unit 12, the user who is waiting to use the shooting space next time. In contrast, a video showing the progress of the game of the user who is shooting is output. In addition, while the external monitor 16 does not acquire information indicating that the user is shooting in the shooting space 32 in the shooting unit 12 from the control unit 101, the flow of the photo sticker creation game and how to play Output contents (demonstration) to guide (explain) etc. Under the control of the control unit 101, the speaker 17 outputs audio that matches the video and content output from the external monitor 16.

また、外付けモニタ16は、制御部101より、タッチボタン18が利用者により操作された旨の情報を取得すると、出力している映像やコンテンツ等の内容を切り替えて出力する。   Further, when the external monitor 16 acquires information indicating that the touch button 18 has been operated by the user from the control unit 101, the external monitor 16 switches and outputs the contents of the output video, content, and the like.

タッチボタン18は、所定の利用者に操作(タッチ)されると、その操作内容を表す入力信号を制御部101に供給する。制御部101は、その入力信号が表す操作が受け付けられた旨の情報を外付けモニタ16に供給し、外付けモニタ16の表示内容を切り替えるように制御する。   When the touch button 18 is operated (touched) by a predetermined user, the touch button 18 supplies an input signal representing the operation content to the control unit 101. The control unit 101 supplies information indicating that the operation represented by the input signal has been received to the external monitor 16 and controls to switch the display content of the external monitor 16.

次に、制御部101について説明する。図9は、制御部101がROM106などに格納されているプログラムを実行することにより実現される機能ブロックの構成例を示している。   Next, the control unit 101 will be described. FIG. 9 shows an example of a functional block configuration realized by the control unit 101 executing a program stored in the ROM 106 or the like.

制御部101は、写真シール作成ゲームを開始する際に投入される代金(硬貨)に関する処理や、利用者を撮影する等の写真シール作成ゲームの撮影作業の工程に関する処理を行う撮影処理部202、撮影画像に対する落書き編集等の写真シール作成ゲームの編集作業の工程に関する処理を行う編集処理部203、シール紙の印刷等の写真シール作成ゲームの印刷の工程に関する処理を行う印刷処理部204、および、編集作業を終了した利用者を接客する写真シール作成ゲームの事後接客の工程に関する処理を行う事後接客処理部205を有する。   The control unit 101 is a shooting processing unit 202 that performs processing related to a price (coin) that is input when starting the photo sticker creation game, and processing related to a shooting work process of the photo sticker creation game such as shooting a user. An editing processing unit 203 that performs processing related to the editing work process of the photo sticker creation game such as graffiti editing on the photographed image, a printing processing unit 204 that performs processing related to the printing process of the photo sticker creation game such as printing of sticker paper, and The post-service processing unit 205 performs processing related to the post-service process of the photo sticker creation game that serves a user who has finished the editing work.

つまり、制御部101は、写真シール作成ゲームの各工程に関する処理の制御を行う。   That is, the control unit 101 controls processing relating to each process of the photo sticker creation game.

図10は、図9の撮影処理部202と、編集処理部203のさらに詳細な構成例を示す機能ブロック図である。   FIG. 10 is a functional block diagram illustrating a more detailed configuration example of the imaging processing unit 202 and the editing processing unit 203 of FIG.

図10の例において、撮影処理部202は、写真シール作成ゲームの撮影作業の工程における処理を行う処理部であり、例えば、代金投入を受け付けたり、利用者を撮影したり、各種のGUIを表示したりする処理を行う。   In the example of FIG. 10, the photographing processing unit 202 is a processing unit that performs processing in the photographing work process of the photo sticker creation game. For example, the photographing processing unit 202 accepts payment, photographs a user, and displays various GUIs. Process.

図10の例において、撮影処理部202は、進行制御部211、撮影準備処理部212、コース選択制御部213、合成用画像選択制御部214、ライブビュー表示制御部215、撮影画像取得部216、画像処理制御部217、および合成画像処理部218から構成される。   In the example of FIG. 10, the shooting processing unit 202 includes a progress control unit 211, a shooting preparation processing unit 212, a course selection control unit 213, a composition image selection control unit 214, a live view display control unit 215, a shot image acquisition unit 216, The image processing control unit 217 and the composite image processing unit 218 are configured.

進行制御部211は、撮影作業の工程の進行を制御する。   The progress control unit 211 controls the progress of the photographing work process.

撮影準備処理部212は、写りの調整や明るさの調整等、撮影の準備に関する処理を行う。   The shooting preparation processing unit 212 performs processing related to shooting preparation, such as adjustment of reflection and adjustment of brightness.

コース選択制御部213は、撮影作業における撮影コースの選択に関する処理を行う。   The course selection control unit 213 performs processing related to selection of a shooting course in shooting work.

合成用画像選択制御部214は、背景や前景などからなる合成用画像をタッチパネルモニタ52に表示して、利用者により行われる合成用画像の選択に関する処理を制御する。   The composition image selection control unit 214 displays a composition image including a background, a foreground, and the like on the touch panel monitor 52, and controls processing related to the composition image selection performed by the user.

ライブビュー表示制御部215は、タッチパネルモニタ52の表示(ライブビュー表示)に関する処理を行う。   The live view display control unit 215 performs processing related to display on the touch panel monitor 52 (live view display).

撮影画像取得部216は、撮影、特に、撮影画像の取得に関する処理を行う。   The captured image acquisition unit 216 performs processing related to imaging, particularly acquisition of captured images.

画像処理制御部217は、撮影コースに応じて、撮影画像に対する画像処理を行う。   The image processing control unit 217 performs image processing on the captured image according to the shooting course.

合成画像処理部218は、撮影画像の合成等の、合成画像の生成に関する処理を行う。   The composite image processing unit 218 performs processing related to generation of a composite image such as composite of captured images.

また、図10の例において、編集処理部203は、写真シール作成ゲームの編集作業の工程において、利用者による、撮影作業の工程において得られた撮影画像に対する落書き編集に関する処理を行う。   In the example of FIG. 10, the editing processing unit 203 performs a process related to graffiti editing on the captured image obtained in the shooting work process by the user in the editing work process of the photo sticker creation game.

例えば、編集処理部203は、各種のGUIを表示したり、利用者による落書き編集入力を受け付けたり、その落書き編集入力に応じた合成用画像を作成し、それを撮影画像に合成したりする。つまり、編集処理部203は、利用者に対して、撮影画像に対する落書き編集機能を提供する。この落書き編集機能として、どのような機能が提供されるようにしてもよいが、例えば、フリーハンドの線等で撮影画像に落書きを行う落書きペン機能や、所定の画像を撮影画像の任意の位置に合成するスタンプ機能等がある。   For example, the editing processing unit 203 displays various GUIs, accepts graffiti editing input by a user, creates a composition image corresponding to the graffiti editing input, and synthesizes it with a captured image. That is, the editing processing unit 203 provides a user with a doodle editing function for a captured image. Any function may be provided as the graffiti editing function. For example, a graffiti pen function for scribbling a photographed image with a freehand line, or a predetermined image at an arbitrary position of the photographed image. There is a stamp function to synthesize.

編集処理部203は、進行制御部231、編集準備処理部232、入力受付制御部233、編集画面表示制御部234、および落書き編集処理部235から構成される。   The editing processing unit 203 includes a progress control unit 231, an editing preparation processing unit 232, an input reception control unit 233, an editing screen display control unit 234, and a graffiti editing processing unit 235.

進行制御部231は、編集作業の工程の進行を制御する。   The progress control unit 231 controls the progress of the editing work process.

編集準備処理部232は、編集対象画像の選択等、編集の準備に関する処理を行う。   The editing preparation processing unit 232 performs processing related to editing preparation, such as selection of an image to be edited.

入力受付制御部233は、タブレット142を制御し、編集用モニタ141に表示される各種のGUIに対して利用者により行われる操作入力を受け付ける処理を行う。   The input reception control unit 233 controls the tablet 142 and performs a process of receiving operation input performed by the user with respect to various GUIs displayed on the editing monitor 141.

編集画面表示制御部234は、編集用モニタ141に表示される編集画面の表示や、その編集画面上における各種のGUIの表示に関する処理を行う。   The editing screen display control unit 234 performs processing related to display of the editing screen displayed on the editing monitor 141 and various GUI displays on the editing screen.

落書き編集処理部235は、利用者によるタッチペン63を用いた入力操作に応じて、編集画像に対して落書き編集に関する処理を行う。   The graffiti editing processing unit 235 performs processing related to graffiti editing on the edited image in response to an input operation using the touch pen 63 by the user.

次に、写真シール作成装置1で行われる写真シール作成ゲームの流れについて、図11のフローチャートを参照して説明する。   Next, the flow of the photo sticker creating game performed in the photo sticker creating apparatus 1 will be described with reference to the flowchart of FIG.

ステップS1においては、すなわち、撮影空間32において写真シール作成ゲームが行われていない間は、制御部101の撮影処理部202は、タッチパネルモニタ52にデモンストレーション画面を表示させる処理を行う。   In step S <b> 1, that is, while the photo sticker creation game is not performed in the shooting space 32, the shooting processing unit 202 of the control unit 101 performs a process of displaying a demonstration screen on the touch panel monitor 52.

写真シール作成ゲームを行う利用者は、最初に、前方ユニット12Aの硬貨投入返却口55にコインを投入し、ゲームの代金を支払う。硬貨処理部121は、このような硬貨投入を受け付け、起動信号を制御部101に供給する。撮影処理部202は、ステップS2において、その起動信号に基づいて、代金が投入されたか否かを判定し、正当な代金が投入されたと判定した場合、処理をステップS2に進める。なお、利用者により、コインが投入されるまでは、撮影処理部202は、タッチパネルモニタ52にデモンストレーション画面を表示させる処理を継続して行う。   A user who performs a photo sticker creation game first inserts coins into the coin insertion / return slot 55 of the front unit 12A and pays for the game. The coin processing unit 121 accepts such coin insertion and supplies an activation signal to the control unit 101. In step S <b> 2, the imaging processing unit 202 determines whether or not a price has been inserted based on the activation signal, and proceeds to step S <b> 2 when determining that a valid price has been inserted. Note that until the user inserts a coin, the imaging processing unit 202 continuously performs a process of displaying a demonstration screen on the touch panel monitor 52.

ステップS3において、撮影処理部202は、撮影部112の各部を制御し、撮影空間32内において行われる、写真シール作成ゲームの撮影作業に関する処理である撮影処理を実行する。   In step S <b> 3, the shooting processing unit 202 controls each unit of the shooting unit 112, and executes shooting processing that is processing related to shooting work of the photo sticker creation game performed in the shooting space 32.

撮影処理において、撮影処理部202は、撮影した被写体の画像に背景または前景として合成表示する画像である合成用画像を利用者に選択させ、撮影した被写体の画像と、利用者により選択された合成用画像とを合成して得られる撮影画像を、編集処理部203に供給する。また、撮影処理部202は、利用者に撮影コースを選択させ、選択された撮影コースに応じた画像処理を、撮影画像に対して行う。撮影処理の詳細については図12などを参照して後述するが、撮影処理により、複数枚(例えば6枚など)の撮影画像が得られる。   In the photographing process, the photographing processing unit 202 causes the user to select a composition image that is an image to be displayed as a background or foreground on the photographed subject image, and the photographed subject image and the composition selected by the user. A captured image obtained by combining the image for use is supplied to the edit processing unit 203. In addition, the photographing processing unit 202 causes the user to select a photographing course, and performs image processing on the photographed image according to the selected photographing course. The details of the photographing process will be described later with reference to FIG. 12 and the like, but a plurality of (for example, six) photographed images are obtained by the photographing process.

撮影作業が終了すると、撮影処理部202は、ステップS4において、撮影作業を終えた撮影空間32内の利用者に対して、画像や音声によって編集空間33(第1編集空間33Aまたは第2編集空間33B)への移動を促す移動案内を行う。   When the shooting operation is completed, in step S4, the shooting processing unit 202 gives the editing space 33 (the first editing space 33A or the second editing space) to the user in the shooting space 32 who has finished the shooting operation by an image or a sound. 33B) is provided to guide the movement.

編集処理部203は、ステップS5において、編集空間33に移動した利用者に、撮影処理で得られた複数枚(例えば6枚など)の撮影画像に対して編集入力を行わせる編集処理を行う。編集処理の詳細については図25などを参照して後述する。   In step S5, the editing processing unit 203 performs an editing process in which the user who has moved to the editing space 33 performs editing input on a plurality of (for example, six) photographed images obtained by the photographing process. Details of the editing process will be described later with reference to FIG.

編集作業が終了すると、ステップS6において、印刷処理部204は、プリンタ114を制御し、編集作業により得られた編集済み画像を、標準代金に対応する枚数だけシール紙162に印刷する印刷処理を行う。   When the editing operation is completed, in step S6, the print processing unit 204 controls the printer 114 to perform a printing process for printing the edited image obtained by the editing operation on the sticker sheet 162 by the number corresponding to the standard price. .

ステップS7において、印刷処理部204は、追加印刷が利用者により選択されたか否かを判定する。写真シール作成装置1では、追加印刷用の代金を支払うことにより、通常の印刷枚数よりも所定枚数だけ多い枚数の印刷を行うことができるようになっており、ステップS7では、追加印刷が利用者により選択され、追加印刷用の代金が支払われたか否かが判定される。なお、追加印刷の選択は、編集処理の処理内で、追加硬貨投入返却口65に対して追加印刷用の代金を利用者が支払うことで行わせることができる。   In step S7, the print processing unit 204 determines whether additional printing has been selected by the user. In the photo sticker creating apparatus 1, by paying the price for additional printing, it is possible to perform printing of a predetermined number of sheets more than the normal printing number. In step S7, the additional printing is performed by the user. It is determined whether or not the price for additional printing has been paid. In addition, selection of additional printing can be performed by the user paying the price for additional printing with respect to the additional coin insertion / return port 65 in the process of an edit process.

ステップS7で、追加印刷が選択されなかったと判定された場合、印刷処理部204は、ステップS8をスキップして処理をステップS9に進める。一方、ステップS7で、追加印刷が選択されたと判定された場合、印刷処理部204は、ステップS8において、追加印刷分の枚数の印刷を行う追加印刷処理を行う。   If it is determined in step S7 that additional printing has not been selected, the print processing unit 204 skips step S8 and advances the process to step S9. On the other hand, if it is determined in step S7 that additional printing has been selected, the print processing unit 204 performs additional printing processing for printing the number of additional printings in step S8.

ステップS9において、事後接客処理部205は、印刷終了待機中の利用者に対して、編集済み画像を投稿するミニゲームや携帯端末などに編集済み画像を転送するサービスを提供する事後接客処理を行う。そして事後接客処理が終了すると、ステップS10において、事後接客処理部205は、編集空間33にいる利用者を印刷物受取領域34に移動させる移動案内を行う。また、印刷処理が終了すると、ステップS11において、印刷処理部204は、プリンタ114を制御し、印刷済みのシール紙162を写真シール排出口71より排出させ、写真シール作成ゲーム処理を終了する。   In step S <b> 9, the post-service processing unit 205 performs post-service processing that provides a service for transferring the edited image to a mini game or a mobile terminal that posts the edited image for a user who is waiting for completion of printing. . When the post-service processing is completed, in step S10, the post-service processing unit 205 performs movement guidance for moving the user in the editing space 33 to the printed material receiving area 34. When the printing process is completed, in step S11, the print processing unit 204 controls the printer 114 to discharge the printed sticker sheet 162 from the photo sticker discharge port 71, and the photo sticker creation game process is ended.

以上のような流れにより、写真シール作成ゲームは行われる。   The photo sticker creation game is performed according to the above flow.

次に、図12のフローチャートを参照して、図11のステップS3において実行される撮影処理の詳細な流れを説明する。なお、撮影処理では、上述したように、最終的に例えば6枚の撮影画像が編集処理対象として決定される。   Next, the detailed flow of the photographing process executed in step S3 of FIG. 11 will be described with reference to the flowchart of FIG. In the photographing process, as described above, for example, six photographed images are finally determined as editing processing targets.

ステップS21において、撮影処理部202のコース選択制御部213は、タッチパネルモニタ52に、撮影コース選択画面を表示させ、利用者に撮影コースを選択させる。例えば、利用者は、撮影コース選択画面に設けられたGUIボタン(例えば、「カップルコース」ボタンおよび「フレンドコース」ボタン)のいずれかを選択(例えば、ボタン上をタップ)し、撮影コースの選択指示を入力する。後述するように、撮影コースには、利用者の属性(例えば、利用者の間柄)に関するコースとして、例えば、カップルコースとフレンドコースとがある。カップルコースは、特に、男女2人組の利用者向けの撮影処理が行われる撮影コースであり、フレンドコースは、同性2人組や3人以上のグループの利用者向けの撮影処理が行われる撮影コースである。   In step S21, the course selection control unit 213 of the shooting processing unit 202 displays a shooting course selection screen on the touch panel monitor 52, and allows the user to select a shooting course. For example, the user selects one of the GUI buttons (for example, the “couple course” button and the “friend course” button) provided on the shooting course selection screen (for example, taps on the button), and selects the shooting course. Enter instructions. As will be described later, the shooting course includes, for example, a couple course and a friend course as courses relating to user attributes (for example, user relations). The couple course is a shooting course in which shooting processing is performed especially for users of two men and women, and the friend course is a shooting course in which shooting processing is performed for users of the same sex two-person group or three or more groups. is there.

撮影コース選択画面が表示されると、コース選択制御部213は、ステップS22において、利用者によりカップルコースが選択されたか否かを判定し、選択されたと判定した場合、ステップS23に処理を進める。ステップS23において、撮影処理部202は、カップルコース撮影処理を行う。カップルコース撮影処理の詳細は後述する。   When the shooting course selection screen is displayed, the course selection control unit 213 determines whether or not a couple course has been selected by the user in step S22. If it is determined that the couple course has been selected, the process proceeds to step S23. In step S23, the photographing processing unit 202 performs a couple course photographing process. Details of the couple course shooting process will be described later.

また、ステップS22において、カップルコースが選択されていないと判定された場合、すなわち、利用者により、フレンドコースが選択された場合、コース選択制御部213は、処理をステップS24に進め、撮影処理部202は、フレンドコース撮影処理を行う。フレンドコース撮影処理の詳細は後述する。   If it is determined in step S22 that the couple course has not been selected, that is, if the friend course has been selected by the user, the course selection control unit 213 advances the process to step S24, and the photographing processing unit. 202 performs a friend course photographing process. Details of the friend course shooting process will be described later.

ステップS23またはステップS24の処理が終了すると、撮影処理は終了され、処理は、図11のステップS3に戻り、ステップS3以降の処理が実行される。   When the process of step S23 or step S24 ends, the imaging process ends, the process returns to step S3 in FIG. 11, and the processes after step S3 are executed.

次に、図13および図14のフローチャートを参照して、図12のステップS23において実行されるカップルコース撮影処理の詳細な流れを説明する。   Next, a detailed flow of the couple course photographing process executed in step S23 of FIG. 12 will be described with reference to the flowcharts of FIGS.

カップルコース撮影処理が開始されると、ステップS31において、撮影準備処理部212は、明るさが選択されたか否かを判定する。このとき、例えば、撮影画像の明るさを設定入力するための設定画面(GUI)がタッチパネルモニタ52に表示され、撮影準備処理部212は、その設定画面を操作する利用者より指示される、撮影画像の明るさの指示を受け付ける。   When the couple course shooting process is started, in step S31, the shooting preparation processing unit 212 determines whether or not brightness is selected. At this time, for example, a setting screen (GUI) for setting and inputting the brightness of the photographed image is displayed on the touch panel monitor 52, and the photographing preparation processing unit 212 is instructed by a user who operates the setting screen. An image brightness instruction is accepted.

ステップS31において、明るさが選択されたと判定された場合、ステップS33において、撮影準備処理部212は、ステップS31で選択されたと判定された明るさに対応する撮影画像(取り込み画像)の明るさの調整を行う。この調整が終了すると、処理はステップS34に進む。   If it is determined in step S31 that the brightness has been selected, in step S33, the shooting preparation processing unit 212 determines the brightness of the captured image (captured image) corresponding to the brightness determined to be selected in step S31. Make adjustments. When this adjustment ends, the process proceeds to step S34.

一方、ステップS31において、明るさが選択されなかったと判定された場合、撮影準備処理部212は、ステップS32において、デフォルトの明るさを設定し、ステップS33において、デフォルトの明るさに対応する撮影画像(取り込み画像)の明るさ調整を行う。   On the other hand, if it is determined in step S31 that no brightness has been selected, the shooting preparation processing unit 212 sets a default brightness in step S32, and in step S33, a shot image corresponding to the default brightness. Adjust the brightness of the (captured image).

ステップS34において、コース選択制御部213は、撮影画像に対して行われる画像処理の種類を選択させるための選択画面(GUI)を、タッチパネルモニタ52に表示する。   In step S <b> 34, the course selection control unit 213 displays a selection screen (GUI) on the touch panel monitor 52 for selecting the type of image processing performed on the captured image.

この画像処理の種類を選択させる選択画面としては、例えば、図15に示す性別選択画面が表示される。   As a selection screen for selecting the type of image processing, for example, a gender selection screen shown in FIG. 15 is displayed.

図15に示されるように、性別選択画面301は、主な構成が、一部を除き左右に2つずつ設けられている。これは、基本的に同じ組(カップル)の2名の利用者が同時に性別の選択入力を行うことができるようにするものである。   As shown in FIG. 15, the gender selection screen 301 is provided with two main configurations on the left and right except for a part. This basically allows two users of the same group (couple) to select and input gender at the same time.

性別選択画面301の中央には、ライブビュー画像表示部311が設けられている。ライブビュー画像表示部311においては、カメラ51からの、被写体Aおよび被写体Bの取り込み画像(以下、ライブビュー画像ともいう)が表示されている。また、ライブビュー画像表示部311においては、被写体Aおよび被写体Bの顔の位置が認識され、認識された被写体Aおよび被写体Bの顔の範囲(領域)を示す枠321Aおよび321Bが、ライブビュー画像に重畳されて表示されている。   A live view image display unit 311 is provided in the center of the sex selection screen 301. In the live view image display unit 311, captured images of the subject A and the subject B from the camera 51 (hereinafter also referred to as a live view image) are displayed. In the live view image display unit 311, the positions of the faces of the subject A and the subject B are recognized, and frames 321A and 321B indicating the recognized face ranges (areas) of the subject A and the subject B are live view images. Is superimposed on the screen.

また、性別選択画面301において、ライブビュー画像表示部311の左側には、男女選択ボタン312−1およびサンプル画像表示部313−1が、ライブビュー画像表示部311の右側には、男女選択ボタン312−2およびサンプル画像表示部313−2が、それぞれ設けられている。   In the gender selection screen 301, a gender selection button 312-1 and a sample image display unit 313-1 are on the left side of the live view image display unit 311, and a gender selection button 312 is on the right side of the live view image display unit 311. -2 and a sample image display unit 313-2 are provided.

以下において、男女選択ボタン312−1と男女選択ボタン312−2、および、サンプル画像表示部313−1とサンプル画像表示部313−2を互いに区別して説明する必要の無い場合、それぞれ男女選択ボタン312およびサンプル画像表示部313と称する。   In the following, when there is no need to separately explain the gender selection button 312-1 and the gender selection button 312-2, and the sample image display unit 313-1 and the sample image display unit 313-2, respectively, the gender selection button 312 is selected. And a sample image display unit 313.

男女選択ボタン312は、「男の子」ボタンおよび「女の子」ボタンから構成され、そのいずれかが、すなわち性別が、利用者に選択されることにより、撮影の結果得られる撮影画像における、選択した利用者に対応する被写体の顔の領域に対して施される画像処理の種類が決定される。   The gender selection button 312 includes a “boy” button and a “girl” button, and one of them, that is, the gender is selected by the user, and the selected user in the photographed image obtained as a result of photographing. The type of image processing to be performed on the face area of the subject corresponding to is determined.

サンプル画像表示部313には、男女選択ボタン312により性別が選択されると、その時のライブビュー画像から抽出された静止画像における、男女選択ボタン312を選択した利用者に対応する被写体の顔の領域が抽出され、選択された性別に対応した画像処理が施された顔画像が、サンプル画像として表示される。   In the sample image display unit 313, when gender is selected by the gender selection button 312, the face area of the subject corresponding to the user who has selected the gender selection button 312 in the still image extracted from the live view image at that time Is extracted, and a face image that has been subjected to image processing corresponding to the selected gender is displayed as a sample image.

また、性別選択画面301の右上部には、撮影作業に予め割り当てられた制限時間の残り時間(残時間)を表示する残時間表示部314が設けられている。さらに、性別選択画面301の上部には、2名の利用者それぞれに、男女選択ボタン312による性別の選択を促すメッセージ「それぞれの性別を選択してね!選択した性別での処理画像が表示されるよ!」が表示されている。   In addition, a remaining time display unit 314 that displays the remaining time (remaining time) of the time limit allocated in advance to the photographing work is provided in the upper right part of the sex selection screen 301. Further, at the top of the gender selection screen 301, a message prompting each of the two users to select a gender with the gender selection button 312 “Select each gender! Processed image for the selected gender is displayed. Is displayed!

すなわち、カップルコース撮影処理においては、撮影画像に対して行われる画像処理として、選択された性別に応じた画像処理(男性用画像処理または女性用画像処理)が行われる。ここで、男性用画像処理は、例えば、被写体の顔画像に対して、肌の色を日焼けしたように茶色くしたり、顔の輪郭を細くする処理とされ、女の子用画像処理は、例えば、被写体の顔画像に対して、肌の色を白くしたり、目の大きさを大きくする処理とされる。なお、性別として男性が選択された場合には、男性用画像処理が行われるようにしたが、いずれの画像処理も行われないようにしてもよい。これにより、利用者に男性が含まれる場合には、男性である被写体の顔がよりリアルな撮影画像が取得されるようになる。   That is, in the couple course photographing process, as the image process performed on the photographed image, the image process (male image process or female image process) corresponding to the selected gender is performed. Here, the image processing for men is, for example, a process of making the skin color brown like tanned or a facial outline on the face image of the subject, and the image processing for girls is, for example, the subject In the face image, the skin color is whitened or the eye size is increased. Note that, when male is selected as the gender, the male image processing is performed, but any image processing may not be performed. As a result, when the user includes a male, a more realistic photographed image of the face of the subject that is a male is acquired.

図13のフローチャートに戻り、ステップS35において、コース選択制御部213は、ステップS34の処理で表示された性別選択画面301における、利用者による男女別の画像処理の選択、すなわち、性別の選択を受け付ける。   Returning to the flowchart of FIG. 13, in step S <b> 35, the course selection control unit 213 accepts selection of gender-specific image processing by the user on the gender selection screen 301 displayed in step S <b> 34, that is, gender selection. .

ステップS36において、コース選択制御部213は、ステップS35において受け付けた利用者による選択に応じた画像処理が施されたサンプル画像を表示する。   In step S36, the course selection control unit 213 displays a sample image that has been subjected to image processing in accordance with the selection received by the user received in step S35.

すなわち、図15Aに示される性別選択画面301において、被写体Aに対応する利用者によって男女選択ボタン312−1の「男の子」ボタンが選択され、被写体Bに対応する利用者によって男女選択ボタン312−2の「女の子」ボタンが選択されると、図15Bに示されるように、男女選択ボタン312−1の「男の子」ボタンが強調表示されるとともに、男女選択ボタン312−2の「女の子」ボタンが強調表示される。また、サンプル画像表示部313−1には、ライブビュー画像から抽出された静止画像における被写体Aの顔の領域を抽出した顔画像に対して、男性用画像処理を施した顔画像(被写体A’)が表示され、サンプル画像表示部313−2には、ライブビュー画像から抽出された静止画像における被写体Bの顔の領域を抽出した顔画像に対して、女性用画像処理を施した顔画像(被写体B’)が表示される。   That is, on the gender selection screen 301 shown in FIG. 15A, the “boy” button of the gender selection button 312-1 is selected by the user corresponding to the subject A, and the gender selection button 312-2 is selected by the user corresponding to the subject B. When the “Girl” button is selected, as shown in FIG. 15B, the “boy” button of the gender selection button 312-1 is highlighted and the “girl” button of the gender selection button 312-2 is highlighted. Is displayed. Further, the sample image display unit 313-1 includes a face image (subject A ′) obtained by performing image processing for men on the face image obtained by extracting the face area of the subject A in the still image extracted from the live view image. ) Is displayed on the sample image display unit 313-2, the face image obtained by performing image processing for women on the face image obtained by extracting the face area of the subject B in the still image extracted from the live view image (). Subject B ′) is displayed.

これにより、利用者は、画像処理が施された後の撮影画像をイメージすることができる。   Thereby, the user can image the captured image after the image processing is performed.

なお、図15の性別選択画面301においては、サンプル画像表示部313に、選択された性別に対応した画像処理が施された顔画像が、サンプル画像として表示されるようにしたが、図16に示されるように、性別選択画面301において、サンプル画像表示部313を設けずに、選択された性別に対応した画像処理が施された顔画像(サンプル画像)を表示させないようにしてもよい。この場合、図13のフローチャートのステップS36における処理は省略される。これにより、利用者は、画像処理が施された後の撮影画像を楽しみにしながら、撮影作業を行うことができるようになる。   In the gender selection screen 301 of FIG. 15, the sample image display unit 313 displays a face image that has been subjected to image processing corresponding to the selected gender as a sample image. As shown in the figure, on the gender selection screen 301, the sample image display unit 313 may not be provided, and a face image (sample image) subjected to image processing corresponding to the selected gender may not be displayed. In this case, the process in step S36 in the flowchart of FIG. 13 is omitted. As a result, the user can perform a photographing operation while looking forward to the photographed image after the image processing.

図13のフローチャートに戻り、ステップS37において、合成用画像選択制御部214は、予め用意されている、撮影画像に合成される前景や背景の画像である撮影用合成用画像を選択させるための撮影用合成用画像選択画面(GUI)を、タッチパネルモニタ52に表示する。ここで、撮影用合成用画像選択画面には、カップルコースに応じた撮影用合成用画像が表示され、選択されるようにしてもよい。   Returning to the flowchart of FIG. 13, in step S <b> 37, the compositing image selection control unit 214 performs shooting for selecting a shooting compositing image that is a foreground or background image to be combined with the captured image. A composite image selection screen (GUI) is displayed on the touch panel monitor 52. Here, on the photographic composition image selection screen, a photographic composition image corresponding to the couple course may be displayed and selected.

ステップS38において、合成用画像選択制御部214は、ステップS37の処理で表示された撮影用合成用画像の中から、利用者による撮影用合成用画像の選択を、最終的に得られる撮影画像の枚数(例えば6枚)分だけ受け付ける。   In step S38, the compositing image selection control unit 214 selects a photographic compositing image from the photographic compositing images displayed in the process of step S37. Only the number of sheets (for example, 6 sheets) is accepted.

ここで、図15で説明した性別選択画面301において選択された性別に応じて、撮影用合成用画像の選択が受け付けられるようにしてもよい。具体的には、例えば、選択された性別に男性が含まれている場合、1枚ずつの撮影用合成用画像の選択を受け付けるのではなく、複数枚(例えば2枚ずつ)の撮影用合成用画像の選択を受け付けるようにしてもよい。これにより、写真シール作成ゲームにあまり慣れていない男性の利用者にとって、撮影時の操作を簡単にすることができるようになる。また、選択された性別が男性と女性である場合、複数枚(例えば6枚)がセットになっているカップル専用の撮影用合成用画像の選択を受け付けるようにしてもよい。これにより、撮影用合成用画像の選択が1回で済み、撮影時の操作をより簡単にすることができるようになる。   Here, according to the sex selected on the sex selection screen 301 described with reference to FIG. Specifically, for example, when a male is included in the selected gender, the selection of a single image for image composition is not accepted, but a plurality of images (for example, two images) for image composition You may make it receive selection of an image. As a result, for a male user who is not so familiar with the photo sticker creation game, the operation at the time of shooting can be simplified. In addition, when the selected gender is male and female, selection of a composite image for photographing exclusive for a couple in which a plurality (for example, 6) is set may be accepted. As a result, it is only necessary to select the image for composition for photographing once, and the operation at the time of photographing can be simplified.

さらに、選択された性別に応じて、撮影処理中に撮影空間内に流れるBGM(Back Ground Music)や、タッチパネルモニタ52に表示されているライブビュー画像の背景色等が変更されるようにしてもよい。   Furthermore, according to the selected gender, BGM (Back Ground Music) flowing in the shooting space during the shooting process, the background color of the live view image displayed on the touch panel monitor 52, or the like may be changed. Good.

ステップS39において、ライブビュー表示制御部215は、撮影用合成用画像とカメラ51の取り込み画像を合成し、タッチパネルモニタ52に表示(ライブビュー表示)する。ここで、ステップS37において、カップルコースに応じた撮影用合成用画像が選択された場合、タッチパネルモニタ52には、カップルコースに応じた撮影用合成用画像が合成された取り込み画像がライブビュー表示されるようになる。ライブビュー表示処理の詳細については後述する。   In step S39, the live view display control unit 215 synthesizes the photographic composition image and the captured image of the camera 51 and displays them on the touch panel monitor 52 (live view display). Here, when a shooting composition image corresponding to the couple course is selected in step S37, a captured image obtained by combining the shooting composition image corresponding to the couple course is displayed on the touch panel monitor 52 in a live view. Become so. Details of the live view display process will be described later.

ステップS40において、撮影画像取得部216は、タッチパネルモニタ52等にカウントダウンインジケータを表示し、カメラ51を制御して撮影を行い、撮影画像を得る。   In step S40, the captured image acquisition unit 216 displays a countdown indicator on the touch panel monitor 52 or the like, controls the camera 51 to perform imaging, and obtains a captured image.

ステップS41において、画像処理制御部217は、ステップS40において得られた撮影画像における被写体それぞれに対して、ステップS35において選択された画像処理を行う。すなわち、撮影画像において、被写体Aの顔の領域に対しては、男性用画像処理が施され、被写体Bの顔の領域に対しては、女性用画像処理が施される。   In step S41, the image processing control unit 217 performs the image processing selected in step S35 on each subject in the captured image obtained in step S40. That is, in the photographed image, the male image process is performed on the face area of the subject A, and the female image process is performed on the face area of the subject B.

ステップS42において、合成画像処理部218は、画像処理が行われた撮影画像に撮影用合成用画像を合成し、合成画像を生成する。さらに、合成画像処理部218は、ステップS43において、生成した合成画像をタッチパネルモニタ52等に表示し、利用者に合成画像(撮影結果)を確認させる。   In step S42, the composite image processing unit 218 combines the photographic composite image with the captured image that has been subjected to the image processing, and generates a composite image. Further, in step S43, the composite image processing unit 218 displays the generated composite image on the touch panel monitor 52 or the like, and allows the user to check the composite image (photographing result).

ステップS44において、進行処理部211は、所定回数撮影したか否かを判定し、撮影枚数が予め定められている所定回数に達していない場合、処理は、ステップS39に戻り、それ以降の処理が繰り返される。例えば、撮影用合成用画像選択画面により選択された合成用画像のそれぞれと合成する撮影画像を得るための撮影が行われ、合計6回の撮影が行われた場合、ステップS44において所定回数撮影したと判定される。   In step S44, the progress processing unit 211 determines whether or not shooting has been performed a predetermined number of times. If the number of shots has not reached the predetermined number of times, the process returns to step S39, and the subsequent processing is performed. Repeated. For example, when shooting for obtaining a shot image to be combined with each of the synthesis images selected on the shooting synthesis image selection screen is performed and a total of six shootings are performed, the shooting is performed a predetermined number of times in step S44. It is determined.

ステップS44において、所定回数撮影したと判定された場合、処理は、図14のステップS45に進む。   If it is determined in step S44 that the image has been shot a predetermined number of times, the process proceeds to step S45 in FIG.

図14のステップS45において、進行制御部211は、撮影可能時間内か否かを判定し、経過時間または残り時間に基づいて、また撮影可能か否かを判定する。ステップS45において、撮影可能であると判定された場合、処理は、ステップS46に進み、追加的な撮影、いわゆる「ボーナス撮影」の処理が行われる。   In step S45 of FIG. 14, the progress control unit 211 determines whether or not it is within the shootable time, and determines whether or not shooting is possible based on the elapsed time or the remaining time. If it is determined in step S45 that shooting is possible, the process proceeds to step S46, where additional shooting, so-called “bonus shooting” is performed.

ステップS46において、進行制御部211は、ボーナス撮影を案内するためのボーナス撮影用案内画面をタッチパネルモニタ52等に表示し、利用者にボーナス撮影の概要を確認させる。   In step S46, the progress control unit 211 displays a bonus shooting guide screen for guiding the bonus shooting on the touch panel monitor 52 or the like, and allows the user to check the outline of the bonus shooting.

ステップS47において、合成用画像選択制御部214は、図13のステップS37と同様に、撮影用合成用画像選択画面をタッチパネルモニタ52に表示し、ステップS48において、ステップS38と同様に、利用者による撮影用合成用画像の選択を受け付ける。   In step S47, the compositing image selection control unit 214 displays the shooting compositing image selection screen on the touch panel monitor 52 in the same manner as in step S37 in FIG. 13, and in step S48, the user performs the same as in step S38. The selection of a composite image for shooting is accepted.

ステップS49において、ライブビュー表示制御部215は、ステップS39と同様に、合成用画像とカメラ51の取り込み画像を合成し、タッチパネルモニタ52に表示(ライブビュー表示)する。   In step S49, as in step S39, the live view display control unit 215 synthesizes the synthesis image and the captured image of the camera 51, and displays them on the touch panel monitor 52 (live view display).

ステップS50において、撮影画像取得部216は、追加的な撮影であるボーナス撮影を行う。このボーナス撮影も上述した通常の撮影と同様に行われる。つまり、撮影画像取得部216は、ステップS40と同様に、タッチパネルモニタ52等にカウントダウンインジケータを表示し、カメラ51を制御して撮影を行い、撮影画像を得る。   In step S50, the captured image acquisition unit 216 performs bonus shooting, which is additional shooting. This bonus shooting is also performed in the same manner as the normal shooting described above. That is, the captured image acquisition unit 216 displays a countdown indicator on the touch panel monitor 52 or the like, controls the camera 51, and acquires a captured image, similarly to step S40.

ステップS51において、画像処理制御部217は、ステップS41と同様に、ステップS50において得られた撮影画像における被写体それぞれに対して、ステップS35において選択された画像処理を行う。   In step S51, the image processing control unit 217 performs the image processing selected in step S35 on each subject in the photographed image obtained in step S50, similarly to step S41.

ステップS52において、合成画像処理部218は、ステップS42と同様に、撮影により得られた撮影画像に撮影用合成用画像を合成し、合成画像を生成する。   In step S52, similarly to step S42, the composite image processing unit 218 generates a composite image by synthesizing the shooting composite image with the shot image obtained by shooting.

ステップS53において、合成画像処理部218は、ステップS43と同様に、合成画像を、タッチパネルモニタ52に表示し、利用者に撮影結果を確認させる。   In step S53, the composite image processing unit 218 displays the composite image on the touch panel monitor 52 in the same manner as in step S43, and allows the user to check the photographing result.

ステップS54において、進行制御部211は、所定時間経過したか否かを判定し、まだ撮影可能である場合、処理は、ステップS47に戻り、それ以降の処理が繰り返され、ボーナス撮影が再度行われる。   In step S54, the progress control unit 211 determines whether or not a predetermined time has elapsed. If the photographing is still possible, the process returns to step S47, the subsequent processing is repeated, and bonus photographing is performed again. .

一方、ステップS54において、所定時間経過したと判定された場合、処理は、ステップS55に進む。また、先に述べたステップS45において、撮影可能時間内ではないと判定された場合も、ボーナス撮影が行われないため、ステップS46乃至ステップS54をスキップして、処理は、ステップS55に進む。   On the other hand, if it is determined in step S54 that the predetermined time has elapsed, the process proceeds to step S55. Even if it is determined in step S45 described above that the time is not within the shootable time, since bonus shooting is not performed, step S46 to step S54 are skipped, and the process proceeds to step S55.

ステップS55において、合成画像処理部218は、これまでに生成された合成画像を、タッチパネルモニタ52に表示させることで、それら複数枚(例えば6枚)の撮影画像を編集対象用画像として、撮影処理において、カップルコースが選択されたことを示す撮影情報とともに、記憶部102に記憶させる。なお、ボーナス撮影が行われた場合には、合成画像処理部218は、利用者に、複数枚(例えば6枚)の撮影画像とボーナス撮影による撮影画像の中から、複数枚(例えば6枚)の編集対象用画像を選択させ、選択された撮影画像を、カップルコースが選択されたことを示す撮影情報とともに、記憶部102に記憶させる。   In step S <b> 55, the composite image processing unit 218 displays the composite image generated so far on the touch panel monitor 52, so that a plurality of (for example, six) photographed images are used as editing target images. , Together with the shooting information indicating that the couple course has been selected, it is stored in the storage unit 102. When bonus shooting is performed, the composite image processing unit 218 gives the user a plurality of images (for example, 6 images) out of a plurality of images (for example, 6 images) and a captured image by bonus shooting. The image to be edited is selected, and the selected photographed image is stored in the storage unit 102 together with the photographing information indicating that the couple course has been selected.

ステップS55の処理が終了すると、カップルコース撮影処理は終了され、処理は、図12のステップS23に戻る。   When the process of step S55 ends, the couple course shooting process ends, and the process returns to step S23 of FIG.

このようにして、カップルコースが選択されると、撮影画像における被写体(利用者)に対する画像処理の種類として、性別に応じた画像処理が利用者により選択され、撮影画像における被写体に対して、選択された画像処理が施される。これにより、撮影画像に対して、簡単な操作で利用者の意図した画像処理を行わせることができるので、写真シール作成作業における撮影作業に対する利用者の満足度を向上させることが可能となる。   In this way, when a couple course is selected, image processing according to gender is selected by the user as the type of image processing for the subject (user) in the captured image, and selection is performed for the subject in the captured image. The processed image processing is performed. Thereby, since the image processing intended by the user can be performed on the captured image with a simple operation, the satisfaction of the user with respect to the imaging operation in the photo sticker creation operation can be improved.

なお、上述した例では、カップルである2名の利用者は、それぞれ異なる性別を選択するようにしたが、もちろんそれぞれ同じ性別を選択するようにしてもよいし、実際の利用者の性別とは逆の性別を選択することもできる。これにより、撮影画像に対して、利用者が意図し、かつ、面白みのある画像処理を行わせることができるので、写真シール作成作業における撮影作業に対する利用者の満足度をより向上させることが可能となる。   In the above example, two users who are couples select different genders, but of course, they may select the same gender, and what is the actual gender of the user? You can also choose the opposite gender. This makes it possible to perform interesting and interesting image processing on the photographed image, so that the user's satisfaction with the photographing work in the photo sticker creation work can be further improved. It becomes.

また、上述した例では、性別に応じた画像処理が選択されるようにしたが、親子(大人と子供)の区別や、年代(年齢)など、利用者の属性に応じた画像処理が選択されるようにしてもよい。具体的には、親子の区別に応じた画像処理が選択される場合、図15に示される性別選択画面301に代わり、「親」ボタンと「子」ボタンから構成される親子選択ボタンを備えた親子選択画面を表示するようにし、「親」ボタンが選択されると、顔が凛々しく見えるように、顔の形状(輪郭)をシャープにする画像処理が行われ、「子」ボタンが選択されると、顔が愛らしく見えるように、顔の形状を丸みのある形にする画像処理が行われるようにしてもよい。また、年代(年齢)に応じた画像処理が選択される場合、「20代」ボタンや「40代」ボタンなどの年代別のボタンから構成される年代選択ボタンを備えた年代選択画面を表示するようにし、選択された年代選択ボタンに応じて、顔の形状を変化させたり、しみやしわを消すなど肌の質感を調整する画像処理が行われるようにしてもよい。さらに、利用者の属性として、背の高さや頭髪の長さなどの外見的(身体的)特徴を適用し、背の高さや頭髪の長さの段階に応じた画像処理が行われるようにしてもよい。   In the above-described example, image processing according to gender is selected. However, image processing according to user attributes such as parent / child (adult and child) distinction and age (age) is selected. You may make it do. Specifically, when image processing according to parent-child distinction is selected, a parent-child selection button including a “parent” button and a “child” button is provided instead of the gender selection screen 301 shown in FIG. When the parent / child selection screen is displayed and the “parent” button is selected, image processing is performed to sharpen the face shape (outline) so that the face looks dignified, and the “child” button is selected. Then, image processing may be performed to make the shape of the face round so that the face looks lovely. When image processing corresponding to the age (age) is selected, an age selection screen having an age selection button composed of age-specific buttons such as a “20s” button and a “40s” button is displayed. In this way, image processing for adjusting the texture of the skin, such as changing the shape of the face or removing the spots or wrinkles, may be performed according to the selected age selection button. Furthermore, appearance (physical) characteristics such as height and length of hair are applied as user attributes so that image processing is performed according to the stage of height and length of hair. Also good.

以上においては、サンプル画像として、ライブビュー画像(取り込み画像)から抽出した静止画像における被写体の顔領域に対して、選択された性別毎の画像処理を施した顔画像を表示するようにしたが、利用者の顔をためし撮影することで顔画像を得て、選択された性別毎の画像処理を施した顔画像を、サンプル画像として表示するようにしてもよい。   In the above, as a sample image, a face image subjected to image processing for each selected gender is displayed on the face area of the subject in the still image extracted from the live view image (captured image). A face image may be obtained by shooting a user's face and the face image subjected to image processing for each selected gender may be displayed as a sample image.

ここで、図17および図18のフローチャートを参照して、利用者の顔をためし撮影することで顔画像を得て、選択された性別毎の画像処理を施した顔画像を、サンプル画像として表示するようにしたカップルコース撮影処理の詳細な流れを説明する。   Here, referring to the flowcharts of FIG. 17 and FIG. 18, a face image is obtained by shooting a user's face and image processing for each selected gender is performed as a sample image. A detailed flow of the couple course shooting process to be displayed will be described.

なお、図17および図18のフローチャートのステップS71乃至S75,S80乃至96の処理は、図13および図14のフローチャートのステップS31乃至S33,S39乃至S55の処理と基本的に同様であるので、その説明は省略する。   The processes in steps S71 to S75 and S80 to 96 in the flowcharts of FIGS. 17 and 18 are basically the same as the processes in steps S31 to S33 and S39 to S55 in the flowcharts of FIGS. Description is omitted.

すなわち、図17のフローチャートのステップS75において、撮影用合成用画像の選択を受け付けた後、ステップS76において、コース選択制御部213は、タッチパネルモニタ52に、ためし撮影実行画面を表示させ、利用者にためし撮影を行わせる。   That is, in step S75 of the flowchart of FIG. 17, after accepting the selection of the shooting composition image, in step S76, the course selection control unit 213 displays a trial shooting execution screen on the touch panel monitor 52, and the user Let's take a picture.

このためし撮影を行わせるためし撮影実行画面としては、例えば、図19Aに示すためし撮影実行画面400が表示される。   For this reason, for example, a trial shooting execution screen 400 shown in FIG.

ためし撮影実行画面400の中央付近には、顔画像表示部411−1および411−2が設けられている。顔画像表示部411−1および411−2においては、それぞれ、カメラ51からの被写体Aおよび被写体Bのライブビュー画像における顔の領域が表示されている。   In the vicinity of the center of the trial shooting execution screen 400, face image display units 411-1 and 411-2 are provided. In face image display sections 411-1 and 411-2, face areas in the live view images of subject A and subject B from camera 51 are displayed, respectively.

また、ためし撮影実行画面400の下部には、例えば「3,2,1,0」等とためし撮影のシャッタータイミングまでの残り秒数を示すためし撮影カウントダウンインジケータ412が表示されている。   In addition, a shooting countdown indicator 412 is displayed at the bottom of the trial shooting execution screen 400 to indicate the remaining number of seconds until the shutter timing of shooting, for example, “3, 2, 1, 0” or the like.

ためし撮影実行画面400の右上部には、撮影作業に予め割り当てられた制限時間の残り時間(残時間)を表示する残時間表示部413が設けられている。さらに、ためし撮影実行画面400の上部には、2名の利用者それぞれに、ためし撮影の準備を促すメッセージ「枠の中に入って、ためし撮りするよ!」が表示されている。   A remaining time display unit 413 for displaying the remaining time (remaining time) of the time limit assigned in advance to the shooting operation is provided in the upper right part of the trial execution screen 400. Further, on the upper part of the trial shooting execution screen 400, a message “Enter the frame and take a trial!” Prompting each of the two users to prepare for trial shooting is displayed.

利用者は、顔画像表示部411−1および411−2それぞれに、ライブビュー画像における利用者(被写体)それぞれの顔が表示されるように移動し、ためし撮影カウントダウンインジケータ412に表示されている数字が「0」になったときにためし撮影が行われる。   The user moves so that the face of each user (subject) in the live view image is displayed on each of the face image display units 411-1 and 411-2, and is displayed on the shooting countdown indicator 412. When the number reaches “0”, trial shooting is performed.

図17のフローチャートに戻り、ステップS77において、コース選択制御部213は、撮影画像に対して行われる画像処理の種類を選択させるための選択画面(GUI)を、タッチパネルモニタ52に表示する。   Returning to the flowchart of FIG. 17, in step S <b> 77, the course selection control unit 213 displays a selection screen (GUI) for selecting the type of image processing performed on the captured image on the touch panel monitor 52.

ステップS76においてためし撮影が行われると、タッチパネルモニタ52に表示されていた図19Aで示されたためし撮影実行画面400は、図19Bに示される性別選択画面420に切り替わる。   When trial shooting is performed in step S76, trial shooting execution screen 400 shown in FIG. 19A displayed on touch panel monitor 52 is switched to gender selection screen 420 shown in FIG. 19B.

図19Bに示されるように、性別選択画面420の中央付近には、ためし撮影実行画面400と同様に、顔画像表示部411−1および411−2が設けられている。ただし、ここでは、ためし撮影の結果得られた、被写体Aおよび被写体Bの静止画像における顔の領域(顔画像)が顔画像表示部411−1および411−2それぞれに表示されている。   As shown in FIG. 19B, face image display sections 411-1 and 411-2 are provided near the center of the sex selection screen 420, as in the trial shooting execution screen 400. However, here, the face areas (face images) in the still images of the subject A and the subject B obtained as a result of trial shooting are displayed on the face image display units 411-1 and 411-2, respectively.

顔画像表示部411−1および411−2それぞれの下部には、男女選択ボタン421−1および421−2が設けられている。男女選択ボタン421−1および421−2は、図15を参照して説明した男女選択ボタン312−1および312−2と同様の機能を有する。   Gender selection buttons 421-1 and 421-2 are provided below the face image display units 411-1 and 411-2. The gender selection buttons 421-1 and 421-2 have the same functions as the gender selection buttons 312-1 and 312-2 described with reference to FIG.

また、性別選択画面420の右上部には、ためし撮影実行画面400と同様、残時間表示部413が設けられている。さらに、性別選択画面420の上部には、2名の利用者それぞれに、男女選択ボタン421−1および421−2による性別の選択を促すメッセージ「それぞれの性別を選択してね!」が表示されている。   Further, the remaining time display unit 413 is provided in the upper right part of the sex selection screen 420 as in the trial shooting execution screen 400. Furthermore, at the top of the gender selection screen 420, a message “Select your gender!” Prompting each of the two users to select a gender with the gender selection buttons 421-1 and 421-2 is displayed. ing.

図17のフローチャートに戻り、ステップS78において、コース選択制御部213は、ステップS77の処理で表示された性別選択画面420における、利用者による男女別の画像処理の選択、すなわち、性別の選択を受け付ける。   Returning to the flowchart of FIG. 17, in step S78, the course selection control unit 213 accepts selection of image processing by gender by the user, that is, selection of gender, on the gender selection screen 420 displayed in step S77. .

ステップS79において、コース選択制御部213は、ステップS78において受け付けた利用者による選択に応じた画像処理が施されたサンプル画像を表示する。   In step S79, the course selection control unit 213 displays a sample image that has been subjected to image processing in accordance with the selection received by the user received in step S78.

すなわち、図19Bに示される性別選択画面420において、被写体Aに対応する利用者によって男女選択ボタン421−1の「男の子」ボタンが選択され、被写体Bに対応する利用者によって男女選択ボタン421−2の「女の子」ボタンが選択されると、図19Cに示されるように、男女選択ボタン421−1の「男の子」ボタンが強調表示されるとともに、男女選択ボタン421−2の「女の子」ボタンが強調表示される。また、顔画像表示部411−1には、ためし撮影された静止画像における被写体Aの顔画像に対して、男性用画像処理を施した顔画像(被写体A’)がサンプル画像として表示され、顔画像表示部411−2には、ためし撮影された静止画像における被写体Bの顔画像に対して、女性用画像処理を施した顔画像(被写体B’)がサンプル画像として表示される。   That is, on the gender selection screen 420 shown in FIG. 19B, the “boy” button of the gender selection button 421-1 is selected by the user corresponding to the subject A, and the gender selection button 421-2 is selected by the user corresponding to the subject B. When the “girl” button is selected, as shown in FIG. 19C, the “boy” button of the gender selection button 421-1 is highlighted and the “girl” button of the gender selection button 421-2 is highlighted. Is displayed. Further, the face image display unit 411-1 displays a face image (subject A ′) obtained by performing image processing for men on the face image of the subject A in the still image that has been shot, as a sample image. In the face image display unit 411-2, a face image (subject B ′) obtained by performing image processing for women on the face image of the subject B in the still image that has been taken is displayed as a sample image.

これにより、本来の撮影に近いためし撮影により得られた顔画像に対して画像処理が施された顔画像(サンプル画像)が表示されるので、利用者は、画像処理が施された後の撮影画像を、より確実にイメージすることができる。   As a result, a face image (sample image) that has been subjected to image processing on the face image obtained by shooting because it is close to the original shooting is displayed. The captured image can be imaged more reliably.

なお、上述した説明においては、ためし撮影により得られた利用者(被写体)の顔画像に対して施される画像処理の種類を、利用者に選択させるようにしたが、ためし撮影により得られた利用者の顔画像に対して施される画像処理の種類を、ためし撮影が行われたときの利用者の立ち位置によって決定するようにしてもよい。   In the above description, the user is allowed to select the type of image processing to be performed on the face image of the user (subject) obtained by trial shooting. The type of image processing to be performed on the user's face image may be determined according to the user's standing position when trial shooting is performed.

すなわち、図17のフローチャートのステップS76において、コース選択制御部213は、タッチパネルモニタ52に、図20Aに示されるようなためし撮影実行画面430を表示させ、利用者にためし撮影を行わせる。   That is, in step S76 of the flowchart of FIG. 17, the course selection control unit 213 causes the touch panel monitor 52 to display a trial shooting execution screen 430 as shown in FIG.

ためし撮影実行画面430の中央付近には、図19Aと同様にして、顔画像表示部431−1および431−2が設けられている。なお、顔画像表示部431−1の上部には「男の子はこっち」、顔画像表示部431−2の上部には「女の子はこっち」のメッセージが示されている。   In the vicinity of the center of the trial execution screen 430, face image display units 431-1 and 431-2 are provided in the same manner as in FIG. 19A. Note that a message “boy is here” is displayed at the top of the face image display unit 431-1, and a message “girl is here” is displayed at the top of the face image display unit 431-2.

また、ためし撮影実行画面430の上部には、2名の利用者それぞれに、ためし撮影における立ち位置の注意を促すメッセージ「枠の中に入って、ためし撮りするよ!立ち位置によって画像処理が変わるから間違えないでね!」が表示されている。   In addition, at the top of the trial shooting execution screen 430, a message that prompts the two users to pay attention to the standing position in trial shooting “Enter the frame and take a trial shot! Do not make a mistake because the process changes! ”Is displayed.

すなわち、顔画像表示部431−1に表示され、ためし撮影される顔画像に対しては、男性用画像処理が施され、顔画像表示部431−2に表示され、ためし撮影される顔画像に対しては、女性用画像処理が施されるようになる。   That is, the face image displayed on the face image display unit 431-1 and taken for trial is subjected to image processing for men and displayed on the face image display unit 431-2 for trial photography. The image processing for women comes to be performed on the image.

この場合、図17のフローチャートのステップS77,S78は実行されず、処理はステップS79に進む。   In this case, steps S77 and S78 in the flowchart of FIG. 17 are not executed, and the process proceeds to step S79.

ステップS79において、コース選択制御部213は、利用者の立ち位置に応じた性別の画像処理が施されたサンプル画像を表示する。   In step S79, the course selection control unit 213 displays a sample image that has been subjected to image processing of sex according to the user's standing position.

すなわち、図20Aに示されるためし撮影実行画面430の状態で、所定のタイミングでためし撮影が行われると、図20Bに示されるように、顔画像表示部431−1には、ためし撮影された静止画像における被写体Aの顔画像に対して、男性用画像処理を施した顔画像(被写体A’)が表示され、顔画像表示部431−2には、ためし撮影された静止画像における被写体Bの顔画像に対して、女性用画像処理を施した顔画像(被写体B’)が表示される。   That is, when trial shooting is performed at a predetermined timing in the state of the trial shooting execution screen 430 shown in FIG. 20A, the trial image shooting is performed on the face image display unit 431-1 as shown in FIG. 20B. A face image (subject A ′) that has been subjected to image processing for men is displayed on the face image of the subject A in the still image thus obtained, and the face image display unit 431-2 displays the face image of the still image that has been taken. A face image (subject B ′) obtained by performing image processing for women on the face image of the subject B is displayed.

このように、ためし撮影時の立ち位置に応じた性別の画像処理が、撮影画像における被写体に対して施されるようになるので、利用者は、立ち位置を決めるだけで、面倒な選択操作をする必要なく、利用者の意図した画像処理を行わせることができ、写真シール作成作業における撮影作業に対する利用者の満足度を向上させることが可能となる。   In this way, image processing according to the gender according to the standing position at the time of trial shooting is performed on the subject in the captured image, so that the user only has to decide the standing position and perform a troublesome selection operation. Therefore, it is possible to perform image processing intended by the user without having to perform the process, and it is possible to improve the user's satisfaction with the photographing work in the photo sticker creation work.

次に、図21および図22のフローチャートを参照して、図12のステップS24において実行されるフレンドコース撮影処理の詳細な流れを説明する。   Next, a detailed flow of the friend course photographing process executed in step S24 of FIG. 12 will be described with reference to the flowcharts of FIGS.

なお、図21および図22のフローチャートのステップS111乃至S113,S116乃至S120,S122乃至S130,S132乃至S135の処理は、図13および図14のフローチャートのステップS31乃至S33,S36乃至S40,S42乃至S50,S52乃至S55の処理と基本的に同様であるので、その説明は省略する。   Note that the processing of steps S111 to S113, S116 to S120, S122 to S130, and S132 to S135 in the flowcharts of FIGS. 21 and 22 is performed in steps S31 to S33, S36 to S40, and S42 to S50 of the flowcharts of FIGS. , S52 to S55, which are basically the same as those in FIG.

すなわち、ステップS114において、コース選択制御部213は、撮影画像に対して行われる画像処理の種類を選択させるための選択画面(GUI)を、タッチパネルモニタ52に表示する。   That is, in step S114, the course selection control unit 213 displays a selection screen (GUI) on the touch panel monitor 52 for selecting the type of image processing performed on the captured image.

この画像処理の種類を選択させる選択画面としては、例えば、図23に示す目の大きさ選択画面が表示される。   As a selection screen for selecting the type of image processing, for example, an eye size selection screen shown in FIG. 23 is displayed.

図23に示されるように、目の大きさ選択画面501は、主な構成が、一部を除き左右に2つずつ設けられている。これは、基本的に同じ組(友達のグループ)の少なくとも2名の利用者が同時に目の大きさの選択入力を行うことができるようにするものである。なお、フレンドコース撮影処理においては、少なくとも2名の利用者により撮影作業が行われるものとするが、1名の利用者により撮影作業が行われるようにしてもよく、この場合、目の大きさ選択画面501の主な構成は、1つずつ設けられるようになる。   As shown in FIG. 23, the eye size selection screen 501 is provided with two main structures on the left and right except for a part. This basically allows at least two users of the same group (friend group) to select and input the eye size at the same time. In the friend course shooting process, shooting work is performed by at least two users. However, the shooting work may be performed by one user. The main configuration of the selection screen 501 is provided one by one.

目の大きさ選択画面501の中央には、ライブビュー画像表示部511が設けられている。ライブビュー画像表示部511においては、カメラ51からの、被写体Aおよび被写体Bのライブビュー画像が表示されている。また、ライブビュー画像表示部511においては、被写体Aおよび被写体Bの顔の位置が認識され、認識された被写体Aおよび被写体Bの顔の範囲(領域)を示す枠521Aおよび521Bが、ライブビュー画像に重畳されて表示されている。   A live view image display unit 511 is provided at the center of the eye size selection screen 501. In the live view image display unit 511, live view images of the subject A and the subject B from the camera 51 are displayed. In the live view image display unit 511, the positions of the faces of the subjects A and B are recognized, and frames 521A and 521B indicating the recognized face ranges (areas) of the subjects A and B are the live view images. Is superimposed on the screen.

また、目の大きさ選択画面501において、ライブビュー画像表示部511の左側には、目の大きさ選択ボタン512−1が、ライブビュー画像表示部511の右側には、目の大きさ選択ボタン512−2が、それぞれ設けられている。   In the eye size selection screen 501, an eye size selection button 512-1 is on the left side of the live view image display unit 511, and an eye size selection button is on the right side of the live view image display unit 511. 512-2 are provided.

以下において、目の大きさ選択ボタン512−1と目の大きさ選択ボタン512−2を互いに区別して説明する必要の無い場合、目の大きさ選択ボタン512と称する。   In the following, the eye size selection button 512-1 and the eye size selection button 512-2 are referred to as the eye size selection button 512 when there is no need to distinguish between them.

目の大きさ選択ボタン512は、「大」ボタン、「中」ボタン、および「小」ボタンから構成され、そのいずれかが利用者に選択されることにより、撮影の結果得られる撮影画像における、選択した利用者に対応する被写体の顔の領域に対して施される画像処理の種類が決定される。   The eye size selection button 512 includes a “large” button, a “medium” button, and a “small” button, and when one of them is selected by the user, The type of image processing to be performed on the face area of the subject corresponding to the selected user is determined.

目の大きさ選択画面501の右上部には、撮影作業に予め割り当てられた制限時間の残り時間(残時間)を表示する残時間表示部513が設けられている。さらに、目の大きさ選択画面501の上部には、利用者それぞれに、目の大きさ選択ボタン512による目の大きさの選択を促すメッセージ「それぞれ認識された人の目の大きさを選択してね!」が表示されている。   In the upper right part of the eye size selection screen 501, there is provided a remaining time display unit 513 for displaying the remaining time (remaining time) of the time limit assigned in advance to the photographing work. Further, at the top of the eye size selection screen 501, a message prompting the user to select the eye size with the eye size selection button 512 “selects each recognized eye size”. "!" Is displayed.

すなわち、フレンドコース撮影処理においては、撮影画像に対して行われる画像処理として、選択された目の大きさに応じて、目の大きさを変化させる画像処理(目サイズ変更処理)が行われる。   That is, in the friend course photographing process, as the image process performed on the photographed image, an image process (eye size changing process) for changing the eye size according to the selected eye size is performed.

図21のフローチャートに戻り、ステップS115において、コース選択制御部213は、ステップS114の処理で表示された目の大きさ選択画面501における、利用者毎の画像処理の選択、すなわち、目の大きさの選択を受け付ける。   Returning to the flowchart of FIG. 21, in step S115, the course selection control unit 213 selects image processing for each user on the eye size selection screen 501 displayed in step S114, that is, the eye size. Accept the selection.

なお、ステップS116において表示されたサンプル画像は、図23の目の大きさ選択画面501には図示されないサンプル画像表示部に表示される。なお、目の大きさ選択画面501にサンプル画像表示部が設けられない場合には、ステップS116の処理は省略される。   The sample image displayed in step S116 is displayed on a sample image display unit (not shown) on the eye size selection screen 501 in FIG. If the sample image display unit is not provided on the eye size selection screen 501, the process of step S116 is omitted.

そして、ステップS121において、画像処理制御部217は、ステップS120において得られた撮影画像における被写体それぞれに対して、ステップS115において選択された画像処理(目サイズ変更処理)を行う。   In step S121, the image processing control unit 217 performs the image processing (eye size changing process) selected in step S115 on each subject in the captured image obtained in step S120.

さらに、ステップS131において、画像処理制御部217は、ステップS121と同様に、ステップS130において得られた撮影画像における被写体それぞれに対して、ステップS115において選択された画像処理を行う。   Further, in step S131, the image processing control unit 217 performs the image processing selected in step S115 on each subject in the captured image obtained in step S130, as in step S121.

なお、ステップS135においては、生成された合成画像(撮影画像)が編集対象用画像として、撮影処理において、フレンドコースが選択されたことを示す撮影情報とともに、記憶部102に記憶される。なお、ボーナス撮影が行われた場合には、利用者により選択された編集対象用画像(撮影画像)が、フレンドコースが選択されたことを示す撮影情報とともに、記憶部102に記憶される。   In step S135, the generated composite image (captured image) is stored in the storage unit 102 as an image to be edited together with shooting information indicating that the friend course has been selected in the shooting process. When bonus shooting is performed, the editing target image (captured image) selected by the user is stored in the storage unit 102 together with shooting information indicating that the friend course has been selected.

このようにして、フレンドコースが選択されると、撮影画像における被写体(利用者)に対する画像処理の種類として、目の大きさを変更させる画像処理が利用者により選択され、撮影画像における被写体に対して、選択された画像処理が施される。これにより、撮影画像に対して、簡単な操作で利用者の意図した画像処理を行わせることができるので、写真シール作成作業における撮影作業に対する利用者の満足度を向上させることが可能となる。   In this way, when the friend course is selected, image processing for changing the size of the eyes is selected by the user as the type of image processing for the subject (user) in the captured image, and the subject in the captured image is processed. Then, the selected image processing is performed. Thereby, since the image processing intended by the user can be performed on the captured image with a simple operation, the satisfaction of the user with respect to the imaging operation in the photo sticker creation operation can be improved.

なお、図23を参照した説明においては、利用者(被写体)は2人であるものとしたが、フレンドコース撮影処理においては、利用者は3人以上であってもよい。   In the description with reference to FIG. 23, it is assumed that there are two users (subjects), but in the friend course shooting process, there may be three or more users.

図24は、フレンドコース撮影処理において、3人で撮影作業を行う場合に、タッチパネルモニタ52に表示される目の大きさ選択画面501の例を示している。   FIG. 24 shows an example of an eye size selection screen 501 displayed on the touch panel monitor 52 when shooting is performed by three people in the friend course shooting process.

図24Aに示される目の大きさ選択画面501には、図23で示される構成に加え、目の大きさ選択ボタン512−1および512−2それぞれの下に、目の大きさ選択ボタン512−1および512−2それぞれに対する目の大きさの選択を決定させるためのOKボタン514−1および514−2が設けられている。ライブビュー画像表示部511においては、カメラ51からの、被写体A、被写体B、および被写体Cのライブビュー画像が表示されている。また、ライブビュー画像表示部511においては、被写体A、被写体B、および被写体Cの顔の位置が認識され、認識された被写体A、被写体B、および被写体Cの顔の範囲(領域)を示す枠521A,521B、および521Cが、ライブビュー画像に重畳されて表示されている。   In the eye size selection screen 501 shown in FIG. 24A, in addition to the configuration shown in FIG. 23, an eye size selection button 512-is provided below each of the eye size selection buttons 512-1 and 512-2. OK buttons 514-1 and 514-2 are provided for determining selection of eye size for 1 and 512-2, respectively. In the live view image display unit 511, live view images of the subject A, the subject B, and the subject C from the camera 51 are displayed. In the live view image display unit 511, the positions of the faces of the subject A, the subject B, and the subject C are recognized, and a frame that indicates the recognized face range (area) of the subject A, the subject B, and the subject C. 521A, 521B, and 521C are displayed superimposed on the live view image.

以下においては、OKボタン514−1および514−2を互いに区別して説明する必要のない場合、OKボタン514と称する。   Hereinafter, the OK buttons 514-1 and 514-2 are referred to as OK buttons 514 when it is not necessary to distinguish them from each other.

図24Aに示される目の大きさ選択画面501においては、被写体A、被写体B、および被写体Cは、それぞれ、1人目、2人目、および3人目の被写体として認識されている。そして、目の大きさ選択ボタン512−1およびOKボタン514−1は、1人目の被写体に対応し、目の大きさ選択ボタン512−2およびOKボタン514−2は、2人目の被写体に対応している。すなわち、被写体Aに対応する利用者は、目の大きさ選択ボタン512−1により目の大きさを選択し、OKボタン514−1によりその選択を決定させ、被写体Bに対応する利用者は、目の大きさ選択ボタン512−2により目の大きさを選択し、OKボタン514−2によりその選択を決定させることができる。このとき、被写体Cに対応する利用者は、目の大きさを選択・決定することはできない。   In the eye size selection screen 501 shown in FIG. 24A, the subject A, the subject B, and the subject C are recognized as the first, second, and third subjects, respectively. The eye size selection button 512-1 and the OK button 514-1 correspond to the first subject, and the eye size selection button 512-2 and the OK button 514-2 correspond to the second subject. is doing. That is, the user corresponding to the subject A selects the eye size with the eye size selection button 512-1, and the user selects the OK button 514-1 to determine the selection, and the user corresponding to the subject B The size of the eye can be selected by the eye size selection button 512-2, and the selection can be determined by the OK button 514-2. At this time, the user corresponding to the subject C cannot select / determine the size of the eyes.

そして、被写体Bに対応する利用者が目の大きさ選択ボタン512−2の「中」ボタンを選択し、OKボタン514−2により選択を確定させると、目の大きさ選択画面501は、図24Bに示されるように変化する。すなわち、2人目の被写体である被写体Bに対応する利用者により目の大きさ選択ボタン512−2およびOKボタン514−2が操作され、目の大きさが選択・決定されると、目の大きさ選択ボタン512−2およびOKボタン514−2は、3人目の被写体である被写体Cに対応するようになる。すなわち、被写体Cに対応する利用者は、目の大きさを選択・決定できるようになる。   Then, when the user corresponding to the subject B selects the “medium” button of the eye size selection button 512-2 and confirms the selection with the OK button 514-2, the eye size selection screen 501 is displayed as shown in FIG. It changes as shown in 24B. That is, when the eye size selection button 512-2 and the OK button 514-2 are operated by the user corresponding to the subject B, which is the second subject, and the eye size is selected and determined, The size selection button 512-2 and the OK button 514-2 correspond to the subject C, which is the third subject. That is, the user corresponding to the subject C can select and determine the size of the eyes.

このように、利用者(被写体)が3人であっても、目の大きさを選択・決定可能な2人のうち、先に選択・決定の操作をした被写体に対応する目の大きさ選択ボタン512およびOKボタン514が、3人目の被写体に対応するようになるので、被写体3人それぞれが、目の大きさを選択・決定することができる。なお、被写体が4人以上であっても同様である。なお、タッチパネルモニタ52が十分大きい場合には、目の大きさ選択ボタン512およびOKボタン514を、利用者(被写体)の人数分だけ表示するようにしてもよい。これにより、利用者は、順番を待たずに一斉に目の大きさを選択・決定することができ、撮影作業をスムーズに行うことができるようになる。   Thus, even if there are three users (subjects), out of two persons who can select / determine the size of the eye, select the size of the eye corresponding to the subject that has been previously selected / determined. Since the button 512 and the OK button 514 correspond to the third subject, each of the three subjects can select and determine the size of the eye. The same applies even when there are four or more subjects. When the touch panel monitor 52 is sufficiently large, the eye size selection button 512 and the OK button 514 may be displayed for the number of users (subjects). As a result, the user can select and determine the size of the eyes all at once without waiting for the turn, and the shooting operation can be performed smoothly.

このようにして、撮影処理が行われる。   In this way, the photographing process is performed.

以上の処理によれば、利用者により撮影コースが選択され、選択された撮影コースに応じた種類の画像処理が、撮影画像の被写体に施されるようになる。これにより、撮影画像に対して、簡単な操作で利用者の意図した画像処理を行わせることができるので、写真シール作成作業における撮影作業に対する利用者の満足度を向上させることが可能となる。   According to the above processing, a shooting course is selected by the user, and the type of image processing corresponding to the selected shooting course is performed on the subject of the shot image. Thereby, since the image processing intended by the user can be performed on the captured image with a simple operation, the satisfaction of the user with respect to the imaging operation in the photo sticker creation operation can be improved.

なお、以上においては、撮影画像に施される画像処理のイメージを利用者に確認させるために、サンプル画像を表示させるようにしたが、取り込み画像(ライブビュー画像)に対して、リアルタイムに画像処理を施すようにすることで、利用者に、画像処理が施された撮影画像をリアルタイムにイメージさせるようにしてもよい。   In the above, the sample image is displayed in order to make the user confirm the image of the image processing performed on the captured image. However, the captured image (live view image) is processed in real time. By performing the above, the photographed image that has been subjected to the image processing may be caused to image in real time.

また、以上においては、フレンドコース撮影処理において、選択される画像処理は、被写体の目の大きさを変化させる目サイズ変更処理であるものとして説明したが、これに限らず、例えば、肌の色(白さの度合)を変更する肌色変更処理等であってもよい。   In the above description, the image process selected in the friend course shooting process is described as an eye size change process that changes the size of the subject's eyes. It may be a skin color changing process for changing (the degree of whiteness).

さらに、フレンドコース撮影処理においても、図17のフローチャートを参照して説明したカップルコース撮影処理と同様に、ためし撮影を行った後に、目サイズ変更処理などの画像処理を選択させるようにしてもよい。   Further, in the friend course shooting process, similar to the couple course shooting process described with reference to the flowchart of FIG. 17, after performing trial shooting, image processing such as an eye size changing process may be selected. Good.

さらに、以上においては、撮影コースにかかわらず、撮影画像に対して施される画像処理は、被写体の顔に対する画像処理としたが、被写体全体に対する画像処理であってもよい。   Furthermore, in the above description, the image processing performed on the photographed image is performed on the face of the subject regardless of the photographing course, but may be image processing on the entire subject.

次に、図25のフローチャートを参照して、図11のステップS5において実行される編集処理の詳細な流れの例を説明する。なお、この編集処理は、実際には、第1編集空間33Aまたは第2編集空間33Bのうち、図12のフローチャートに対応する写真シール作成ゲームの撮影工程をプレイした利用者が移動した方の編集空間に対して実行されるが、いずれの編集空間に対する場合も同様の処理が実行されるので、以下においては説明の簡略化のため、利用者が第1編集空間33Aに移動したか第2編集空間33Bに移動したかを特に明言せずに、編集空間33に移動したものとして説明する。   Next, an example of a detailed flow of the editing process executed in step S5 of FIG. 11 will be described with reference to the flowchart of FIG. Note that this editing process is actually performed by editing the person who has moved the shooting process of the photo sticker creation game corresponding to the flowchart of FIG. 12 in the first editing space 33A or the second editing space 33B. Although the same processing is executed for any editing space, in the following, for simplification of explanation, it is determined whether the user has moved to the first editing space 33A or the second editing. A description will be given assuming that the user has moved to the editing space 33 without specifically stating whether the user has moved to the space 33B.

編集処理が開始されると、編集準備処理部232は、ステップS131において、撮影部112によって得られた撮影画像であって、落書き編集の対象として選択された編集対象画像を、記憶部102から取得する。編集準備処理部232は、ステップS132において、編集空間33の編集用モニタ141に所定のGUI画面を表示し、移動してきた利用者に対し、事後接客処理のゲームの種類を選択させる。上述したように、事後接客処理部205は、印刷終了待機中の利用者に対してミニゲームや画像転送等のサービスを行う。編集準備処理部232は、このときに何を行うかを、利用者に対し、予め用意された選択肢の中から選択させる。利用者が事後接客処理の内容を選択すると、編集準備処理部232は、次に、編集用モニタ141に編集開始ボタンのGUI画像を表示する。利用者は、タッチペン63を操作して、その編集開始ボタンを押下操作する。編集開始ボタンが押下操作されると、編集用モニタ141に編集作業用のGUIである編集画面が表示されるので、利用者は落書き編集作業を開始することができる。   When the editing process is started, the editing preparation processing unit 232 acquires, from the storage unit 102, an editing target image that is a captured image obtained by the capturing unit 112 and selected as a graffiti editing target in step S131. To do. In step S132, the editing preparation processing unit 232 displays a predetermined GUI screen on the editing monitor 141 in the editing space 33, and allows the user who has moved to select a game type for the post-service processing. As described above, the post-service processing unit 205 provides services such as mini-games and image transfer to a user who is waiting for completion of printing. The edit preparation processing unit 232 allows the user to select what to do at this time from the options prepared in advance. When the user selects the contents of the subsequent customer service process, the editing preparation processing unit 232 next displays a GUI image of the editing start button on the editing monitor 141. The user operates the touch pen 63 and depresses the editing start button. When the editing start button is pressed, an editing screen which is a GUI for editing work is displayed on the editing monitor 141, so that the user can start the doodle editing work.

編集準備処理部232は、ステップS133において、タブレット内蔵モニタ62から供給される情報に基づいて、その編集開始ボタンが利用者により操作されたか否かを判定し、操作されたと判定するまで待機する。編集開始ボタンが操作されたと判定した場合、編集準備処理部232は、処理をステップS134に進め、編集画面表示制御部234は、編集用モニタ141に、撮影画像に対する落書き編集を利用者に入力させるGUI画面である編集画面を表示させる。編集画面の表示処理の詳細は後述する。   In step S133, the editing preparation processing unit 232 determines whether or not the editing start button has been operated by the user based on the information supplied from the tablet built-in monitor 62, and waits until it is determined that the button has been operated. If it is determined that the editing start button has been operated, the editing preparation processing unit 232 advances the process to step S134, and the editing screen display control unit 234 causes the editing monitor 141 to input the graffiti editing for the captured image. Display the editing screen that is a GUI screen. Details of the editing screen display processing will be described later.

入力受付制御部233は、ステップS135において、編集部113のタブレット142やタッチペン63を制御し、利用者による編集画面に対する落書き編集入力の受け付けを開始する。   In step S135, the input reception control unit 233 controls the tablet 142 and the touch pen 63 of the editing unit 113, and starts receiving graffiti editing input on the editing screen by the user.

入力受付制御部233は、ステップS136において、タブレット内蔵モニタ62より供給される入力信号(すなわち、タッチペン63およびタブレット142により受け付けられた位置情報)に基づいて、利用者による指示が入力された(GUIに対する操作が行われた)か否かを判定する。利用者等によりタッチペン63が操作され、編集用モニタ141に表示された編集画面に対して、タブレット142に位置情報が入力されたと判定した場合、入力受付制御部233は、処理をステップS137に進め、落書き編集処理部235は、入力座標に基づいて入力された指示内容を把握し、その指示に対応する処理を行う。   In step S136, the input reception control unit 233 receives an instruction from the user based on the input signal supplied from the tablet built-in monitor 62 (that is, the position information received by the touch pen 63 and the tablet 142) (GUI It is determined whether or not an operation is performed. When the touch pen 63 is operated by the user or the like and it is determined that the position information is input to the tablet 142 with respect to the editing screen displayed on the editing monitor 141, the input reception control unit 233 advances the process to step S137. The graffiti editing processing unit 235 grasps the instruction content input based on the input coordinates, and performs processing corresponding to the instruction.

このような入力に対応する処理が終了すると、落書き編集処理部235は、処理をステップS138に進める。なお、ステップS136において指示が入力されていないと判定した場合、落書き編集処理部235は、ステップS137の処理を省略し、ステップS138に処理を進める。   When the process corresponding to such an input is completed, the graffiti edit processing unit 235 advances the process to step S138. If it is determined in step S136 that an instruction has not been input, the graffiti editing processing unit 235 skips step S137 and proceeds to step S138.

ステップS138において、進行制御部231は、所定の時間(制限時間)が経過したか、または、終了ボタンが操作されたか否かを判定し、制限時間にも達しておらず、終了ボタンも操作されていないと判定した場合、進行制御部231は、処理をステップS136に戻し、それ以降の処理を繰り返す。つまり、進行制御部231は、所定の時間が経過した、または、終了ボタンが操作されたと判定されるまで、ステップS136乃至ステップS138の処理を繰り返し、落書き編集入力に対する処理を行う。そして、ステップS138において、所定の時間が経過した、または、終了ボタンが操作されたと判定した場合、進行制御部231は、処理をステップS139に進める。   In step S138, the progress control unit 231 determines whether a predetermined time (time limit) has elapsed or the end button has been operated, and the time limit has not been reached, and the end button is also operated. When it determines with it not having progressed, the progress control part 231 returns a process to step S136, and repeats the process after it. That is, the progress control unit 231 repeats the processing from step S136 to step S138 until a predetermined time has elapsed or the end button has been operated, and performs processing for graffiti editing input. If it is determined in step S138 that a predetermined time has elapsed or the end button has been operated, the progress control unit 231 advances the process to step S139.

ステップS139において、進行制御部231は、落書き編集が行われた編集画像(落書き編集結果)を印刷用の画像を作成するために、印刷対象画像として保存する。なお、この「保存する」とは、単に編集結果である編集画像を印刷処理に提供することを示すものであり、実際に、データを、RAM107や記憶部102に保存するかしないかは任意である。   In step S139, the progress control unit 231 saves the edited image (doodle editing result) on which the doodle editing has been performed as a print target image in order to create a print image. Note that “save” simply indicates that an edited image, which is an editing result, is provided to the printing process, and whether or not the data is actually saved in the RAM 107 or the storage unit 102 is arbitrary. is there.

ステップS140において、進行制御部231は、編集画面の表示を終了し、編集入力の受け付けを終了する。ステップS140の処理を終了すると、進行制御部231は、編集処理を終了し、処理を図11のステップS5に戻し、ステップS6以降の処理を実行させる。   In step S140, the progress control unit 231 ends the display of the edit screen, and ends the reception of the edit input. When the process of step S140 ends, the progress control unit 231 ends the editing process, returns the process to step S5 of FIG. 11, and executes the processes after step S6.

以上のような編集処理により編集作業は行われる。   Editing operations are performed by the editing process as described above.

次に、図26のフローチャートを参照して、図25のステップS134において実行される編集画面表示処理の詳細な流れを説明する。   Next, the detailed flow of the edit screen display process executed in step S134 of FIG. 25 will be described with reference to the flowchart of FIG.

ステップS171において、編集画面表示制御部234は、記憶部102から、撮影情報を読み出し、撮影処理においてカップルコースが選択されたか否かを判定する。   In step S171, the edit screen display control unit 234 reads the shooting information from the storage unit 102, and determines whether or not a couple course is selected in the shooting process.

ここで、図27を参照して、記憶部102に記憶される撮影情報の詳細について説明する。   Here, with reference to FIG. 27, details of the shooting information stored in the storage unit 102 will be described.

図27に示されるように、撮影情報590には、撮影コース情報591および被写体情報592が含まれる。   As shown in FIG. 27, the shooting information 590 includes shooting course information 591 and subject information 592.

撮影コース情報591は、撮影処理における撮影コースの選択において、カップルコース、または、フレンドコースのいずれが選択されたかを示す情報である。   The shooting course information 591 is information indicating whether a couple course or a friend course is selected in the selection of a shooting course in the shooting process.

被写体情報592は、撮影コース情報591が、カップルコースが選択されたことを示す場合、2人の被写体A,Bそれぞれについて選択された性別(例えば、被写体Aが男性で、被写体Bが女性など)を示す情報や、立ち位置(男性が左側で、女性が右側など)を示す情報を含む。なお、撮影コース情報591が、カップルコースが選択されたことを示す場合には、被写体情報592は、例えば何も示さない空の情報となる。   When the shooting course information 591 indicates that the couple course has been selected, the subject information 592 indicates the sex selected for each of the two subjects A and B (for example, the subject A is male and the subject B is female). And information indicating a standing position (such as a man on the left side and a woman on the right side). When the shooting course information 591 indicates that a couple course has been selected, the subject information 592 is empty information indicating nothing, for example.

すなわち、ステップS171において、編集画面表示制御部234は、撮影情報590の撮影コース情報591に基づいて、カップルコースが選択されたか否かを判定する。   That is, in step S171, the edit screen display control unit 234 determines whether a couple course has been selected based on the shooting course information 591 of the shooting information 590.

ステップS171において、カップルコースが選択されたと判定された場合、処理はステップS172に進み、編集画面表示制御部234は、撮影情報590の被写体情報592に基づいて、立ち位置および被写体に応じた、撮影画像に対する落書き編集を利用者に入力させるGUI画面である編集画面を、編集用モニタ141に表示させる。   If it is determined in step S171 that the couple course has been selected, the process proceeds to step S172, and the editing screen display control unit 234 performs shooting according to the standing position and the subject based on the subject information 592 of the shooting information 590. An editing screen, which is a GUI screen that allows the user to input graffiti editing on the image, is displayed on the editing monitor 141.

図28は、被写体情報592に、男性が左側で、女性が右側である立ち位置を示す情報が含まれている場合の編集画面の構成例を示す図である。   FIG. 28 is a diagram illustrating a configuration example of an editing screen in a case where the subject information 592 includes information indicating a standing position in which a male is on the left side and a female is on the right side.

図28に示されるように、編集画面601は、主な構成が、一部を除き左右に2つずつ設けられている。これは、基本的に同じ組の2名の利用者が同時に落書き編集入力を行うことができるようにするものである。なお、図28の編集画面601においては、被写体情報592で示される立ち位置に基づいて、編集用モニタ141に向かって、左側に男性が、右側に女性が立って編集作業を行えるように表示がなされている。   As shown in FIG. 28, the editing screen 601 is provided with two main configurations on the left and right except for a part. This basically allows two users of the same set to perform graffiti editing input at the same time. On the editing screen 601 in FIG. 28, a display is made so that a man on the left side and a woman on the right side can perform editing work toward the editing monitor 141 based on the standing position indicated by the subject information 592. Has been made.

編集画面601の上部中央には、利用者が画像や機能を選択するGUIボタン等が設けられている。この上部中央に表示される編集対象選択部611は、編集対象としての、編集画面601において利用者に落書き編集される画像となり得る編集対象画像の中から利用者が落書きを行う編集画像を選択するGUIである。   In the upper center of the editing screen 601, a GUI button or the like for the user to select an image or a function is provided. The edit target selection unit 611 displayed in the upper center selects an edit image on which the user performs graffiti from among edit target images that can be graffiti edited by the user on the edit screen 601 as edit targets. It is a GUI.

この編集対象画像は、撮影作業により生成され、編集作業において利用者により選択される編集対象用画像である。編集対象選択部611には、この編集対象用画像のサムネイル画像の一覧がGUIとして表示される。   This editing target image is an editing target image that is generated by a shooting operation and is selected by the user in the editing operation. The edit target selection unit 611 displays a list of thumbnail images of the edit target images as a GUI.

利用者が、この編集対象選択部611に表示された編集対象画像のサムネイル画像の中から、所望の編集対象画像のサムネイル画像がタッチペン63で選択すると、その選択された画像が編集画像とされ、編集画面601上に編集画像として大きく表示される。   When the user selects a desired thumbnail image of the editing target image from the thumbnail images of the editing target image displayed in the editing target selection unit 611 with the touch pen 63, the selected image is set as the editing image. Largely displayed as an edited image on the editing screen 601.

編集画像表示部612−1は、編集用モニタ141に向かって左側に位置する利用者が落書き編集を行う編集画像を表示する作業領域であり、例えば、第1編集インタフェース13Aまたは第2編集インタフェース13Bの左側に設けられたタッチペン63−1が操作されて選択された編集対象画像(選択画像)が編集画像として表示される。   The edited image display unit 612-1 is a work area for displaying an edited image on which the user located on the left side of the editing monitor 141 performs graffiti editing. For example, the first editing interface 13A or the second editing interface 13B. The image to be edited (selected image) selected by operating the touch pen 63-1 provided on the left side of is displayed as an edited image.

同様に、編集画像表示部612−2は、編集用モニタ141に向かって右側に位置する利用者が落書き編集を行う編集画像を表示する作業領域であり、例えば、第1編集インタフェース13Aまたは第2編集インタフェース13Bの右側に設けられたタッチペン63−2が操作されて選択された編集対象画像(選択画像)が編集画像として表示される。   Similarly, the edited image display unit 612-2 is a work area for displaying an edited image on which the user located on the right side of the editing monitor 141 performs graffiti editing, for example, the first editing interface 13A or the second editing interface. An image to be edited (selected image) selected by operating the touch pen 63-2 provided on the right side of the editing interface 13B is displayed as an edited image.

以下において、編集画像表示部612−1と編集画像表示部612−2を互いに区別して説明する必要の無い場合、編集画像表示部612と称する。   In the following description, the edited image display unit 612-1 and the edited image display unit 612-2 are referred to as an edited image display unit 612 when it is not necessary to distinguish between them.

編集画面601の上部中央に表示される残時間表示部613は、編集作業に予め割り当てられた制限時間の残り時間(残時間)を表示する。この表示により利用者は、落書き編集のペース配分を行うことができる。   The remaining time display unit 613 displayed in the upper center of the editing screen 601 displays the remaining time (remaining time) of the time limit allocated in advance to the editing work. This display allows the user to distribute the pace of graffiti editing.

編集対象選択部611の左側に表示される制御指示受付部614−1は、編集画像表示部612−1に表示される編集画像に対する落書き編集全般に関する制御指示を受け付けるためのGUIである。この制御指示受付部614−1には、例えば、今まで行った落書きを消す消しゴム機能のGUI(「けしゴム」ボタン)や、編集作業のやり直しを落書き処理単位で指定するGUI(「最初から」ボタン)や、1つ前の編集作業のやり直しを指示するGUI(「戻る」ボタン)、編集作業の終了を指示するGUI(「終わる」ボタン)等が表示される。   A control instruction accepting unit 614-1 displayed on the left side of the edit target selecting unit 611 is a GUI for accepting a control instruction related to general doodle editing for the edited image displayed on the edited image display unit 612-1. The control instruction accepting unit 614-1 includes, for example, a GUI for eraser function (“Kashigum” button) that erases the graffiti performed so far, and a GUI (“From the beginning” button for specifying redo of editing work in units of graffiti processing. ), A GUI (“Back” button) for instructing to redo the previous editing operation, a GUI (“End” button) for instructing the end of the editing operation, and the like are displayed.

編集対象選択部611の右側に表示される制御指示受付部614−2は、編集画像表示部612−2に表示される編集画像に対する落書き編集全般に関する制御指示を受け付けるためのGUIである。そのGUIの内容は、制御指示受付部614−1と同様である。   A control instruction accepting unit 614-2 displayed on the right side of the edit target selecting unit 611 is a GUI for accepting a control instruction related to general doodle editing for the edited image displayed on the edited image display unit 612-2. The content of the GUI is the same as that of the control instruction receiving unit 614-1.

以下において、制御指示受付部614−1と制御指示受付部614−2を互いに区別して説明する必要の無い場合、制御指示受付部614と称する。   Hereinafter, the control instruction receiving unit 614-1 and the control instruction receiving unit 614-2 are referred to as a control instruction receiving unit 614 when it is not necessary to distinguish them from each other for explanation.

編集画面601の下部中央に表示される編集ツール選択部615は、編集画像表示部612に表示されている編集画像の編集に使用する編集ツールを選択するGUIである。   An editing tool selection unit 615 displayed at the lower center of the editing screen 601 is a GUI for selecting an editing tool used for editing the editing image displayed on the editing image display unit 612.

編集ツール選択部615には、利用者が初心者であっても比較的簡単に落書き編集を行える基本的な編集ツールであるラクラクツールを選択するためのGUIボタンであるラクラクボタン、特殊な落書き編集機能を集めた編集ツールであるスペシャルツールを選択するためのスペシャルボタン、フリーハンドで線等を編集画像に書き込む編集ツールである落書きペンツールを選択するためのペンボタン、編集画像における被写体の顔の部分を、つけまつげ、カラーコンタクトレンズ、チークなどにより化粧をしたように編集する編集ツールであるメイクツールを選択するためのメイクボタン、所定の絵柄や文字等を編集画像の任意の位置に合成する編集ツールであるスタンプツールを選択するためのスタンプボタン、装飾された特殊なフォントの文字列を編集画像の任意の位置に合成する編集ツールであるメッセージツールを選択するためのメッセージボタン、および、所定の絵柄や文字を編集画像の任意の位置に線状に並べて合成する編集ツールであるコロコロツールを選択するためのコロコロボタンが設けられている。   The editing tool selection unit 615 includes a GUI button for easily selecting a graffiti tool, which is a basic editing tool that allows for easy editing of graffiti even if a user is a beginner, and a special graffiti editing function. A special button for selecting a special tool that is a compilation tool, a pen button for selecting a graffiti pen tool that is an editing tool that writes lines etc. to the edited image freehand, and the face part of the subject in the edited image A makeup button for selecting a makeup tool, which is an editing tool that edits makeup with false eyelashes, color contact lenses, teak, etc., and an editing tool that synthesizes a predetermined pattern or character at an arbitrary position in the edited image. A stamp button for selecting a stamp tool, a decorated special font A message button for selecting a message tool, which is an editing tool that synthesizes a character string at an arbitrary position in an edited image, and an editing tool that arranges a predetermined pattern or character in an arbitrary position on the edited image in a line A roll button is provided for selecting a roll tool.

利用者がタッチペン63を操作して、これらのボタンを押下すると、押下されたボタンの、タッチしたタッチペン63の側に、そのボタンに対応する編集ツールが選択されたことを示す選択アンカが表示される。なお、タッチペン63により押下されたボタンは、その表示色が反転するようにもできる。また、編集ツール選択部615においてラクラクボタンが押下されると、ラクラクボタン以外のボタンは押下されないようにしてもよい(非アクティブな状態にしてもよい)。   When the user operates the touch pen 63 and presses these buttons, a selection anchor indicating that the editing tool corresponding to the button is selected is displayed on the touch pen 63 side of the pressed button. The Note that the display color of the button pressed by the touch pen 63 can be reversed. In addition, when an easy button is pressed in the editing tool selection unit 615, buttons other than the easy button may not be pressed (it may be in an inactive state).

特に、図28の例のように、編集画面601の左側に対して編集作業を行う(編集画像Aに対して編集入力を行う)利用者が男性である場合、利用者の選択の有無に関わらず、デフォルトで、ラクラクボタンが選択(押下)された状態となる。なお、編集画面601の右側に対して編集作業を行う(編集画像Bに対して編集入力を行う)利用者が女性である場合には、全ての編集ツールが選択可能な状態となり、図28の例においてはペンボタンが選択されている。   In particular, as in the example of FIG. 28, when the user who performs editing work on the left side of the editing screen 601 (editing input to the edited image A) is a male, regardless of whether the user has selected or not. Instead, by default, the easy button is selected (pressed). If the user who performs the editing operation on the right side of the editing screen 601 (editing input to the editing image B) is a woman, all editing tools can be selected, and the state shown in FIG. In the example, the pen button is selected.

このように選択された編集ツールは、編集用パレット(コンテンツパレット)に表示される。図28の例の場合、編集ツール選択部615の左側に表示されるコンテンツパレット616−1には、ラクラクツールを操作するためのGUIが表示されている。このラクラクツールは、コンテンツパレット616−1における「STEP1」乃至「STEP4」のタブに表示される。「STEP1」乃至「STEP4」のタブに表示されるラクラクツールによれば、落書き編集に慣れていない利用者であっても、「STEP1」乃至「STEP4」のタブを順番に選択して、それぞれのタブに表示される編集ツールで編集入力を行うことで、簡単に編集作業を進めることができる。   The editing tool selected in this way is displayed on an editing palette (content palette). In the case of the example of FIG. 28, a GUI for operating the easy tool is displayed in the content palette 616-1 displayed on the left side of the editing tool selection unit 615. This easy tool is displayed on the tabs “STEP 1” to “STEP 4” in the content palette 616-1. According to the easy tool displayed on the “STEP1” to “STEP4” tabs, even users who are not familiar with graffiti editing can select the “STEP1” to “STEP4” tabs in order. Editing operations can be easily performed by using the editing tool displayed on the tab.

また、編集ツール選択部615の右側に表示されるコンテンツパレット616−2には、ペンツールを操作するためのGUIが表示されている。図28の例では、ペンツールは、「ペン1」タブ、「ペン2」タブ、「ペン3」タブ、「スタンプ1」タブ、「スタンプ2」タブ、「コロコロ」タブ、および「ちびコロ」タブに表示される。   A GUI for operating the pen tool is displayed in the content palette 616-2 displayed on the right side of the editing tool selection unit 615. In the example of FIG. 28, the pen tool includes a “pen 1” tab, a “pen 2” tab, a “pen 3” tab, a “stamp 1” tab, a “stamp 2” tab, a “rolling roller” tab, and a “chibi roller” tab. Is displayed.

このように、撮影時にカップルコースを選択した利用者は、撮影時の立ち位置と同じ立ち位置で編集作業を行うことができるようになる。このとき、撮影時に「男の子」ボタンを選択した利用者に対しては、簡単に編集作業が行えるような編集ツール(ラクラクツール)が提供されるので、例えば、ペンボタンを選択し、「ペン1」タブを選択し、さらに「オーロラ」、「グラデネオン」、「ネオン」等のペンツール(ペンアイコン)を選択するといった複雑な選択作業を行う必要がなく、編集作業に慣れていない男性の利用者でも、簡単に編集作業を行うことができるようになる。   As described above, the user who selects the couple course at the time of shooting can perform the editing work at the same standing position as that at the time of shooting. At this time, for the user who selects the “boy” button at the time of shooting, an editing tool (ease of easy editing) is provided so that, for example, the pen button is selected and “Pen 1” is selected. ”Tab, and there is no need to perform complicated selection work such as selecting pen tools (pen icons) such as“ Aurora ”,“ Gradeoneon ”,“ Neon ”, and even male users who are not used to editing work. , You will be able to easily edit.

なお、以下において、コンテンツパレット616−1とコンテンツパレット616−2を互いに区別して説明する必要の無い場合、コンテンツパレット616と称する。   Hereinafter, the content palette 616-1 and the content palette 616-2 are referred to as a content palette 616 when it is not necessary to distinguish them from each other.

また、編集ツール選択部615の上側には、隣りの利用者が使用しているコンテンツパレット616に表示されている内容(編集ツール)を自分のコンテンツパレット616に表示させるための便利ツールボタン617が設けられている。   Also, on the upper side of the editing tool selection unit 615, a convenient tool button 617 for displaying the content (editing tool) displayed on the content palette 616 used by the adjacent user on the content palette 616 is displayed. Is provided.

さらに、編集画像表示部612−1の左側および編集画像表示部612−2の右側には、それぞれサンプル画像表示部618−1およびサンプル画像表示部618−2が設けられている。サンプル画像表示部618−1およびサンプル画像表示部618−2には、それぞれ、短時間で充実した編集が行えるようにする「一発落書き」の編集機能によって得られる編集画像のサンプル(サンプル画像)が表示されている。   Further, a sample image display unit 618-1 and a sample image display unit 618-2 are provided on the left side of the edited image display unit 612-1 and the right side of the edited image display unit 612-2, respectively. The sample image display unit 618-1 and the sample image display unit 618-2 each have a sample (sample image) of an edited image obtained by an editing function of “one-shot graffiti” that enables a rich editing in a short time. Is displayed.

なお、以上において説明したGUIの表示例は、一例であり、上述した以外の構成であってももちろんよい。また、以上において説明した編集ツールの一部が省略されるようにしてもよいし、上述した以外の編集ツールがさらに用意されるようにしてもよい。さらに、編集画面601の操作方法も上述した以外の方法が適用されるようにしてもよい。   Note that the GUI display examples described above are merely examples, and of course, configurations other than those described above may be used. Also, some of the editing tools described above may be omitted, or editing tools other than those described above may be further prepared. Furthermore, a method other than the above-described method may be applied to the operation method of the editing screen 601.

図26のフローチャートに戻り、ステップS171において、カップルコースが選択されていないと判定された場合、すなわち、撮影情報590の撮影コース情報591が、フレンドコースが選択されたことを示している場合、処理はステップS173に進み、編集画面表示制御部234は、立ち位置および被写体によらない通常の編集画面を、編集用モニタ141に表示させる。   Returning to the flowchart of FIG. 26, if it is determined in step S171 that the couple course has not been selected, that is, if the shooting course information 591 of the shooting information 590 indicates that the friend course has been selected, processing is performed. In step S173, the editing screen display control unit 234 causes the editing monitor 141 to display a normal editing screen that does not depend on the standing position and the subject.

通常の編集画面とは、図28で示した編集画面601の例において、左右いずれの利用者も全ての編集ツールが選択可能な状態、すなわち、編集ツール選択部615において、デフォルトでラクラクボタンが選択されていない状態の編集画面である。   In the example of the editing screen 601 shown in FIG. 28, the normal editing screen is a state in which all the editing tools can be selected by both the right and left users, that is, the editing tool selection unit 615 selects the easy button by default. This is an editing screen in a state where it is not performed.

ステップS171の処理が終了すると、編集画面表示処理は終了され、処理は、図25のステップS134に戻る。そして、ステップS134以降の処理が実行される。   When the process of step S171 ends, the edit screen display process ends, and the process returns to step S134 of FIG. And the process after step S134 is performed.

以上の処理によれば、撮影時に選択された撮影コースに応じて、編集画面の表示が制御される。特に、カップルコースが選択されると、撮影時に利用者(被写体)により選択された性別と撮影時の立ち位置とに応じて、編集画面の表示が制御される。これにより、男性の利用者には、編集作業を簡単に行える編集画面が提供されるようになり、写真シール作成作業における編集作業に対する利用者の満足度を向上させることが可能となる。   According to the above processing, the display of the editing screen is controlled according to the shooting course selected at the time of shooting. In particular, when a couple course is selected, the display of the editing screen is controlled according to the gender selected by the user (subject) at the time of shooting and the standing position at the time of shooting. As a result, the male user is provided with an editing screen on which the editing work can be easily performed, and the satisfaction of the user with respect to the editing work in the photo sticker creation work can be improved.

このようにして、編集処理が行われる。なお、図25のステップS134以降の処理が実行され、編集処理が終了されると、処理は、図11のステップS5に戻り、ステップS6において印刷処理が行われる。   In this way, the editing process is performed. Note that when the processing in step S134 and subsequent steps in FIG. 25 is executed and the editing processing is completed, the processing returns to step S5 in FIG. 11 and printing processing is performed in step S6.

この印刷処理においては、撮影時に選択された撮影コースや、カップルコースが選択された場合の性別に応じて、縁の色やデザイン(柄)が変更されたシール紙162に、編集作業により得られた編集済み画像が印刷されるようにしてもよい。   In this printing process, a sticker sheet 162 whose edge color or design (pattern) is changed according to the shooting course selected at the time of shooting or the sex when the couple course is selected is obtained by editing. The edited image may be printed.

また、撮影時に選択された撮影コースや、カップルコースが選択された場合の性別に応じて、異なる大きさのシール紙162に、編集済み画像が印刷されるようにしてもよいし、カップルコースが選択された場合の性別に応じて、シール紙162に、大きさの比率の異なる(男性による編集済み画像が全体の1/3で、女性による編集済み画像が全体の2/3となる)編集済み画像が印刷されるようにしてもよい。   Further, the edited image may be printed on a sticker paper 162 having a different size according to the shooting course selected at the time of shooting or the sex when the couple course is selected. Depending on the gender when selected, the size ratio of the sticker sheet 162 is different (the edited image by the male is 1/3 of the whole and the edited image by the female is 2/3 of the whole). A completed image may be printed.

このように、利用者の意図した画像処理が行われた撮影画像が印刷された写真シールを作成することができるので、作成された写真シールに対する利用者の満足度を向上させることが可能となる。   As described above, since the photograph sticker on which the photographed image subjected to the image processing intended by the user is printed can be created, it is possible to improve the satisfaction of the user with respect to the created photograph sticker. .

以上のように、撮影画像に対して、簡単な操作で利用者の意図した画像処理を行わせることができるので、写真シールの作成作業、および作成された写真シールに対する利用者の満足度を向上させることが可能となる。   As described above, the image processing intended by the user can be performed on the captured image with a simple operation, so the work of creating the photo sticker and the user's satisfaction with the created photo sticker are improved. It becomes possible to make it.

さらに、以上においては、撮影処理において、利用者に撮影コースを選択させ、カップルコースが選択された場合には、さらに、利用者に性別を選択させるようにしたが、撮影処理開始時に、利用者に名前を入力させることで、入力された名前に基づいて性別を選択するようにしてもよいし、編集処理開始時(開始前)に、利用者に名前を入力させることで、入力された名前に基づいて性別を選択するようにしてもよい。編集処理開始時に利用者に名前を入力させる場合、撮影処理においては性別などに応じた画像処理は行われない。編集処理においては、画像処理が施されていない撮影画像のいずれかにおける被写体(顔)を認識するとともに、認識された被写体と入力された名前とを対応させるようにすることで、他の撮影画像における被写体に対して、名前に基づいた性別の画像処理を施すようにすることができる。   Furthermore, in the above, in the shooting process, the user selects a shooting course, and when a couple course is selected, the user is further made to select a gender. You may select the gender based on the entered name by letting the user enter the name, or at the beginning of the editing process (before starting), let the user enter the name and enter the name You may make it select gender based on. When the user inputs a name at the start of editing processing, image processing according to gender or the like is not performed in the shooting processing. In the editing process, the subject (face) in any one of the captured images that have not been subjected to image processing is recognized, and the recognized subject is associated with the input name, whereby another captured image is obtained. It is possible to perform gender-based image processing based on the name on the subject.

また、上述のようにして利用者に入力された名前が、印刷処理において、シール紙162の縁や余白部分に印字されるようにしてもよい。   Further, the name input by the user as described above may be printed on the edge or margin of the sticker sheet 162 in the printing process.

また、以上においては、撮影を行う前に、撮影コースや性別、すなわち、撮影画像に施される画像処理の種類を利用者に選択させるようにしたが、撮影前ではなく、撮影を行った後(編集対象用画像を選択させた後)に、編集対象用画像それぞれの被写体の顔や目と、予め用意された顔や目の画像との特徴量をマッチングし、最もマッチングの度合の高い編集対象用画像における顔をさらに認識し、その認識結果(すなわち、性別)に応じて、撮影画像(編集対象用画像)に施される画像処理を選択するようにしてもよい。また、この処理を、編集対象用画像ではなく、上述した撮影処理において得られるサンプル画像や、ためし撮影によって得られる撮影画像に対して行うようにしてももちろんよい。さらに、撮影処理によって得られる画像処理が施されていない撮影画像(編集対象用画像)において被写体の顔が認識された認識結果(性別)により、利用者(男女)の立ち位置を検出することで、編集画面の左右の表示を制御するようにしてもよい。   In the above, before shooting, the shooting course and sex, that is, the type of image processing applied to the shot image is selected by the user, but after shooting, not before shooting. After selecting the image to be edited, the feature amount of the face and eyes of the subject of each image to be edited and the image of the face and eyes prepared in advance are matched, and editing with the highest degree of matching A face in the target image may be further recognized, and image processing to be performed on the captured image (edit target image) may be selected according to the recognition result (that is, gender). Of course, this processing may be performed not on the image to be edited but on the sample image obtained in the above-described photographing processing or the photographed image obtained by trial photographing. Furthermore, by detecting the standing position of the user (gender) based on the recognition result (gender) in which the face of the subject is recognized in the photographed image (image to be edited) obtained by the photographing process and not subjected to image processing. The left and right display of the editing screen may be controlled.

ところで、上述した撮影処理においては、利用者が自分自身を確認できるように、リアルタイムな撮影画像が表示(ライブビュー表示)されるようになされている。以下においては、撮影処理におけるライブビュー表示の詳細について説明する。   By the way, in the photographing process described above, a real-time photographed image is displayed (live view display) so that the user can confirm himself / herself. Details of live view display in the shooting process will be described below.

図29は、図10のライブビュー表示制御部215のさらに詳細な構成例を示す機能ブロック図である。   FIG. 29 is a functional block diagram illustrating a more detailed configuration example of the live view display control unit 215 of FIG.

ライブビュー表示制御部215は、合成処理部731、顔認識部732、距離判定部733、出来上がりフレーム画像取得部734、および表示制御部735から構成される。   The live view display control unit 215 includes a composition processing unit 731, a face recognition unit 732, a distance determination unit 733, a completed frame image acquisition unit 734, and a display control unit 735.

合成処理部731は、タッチパネルモニタ52に表示(ライブビュー表示)されるリアルタイムな撮影画像(動画像)(取り込み画像。以下、ライブビュー画像ともいう)に対して、利用者により選択された撮影用合成用画像を合成する。   The compositing processing unit 731 is for shooting selected by the user with respect to a real-time captured image (moving image) (captured image; hereinafter also referred to as a live view image) displayed on the touch panel monitor 52 (live view display). Synthesize the compositing image.

顔認識部732は、ライブビュー画像において、目を検知するなどの方法で、利用者(被写体)の顔の位置(領域)を認識する。   The face recognition unit 732 recognizes the position (region) of the face of the user (subject) by a method such as detecting eyes in the live view image.

距離判定部733は、顔認識部732によって認識された被写体の顔の位置に基づいて、ライブビュー画像における被写体の顔が所定の位置関係にあるか否か、より具体的には、ライブビュー画像における被写体の顔の位置が、所定の距離範囲内にあるか否かを判定する。   The distance determination unit 733 determines whether or not the face of the subject in the live view image has a predetermined positional relationship based on the position of the face of the subject recognized by the face recognition unit 732, more specifically, the live view image. It is determined whether or not the position of the face of the subject is within a predetermined distance range.

出来上がりフレーム画像取得部734は、距離判定部733の判定結果に基づいて、撮影用合成用画像の1つである出来上がりフレーム画像を取得する。   The completed frame image acquisition unit 734 acquires a completed frame image, which is one of the shooting composition images, based on the determination result of the distance determination unit 733.

表示制御部735は、撮影用合成用画像が合成されたライブビュー画像の表示を、タッチパネルモニタ52に表示させるよう制御する。   The display control unit 735 controls the touch panel monitor 52 to display the display of the live view image in which the shooting composition image is combined.

次に、図30のフローチャートを参照して、例えば、図13のステップS39において実行されるライブビュー表示処理の詳細な流れを説明する。   Next, a detailed flow of the live view display process executed in step S39 of FIG. 13, for example, will be described with reference to the flowchart of FIG.

ステップS171において、カメラ51は、ライブビュー画像(取り込み画像)を取得すると、ステップS172において、顔認識部732は、カメラ51により取得されたライブビュー画像において利用者(被写体)の顔の位置を認識する。   In step S171, when the camera 51 acquires a live view image (captured image), in step S172, the face recognition unit 732 recognizes the position of the face of the user (subject) in the live view image acquired by the camera 51. To do.

ステップS173において、合成処理部731は、例えば、図13のステップS38で選択された撮影用合成用画像が、合体用フレーム画像であるか否かを判定する。   In step S173, for example, the composition processing unit 731 determines whether or not the photographing composition image selected in step S38 in FIG. 13 is a combined frame image.

合体用フレーム画像は、ライブビュー画像における被写体の一部(具体的には、被写体の顔)に合成されるフレーム画像であって、所定の図形の一部を形成するような画像とされる。例えば、合体用フレーム画像は、ハート型や星型、円や四角形を描く線が縦に2分割されたそれぞれの線を表す画像とされる。また、合体用フレーム画像は、所定の図形が縦に2分割されたそれぞれの線を表す画像に限らず、所定の図形が横に2分割されたそれぞれの線を表す画像であってもよいし、それぞれ独立した所定の図形(ハート型や星型など)を描く線を表す画像であってもよい。   The combined frame image is a frame image that is combined with a part of the subject (specifically, the face of the subject) in the live view image, and is an image that forms a part of a predetermined figure. For example, the frame image for merging is an image representing each line obtained by vertically dividing a line that draws a heart shape, a star shape, a circle, or a rectangle into two. Further, the coalescing frame image is not limited to an image representing each line obtained by dividing the predetermined figure into two vertically, but may be an image representing each line obtained by dividing the predetermined figure into two horizontally. Alternatively, the image may be an image representing a line that draws predetermined independent figures (such as a heart shape or a star shape).

ステップS173において、撮影用合成用画像が合体用フレーム画像であると判定されると、処理はステップS174に進み、合成処理部731は、記憶部102から、対応する合体用フレーム画像を読み出し、合体用フレーム画像とライブビュー画像を合成する。   If it is determined in step S173 that the shooting composition image is a coalesced frame image, the process proceeds to step S174, and the compositing processing unit 731 reads out the corresponding coalesced frame image from the storage unit 102, and combines them. A frame image and a live view image are combined.

ステップS175において、表示制御部735は、合成処理部731により合体用フレーム画像が合成されたライブビュー画像が表示されるライブビュー画像表示画面を、タッチパネルモニタ52に表示させる。ライブビュー画像表示画面においては、動画像であるライブビュー画像の被写体の動きに、合成された合体用フレーム画像が追従するようにして、ライブビュー画像が表示される。   In step S175, the display control unit 735 causes the touch panel monitor 52 to display a live view image display screen on which the live view image in which the frame image for combination is combined by the combining processing unit 731 is displayed. On the live view image display screen, the live view image is displayed such that the combined frame image for merging follows the motion of the subject of the live view image that is a moving image.

図31は、タッチパネルモニタ52に表示される、ライブビュー画像表示画面の例を示している。   FIG. 31 shows an example of a live view image display screen displayed on the touch panel monitor 52.

図31Aに示されるように、ライブビュー画像表示画面801の中央には、ライブビュー画像表示部811が設けられている。ライブビュー画像表示部811においては、被写体A(左側)および被写体B(右側)のライブビュー画像が表示されている。また、ライブビュー画像表示部811においては、被写体Aおよび被写体Bの顔の位置が認識され、認識された被写体Aおよび被写体Bの顔の位置(領域)を示す矩形の枠821Aおよび821Bが、被写体Aおよび被写体Bの顔の動きに追従するように、ライブビュー画像に重畳されて表示されている。さらに、ライブビュー画像表示部811においては、枠821Aおよび821Bの大きさに対応するように、ハート型を描く線が縦に2分割された画像である合体用フレーム画像822Aおよび822Bが、被写体Aおよび被写体Bの顔の動きに追従するように、ライブビュー画像に重畳されて表示されている。なお、枠821Aおよび821Bそれぞれの上側には、予め利用者により選択される等して設定された被写体の属性(性別)を表すアイコンが表示されている。図31Aの例では、枠821Aの上側には男性を表すアイコンが、枠821Bの上側には女性を表すアイコンが表示されている。さらに、被写体Aの性別が男性の場合には、枠821Aや合体用フレーム画像822Aの色を青色にし、被写体Bの性別が女性の場合には、枠821Bや合体用フレーム画像822Bの色をピンク色にするなど、被写体の属性に応じて、枠821Aおよび821Bや、合体用フレーム画像822Aおよび822Bの表示色を変えるようにしてもよい。   As shown in FIG. 31A, a live view image display unit 811 is provided in the center of the live view image display screen 801. In the live view image display unit 811, live view images of the subject A (left side) and the subject B (right side) are displayed. In the live view image display unit 811, the positions of the faces of the subject A and the subject B are recognized, and rectangular frames 821A and 821B indicating the recognized face positions (areas) of the subject A and the subject B are the subjects. The images are superimposed on the live view image so as to follow the movement of the faces of A and the subject B. Further, in the live view image display unit 811, the united frame images 822A and 822B, which are images in which a heart-shaped line is vertically divided into two so as to correspond to the sizes of the frames 821A and 821B, are displayed on the subject A. In addition, it is superimposed on the live view image so as to follow the movement of the face of the subject B. Note that an icon representing the attribute (gender) of the subject set by being selected in advance by the user is displayed above each of the frames 821A and 821B. In the example of FIG. 31A, an icon representing a man is displayed above the frame 821A, and an icon representing a woman is displayed above the frame 821B. Furthermore, when the sex of the subject A is male, the color of the frame 821A and the merged frame image 822A is blue. When the sex of the subject B is female, the color of the frame 821B and the merged frame image 822B is pink. The display colors of the frames 821A and 821B and the combined frame images 822A and 822B may be changed according to the subject attribute, such as color.

ライブビュー画像表示部811の左側には、サンプル画像表示部812が設けられている。サンプル画像表示部812には、ライブビュー画像表示部811に表示されているライブビュー画像において、被写体Aの顔と被写体Bの顔の位置が所定の距離範囲内になったときに取得される出来上がりフレーム画像を、予め用意された被写体(モデル)の静止画像に合成したモデルサンプル画像が表示される。また、サンプル画像表示部812には、モデルサンプル画像として、例えば、被写体の顔の位置が所定の距離範囲内にない状態から、所定の距離範囲内になったときの、モデルの顔それぞれに合成されている合体用フレーム画像が出来上がりフレーム画像に変化する様子を表す複数の静止画像が、いわゆるパラパラ漫画のように、連続的に順番に表示されるようにしてもよいし、上述の様子が動画像として表示されるようにしてもよい。これにより、被写体である利用者は、ライブビュー画像内で自分達がどのように移動するかで、ライブビュー画像における合体用フレーム画像が、どのように出来上がりフレーム画像に変化するかを一目で容易に確認することができるようになる。   A sample image display unit 812 is provided on the left side of the live view image display unit 811. In the sample image display unit 812, the result obtained when the positions of the face of the subject A and the face of the subject B are within a predetermined distance range in the live view image displayed on the live view image display unit 811. A model sample image obtained by combining the frame image with a still image of a subject (model) prepared in advance is displayed. In addition, the sample image display unit 812 synthesizes each model face as a model sample image, for example, when the face position of the subject is not within the predetermined distance range and within the predetermined distance range. A plurality of still images representing a state where the combined frame image is changed to a completed frame image may be displayed sequentially in sequence like a so-called flip book, or the above-described state may be a moving image. It may be displayed as an image. As a result, users who are subjects can easily see at a glance how the frame image for merging in the live view image changes to the completed frame image depending on how they move within the live view image. Will be able to confirm.

出来上がりフレーム画像は、合体用フレーム画像に対応して用意されているフレーム画像であって、合体用フレーム画像を合体して形成される(合体用フレーム画像を組み合わせた)図形の画像である。すなわち、図31の例では、サンプル画像表示部812に表示されるモデルサンプル画像において合成される出来上がりフレーム画像は、ハート型を描く線を表す図形となる。出来上がりフレーム画像は、記憶部102に記憶されている。また、出来上がりフレーム画像は、合体用フレーム画像が、ハート型や星型などのそれぞれ独立した所定の図形を描く線を表す画像である場合、例えば、星型と星型の合体用フレーム画像に対応して用意されているハート型のフレーム画像であったり、円と星型の合体用フレーム画像に対応して用意されているハート型のフレーム画像であるものとされる。   The completed frame image is a frame image prepared corresponding to the merged frame image, and is a graphic image formed by combining the merged frame images (combined with the merged frame images). That is, in the example of FIG. 31, the completed frame image synthesized in the model sample image displayed on the sample image display unit 812 is a figure representing a heart-shaped line. The completed frame image is stored in the storage unit 102. In addition, the completed frame image corresponds to, for example, a star-shaped and star-shaped frame image when the frame image for merging is an image representing a line that draws a predetermined figure such as a heart shape or a star shape. Or a heart-shaped frame image prepared corresponding to a circle and star-shaped frame image.

ライブビュー画像表示画面801の下部には、撮影画像表示部813が設けられている。撮影画像表示部813には、撮影前であれば、モデルの画像に、選択された撮影用合成用画像(合体用フレーム画像に対応する出来上がりフレーム画像)が合成された複数枚(図31の例では6枚)のモデルサンプル画像が表示され、撮影後であれば、撮影により得られる複数枚(6枚)の撮影画像(出来上がりフレーム画像などのフレーム画像が合成された撮影画像を含む)が表示される。   A captured image display unit 813 is provided at the bottom of the live view image display screen 801. In the photographed image display unit 813, a plurality of images (the example of FIG. 31) in which the selected composition image for photographing (a completed frame image corresponding to the union frame image) is combined with the model image before photographing. 6 model sample images are displayed, and after shooting, multiple (6) shot images (including shot images in which frame images such as completed frame images are combined) obtained by shooting are displayed. Is done.

ライブビュー画像表示画面801の右上部には、撮影作業に予め割り当てられた制限時間の残り時間(残時間)を表示する残時間表示部814が設けられている。さらに、ライブビュー画像表示画面801の上部には、利用者それぞれに対して、互いに近づいての撮影を促すメッセージ「近づいてね!撮影するよ!」が表示されている。   In the upper right part of the live view image display screen 801, a remaining time display unit 814 for displaying the remaining time (remaining time) of the time limit allocated in advance to the shooting work is provided. Further, at the top of the live view image display screen 801, a message “Provide me! I ’ll shoot!” Prompting each user to shoot near each other is displayed.

図30のフローチャートに戻り、ステップS176において、距離判定部733は、ライブビュー画像における被写体の顔の位置が、所定の距離範囲内にあるか否かを判定する。   Returning to the flowchart of FIG. 30, in step S176, the distance determination unit 733 determines whether the position of the face of the subject in the live view image is within a predetermined distance range.

具体的には、図32Aにおける両矢印で示されるように、被写体Aの顔の領域を表す枠821Aの頂点、および、被写体Bの顔の領域を表す枠821Bの頂点のうちの、それぞれの間の距離が最も小さくなる頂点同士の距離が、所定の値より小さいか否かが判定される。   Specifically, as indicated by a double-headed arrow in FIG. 32A, between the vertices of the frame 821A representing the face area of the subject A and the vertices of the frame 821B representing the face area of the subject B, respectively. It is determined whether the distance between the vertices having the smallest distance is smaller than a predetermined value.

ステップS176において、ライブビュー画像における被写体の顔の位置が所定の距離範囲内にないと判定された場合、処理はステップS177に進み、距離判定部733は、撮影部112に設けられているスピーカ124(図8)を制御し、利用者(被写体)に対して、「もっと近づいて!」や「もっと顔を上に!」などと、音声によって、互いの顔を近づけるように誘導する。なお、ここで、距離判定部733は、図31Aに示されるライブビュー画像表示部811に、被写体同士の顔を近づけるように促す矢印等の表示をするように、タッチパネルモニタ52の表示を制御するようにしてもよい。   If it is determined in step S176 that the position of the subject's face in the live view image is not within the predetermined distance range, the process proceeds to step S177, and the distance determination unit 733 includes the speaker 124 provided in the photographing unit 112. (FIG. 8) is controlled, and the user (subject) is guided to bring the faces closer to each other by voice, such as “Get closer!” Or “More face up!”. Here, the distance determination unit 733 controls the display of the touch panel monitor 52 so as to display an arrow or the like that prompts the faces of the subjects to approach each other on the live view image display unit 811 illustrated in FIG. 31A. You may do it.

なお、例えば、図31Aのライブビュー画像表示部811に表示されているライブビュー画像において、例えば、被写体Aと被写体Bが左右入れ替わるなどして、立ち位置が相対的に変化した場合、被写体Aおよび被写体Bの顔に重畳されて表示されている合体用フレーム画像822Aおよび822Bは、それぞれの顔の領域の縦方向の中心線を基準に、左右反転されるようにしてもよい。   For example, in the live view image displayed in the live view image display unit 811 in FIG. 31A, when the standing position changes relatively, for example, the subject A and the subject B are switched left and right, the subjects A and The merged frame images 822A and 822B displayed superimposed on the face of the subject B may be horizontally reversed with reference to the vertical center line of each face area.

ステップS178において、距離判定部733は、ライブビュー表示処理が開始されてから所定の時間が経過したか否かを判定する。   In step S178, the distance determination unit 733 determines whether or not a predetermined time has elapsed since the live view display process was started.

ステップS178において、所定の時間が経過していないと判定されると、処理はステップS176に戻る。   If it is determined in step S178 that the predetermined time has not elapsed, the process returns to step S176.

ライブビュー表示処理が開始されてから所定の時間が経過する前に、ステップS176において、ライブビュー画像における被写体の顔の位置が所定の距離範囲内にあると判定されると、処理はステップS179に進み、出来上がりフレーム画像取得部734は、合体用フレーム画像に対応する出来上がりフレーム画像を、記憶部102から取得する。   If it is determined in step S176 that the position of the subject's face in the live view image is within the predetermined distance range before the predetermined time has elapsed since the start of the live view display process, the process proceeds to step S179. Then, the completed frame image acquisition unit 734 acquires a completed frame image corresponding to the coalescing frame image from the storage unit 102.

例えば、図32Aにおける両矢印で示される、枠821Aの頂点と、枠821Bの頂点との距離が、所定の値より小さいと判定されると、出来上がりフレーム画像取得部734は、図32Bに示されるような、合体用フレーム画像822Aおよび822Bに対応する、ハート型の出来上がりフレーム画像831を記憶部102から読み出す。このとき、出来上がりフレーム画像取得部734は、枠821Aと枠821Bとを含む枠821Cを設定し、例えば、出来上がりフレーム画像831に枠821Cが内接するように、出来上がりフレーム画像831の大きさ(形状)を調整する。なお、出来上がりフレーム画像831は、単に、枠821Cの大きさに近い大きさに調整されてもよいし、枠821Cの内側に含まれる大きさに調整されてもよい。   For example, when it is determined that the distance between the vertex of the frame 821A and the vertex of the frame 821B indicated by the double arrow in FIG. 32A is smaller than a predetermined value, the completed frame image acquisition unit 734 is illustrated in FIG. 32B. Such a heart-shaped completed frame image 831 corresponding to the merged frame images 822A and 822B is read from the storage unit 102. At this time, the completed frame image acquisition unit 734 sets a frame 821C including the frames 821A and 821B. For example, the size (shape) of the completed frame image 831 so that the frame 821C is inscribed in the completed frame image 831. Adjust. The completed frame image 831 may be simply adjusted to a size close to the size of the frame 821C or may be adjusted to a size included inside the frame 821C.

例えば、図32Bの例と比較して、枠821Aと枠821Bが縦に並ぶように配置される場合、枠821Cの形状は、縦長の長方形となる。この場合、出来上がりフレーム画像取得部734は、縦長の長方形が内接する縦長のハート型になるように、出来上がりフレーム画像831の形状を調整する。また、枠821Aと枠821Bが横に並ぶように配置される場合、枠821Cの形状は、横長の長方形となる。この場合、出来上がりフレーム画像取得部734は、横長の長方形が内接する横長のハート型になるように、出来上がりフレーム画像831の形状を調整する。   For example, compared to the example of FIG. 32B, when the frames 821A and 821B are arranged vertically, the shape of the frame 821C is a vertically long rectangle. In this case, the completed frame image acquisition unit 734 adjusts the shape of the completed frame image 831 so that the vertically long rectangle is inscribed in a vertically long heart shape. When the frame 821A and the frame 821B are arranged side by side, the shape of the frame 821C is a horizontally long rectangle. In this case, the completed frame image acquisition unit 734 adjusts the shape of the completed frame image 831 so that the horizontally long rectangle is inscribed in a horizontally long heart shape.

さらに、被写体Aに対応する利用者および被写体Bに対応する利用者の、撮影空間におけるカメラ51の奥行き方向に対する立ち位置によって、枠821Aと枠821Bとの大きさに差が生じ、これによって、ステップS174において被写体のライブビュー画像に合成される合体用フレーム画像822Aと822Bとの大きさにも差が生じる。このような場合でも、出来上がりフレーム画像取得部734は、枠821Aと枠821Bとを含む枠821Cを設定し、出来上がりフレーム画像831に枠821Cが内接するように、出来上がりフレーム画像831の大きさ(形状)を調整するようにできる。   Further, the size of the frame 821A and the frame 821B varies depending on the standing position of the user corresponding to the subject A and the user corresponding to the subject B with respect to the depth direction of the camera 51 in the shooting space. A difference also occurs in the size of the combined frame images 822A and 822B synthesized with the live view image of the subject in S174. Even in such a case, the completed frame image acquisition unit 734 sets the frame 821C including the frames 821A and 821B, and the size (shape) of the completed frame image 831 so that the frame 821C is inscribed in the completed frame image 831. ) Can be adjusted.

なお、利用者の、カメラ51の奥行き方向に対する立ち位置によって、合体用フレーム画像822Aと822Bとの大きさに差が生じる場合には、ステップS177における処理のように、距離判定部733が、利用者を、カメラ51の奥行き方向に対する立ち位置を合わせるように誘導させるようにしてもよい。   Note that if there is a difference in size between the combined frame images 822A and 822B depending on the user's standing position in the depth direction of the camera 51, the distance determination unit 733 uses the processing as in the process in step S177. The person may be guided so as to match the standing position of the camera 51 in the depth direction.

図30のフローチャートに戻り、ステップS180において、合成処理部731は、出来上がりフレーム画像取得部734により取得された(読み出された)出来上がりフレーム画像と、カメラ51により取得されたライブビュー画像を合成する。   Returning to the flowchart of FIG. 30, in step S180, the composition processing unit 731 combines the completed frame image acquired (read) by the completed frame image acquisition unit 734 and the live view image acquired by the camera 51. .

ステップS181において、表示制御部735は、タッチパネルモニタ52に表示されているライブビュー画像表示画面に、ステップS178の処理により得られたライブビュー画像を表示させる。   In step S181, the display control unit 735 displays the live view image obtained by the process of step S178 on the live view image display screen displayed on the touch panel monitor 52.

このようにして、図31Bに示されるように、ライブビュー画像表示部811に表示されている被写体(被写体Aおよび被写体B)の顔全体に対してハート型の出来上がりフレーム画像831が合成(重畳)されたライブビュー画像が表示されるようになる。   In this way, as shown in FIG. 31B, the heart-shaped completed frame image 831 is synthesized (superimposed) on the entire face of the subject (Subject A and Subject B) displayed on the live view image display unit 811. The live view image is displayed.

なお、図31においては、利用者(被写体)が2人である場合の出来上がりフレーム画像の合成の例について説明したが、図33を参照して、被写体が3人である場合の出来上がりフレーム画像の合成の例について説明する。   In FIG. 31, an example of synthesis of a completed frame image when there are two users (subjects) has been described. With reference to FIG. 33, a completed frame image when there are three subjects is illustrated. An example of synthesis will be described.

図33は、タッチパネルモニタ52に表示される、ライブビュー画像表示画面の例を示している。なお、図33に示されるライブビュー画像表示画面801の構成は、図31で説明したライブビュー画像表示画面801と同一であるので、その説明は省略する。   FIG. 33 shows an example of a live view image display screen displayed on the touch panel monitor 52. The configuration of the live view image display screen 801 shown in FIG. 33 is the same as that of the live view image display screen 801 described with reference to FIG.

図33Aのライブビュー画像表示部811においては、被写体A、被写体B、および被写体Cのライブビュー画像が表示されている。また、図33Aのライブビュー画像表示部811においては、被写体A、被写体B、および被写体Cの顔の位置が認識され、認識された被写体A、被写体B、および被写体Cの顔の位置(領域)を示す矩形の枠921A、921B、および921Cが、ライブビュー画像に重畳されて表示されている。さらに、図33Aのライブビュー画像表示部411においては、枠921A、921B、および921Cの大きさに対応するように、丸型を描く線からなる画像である合体用フレーム画像922A、922B、および922Cが、ライブビュー画像に重畳されて表示されている。   In the live view image display unit 811 in FIG. 33A, live view images of the subject A, the subject B, and the subject C are displayed. In the live view image display unit 811 in FIG. 33A, the positions of the faces of the subjects A, B, and C are recognized, and the positions (areas) of the recognized faces of the subjects A, B, and C are recognized. The rectangular frames 921A, 921B, and 921C indicating are superimposed on the live view image and displayed. Further, in the live view image display unit 411 in FIG. 33A, the united frame images 922A, 922B, and 922C, which are images formed of lines that draw a round shape so as to correspond to the sizes of the frames 921A, 921B, and 921C. Is superimposed on the live view image.

図33Aの状態から、例えば、枠921Aと枠921Cの中心点を結ぶ線分の中点と、枠921Bの中心点との距離が所定の値より小さく、かつ、枠921Aと枠921Bとの距離、および、枠921Bと枠921Cとの距離がそれぞれ他の所定の値より小さくなると、図33Bに示されるような、合体用フレーム画像922A、922B、および922Cに対応する、串にささった団子をイメージした出来上がりフレーム画像931が読み出される。このようにして、ライブビュー画像表示部811に表示されている被写体(被写体A、被写体B、および被写体C)の顔全体に対して、串にささった団子をイメージした出来上がりフレーム画像931が合成(重畳)されたライブビュー画像が表示されるようになる。   From the state of FIG. 33A, for example, the distance between the midpoint of the line connecting the center points of the frames 921A and 921C and the center point of the frame 921B is smaller than a predetermined value, and the distance between the frames 921A and 921B When the distance between the frame 921B and the frame 921C becomes smaller than each other predetermined value, the dumplings sandwiched between the skewers corresponding to the combined frame images 922A, 922B, and 922C as shown in FIG. 33B are displayed. An image of the completed frame image 931 is read out. In this way, a completed frame image 931 that is an image of dumplings sandwiched between the faces of the subjects (Subject A, Subject B, and Subject C) displayed in the live view image display unit 811 is synthesized ( The superimposed live view image is displayed.

さて、図30のフローチャートに戻り、ステップS178において、ライブビュー表示処理が開始されてから所定の時間が経過したと判定されると、処理はステップS182に進み、表示制御部735は、ライブビュー画像表示部811においてライブビュー画像に合成されて表示されている合体用フレーム画像の表示を終了する。すなわち、所定の時間内に、被写体の顔の位置が所定の距離範囲内にならなかった場合、ライブビュー画像には、カメラ51によって取得されたライブビュー画像のみが表示されるようになる。この場合、撮影画像には、合体用フレーム画像も出来上がりフレーム画像も合成されない。   Now, returning to the flowchart of FIG. 30, if it is determined in step S178 that a predetermined time has elapsed since the start of the live view display process, the process proceeds to step S182, and the display control unit 735 displays the live view image. The display of the combined frame image that is combined with the live view image and displayed on the display unit 811 is terminated. That is, when the position of the subject's face does not fall within the predetermined distance range within a predetermined time, only the live view image acquired by the camera 51 is displayed on the live view image. In this case, neither the combined frame image nor the completed frame image is synthesized with the captured image.

ところで、ステップS173において、撮影用合成用画像が合体用フレーム画像でないと判定された場合、すなわち、例えば、図13のステップS38で選択された撮影用合成用画像が、合体用フレーム画像以外のフレーム画像、ノーマル画像、またはオーラ画像である場合、処理はステップS183に進み、合成処理部731は、記憶部102から、選択された撮影用合成用画像を読み出し、撮影用合成用画像とライブビュー画像を合成する。   By the way, when it is determined in step S173 that the photographic composition image is not a coalesced frame image, that is, for example, the photographic composition image selected in step S38 in FIG. 13 is a frame other than the coalesced frame image. If it is an image, a normal image, or an aura image, the process proceeds to step S183, and the compositing processing unit 731 reads out the selected composite image for shooting from the storage unit 102, and combines the live image and the live view image. Is synthesized.

ステップS184において、表示制御部735は、合成処理部731により合成されたライブビュー画像が表示されるライブビュー画像表示画面を、タッチパネルモニタ52に表示させる。   In step S184, the display control unit 735 causes the touch panel monitor 52 to display a live view image display screen on which the live view image synthesized by the synthesis processing unit 731 is displayed.

ステップS181、ステップS182、またはステップS184の処理が終了すると、ライブビュー表示処理は終了され、処理は、図13のステップS39に戻り、これ以降の処理が実行される。   When the process of step S181, step S182, or step S184 is completed, the live view display process is terminated, the process returns to step S39 in FIG. 13, and the subsequent processes are executed.

このようにしてライブビュー画像に合成された出来上がりフレーム画像は、撮影処理の結果得られる撮影画像(編集対象用画像)や、編集処理によって得られる編集済み画像にも反映されるようになる。   The completed frame image combined with the live view image in this way is reflected in the captured image (image to be edited) obtained as a result of the imaging process and the edited image obtained by the editing process.

以上の処理によれば、撮影用合成用画像として、所定の図形の一部を形成する合体用フレーム画像が選択され、ライブビュー画像において、選択された合体用フレーム画像が合成された被写体の顔が所定の位置関係になると、被写体の顔全体に対して、所定の図形の全体を形成する出来上がりフレーム画像が合成されるようになる。これにより、利用者は、ライブビュー画像における被写体それぞれの顔の部分に合成されているフレーム画像を、互いの顔を近づけることによって、1つの出来上がりフレーム画像にすることができ、撮影作業を楽しみながら行うことができる。また、出来上がりフレーム画像は、撮影画像(編集対象用画像)や編集済み画像にも反映されるので、最終的に出力される写真シールや、携帯端末に送信される画像にももちろん反映されるようにできる。したがって、写真シールの作成作業、および作成された写真シールに対する利用者の満足度を向上させることが可能となる。   According to the above processing, a merged frame image forming a part of a predetermined figure is selected as a shooting composition image, and the face of the subject in which the selected merged frame image is synthesized in the live view image. Is a predetermined positional relationship, a completed frame image forming the entire predetermined figure is synthesized with the entire face of the subject. Thereby, the user can make the frame image combined with each face part of the subject in the live view image into one completed frame image by bringing the faces close to each other, while enjoying the shooting operation. It can be carried out. In addition, the completed frame image is reflected in the photographed image (image to be edited) and the edited image, so of course it will be reflected in the final photo sticker and the image transmitted to the mobile terminal. Can be. Therefore, it is possible to improve the photo sticker creation work and the user satisfaction with the photo sticker created.

なお、利用者が選択可能な合体用フレーム画像は、選択された撮影コースに応じて変更される。具体的には、撮影コースとしてカップルコースが選択された場合、利用者に撮影用合成用画像を選択させるときに、図31を参照して説明したハート型の出来上がりフレーム画像が得られる合体用フレーム画像を選択可能とし、撮影コースとしてフレンドコースが選択された場合、図33を参照して説明した、串にささった団子をイメージした出来上がりフレーム画像が得られる合体用フレーム画像や、星型の出来上がりフレーム画像が得られる合体用フレーム画像等を選択可能とするようになされる。   Note that the coalescing frame image that can be selected by the user is changed according to the selected shooting course. More specifically, when a couple course is selected as the shooting course, a combined frame that can obtain the heart-shaped completed frame image described with reference to FIG. 31 when the user selects a shooting composition image. When an image can be selected and a friend course is selected as a shooting course, a frame image for merging or a star-shaped image obtained with reference to FIG. 33 can be obtained. A coalescing frame image or the like from which a frame image can be obtained can be selected.

また、上述した説明においては、ステップS176の処理において、被写体の顔同士の距離として、被写体の顔の領域を表す矩形の枠の頂点同士の距離が参照されるようにしたが、これに限らず、それぞれの枠の辺同士の距離や、それぞれの枠の頂点と辺との距離、それぞれの枠の中心点同士の距離が参照されるようにしてもよい。   In the above description, in the process of step S176, the distance between the vertices of the rectangular frame representing the face area of the subject is referred to as the distance between the subject faces. The distance between the sides of each frame, the distance between the vertex and the side of each frame, and the distance between the center points of each frame may be referred to.

さらに、被写体の顔同士の位置が所定の距離範囲内にある場合に、出来上がりフレーム画像が取得されるようにしたが、被写体の顔同士の位置が所定の距離範囲内にあり、かつ、被写体の顔の領域のサイズ(例えば、顔の領域を表す矩形の枠の面積)がそれぞれ所定の大きさより大きい場合に、出来上がりフレーム画像が取得されるようにしてもよい。   Furthermore, the completed frame image is acquired when the positions of the faces of the subject are within a predetermined distance range, but the positions of the faces of the subject are within the predetermined distance range and When the size of the face area (for example, the area of a rectangular frame representing the face area) is larger than a predetermined size, a completed frame image may be acquired.

また、被写体の顔同士の位置が所定の距離範囲内になったときに、取得した出来上がりフレーム画像をライブビュー画像に合成して表示するとともに、所定のオーラ画像やフレーム画像をアニメーション表示させるようにしてもよく、さらに、対応するオーラ画像やフレーム画像を、撮影画像(編集対象用画像)や編集済み画像に反映させるようにしてもよい。   Also, when the positions of the faces of the subject are within a predetermined distance range, the obtained completed frame image is combined with the live view image and displayed, and a predetermined aura image or frame image is displayed as an animation. Further, the corresponding aura image or frame image may be reflected in the captured image (edit target image) or the edited image.

さらに、被写体の顔同士の位置関係(距離)に応じて、ライブビュー画像の背景色を調整するようにしてもよい。具体的には、被写体の顔同士が遠い場合には、ライブビュー画像の背景色を青色とし、被写体の顔同士が近い場合には、ライブビュー画像の背景色をピンク色とするなどしてもよい。また、被写体の顔同士の位置関係に応じて、撮影空間32内の照明装置やLED等の明るさや色味を調整するようにしてもよい。   Furthermore, the background color of the live view image may be adjusted according to the positional relationship (distance) between the faces of the subject. Specifically, when the faces of the subject are far away, the background color of the live view image may be blue, and when the faces of the subject are close, the background color of the live view image may be pink. Good. Further, the brightness and color of the lighting device and LEDs in the photographing space 32 may be adjusted according to the positional relationship between the faces of the subject.

また、ライブビュー表示処理で得られた出来上がりフレーム画像を、編集処理において編集対象となる撮影画像に対して利用者による編集入力によって合成される編集用合成用画像とするようにしてもよい。また、編集処理時に、撮影処理において撮影画像に合成された出来上がりフレーム画像の色を変更したり、出来上がりフレーム画像を、出来上がりフレーム画像に関連する画像に変更したり、合成された出来上がりフレーム画像を削除することができるようにしてもよい。   Further, the completed frame image obtained by the live view display process may be used as an editing composition image that is synthesized by a user's editing input with respect to the captured image to be edited in the editing process. Also, during the editing process, you can change the color of the completed frame image combined with the captured image in the shooting process, change the completed frame image to an image related to the completed frame image, or delete the combined completed frame image You may be able to do that.

なお、以上においては、ライブビュー画像において、合体用フレーム画像および出来上がりフレーム画像が、被写体の顔の部分に合成されるものとしたが、被写体の体全体や、顔以外の被写体の体の一部に合成されるようにしてもよい。すなわち、例えば、それぞれの被写体全身に合体用フレーム画像を合成し、被写体同士の位置が所定の距離範囲内になったとき、全ての被写体に出来上がりフレーム画像を合成するようにしてもよい。   In the above description, in the live view image, the united frame image and the completed frame image are combined with the face portion of the subject, but the entire subject body or a part of the subject body other than the face is used. You may make it synthesize | combine. That is, for example, a combined frame image may be synthesized for each subject, and when the positions of the subjects are within a predetermined distance range, the completed frame image may be synthesized for all subjects.

また、出来上がりフレーム画像は、合体用フレーム画像に対応して、記憶部102に記憶されるものとしたが、出来上がりフレーム画像取得部734によって、合体用フレーム画像に基づいて、出来上がりフレーム画像が生成されるようにしてもよい。   The completed frame image is stored in the storage unit 102 in correspondence with the merged frame image. However, the completed frame image acquisition unit 734 generates a completed frame image based on the merged frame image. You may make it do.

さらに、以上においては、ライブビュー画像において、利用者である被写体同士の位置が所定の距離範囲内になったときに、出来上がりフレーム画像が合成される例について説明したが、例えば、利用者が1人で撮影作業を行うような場合、ライブビュー画像において、その利用者としての被写体と、予め登録され、ライブビュー画像に表示されている他の被写体であるモデルのモデル画像のそれぞれに、合体用フレーム画像を合成させ、利用者である被写体とモデル画像との位置が所定の距離範囲内になったときに、出来上がりフレーム画像が合成されるようにしてもよい。   Further, in the above description, an example in which a completed frame image is synthesized when the positions of subjects as users are within a predetermined distance range in the live view image has been described. When performing a shooting operation by a person, in the live view image, the subject as the user and the model image of the model that is another subject that is registered in advance and displayed in the live view image are combined. The frame images may be combined, and the completed frame image may be combined when the position of the subject that is the user and the model image is within a predetermined distance range.

ところで、上述した一連の処理は、ハードウェアにより実行させることもできるし、ソフトウェアにより実行させることもできる。上述した一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、ネットワークや記録媒体からインストールされる。   By the way, the above-described series of processes can be executed by hardware or can be executed by software. When the above-described series of processing is executed by software, a program constituting the software is installed from a network or a recording medium.

この記録媒体は、例えば、図8に示されるように、装置本体とは別に、写真シール作成装置1の管理者にプログラムを配信するために配布される、プログラムが記録されている磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROMおよびDVDを含む)、光磁気ディスク(MDを含む)、もしくは半導体メモリなどよりなるリムーバブルメディア105により構成されるだけでなく、装置本体に予め組み込まれた状態で管理者に配信される、プログラムが記録されているROM106や、記憶部102に含まれるハードディスクなどで構成される。   For example, as shown in FIG. 8, the recording medium is distributed to distribute the program to the administrator of the photo sticker creating apparatus 1 separately from the apparatus main body, and is a magnetic disk (flexible disk) on which the program is recorded. Disk), optical disk (including CD-ROM and DVD), magneto-optical disk (including MD), or removable media 105 made of semiconductor memory, etc., but also pre-installed in the device body The ROM 106 in which the program is recorded and the hard disk included in the storage unit 102 are distributed to the administrator.

なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。   In the present specification, the step of describing the program recorded on the recording medium is not limited to the processing performed in chronological order according to the described order, but is not necessarily performed in chronological order. It also includes processes that are executed individually.

以上において、印刷媒体は、シール紙や写真紙に限られるものではなく、例えば、所定のサイズの紙やフィルム、ポスター用の紙、テレホンカードなどのカード、あるいは、Tシャツなどの布地などに印刷するようにしてもよい。   In the above, the printing medium is not limited to sticker paper or photographic paper. For example, printing on a predetermined size of paper or film, poster paper, a card such as a telephone card, or a cloth such as a T-shirt. You may make it do.

また、本明細書において、システムとは、複数の装置により構成される装置全体を表すものである。なお、以上において、1つの装置として説明した構成を分割し、複数の装置として構成するようにしてもよい。逆に、以上において複数の装置として説明した構成をまとめて1つの装置として構成されるようにしてもよい。また、各装置の構成に上述した以外の構成を付加するようにしてももちろんよい。さらに、システム全体としての構成や動作が実質的に同じであれば、ある装置の構成の一部を他の装置の構成に含めるようにしてもよい。   Further, in this specification, the system represents the entire apparatus constituted by a plurality of apparatuses. In the above, the configuration described as one device may be divided and configured as a plurality of devices. Conversely, the configurations described above as a plurality of devices may be combined into a single device. Of course, configurations other than those described above may be added to the configuration of each device. Furthermore, if the configuration and operation of the entire system are substantially the same, a part of the configuration of a certain device may be included in the configuration of another device.

1 写真シール作成装置
12 撮影ユニット
13 編集ユニット
101 制御部
112 撮影部
113 編集部
202 撮影処理部
203 編集処理部
204 印刷処理部
205 事後接客処理部
213 コース選択制御部
215 ライブビュー表示制御部
216 撮影画像取得部
217 画像処理制御部
234 編集画面表示制御部
DESCRIPTION OF SYMBOLS 1 Photo sticker production apparatus 12 Shooting unit 13 Editing unit 101 Control unit 112 Shooting unit 113 Editing unit 202 Shooting processing unit 203 Editing processing unit 204 Print processing unit 205 Subsequent customer service processing unit 213 Course selection control unit 215 Live view display control unit 216 Shooting Image acquisition unit 217 Image processing control unit 234 Edit screen display control unit

Claims (13)

利用者を被写体として撮影し、得られた画像を出力する画像編集装置であって、
利用者が被写体として撮影される前記画像に対して施される画像処理の種類を決定するコースを選択するコース選択手段と、
前記利用者を被写体として撮影し撮影画像を得る撮影手段と、
前記撮影画像に対して、前記コース選択手段により選択された前記コースに応じた種類の画像処理を施すように制御する画像処理制御手段と、
利用者による落書き編集入力に基づいて、画像処理が施された前記撮影画像を編集する編集手段と
を備える画像編集装置。
An image editing apparatus for photographing a user as a subject and outputting the obtained image,
Course selection means for selecting a course for determining the type of image processing to be performed on the image photographed as a subject by the user;
Photographing means for photographing the user as a subject and obtaining a photographed image;
Image processing control means for controlling the captured image to perform image processing of a type corresponding to the course selected by the course selection means;
An image editing apparatus comprising: editing means for editing the photographed image subjected to image processing based on a graffiti editing input by a user.
前記コース選択手段は、前記コースのうちの、前記利用者が被写体として撮影される前記撮影画像に対して、前記利用者の属性に応じた画像処理を施すための第1のコースを選択し、
前記画像処理制御手段は、前記コース選択手段により前記第1のコースが選択された場合、前記撮影画像に対して前記利用者の属性に応じた画像処理を施すように制御する
請求項1に記載の画像編集装置。
The course selecting means selects a first course for performing image processing according to the attribute of the user with respect to the taken image of the course taken by the user as a subject.
The image processing control means controls the image processing according to the user attribute to be performed on the captured image when the first course is selected by the course selection means. Image editing device.
前記コース選択手段は、前記コースのうちの、前記第1のコースとは異なる、前記撮影画像に対して、前記利用者の指示に応じた画像処理を施すための第2のコースを選択し、
前記画像処理制御手段は、前記コース選択手段により前記第2のコースが選択された場合、前記撮影画像に対して前記利用者の指示に応じた画像処理を施すように制御する
請求項2に記載の画像編集装置。
The course selection means selects a second course for performing image processing according to the user's instruction on the captured image, which is different from the first course, out of the courses,
The image processing control unit controls the image processing to perform image processing in accordance with an instruction of the user when the second course is selected by the course selection unit. Image editing device.
前記コース選択手段は、前記第1のコースが選択された場合、前記利用者毎の属性をさらに選択し、
前記画像処理制御手段は、前記撮影画像における前記利用者それぞれに対して、前記コース選択手段により選択された前記利用者毎の属性に応じた画像処理を施すように制御する
請求項2に記載の画像編集装置。
The course selection means further selects an attribute for each user when the first course is selected,
The said image processing control means controls so that the image processing according to the attribute for every said user selected by the said course selection means may be performed with respect to each said user in the said picked-up image. Image editing device.
前記編集手段により編集される前記撮影画像上に、前記利用者が前記落書き編集入力を行うための編集画面の表示を制御する画面表示制御手段をさらに備え、
前記画面表示制御手段は、前記コース選択手段により前記第1のコースが選択された場合、前記利用者の属性に応じた前記編集画面の表示を制御する
請求項2または4に記載の画像編集装置。
On the photographed image edited by the editing means, further comprising screen display control means for controlling the display of an editing screen for the user to perform the graffiti editing input,
5. The image editing apparatus according to claim 2, wherein the screen display control unit controls display of the editing screen according to the attribute of the user when the first course is selected by the course selection unit. .
前記画面表示制御手段は、前記コース選択手段により前記第1のコースが選択された場合、前記撮影画像における前記利用者の相対的な位置と、前記利用者の属性とに応じた前記編集画面の表示を制御する
請求項5に記載の画像編集装置。
When the first course is selected by the course selection unit, the screen display control unit is configured to display the editing screen according to the relative position of the user in the captured image and the attribute of the user. The image editing apparatus according to claim 5, wherein display is controlled.
前記撮影画像に合成させる合成用画像を、前記コース選択手段の選択に応じて選択する合成用画像選択手段をさらに備える
請求項1乃至4のいずれかに記載の画像編集装置。
The image editing apparatus according to any one of claims 1 to 4, further comprising a composition image selection unit that selects a composition image to be synthesized with the photographed image in accordance with a selection of the course selection unit.
前記撮影手段により撮影された前記撮影画像を動画像としてリアルタイムで表示部に表示させるように制御する動画像表示制御手段をさらに備え、
前記画像処理制御手段は、前記動画像に対して、前記コース選択手段の選択に応じた画像処理を施すよう制御し、
前記動画像表示制御手段は、前記画像処理制御手段により、前記コース選択手段の選択に応じた画像処理が施された前記動画像を、前記表示部に表示させるように制御する
請求項1乃至4のいずれかに記載の画像編集装置。
A moving image display control unit for controlling the captured image captured by the imaging unit to be displayed as a moving image on a display unit in real time;
The image processing control unit controls the moving image to perform image processing according to the selection of the course selection unit;
5. The moving image display control unit controls the display unit to display the moving image that has been subjected to image processing according to the selection of the course selection unit by the image processing control unit. An image editing apparatus according to any one of the above.
編集結果を前記シールシートに印刷する印刷手段をさらに備え、
前記印刷手段は、前記コース選択手段の選択に応じたデザインまたは大きさの前記シールシートに、前記編集結果を印刷する
請求項1乃至4のいずれかに記載の画像編集装置。
A printing means for printing the edited result on the sticker sheet;
5. The image editing apparatus according to claim 1, wherein the printing unit prints the editing result on the seal sheet having a design or a size according to the selection of the course selection unit.
前記コース選択手段は、前記利用者による名前入力に基づいて、前記利用者毎の性別を選択する
請求項4に記載の画像編集装置。
The image editing apparatus according to claim 4, wherein the course selection unit selects a gender for each user based on a name input by the user.
前記コース選択手段は、前記撮影における前記利用者の顔の状態に基づいて認識された顔画像に応じて、前記コースを選択する
請求項1に記載の画像編集装置。
The image editing apparatus according to claim 1, wherein the course selection unit selects the course according to a face image recognized based on a state of the user's face in the shooting.
利用者を被写体として撮影し、得られた画像を出力する画像編集装置の画像編集方法であって、
利用者が被写体として撮影される前記画像に対して施される画像処理の種類を決定するコースを選択するコース選択ステップと、
前記利用者を被写体として撮影し撮影画像を得る撮影ステップと、
前記撮影画像に対して、前記コース選択ステップの処理により選択された前記コースに応じた種類の画像処理を施すように制御する画像処理制御ステップと、
利用者による落書き編集入力に基づいて、画像処理が施された前記撮影画像を編集する編集ステップと
を含む画像編集方法。
An image editing method of an image editing apparatus for photographing a user as a subject and outputting the obtained image,
A course selection step for selecting a course for determining the type of image processing to be performed on the image captured by the user as a subject;
A photographing step of photographing the user as a subject to obtain a photographed image;
An image processing control step for controlling the captured image to perform image processing of a type corresponding to the course selected by the course selection step;
An image editing method comprising: an editing step of editing the photographed image subjected to image processing based on a graffiti editing input by a user.
利用者を被写体として撮影し、得られた画像を出力する処理をコンピュータに実行させるプログラムであって、
利用者が被写体として撮影される前記画像に対して施される画像処理の種類を決定するコースを選択するコース選択ステップと、
前記利用者の被写体としての撮影を制御し撮影画像を得る撮影制御ステップと、
前記撮影画像に対して、前記コース選択ステップの処理により選択された前記コースに応じた種類の画像処理を施すように制御する画像処理制御ステップと、
利用者による落書き編集入力に基づいて、画像処理が施された前記撮影画像の編集を制御する編集制御ステップと
を含む処理をコンピュータに実行させるプログラム。
A program for causing a computer to execute a process of photographing a user as a subject and outputting the obtained image.
A course selection step for selecting a course for determining the type of image processing to be performed on the image captured by the user as a subject;
A shooting control step for controlling shooting of the user as a subject and obtaining a shot image;
An image processing control step for controlling the captured image to perform image processing of a type corresponding to the course selected by the course selection step;
A program that causes a computer to execute processing including: an editing control step that controls editing of the captured image that has been subjected to image processing based on graffiti editing input by a user.
JP2010178151A 2010-08-06 2010-08-06 Image editing apparatus and method, and program Active JP5447276B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010178151A JP5447276B2 (en) 2010-08-06 2010-08-06 Image editing apparatus and method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010178151A JP5447276B2 (en) 2010-08-06 2010-08-06 Image editing apparatus and method, and program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2013232906A Division JP5505751B2 (en) 2013-11-11 2013-11-11 Image editing apparatus and method, and program

Publications (2)

Publication Number Publication Date
JP2012037735A true JP2012037735A (en) 2012-02-23
JP5447276B2 JP5447276B2 (en) 2014-03-19

Family

ID=45849782

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010178151A Active JP5447276B2 (en) 2010-08-06 2010-08-06 Image editing apparatus and method, and program

Country Status (1)

Country Link
JP (1) JP5447276B2 (en)

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013239919A (en) * 2012-05-15 2013-11-28 Make Softwear:Kk Photography game machine, photography game method and control program
JP2013243466A (en) * 2012-05-18 2013-12-05 Tatsumi Denshi Kogyo Kk Imaging apparatus for game, imaging method for game, and program
JP2013255217A (en) * 2013-02-25 2013-12-19 Furyu Kk Photograph seal machine, processing method of the same and program
JP2014075144A (en) * 2013-12-02 2014-04-24 Make Softwear:Kk Photography game machine
JP2014074916A (en) * 2013-11-15 2014-04-24 Furyu Kk Photographic seal creation device, image processing method, and program
JP2014090322A (en) * 2012-10-30 2014-05-15 Canon Inc Imaging apparatus and control method of the same
JP2014096643A (en) * 2012-11-07 2014-05-22 Furyu Kk Image processing device, image processing method, and program
JP2014132772A (en) * 2014-02-19 2014-07-17 Tatsumi Denshi Kogyo Kk Imaging device for game, processing method and program of imaging device for game
JP2014239547A (en) * 2014-09-01 2014-12-18 フリュー株式会社 Image printer and image arrangement method
JP2015031833A (en) * 2013-08-02 2015-02-16 辰巳電子工業株式会社 Game-purposed imaging device, and control method and computer program for the same
JP2015163924A (en) * 2014-02-28 2015-09-10 フリュー株式会社 Photographic seal creation device and photographic seal creation method
JP2015188256A (en) * 2015-06-15 2015-10-29 辰巳電子工業株式会社 Imaging apparatus for game, imaging method for game, and program
JP2015210424A (en) * 2014-04-28 2015-11-24 株式会社メイクソフトウェア Picture-taking game machine and control program of the same
JP2015213336A (en) * 2015-06-15 2015-11-26 辰巳電子工業株式会社 Imaging apparatus for game, imaging method for game, and program
JP2016001333A (en) * 2015-08-13 2016-01-07 株式会社メイクソフトウェア Photography game machine and control program thereof
US9288405B2 (en) 2013-08-09 2016-03-15 Furyu Corporation Image output device and method of outputting image
JP2016096541A (en) * 2015-10-28 2016-05-26 辰巳電子工業株式会社 Imaging apparatus for game, control method for the same, and program
JP2016173585A (en) * 2016-05-02 2016-09-29 フリュー株式会社 Photograph seal machine, processing method of photograph seal machine, and program
JP2016197924A (en) * 2016-08-19 2016-11-24 辰巳電子工業株式会社 Imaging apparatus for game, imaging method for game, and program
JP2017108409A (en) * 2016-12-19 2017-06-15 フリュー株式会社 Image processing apparatus, image processing method, and program
JP2017173848A (en) * 2017-06-07 2017-09-28 辰巳電子工業株式会社 Imaging apparatus for game, imaging method for game, and program
JP7223086B1 (en) 2021-09-01 2023-02-15 株式会社セガ Amusement imaging device
JP7502711B1 (en) 2022-12-08 2024-06-19 フリュー株式会社 PROGRAM, INFORMATION PROCESSING METHOD, AND INFORMATION PROCESSING APPARATUS

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1175152A (en) * 1997-08-27 1999-03-16 Daishin Home Kk Image processing unit
JP2004062839A (en) * 2002-06-03 2004-02-26 Omron Corp Photographic printer, printing paper unit, method, program for controlling photographic printer and computer readable recording medium in which the same is recorded
JP2005192048A (en) * 2003-12-26 2005-07-14 Omron Corp Photographic printer, control method of photographic printer, photographic printer control program, and recording medium recorded with photographic printer control program
JP2006072045A (en) * 2004-09-02 2006-03-16 Make Softwear:Kk Automatic photographing device
JP2007264858A (en) * 2006-03-28 2007-10-11 Fujitsu Ltd Personal name sexuality determination program, machine translation program, personal name sexuality determination device, machine translation device, personal name sexuality determination processing method and machine translation processing method
JP2010154455A (en) * 2008-12-26 2010-07-08 Furyu Kk Photograph seal creating apparatus, method, and program

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1175152A (en) * 1997-08-27 1999-03-16 Daishin Home Kk Image processing unit
JP2004062839A (en) * 2002-06-03 2004-02-26 Omron Corp Photographic printer, printing paper unit, method, program for controlling photographic printer and computer readable recording medium in which the same is recorded
JP2005192048A (en) * 2003-12-26 2005-07-14 Omron Corp Photographic printer, control method of photographic printer, photographic printer control program, and recording medium recorded with photographic printer control program
JP2006072045A (en) * 2004-09-02 2006-03-16 Make Softwear:Kk Automatic photographing device
JP2007264858A (en) * 2006-03-28 2007-10-11 Fujitsu Ltd Personal name sexuality determination program, machine translation program, personal name sexuality determination device, machine translation device, personal name sexuality determination processing method and machine translation processing method
JP2010154455A (en) * 2008-12-26 2010-07-08 Furyu Kk Photograph seal creating apparatus, method, and program

Cited By (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013239919A (en) * 2012-05-15 2013-11-28 Make Softwear:Kk Photography game machine, photography game method and control program
JP2013243466A (en) * 2012-05-18 2013-12-05 Tatsumi Denshi Kogyo Kk Imaging apparatus for game, imaging method for game, and program
JP2014090322A (en) * 2012-10-30 2014-05-15 Canon Inc Imaging apparatus and control method of the same
JP2014096643A (en) * 2012-11-07 2014-05-22 Furyu Kk Image processing device, image processing method, and program
JP2013255217A (en) * 2013-02-25 2013-12-19 Furyu Kk Photograph seal machine, processing method of the same and program
JP2015031833A (en) * 2013-08-02 2015-02-16 辰巳電子工業株式会社 Game-purposed imaging device, and control method and computer program for the same
US9288405B2 (en) 2013-08-09 2016-03-15 Furyu Corporation Image output device and method of outputting image
JP2014074916A (en) * 2013-11-15 2014-04-24 Furyu Kk Photographic seal creation device, image processing method, and program
JP2014075144A (en) * 2013-12-02 2014-04-24 Make Softwear:Kk Photography game machine
JP2014132772A (en) * 2014-02-19 2014-07-17 Tatsumi Denshi Kogyo Kk Imaging device for game, processing method and program of imaging device for game
JP2015163924A (en) * 2014-02-28 2015-09-10 フリュー株式会社 Photographic seal creation device and photographic seal creation method
JP2015210424A (en) * 2014-04-28 2015-11-24 株式会社メイクソフトウェア Picture-taking game machine and control program of the same
JP2014239547A (en) * 2014-09-01 2014-12-18 フリュー株式会社 Image printer and image arrangement method
JP2015188256A (en) * 2015-06-15 2015-10-29 辰巳電子工業株式会社 Imaging apparatus for game, imaging method for game, and program
JP2015213336A (en) * 2015-06-15 2015-11-26 辰巳電子工業株式会社 Imaging apparatus for game, imaging method for game, and program
JP2016001333A (en) * 2015-08-13 2016-01-07 株式会社メイクソフトウェア Photography game machine and control program thereof
JP2016096541A (en) * 2015-10-28 2016-05-26 辰巳電子工業株式会社 Imaging apparatus for game, control method for the same, and program
JP2016173585A (en) * 2016-05-02 2016-09-29 フリュー株式会社 Photograph seal machine, processing method of photograph seal machine, and program
JP2016197924A (en) * 2016-08-19 2016-11-24 辰巳電子工業株式会社 Imaging apparatus for game, imaging method for game, and program
JP2017108409A (en) * 2016-12-19 2017-06-15 フリュー株式会社 Image processing apparatus, image processing method, and program
JP2017173848A (en) * 2017-06-07 2017-09-28 辰巳電子工業株式会社 Imaging apparatus for game, imaging method for game, and program
JP7223086B1 (en) 2021-09-01 2023-02-15 株式会社セガ Amusement imaging device
JP2023035467A (en) * 2021-09-01 2023-03-13 株式会社セガ Game image capturing apparatus
JP7502711B1 (en) 2022-12-08 2024-06-19 フリュー株式会社 PROGRAM, INFORMATION PROCESSING METHOD, AND INFORMATION PROCESSING APPARATUS

Also Published As

Publication number Publication date
JP5447276B2 (en) 2014-03-19

Similar Documents

Publication Publication Date Title
JP5447276B2 (en) Image editing apparatus and method, and program
JP5637346B2 (en) Photo sticker creation apparatus, photo sticker creation method, and program
JP4715964B2 (en) Photo sticker creation apparatus, photo sticker creation method, and program
JP5801152B2 (en) Photo sticker creation apparatus, control method therefor, and program
JP2010154452A (en) Photographic sticker creating device, photographic sticker creating method, and program
JP5304751B2 (en) Image creating apparatus and method, and program
JP5447183B2 (en) Photo sticker creation apparatus and method, and program
JP5309979B2 (en) Photo sticker creating apparatus and method, and program
JP2010258773A (en) Photo-sticker making device, photo-sticker making method, and program
JP5569502B2 (en) Photo sticker creation apparatus, photo sticker creation method, and program
JP2012142771A (en) Photograph sticker creation device, photograph sticker creation method, and program
JP5505751B2 (en) Image editing apparatus and method, and program
JP5029926B2 (en) Photo sticker creation apparatus, photo sticker creation method, and program
JP6217989B2 (en) Photo sticker creation apparatus, photo sticker creation method, and program
JP2011053249A (en) Photographic sticker-creating apparatus, photographic sticker-creating method, and program
JP5041246B2 (en) Photo sticker creating apparatus and method, and program
JP5633762B2 (en) Photo sticker creation apparatus, photo sticker creation method, and program
JP5804333B2 (en) Photo sticker creation apparatus, photo sticker creation method, and program
JP5476868B2 (en) Image editing apparatus, image editing method, and program
JP5445865B2 (en) Photo sticker creation apparatus, photo sticker creation method, and program
JP2011232634A (en) Photograph seal making device, photograph seal making method and program
JP2016213780A (en) Photograph sticker creation device and image display method
JP2013083992A (en) Photographic seal creation device, photographic seal creation method, and program
JP4899174B1 (en) Image printing apparatus and method, and program
JP2010258772A (en) Apparatus and method for creating photograph sticker, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120405

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130821

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130910

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131111

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131203

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131216

R150 Certificate of patent or registration of utility model

Ref document number: 5447276

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250