JP2018107765A - Photographing amusement device, image display method, and image display program - Google Patents

Photographing amusement device, image display method, and image display program Download PDF

Info

Publication number
JP2018107765A
JP2018107765A JP2016255465A JP2016255465A JP2018107765A JP 2018107765 A JP2018107765 A JP 2018107765A JP 2016255465 A JP2016255465 A JP 2016255465A JP 2016255465 A JP2016255465 A JP 2016255465A JP 2018107765 A JP2018107765 A JP 2018107765A
Authority
JP
Japan
Prior art keywords
image
subject
editing
decoration
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016255465A
Other languages
Japanese (ja)
Other versions
JP6978660B2 (en
Inventor
京 藤本
Kyo Fujimoto
京 藤本
幸輔 大北
Kosuke Okita
幸輔 大北
米田 宗弘
Munehiro Yoneda
宗弘 米田
泰生 梶本
Yasuo Kajimoto
泰生 梶本
辰巳 聡
Satoshi Tatsumi
聡 辰巳
Original Assignee
辰巳電子工業株式会社
Tatsumi Denshi Kogyo Kk
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 辰巳電子工業株式会社, Tatsumi Denshi Kogyo Kk filed Critical 辰巳電子工業株式会社
Priority to JP2016255465A priority Critical patent/JP6978660B2/en
Publication of JP2018107765A publication Critical patent/JP2018107765A/en
Application granted granted Critical
Publication of JP6978660B2 publication Critical patent/JP6978660B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

PROBLEM TO BE SOLVED: To provide a photographing amusement device capable of improving amusement properties even during photographing processing, an image display method, and image display program.SOLUTION: A photographing amusement device comprises: a photographing part which photographs at least one subject and acquires a live view; a storage part storing therein at least one decorative image that decorates the subject; a display part for displaying the live view with which the decorative image is combined; and a control part which controls a display content relating to the display part. On the basis of a position of the subject that is detected in frame images constituting the live view, the control part determines a position where the decorative image is combined, within each of the frame images.SELECTED DRAWING: Figure 15

Description

本発明は、写真撮影遊戯装置、画像表示方法、及び画像表示プログラムに関する。   The present invention relates to a photography game device, an image display method, and an image display program.
従来より、特許文献1に示されるような、複数のユーザを含む被写体をカメラで複数回撮影し、その撮影画像を写真印刷シートとして出力したり、ネットワークを介して外部の装置に送信したりすることができる写真撮影遊戯装置および写真撮影サービスが知られている。このような写真撮影遊戯装置では、ユーザの嗜好に応じて、例えば、次のような編集処理を行えるものが多く提案されている。まず、撮影された被写体の画像に対してクロマキー処理をし、被写体部分を抽出した被写体画像を生成する。そして、この被写体画像にユーザが選択した背景画像を合成した上で、目の色や大きさ、肌の色、顔の輪郭などに補正を加えたり、文字や模様を重ねたりするなどの編集処理(一般に「落書き」とも呼ばれる)を経て、最終的な印刷用の画像を生成する。またそうした編集機能を、一緒に撮影した複数のユーザが一度にタッチペンなどで操作できるように提供することで、撮影から編集まで友人同士が一緒に楽しむことができ、人気を博している。   Conventionally, as shown in Patent Document 1, a subject including a plurality of users is photographed multiple times by a camera, and the photographed image is output as a photographic print sheet or transmitted to an external device via a network. Photography gaming devices and photography services that can be used are known. As such a photography game device, many devices capable of performing the following editing process, for example, have been proposed according to the user's preference. First, chroma key processing is performed on a photographed subject image to generate a subject image from which the subject portion is extracted. Then, after combining the subject image with the background image selected by the user, editing processing such as correcting the eye color and size, skin color, face outline, etc., and overlaying characters and patterns (Generally also called “graffiti”), the final print image is generated. Also, by providing such editing functions so that multiple users who photographed together can operate with a touch pen at the same time, friends can enjoy together from shooting to editing, which is gaining popularity.
特開2009−258488号公報JP 2009-258488 A
ところで、上記のような写真撮影遊戯装置では、撮影ブースにおいて被写体の撮影を行うが、このとき、被写体を撮影したライブビューをディスプレイに表示する。これにより、ユーザは、自身の撮影位置をディスプレイで確認しながら、撮影を行うことができる。   By the way, in the above-described photography game device, a subject is photographed in a photography booth. At this time, a live view of the subject is displayed on a display. Thereby, the user can perform photographing while confirming his / her photographing position on the display.
上記のように、一旦撮影した撮影画像に対しては、種々の落書き編集を行うことができ、遊戯性が高いが、プレイの満足度を高めるためには、編集処理のみならず、上記のような撮影ブースにおける撮影処理においても遊戯性を高めることが要望されていた。   As described above, various graffiti editing can be performed on the photographed image once taken, and the playability is high. However, in order to increase the satisfaction of play, not only the editing process but also the above-mentioned There has been a demand for improving playability even in the shooting process at a large shooting booth.
本発明は、この問題を解決するためになされたものであり、撮影処理においても遊戯性を向上することができる、写真撮影遊戯装置、画像表示方法、及び画像表示プログラムを提供することを目的とする。   The present invention has been made to solve this problem, and an object of the present invention is to provide a photography / playing device, an image display method, and an image display program capable of improving playability even in photographing processing. To do.
本発明に係る写真撮影遊戯装置は、少なくとも1つの被写体を撮影して撮影動画像を取得する撮影部と、前記被写体を装飾する装飾画像が少なくとも1つ記憶された記憶部と、前記装飾画像が合成された前記撮影動画像を表示する表示部と、前記表示部に係る表示内容を制御する制御部と、を備え、前記制御部は、前記撮影動画像を構成する各フレーム画像において検出された前記被写体の位置に基づいて、前記各フレーム画像内での前記装飾画像を合成する位置を決定する。   A photography game device according to the present invention includes a photographing unit that photographs at least one subject to obtain a captured moving image, a storage unit that stores at least one decorative image that decorates the subject, and the decorative image includes A display unit for displaying the synthesized moving image, and a control unit for controlling display contents of the display unit, the control unit being detected in each frame image constituting the captured moving image Based on the position of the subject, a position to synthesize the decoration image in each frame image is determined.
本発明に係る画像表示方法は、少なくとも1つの被写体を撮影して撮影動画像を取得するステップと、前記撮影動画像を構成する各フレーム画像において検出された前記被写体の位置に基づいて、当該各フレーム画像内での前記装飾画像を合成する位置を決定し、当該各フレーム画像に前記装飾画像が合成された撮影動画像を表示するステップと、を備えている。   The image display method according to the present invention includes a step of photographing at least one subject to obtain a photographed moving image, and each position of the subject based on the position of the subject detected in each frame image constituting the photographed moving image. Determining a position where the decoration image is combined in the frame image, and displaying a captured moving image in which the decoration image is combined with each frame image.
本発明に係る画像表示プログラムは、コンピュータに、少なくとも1つの被写体を撮影して撮影動画像を取得するステップと、前記撮影動画像を構成する各フレーム画像において検出された前記被写体の位置に基づいて、当該各フレーム画像内での前記装飾画像を合成する位置を決定し、当該各フレーム画像に前記装飾画像が合成された撮影動画像を表示するステップと、を実行させる。   The image display program according to the present invention captures at least one subject to acquire a captured moving image on a computer, and based on the position of the subject detected in each frame image constituting the captured moving image. Determining a position where the decoration image is combined in each frame image, and displaying a captured moving image in which the decoration image is combined with each frame image.
本発明によれば、撮影処理においても遊戯性を向上することができる。   According to the present invention, playability can be improved even in the photographing process.
本発明の一実施形態に係る写真撮影遊戯装置を左前側から見た斜視図である。It is the perspective view which looked at the photography game device concerning one embodiment of the present invention from the left front side. 図1の写真撮影遊戯装置を上から見た平面図である。It is the top view which looked at the photography game device of FIG. 1 from the top. 撮影筐体の斜視図である。It is a perspective view of a photography housing. 編集筐体の斜視図である。It is a perspective view of an edit housing | casing. 出力筐体の正面図である。It is a front view of an output housing | casing. 写真撮影遊戯装置の内部の機能的構成を示すブロック図である。It is a block diagram which shows the functional structure inside a photography imaging | photography game device. 本実施形態における写真撮影遊戯装置でのプレイの手順を示すフローチャートである。It is a flowchart which shows the procedure of the play in the photography game device in this embodiment. プレイ準備処理の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of a play preparation process. 作成する動画の種類を選択するための画面の例である。It is an example of the screen for selecting the kind of animation to produce. プレイ準備部のモニタに示される画像の例である。It is an example of the image shown on the monitor of a play preparation part. 撮影処理の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of an imaging | photography process. 撮影部のモニタに示される画像の例である。It is an example of the image shown on the monitor of an imaging | photography part. 人物検出により検出した顔の特徴点を模式的に示した図である。It is the figure which showed typically the feature point of the face detected by person detection. フレーム画像における被写体画像と装飾画像の合成を説明する図である。It is a figure explaining composition of a subject picture and a decoration picture in a frame picture. 撮影部のモニタに示される画像の例である。It is an example of the image shown on the monitor of an imaging | photography part. 編集部のモニタに示される画像の例である。It is an example of the image shown on the monitor of an edit part. 編集部のモニタに示される画像の例である。It is an example of the image shown on the monitor of an edit part. 編集部のモニタに示される画像の例である。It is an example of the image shown on the monitor of an edit part. 編集部のモニタに示される画像の例である。It is an example of the image shown on the monitor of an edit part. 編集部のモニタに示される画像の例である。It is an example of the image shown on the monitor of an edit part. 眉検出の例を説明する図である。It is a figure explaining the example of eyebrow detection. 編集部のモニタに示される画像の例である。It is an example of the image shown on the monitor of an edit part. 編集部のモニタに示される画像の例である。It is an example of the image shown on the monitor of an edit part. 編集部のモニタに示される画像の例である。It is an example of the image shown on the monitor of an edit part. フレーム画像における被写体画像と装飾画像の合成の他の例を説明する図である。It is a figure explaining the other example of the synthesis | combination of the to-be-photographed image and decoration image in a frame image. フレーム画像における被写体画像と装飾画像の合成の他の例を説明する図である。It is a figure explaining the other example of the synthesis | combination of the to-be-photographed image and decoration image in a frame image. フレーム画像における被写体画像と装飾画像の合成の他の例を説明する図である。It is a figure explaining the other example of the synthesis | combination of the to-be-photographed image and decoration image in a frame image. 撮影部のモニタに示される画像の他の例である。It is another example of the image shown on the monitor of an imaging | photography part. 重なり度を説明する図である。It is a figure explaining an overlap degree. 指標の他の例を示す図である。It is a figure which shows the other example of a parameter | index.
以下、本発明に係る写真撮影遊戯装置の一実施形態について、図面を参照しつつ説明する。本実施形態に係る写真撮影遊戯装置は、写真撮影により生成された画像データに対して落書き編集を行った後、写真印刷シートとして印刷したり、画像データとして外部装置(携帯端末や画像蓄積サーバ等)に出力するものである。まず、この写真撮影遊戯装置の全体構造について説明する。   Hereinafter, an embodiment of a photography game apparatus according to the present invention will be described with reference to the drawings. The photography game device according to the present embodiment performs graffiti editing on image data generated by photography and then prints it as a photographic print sheet or as image data from an external device (such as a portable terminal or an image storage server). ). First, the overall structure of this photography game apparatus will be described.
<1.全体構造>
図1は、本実施形態に係る写真撮影遊戯装置を左前側から見た斜視図、図2は図1の写真撮影遊戯装置を上から見た平面図である。以下では、図1に示す前後左右の方向を基準として、他の図面の説明も行う。図1及び図2に示すように、この写真撮影遊技装置は、前部側の撮影部1と後部側の編集部2とを備えており、前後方向に長いほぼ直方体状を呈している。そして、撮影部1の側面には、撮影に必要な情報などを入力するプレイ準備部3が設けられ、編集部2の後端には、編集後の写真の出力などを行う出力部4が設けられている。
<1. Overall structure>
FIG. 1 is a perspective view of the photographic game apparatus according to the present embodiment as viewed from the left front side, and FIG. 2 is a plan view of the photographic game apparatus of FIG. 1 as viewed from above. Hereinafter, other drawings will also be described with reference to the front, rear, left, and right directions shown in FIG. As shown in FIGS. 1 and 2, this photographic game apparatus includes a front-side shooting unit 1 and a rear-side editing unit 2 and has a substantially rectangular parallelepiped shape that is long in the front-rear direction. A play preparation unit 3 for inputting information necessary for shooting is provided on the side of the shooting unit 1, and an output unit 4 for outputting a photo after editing is provided at the rear end of the editing unit 2. It has been.
撮影部1は、4つの壁、つまり前壁14、一対の側壁13、及び後壁12によって平面視矩形状の撮影空間10を規定する枠体100を備えている。そして、この枠体100の前壁14の内面に、ユーザを撮影するカメラが内蔵された撮影筐体11が配置されている。また、枠体100の両側壁13には、それぞれ撮影空間10への出入口である第1出入口101a,101bが設けられている。そして、上述したプレイ準備部3は、左側の第1出入口101aの側方に配置されるプレイ準備筐体31を有しており、撮影空間10に入る前に、所定の情報を入力するようになっている。また、撮影空間10の上方には、照明及びフラッシュ照射する天井照明ユニット(図示省略)が設けられている。   The photographing unit 1 includes a frame 100 that defines a photographing space 10 having a rectangular shape in plan view by four walls, that is, a front wall 14, a pair of side walls 13, and a rear wall 12. Then, on the inner surface of the front wall 14 of the frame body 100, a photographing housing 11 in which a camera for photographing a user is built is arranged. In addition, the both side walls 13 of the frame 100 are provided with first entrances 101 a and 101 b that are entrances to the imaging space 10. And the play preparation part 3 mentioned above has the play preparation housing | casing 31 arrange | positioned at the side of the left 1st entrance / exit 101a, and inputs predetermined information before entering the imaging | photography space 10. It has become. Further, a ceiling lighting unit (not shown) for illuminating and flashing is provided above the imaging space 10.
枠体100の後壁12は、撮影筐体11とほぼ同じ幅及び高さの板状部材によって形成され、撮影筐体11を向く面には、クロマキー処理のための単一の色(例えば、青色または緑色)が着色されている。着色については、直接ペンキなどで着色するほか、着色された布地、プレート等を取付けてもよい。   The rear wall 12 of the frame body 100 is formed by a plate-like member having substantially the same width and height as the photographing housing 11, and a surface facing the photographing housing 11 has a single color (for example, chroma key processing) Blue or green) is colored. Regarding coloring, in addition to coloring directly with paint, a colored fabric, plate, or the like may be attached.
編集部2は、枠体100の後壁12の後方に隣接して配置されており、この編集筐体21には、左右の方向を向く一対の操作面が設けられている。そして、各操作面への入力作業を行う編集空間20a,20bへは第2出入口201a,201bを介して入ることができる。   The editing unit 2 is disposed adjacent to the rear of the rear wall 12 of the frame 100, and the editing casing 21 is provided with a pair of operation surfaces facing in the left and right directions. The editing spaces 20a and 20b for performing input operations on the respective operation surfaces can be entered through the second doorways 201a and 201b.
本実施形態の編集筐体21は、左右両側から2組のユーザが同時に編集可能な対面式であり、左右それぞれに操作面が設けられるとともに、左右方向長さが後壁12の同方向幅よりも小さい筐体である。編集筐体21は、その前端面を後壁12の背面の中央部に接続されており、この編集筐体21の左右両側方のスペースが、2組のユーザがそれぞれ編集作業を行う編集空間20a,20bとなっている。編集筐体21の上方には、平面視においてほぼコの字状のカーテンフレーム22が設けられている。このカーテンフレーム22は、前後方向に延びる一対の側部フレーム221と、この側部フレーム221の後端同士を連結する左右方向に延びる後部フレーム222とからなる。   The editing housing 21 of the present embodiment is a face-to-face system that allows two sets of users to edit simultaneously from both the left and right sides. Is a small housing. The front end face of the editing case 21 is connected to the center of the rear surface of the rear wall 12, and the space on the left and right sides of the editing case 21 is an editing space 20a in which two sets of users respectively perform editing operations. 20b. Above the editing case 21, a substantially U-shaped curtain frame 22 is provided in plan view. The curtain frame 22 includes a pair of side frames 221 extending in the front-rear direction and a rear frame 222 extending in the left-right direction that connects the rear ends of the side frames 221.
各側部フレーム221の前端は、撮影部1の後壁12に連結されており、後部フレーム222の中央部は、編集筐体21の後部の上端部に設けられた支持部材23によって支持されている。そして、後壁12と、左側の側部フレーム221とから、上述したように、編集空間20aに出入りするための第2出入口201aが構成されており、後壁12と、右側の側部フレーム221とから、編集空間20bに出入りするための第2出入口201bが構成されている。   The front end of each side frame 221 is connected to the rear wall 12 of the photographing unit 1, and the central part of the rear frame 222 is supported by a support member 23 provided at the upper end of the rear part of the editing housing 21. Yes. The rear wall 12 and the left side frame 221 constitute the second doorway 201a for entering and exiting the editing space 20a as described above. The rear wall 12 and the right side frame 221 are formed. The second entrance / exit 201b for entering and exiting the editing space 20b is configured.
出力部4は、編集筐体21の後端面と接する出力筐体41を有しており、この出力筐体41に対しては、写真撮影遊戯装置の後端側から操作を行うように、操作面が後端側を向いている。したがって、この出力筐体41の後端側の空間が、出力操作を行う出力空間40となる。   The output unit 4 has an output housing 41 that is in contact with the rear end surface of the editing housing 21, and the output housing 41 is operated so as to be operated from the rear end side of the photography game apparatus. The face is facing the rear end. Therefore, the space on the rear end side of the output housing 41 becomes an output space 40 for performing an output operation.
<2.プレイ準備筐体>
次に、プレイ準備筐体31について説明する。図1に示すように、このプレイ準備筐体31は、枠体100の左側の側壁13に接する直方体状の筐体であり、ユーザが撮影部1の撮影空間10に入るのに先立って、情報を入力するために用いられる。例えば、撮影空間10に既に他のユーザが入っているときの待ち時間に情報の入力が行われることがある。このプレイ準備筐体31の正面には、タッチパネル式の液晶モニタ32が設けられており、このモニタ32に情報の入力を促す表示がなされ、これに対して、ユーザが所定の情報を入力する。また、この液晶モニタ32の下方には、コイン投入口33とコイン返却口34とが設けられている。
<2. Play preparation case>
Next, the play preparation housing 31 will be described. As shown in FIG. 1, the play preparation housing 31 is a rectangular parallelepiped housing that is in contact with the left side wall 13 of the frame 100, and information is entered prior to the user entering the shooting space 10 of the shooting unit 1. Used to enter For example, information may be input during a waiting time when another user is already in the shooting space 10. A touch panel type liquid crystal monitor 32 is provided in front of the play preparation housing 31, and a display for prompting input of information is made on the monitor 32. In response to this, the user inputs predetermined information. In addition, a coin insertion slot 33 and a coin return slot 34 are provided below the liquid crystal monitor 32.
また、液晶モニタ32の上方及び下方にはそれぞれプレイ準備筐体31におけるプレイの案内をするための音声や音楽を出力するスピーカ(図示省略)が設けられる。上方のスピーカは低音を出力するものであり、可能のスピーカは高温を出力するものである。上方のスピーカを低音を出力するものにすることにより、上方のスピーカによる音声が、上方の隙間から撮影空間10に入りこむこと防止することができ、撮影空間10でプレイしているユーザのプレイを妨害することを防止することができる。   In addition, above and below the liquid crystal monitor 32, speakers (not shown) for outputting sound and music for guiding play in the play preparation housing 31 are provided. The upper speaker outputs low sound, and the possible speaker outputs high temperature. By making the upper speaker output low sound, it is possible to prevent the sound from the upper speaker from entering the shooting space 10 through the upper gap, and disturb the play of the user playing in the shooting space 10. Can be prevented.
また、上方のスピーカを高音を出力するものにし、下方のスピーカを低音を出力するものにすれば、迫力のある音声を出力することができる。ただし、上方のスピーカからの出力が、撮影空間10に入りこむ可能性があるので、撮影空間10との仕切り等を上方スピーカの周りに設けることが好ましい。   Further, if the upper speaker outputs high sound and the lower speaker outputs low sound, powerful sound can be output. However, since the output from the upper speaker may enter the photographing space 10, it is preferable to provide a partition with the photographing space 10 around the upper speaker.
<3.撮影筐体>
次に、撮影筐体11について、図3を参照しつつ詳細に説明する。図3は撮影筐体の斜視図である。同図に示すように、本実施形態の撮影筐体11は、第1カメラ111、第2カメラ112、第1モニタ113、第2モニタ114、及び正面ストロボユニット115、を備えている。
<3. Shooting housing>
Next, the photographing casing 11 will be described in detail with reference to FIG. FIG. 3 is a perspective view of the photographing housing. As shown in the figure, the photographing housing 11 of the present embodiment includes a first camera 111, a second camera 112, a first monitor 113, a second monitor 114, and a front strobe unit 115.
第1カメラ111は、撮影筐体11の正面の略中央部に配置され、撮影空間10の被写体を正面から撮影する。具体的には、被写体のアップ撮影(胸より上の撮影)及び正面上から見下ろすような全身撮影(正面全身撮影)にそれぞれ利用され、アップ画像及び正面全身画像を取得する。そのため、第1カメラ111は、焦点距離を変更可能なズームレンズ(不図示)を備える。ズームレンズは、例えば焦点距離が10mmから22mmの間で調整可能なものが好ましいが、これに限定されない。一方、第2カメラ112は、撮影筐体11の正面の右上端部付近に配置され、撮影空間10の被写体を斜め上方から見下ろすように撮影(斜め全身撮影)する。具体的には、被写体の斜め全身撮影に利用され、斜め全身画像を取得する。以下では、正面全身画像と斜め全身画像とを区別する必要が無い場合、「全身画像」と記載する。また、正面全身撮影と斜め全身撮影とを区別する必要が無い場合、「全身撮影」と記載する。   The first camera 111 is disposed at a substantially central portion of the front surface of the photographing housing 11 and photographs the subject in the photographing space 10 from the front. Specifically, it is used for up-shooting (shooting above the chest) of the subject and whole-body shooting (frontal whole-body shooting) looking down from the front, respectively, and acquires an up-image and a front-body image. Therefore, the first camera 111 includes a zoom lens (not shown) that can change the focal length. The zoom lens preferably has a focal length that can be adjusted between 10 mm and 22 mm, but is not limited thereto. On the other hand, the second camera 112 is disposed in the vicinity of the upper right end portion of the front surface of the photographing housing 11 and photographs the subject in the photographing space 10 so as to look down from obliquely above (oblique whole body photographing). Specifically, it is used for photographing a whole body of a subject and obtains a whole body image. Hereinafter, when there is no need to distinguish between the front whole body image and the oblique whole body image, it is referred to as a “whole body image”. When there is no need to distinguish between front whole body photography and oblique whole body photography, “whole body photography” is described.
第1モニタ113は、撮影条件などの入力操作が可能なタッチパネル式の液晶モニタであり、第1カメラ111の下側に配置される。また、後に詳述するが、この第1モニタ113は、第1カメラ111で撮影された動画を表示したり、第1カメラ111及び第2カメラ112で撮影された静止画像を表示し、画像補正のために、これらをユーザに確認させるという役割も果たす。一方、第2モニタ114は、第2カメラ112の下側に配置された小型のモニタであり、第2カメラ112で撮影された動画を表示する役割を果たす。この第2モニタ114は、主として斜め全身画像の動画を表示するため、縦長に形成されている。   The first monitor 113 is a touch-panel type liquid crystal monitor that allows input operations such as shooting conditions, and is disposed below the first camera 111. Further, as will be described in detail later, the first monitor 113 displays a moving image taken by the first camera 111 or displays still images taken by the first camera 111 and the second camera 112, and performs image correction. Therefore, it also plays a role of letting the user confirm these. On the other hand, the second monitor 114 is a small monitor disposed on the lower side of the second camera 112 and plays a role of displaying a moving image shot by the second camera 112. The second monitor 114 is formed in a vertically long shape mainly for displaying a moving image of an oblique whole body image.
正面ストロボユニット115は、撮影空間10を前方から照明する。この正面ストロボユニット115は、中央上ストロボ115Aと、中央下ストロボ115Bと、斜め上ストロボ115Cと、足下左ストロボ115Dと、足元右ストロボ115Eとからなる。中央上ストロボ115Aは、円形に形成され、第1カメラ111の上方に配置されている。そして、被写体に対し光を上方から照射する。中央下ストロボ115Bは、矩形状に形成され、第1モニタ113の下方から撮影筐体11の下端に亘って延びるように配置されている。そして、この中央下ストロボ115Bは、被写体に対し光を下方から照射する。   The front strobe unit 115 illuminates the imaging space 10 from the front. The front strobe unit 115 includes a center upper strobe 115A, a center lower strobe 115B, an oblique upper strobe 115C, a foot left strobe 115D, and a foot right strobe 115E. The central upper strobe 115 </ b> A is formed in a circular shape and is disposed above the first camera 111. Then, the object is irradiated with light from above. The center lower strobe 115 </ b> B is formed in a rectangular shape, and is disposed so as to extend from below the first monitor 113 to the lower end of the photographing housing 11. The lower center strobe 115B irradiates the subject with light from below.
斜め上ストロボ115Cは、中央上ストロボ115Aよりも小型の円形に形成され、第2カメラ112の上方に配置されている。そして、この斜め上ストロボ115Cは、被写体に対し光を斜め上方から照射する。また、足下左ストロボ115D及び足元右ストロボ115Eは、矩形状に形成され、撮影筐体11の下端部付近において、中央下ストロボ115Bの左右にそれぞれ配置されている。これら足元ストロボ115D,Eは、全身撮影用であり、撮影空間10で立っている被写体の足元に光を照射する。   The oblique upper strobe 115 </ b> C is formed in a smaller circular shape than the central upper strobe 115 </ b> A and is disposed above the second camera 112. The oblique upper strobe 115C irradiates the subject with light obliquely from above. Further, the lower left strobe 115D and the lower right strobe 115E are formed in a rectangular shape, and are respectively disposed on the left and right of the central lower strobe 115B near the lower end of the photographing housing 11. These foot strobes 115D and E are for whole body photography, and irradiate light on the foot of a subject standing in the photographing space 10.
各ストロボ115A〜115Eの内部には蛍光灯が設けられており、撮影空間10内の照明として用いられる。各蛍光灯の発光量が調整されることによって、または、発光させる蛍光灯の数が調整されることによって、撮影空間10内の明るさが、利用者が行っている撮影作業の内容に応じて適宜調整される。   Each of the strobes 115A to 115E is provided with a fluorescent lamp and is used as illumination in the photographing space 10. By adjusting the light emission amount of each fluorescent lamp or adjusting the number of fluorescent lamps to emit light, the brightness in the shooting space 10 depends on the contents of the shooting work performed by the user. Adjust as appropriate.
<4.編集筐体>
続いて、編集筐体21について詳細に説明する。図4は編集筐体の斜視図である。同図に示すように、本実施形態の編集筐体21は、下部側の制御ボックス211と、この制御ボックス211の上に設けられた編集台部212とを有する。制御ボックス211の内部には、メインコンピュータユニット及びI/Oコントローラなどの各種の制御装置が内蔵されており、この制御装置が写真撮影遊戯装置全体の動作の制御を行う。
<4. Editing enclosure>
Next, the editing casing 21 will be described in detail. FIG. 4 is a perspective view of the editing housing. As shown in the figure, the editing casing 21 of the present embodiment includes a lower control box 211 and an editing stand 212 provided on the control box 211. Various control devices such as a main computer unit and an I / O controller are built in the control box 211, and this control device controls the operation of the entire photography game device.
編集台部212は、左右方向を向く山型の傾斜面により形成されており、各傾斜面に編集作業を行うための操作面が設置されている。具体的には、各操作面にはタブレットを内蔵した液晶モニタで構成された編集用モニタ213が設けられており、各編集用モニタ213の左右両側には2本のタッチペン214A,214Bが接続されている。このタッチペン214A,214Bのペン先を編集用モニタ213の画面に接触させることにより、画面表示されたアイコンを選択する選択入力や、文字や描画の落書きを行う場合の手書き入力を行うことができる。なお、図4では、左側の編集用モニタ213を示しているが、右側の編集用モニタ213も左側と同じ構造である。また、制御ボックス211の制御装置は、左右両側の編集用モニタ213への入力情報に対応する処理を個別に並列処理できるようになっている。   The editing table 212 is formed by a mountain-shaped inclined surface facing in the left-right direction, and an operation surface for performing editing work is provided on each inclined surface. Specifically, each operation surface is provided with an editing monitor 213 composed of a liquid crystal monitor with a built-in tablet, and two touch pens 214A and 214B are connected to the left and right sides of each editing monitor 213. ing. By making the pen tips of the touch pens 214A and 214B contact the screen of the editing monitor 213, selection input for selecting an icon displayed on the screen and handwriting input for performing a character or drawing doodle can be performed. 4 shows the left editing monitor 213, the right editing monitor 213 has the same structure as the left side. In addition, the control device of the control box 211 can individually process in parallel the processing corresponding to the input information to the editing monitors 213 on the left and right sides.
<5.出力筐体>
次に、出力筐体41について詳細に説明する。図5は出力筐体の正面図である。同図に示すように、出力筐体41は、編集筐体21の後端部に接する矩形状の筐体であり、後側を向く面に操作面が設けられている。操作面の上部中央にはタッチパネル式の液晶モニタ411が設けられており、このモニタ411に、出力の説明などが表示される。
<5. Output housing>
Next, the output housing 41 will be described in detail. FIG. 5 is a front view of the output housing. As shown in the figure, the output housing 41 is a rectangular housing that is in contact with the rear end of the editing housing 21, and an operation surface is provided on the surface facing the rear side. A touch panel type liquid crystal monitor 411 is provided at the upper center of the operation surface, and an explanation of output is displayed on the monitor 411.
液晶モニタ411の下方には非接触通信部412が設けられており、近接された非接触型ICと通信を行うことで、非接触型ICからのデータの読み出しや非接触型ICに対するデータの書き込みを行う。例えば、FeliCa(登録商標)などを利用することができる。また、この非接触通信部412の下にはシール紙排出口413が設けられている。シール紙排出口413には、編集部において編集処理を行うことによって作成した画像が印刷された写真印刷シートが排出される。そのため、出力筐体41にはプリンタが内蔵されており、写真印刷シートの印刷がそのプリンタにより行われる。また、シール紙排出口413の下にはスピーカ414が設けられており、出力処理における案内音声、BGM、効果音等の音を出力する。なお、本実施形態では、出力筐体41を編集筐体21と別体としているが、これらを一体的な筐体で構成することもできる。   A non-contact communication unit 412 is provided below the liquid crystal monitor 411, and by reading data from the non-contact type IC and writing data to the non-contact type IC by communicating with the non-contact type IC that is in close proximity. I do. For example, FeliCa (registered trademark) or the like can be used. A seal paper discharge port 413 is provided below the non-contact communication unit 412. A photo print sheet on which an image created by editing processing in the editing unit is printed is discharged to the sticker paper discharge port 413. Therefore, the output housing 41 has a built-in printer, and the photographic print sheet is printed by the printer. In addition, a speaker 414 is provided below the sticker paper discharge port 413 and outputs sounds such as guidance voice, BGM, and sound effects in the output process. In the present embodiment, the output housing 41 is separate from the editing housing 21, but these can also be configured as an integral housing.
<6.写真撮影遊戯装置の機能的構成>
次に、本実施形態に係る写真撮影遊戯装置の機能的構成について説明する。図6は、写真撮影遊戯装置の内部の機能的構成を示すブロック図である。
<6. Functional configuration of photography game machine>
Next, the functional configuration of the photography game apparatus according to the present embodiment will be described. FIG. 6 is a block diagram showing an internal functional configuration of the photography game apparatus.
図6に示すように、この写真撮影遊戯装置では、バスXを介して、制御部9、記憶部5、撮影部1、編集部2、プレイ準備部3、出力部4が電気的に接続されている。制御部9は、公知のCPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)を備えている。そして、制御部9では、記憶部5に記憶されているプログラムを実行し、写真撮影遊戯装置の全体の動作を制御する。また、バスXには、通信部6、外部ドライブ7も接続されている。なお、制御部9、記憶部5、通信部6及び外部ドライブ7は、公知のコンピュータにより構成してもよく、このようなコンピュータが上述した編集筐体21の制御ボックス211に内蔵されている。   As shown in FIG. 6, in this photography game device, the control unit 9, the storage unit 5, the photographing unit 1, the editing unit 2, the play preparation unit 3, and the output unit 4 are electrically connected via the bus X. ing. The controller 9 includes a known CPU (Central Processing Unit), ROM (Read Only Memory), and RAM (Random Access Memory). And in the control part 9, the program memorize | stored in the memory | storage part 5 is performed, and the whole operation | movement of a photography game device is controlled. A communication unit 6 and an external drive 7 are also connected to the bus X. The control unit 9, the storage unit 5, the communication unit 6, and the external drive 7 may be configured by a known computer, and such a computer is built in the control box 211 of the editing casing 21 described above.
記憶部5は、ハードディスクやフラッシュメモリなどの不揮発性の記憶媒体で構成され、制御部9から送信された各種の設定情報を記憶する。記憶部5に記憶されている情報は制御部9により適宜読み出される。この記憶部5には、画像の編集のために用いられる各種画像データ、装飾画像、アイコン、印刷シートに係る画像データ、画像処理のための各種データが記憶されている。例えば、撮影画像の背景画像となる背景画像データ、補正のサンプルに関する画像データ、印刷シートのサンプルに関する画像データなどが記憶されている。また、制御部9のROMには、記憶部5におけるプログラムの実行を開始させるためのプログラムやデータが記憶されており、RAMは、制御部9において処理するデータやプログラムを一時的に記憶する。以下では、RAM,ROMをまとめてメモリということがある。   The storage unit 5 is composed of a nonvolatile storage medium such as a hard disk or a flash memory, and stores various setting information transmitted from the control unit 9. Information stored in the storage unit 5 is appropriately read out by the control unit 9. The storage unit 5 stores various image data used for image editing, decorative images, icons, image data relating to a print sheet, and various data for image processing. For example, background image data serving as a background image of a captured image, image data relating to a correction sample, image data relating to a print sheet sample, and the like are stored. The ROM of the control unit 9 stores a program and data for starting execution of the program in the storage unit 5, and the RAM temporarily stores data and a program processed in the control unit 9. Hereinafter, RAM and ROM may be collectively referred to as memory.
通信部6はインターネットなどのネットワークと接続するためのインタフェースであり、制御部9による制御に従って外部の装置と通信を行う。外部ドライブ7では、光ディスクや半導体メモリなどのリムーバブルメディアに対する読み書きが行われる。例えば、外部ドライブ7によりリムーバブルメディアから読み出されたコンピュータプログラムやデータは、制御部9に送信され、記憶部5に記憶されたり、プログラムとしてインストールされる。   The communication unit 6 is an interface for connecting to a network such as the Internet, and communicates with an external device according to control by the control unit 9. The external drive 7 reads / writes from / to a removable medium such as an optical disk or a semiconductor memory. For example, a computer program or data read from a removable medium by the external drive 7 is transmitted to the control unit 9 and stored in the storage unit 5 or installed as a program.
プレイ準備部3は、撮影前の情報の入力などの処理を行うモニタ32及びコイン処理部175により構成される。   The play preparation unit 3 includes a monitor 32 and a coin processing unit 175 that perform processing such as input of information before photographing.
モニタ32は、公知のタッチパネルを有しており、撮影前に所定の情報を表示するとともに、画面をタッチすることによりユーザからの情報の入力を受け付ける。詳細は、後述するが、例えば、名前の入力、背景画像の選択などの操作を受け付ける。これらの操作を示す信号は、操作信号として制御部9に入力される。   The monitor 32 has a known touch panel, displays predetermined information before photographing, and accepts input of information from the user by touching the screen. Although details will be described later, for example, operations such as name input and background image selection are accepted. Signals indicating these operations are input to the control unit 9 as operation signals.
コイン処理部35は、コイン投入口に対するコインの投入を検出する。コイン処理部35は、プレイに要する金額分(プレイ料金分)のコインが投入されたことを検出した場合、そのことを表す起動信号を制御部9に出力する。なお、コイン処理部35は、電子マネーやクレジットカードによるプレイ料金の支払を受け付け、当該起動信号を制御部9に出力するようなものとすることもできる。   The coin processing unit 35 detects the insertion of a coin into the coin insertion slot. When the coin processing unit 35 detects that a coin of the amount required for play (play fee amount) has been inserted, the coin processing unit 35 outputs an activation signal indicating that to the control unit 9. Note that the coin processing unit 35 may accept payment of a play fee by electronic money or a credit card and output the activation signal to the control unit 9.
撮影部1は、撮影空間10における撮影処理を行う構成である照明制御部18、第1カメラ111、第2カメラ112、第1モニタ113、第2モニタ114、及びスピーカ19から構成される。   The photographing unit 1 includes an illumination control unit 18, a first camera 111, a second camera 112, a first monitor 113, a second monitor 114, and a speaker 19 that are configured to perform a photographing process in the photographing space 10.
第1カメラ111及び第2カメラ112は、制御部9による制御に従って撮影を行い、撮影によって得られた画像を制御部9に出力する。上述したように、第1カメラ112は、被写体を正面から撮影するためものであり、第2カメラ112は、被写体を斜め上方から撮影するためのものである。第1カメラ111は、アップ撮影と正面全身撮影の両方を行うので、制御部9は、アップ撮影を行う場合、第1カメラ111におけるズームレンズの焦点距離を第1の距離(例えば、22mm)とする。一方、正面全身撮影を行う場合、第1カメラ111におけるズースレンズの焦点距離を第1の距離よりも長い第2の距離(例えば、10mm)とする。これにより、アップ撮影は狭い画角で撮影できるので、顔ができるだけ大きく写るアップ画像を取得することができ、正面全身撮影は広い画角で撮影できるので、足先から頭までの全身が写る正面全身画像を取得することができる。また、制御部9は、第1カメラ111で取得した画像から所定の範囲をトリミングしてアップ画像及び正面全身画像を作成する。そのトリミングの範囲は、アップ撮影の場合と正面全身撮影の場合でそれぞれ理想的なものが設定される。   The first camera 111 and the second camera 112 shoot according to control by the control unit 9 and output an image obtained by the shooting to the control unit 9. As described above, the first camera 112 is for photographing the subject from the front, and the second camera 112 is for photographing the subject from obliquely above. Since the first camera 111 performs both the up-shooting and the front whole-body shooting, the control unit 9 sets the focal length of the zoom lens in the first camera 111 to the first distance (for example, 22 mm) when performing the up-shooting. To do. On the other hand, when performing front whole body photography, the focal length of the sousse lens in the first camera 111 is set to a second distance (for example, 10 mm) longer than the first distance. As a result, up-shooting can be taken with a narrow angle of view, so an up-image with a face as large as possible can be obtained. A whole body image can be acquired. The control unit 9 also trims a predetermined range from the image acquired by the first camera 111 and creates an up image and a front whole body image. The trimming range is set to be ideal for up shooting and front whole body shooting.
第2カメラ112も同様に、斜め全身撮影に最適な画像を得るために理想的な画角やトリミング範囲などの設定が予め行われている。各カメラ111、112は、リアルタイムに画像を取り込んで当該画像を表す画像信号を出力する。各カメラ111,112から出力された画像信号は制御部9に入力されて、その内部のメモリに一時的に記憶されるとともに、第1モニタ113及び第2モニタ114にそれぞれ送信され、当該画像信号に基づくライブ映像が表示される。このとき、後述するように、各モニタ113,114には、クロマキー処理がなされた被写体の画像と、選択された背景画像とが重ね合わされて表示される。なお、実際には、静止画像として保存される撮影画像データ(以下、単に「撮影画像」ということもある)は高解像度の静止画データであり、ライブ映像表示を行うための撮影動画像(「ライブビュー」とも呼ばれる)は低解像度の動画データである場合が多いが、高解像度の動画データとしてもよい。   Similarly, in the second camera 112, an ideal angle of view, trimming range, and the like are set in advance in order to obtain an optimal image for oblique whole body photography. Each camera 111, 112 captures an image in real time and outputs an image signal representing the image. The image signals output from the cameras 111 and 112 are input to the control unit 9 and temporarily stored in the internal memory thereof, and transmitted to the first monitor 113 and the second monitor 114, respectively. Live video based on is displayed. At this time, as will be described later, on each of the monitors 113 and 114, the subject image that has been subjected to the chroma key process and the selected background image are superimposed and displayed. Actually, captured image data stored as a still image (hereinafter also referred to simply as “captured image”) is high-resolution still image data, and a captured moving image (“ Live view) is often low-resolution video data, but it may be high-resolution video data.
照明制御部18は、制御部9より供給される照明制御信号に従って、撮影空間10内の正面ストロボユニット115及び天井照明ユニットから照射されるストロボ光を制御する。また、照明制御部18は、これら照明ユニットの内部に設けられる電灯(蛍光灯など)を制御することで、ユーザによる撮影処理の段階に応じて撮影空間10内の明るさを調整する。スピーカ19は、ユーザによる撮影処理の段階応じた音声を出力する。   The illumination control unit 18 controls the strobe light emitted from the front strobe unit 115 and the ceiling illumination unit in the imaging space 10 according to the illumination control signal supplied from the control unit 9. Moreover, the illumination control unit 18 adjusts the brightness in the imaging space 10 according to the stage of the imaging process by the user by controlling an electric lamp (fluorescent lamp or the like) provided in these illumination units. The speaker 19 outputs sound corresponding to the stage of shooting processing by the user.
編集部2a,2bは、編集空間20a,20bそれぞれで編集処理を行うためのものである。編集部2aおよび編集部2の機能的構成は同じであるので、以下では編集部2aの機能的構成のみを説明し、編集部2bの機能的構成の説明を省略する。   The editing units 2a and 2b are for performing editing processing in the editing spaces 20a and 20b, respectively. Since the functional configurations of the editing unit 2a and the editing unit 2 are the same, only the functional configuration of the editing unit 2a will be described below, and the description of the functional configuration of the editing unit 2b will be omitted.
編集部2aは、タブレット内蔵モニタとしての編集用モニタ213、2本のタッチペン214A,214B、およびスピーカ215から構成される。編集用モニタ213は、制御部9による制御に従って編集画面を表示し、編集画面に対するユーザの編集操作等を検出する。すなわち、ユーザにより、編集用モニタ213がタッチペン214A,214Bでタッチされると、その操作およびタッチペン214A,214Bのいずれでタッチされたのかが検出され、操作信号として制御部9に送信される。これにより、編集対象である合成画像(後述)の編集が行われる。具体的には、編集用モニタ213に表示された画像に対し、例えば、文字、模様、図形などのいわゆる落書きを、タッチペン214A,214Bなどの入力デバイスで入力する。これにより、合成画像に、落書きが重ね合わされた出力用画像が生成される。画像の編集については、後述する。こうして生成された出力用画像に基づく画像データは、出力部4へ送信される。   The editing unit 2a includes an editing monitor 213 as a tablet built-in monitor, two touch pens 214A and 214B, and a speaker 215. The editing monitor 213 displays an editing screen according to control by the control unit 9 and detects a user's editing operation on the editing screen. That is, when the editing monitor 213 is touched with the touch pens 214A and 214B by the user, it is detected which of the operations and the touch pens 214A and 214B are touched, and transmitted to the control unit 9 as an operation signal. As a result, a composite image (described later) to be edited is edited. Specifically, for example, so-called graffiti such as characters, patterns, and figures is input to the image displayed on the editing monitor 213 with an input device such as the touch pens 214A and 214B. As a result, an output image in which graffiti is superimposed on the composite image is generated. The image editing will be described later. Image data based on the output image generated in this way is transmitted to the output unit 4.
出力部4は、出力空間40における出力処理を行う構成であるタッチパネル式の液晶モニタ411、非接触通信部412、およびスピーカ414から構成される。その他、印刷を行うためのプリンタ44、およびシール紙ユニット45も備えている。プリンタ44は、合成画像、または編集処理によって得られた編集済みの出力用画像を、プリンタ44に装着されたシール紙ユニット45に収納されているシール紙に印刷し、シール紙排出口413に排出する。非接触通信部412は、携帯端末との間のデータの受送信を行うものである。なお、編集部2で作成された画像データは、通信部6によってネットワークを通じて外部の画像蓄積サーバに送信される。   The output unit 4 includes a touch panel type liquid crystal monitor 411, a non-contact communication unit 412, and a speaker 414 that are configured to perform output processing in the output space 40. In addition, a printer 44 for performing printing and a sticker unit 45 are also provided. The printer 44 prints the composite image or the edited output image obtained by the editing process on the sticker paper stored in the sticker paper unit 45 attached to the printer 44 and discharges it to the sticker paper discharge port 413. To do. The non-contact communication unit 412 performs data transmission / reception with the mobile terminal. The image data created by the editing unit 2 is transmitted by the communication unit 6 to an external image storage server through the network.
<7.写真撮影遊戯装置における処理手順>
続いて、本実施形態に係る写真撮影遊戯装置のプレイ方法及び画像処理について説明する。上述したように、この写真撮影遊戯装置には、撮影部1、編集部2、プレイ準備部3、及び出力部4が含まれている。プレイ準備部3では撮影前の所定の情報の入力が行われ、撮影部1では撮影処理が行われる。そして、編集部2では後述する編集処理が行われ、出力部4では出力処理が行われる。これらの処理は、記憶部5または外部ドライブ7に記憶されたプログラム、あるいはインストールされたプログラムを制御部9により実行することにより行われる。以下では、まず、プレイの流れとそれに伴うユーザの移動について、図2及び図7に示すフローチャートを参照しつつ説明し、その後、各処理について詳細に説明する。なお、以下では、2人のユーザによりプレイする場合について説明する。
<7. Processing procedure in photography game machine>
Subsequently, a playing method and image processing of the photography game apparatus according to the present embodiment will be described. As described above, the photography game device includes the photographing unit 1, the editing unit 2, the play preparation unit 3, and the output unit 4. The play preparation unit 3 inputs predetermined information before shooting, and the shooting unit 1 performs shooting processing. The editing unit 2 performs editing processing described later, and the output unit 4 performs output processing. These processes are performed by causing the control unit 9 to execute a program stored in the storage unit 5 or the external drive 7 or an installed program. In the following, first, the flow of play and the accompanying user movement will be described with reference to the flowcharts shown in FIGS. 2 and 7, and then each process will be described in detail. Hereinafter, a case where two users play is described.
<7−1.プレイの流れ>
以下、図7のフローチャートにしたがい、プレイの流れについて説明する。図2に示すように、まず、ユーザは、矢印Aで示すように枠体100の左側の側壁13に配置されたプレイ準備部3によりプレイ準備処理を行う。プレイ準備筐体31のモニタ32において、デモ画像の表示中にユーザがコイン投入口33にコインを所定の金額を投入すると(ステップS100のYES)、プレイが開始され、プレイ準備処理が始まる(ステップS110)。そして、背景画像の選択などの所定の情報が入力されると、ユーザは、矢印Bで示すように第1出入口101aを使って撮影空間10に移動する。このとき、プレイ準備筐体31のモニタ32によって、撮影空間10への移動を促す表示や通知がなされる(ステップS120)。例えば、撮影空間10が他のユーザによって利用されていないときは、撮影空間10への移動を促す表示などを行う。一方、撮影空間10に他のユーザが存在する場合には、撮影空間10への移動を待つように表示などを行う。
<7-1. Flow of play>
Hereinafter, according to the flowchart of FIG. 7, the flow of play will be described. As shown in FIG. 2, first, the user performs a play preparation process by the play preparation unit 3 disposed on the left side wall 13 of the frame 100 as indicated by an arrow A. When the user inserts a predetermined amount of coins into the coin insertion slot 33 on the monitor 32 of the play preparation housing 31 during display of the demo image (YES in step S100), play is started and play preparation processing is started (step S110). When predetermined information such as selection of a background image is input, the user moves to the imaging space 10 using the first doorway 101a as indicated by an arrow B. At this time, the monitor 32 of the play preparation housing 31 displays and notifies the user to move to the shooting space 10 (step S120). For example, when the shooting space 10 is not used by another user, a display that prompts the user to move to the shooting space 10 is performed. On the other hand, when another user exists in the shooting space 10, display is performed so as to wait for movement to the shooting space 10.
続いて、ユーザは、撮影空間10に入り、撮影部1に設けられたカメラ111,112やモニタ113など利用して撮影処理を行う(ステップS130)。そして、撮影処理を終えたユーザは、矢印Cで示すように第1及び第2出入口101a,101bを使って撮影空間10から装置外部に出た後、いずれかの編集空間20a,20bに移動する。このとき、撮影筐体11のモニタ113およびスピーカ19によって、編集空間20a,20bへの移動を促す表示や通知がなされる(ステップS140)。例えば、いずれの編集空間20a,20bもユーザが利用していないときは、いずれか一方の編集空間への移動を促す表示などを行う。また、いずれか一方の編集空間20a,20bにユーザが存在する場合には、空いている編集空間への移動を促す表示などを行う。そして、いずれの編集空間20a,20bもユーザによって利用されている場合には、編集空間20a,20bへの移動を待つように表示などを行う。   Subsequently, the user enters the shooting space 10 and performs shooting processing using the cameras 111 and 112 and the monitor 113 provided in the shooting unit 1 (step S130). Then, the user who has finished the photographing process moves out of the photographing space 10 to the outside of the apparatus using the first and second entrances 101a and 101b as indicated by an arrow C, and then moves to one of the editing spaces 20a and 20b. . At this time, the monitor 113 and the speaker 19 of the photographing housing 11 display and notify the user to move to the editing spaces 20a and 20b (step S140). For example, when neither of the editing spaces 20a and 20b is used by the user, a display that prompts the user to move to one of the editing spaces is performed. In addition, when a user exists in one of the editing spaces 20a and 20b, a display that prompts the user to move to an empty editing space is performed. When any editing space 20a, 20b is used by the user, display is performed so as to wait for movement to the editing spaces 20a, 20b.
編集空間20a,20bに移動したユーザは編集処理を開始する。各編集空間20a,20bのユーザは、同時に編集処理を行うことができる。ユーザは、プレイ準備処理で選択された背景画像が被写体画像(撮影画像から被写体部分を抽出した画像)の背景として合成された合成画像に対して、編集処理を行う(ステップS150)。そして、編集処理が終了すると、編集済みの合成画像を含む画像の印刷が開始される(ステップS160)。続いて、編集筐体21の編集用モニタ213には出力空間30への移動を促す表示がなされるとともに、スピーカ215によって出力空間40への移動を促す音声が通知される(ステップS170)。これに従って、編集処理を終えたユーザは、いずれかの編集空間20a,20bから、矢印Dで示すように出力空間40に移動して印刷が完了するのを待機させる。なお、出力空間40で他のユーザが出力処理をしている場合には、編集用モニタ213およびスピーカ215によって、出力空間40への移動を待たせる表示や通知がなされる。また、出力空間40への移動を促す通知後に、印刷処理を開始することもできる。   The user who has moved to the editing spaces 20a and 20b starts editing processing. The users of the editing spaces 20a and 20b can perform editing processing at the same time. The user performs an editing process on the synthesized image in which the background image selected in the play preparation process is synthesized as the background of the subject image (the image obtained by extracting the subject portion from the photographed image) (step S150). When the editing process ends, printing of an image including the edited composite image is started (step S160). Subsequently, the editing monitor 213 of the editing casing 21 is displayed to urge the user to move to the output space 30 and is also notified by the speaker 215 of a sound urging to move to the output space 40 (step S170). Accordingly, the user who has finished the editing process moves from one of the editing spaces 20a and 20b to the output space 40 as indicated by the arrow D, and waits for the printing to be completed. When another user is performing output processing in the output space 40, the editing monitor 213 and the speaker 215 display and notify the user of waiting for movement to the output space 40. In addition, the printing process can be started after the notification that prompts the user to move to the output space 40.
そして、出力空間40では、ユーザに画像の印刷を待たせている間、本プレイによって生成した画像をユーザの携帯端末で取得できるようにするための操作(例えば、メールアドレスの入力)をモニタ411に対して行わせる(ステップS180)。画像の印刷が終了したとき、ユーザは、出力筐体41に設けられたシール紙排出口413からシール紙を受け取り、一連のプレイを終えることになる。以上のようなユーザの移動を促す表示は、制御部9により行われる。   In the output space 40, while waiting for the user to print an image, the monitor 411 performs an operation (for example, input of an e-mail address) for allowing the user's portable terminal to acquire the image generated by the play. (Step S180). When the printing of the image is finished, the user receives the sticker paper from the sticker paper discharge port 413 provided in the output housing 41 and finishes a series of play. The display for prompting the user to move as described above is performed by the control unit 9.
<7−2.プレイ準備処理>
次に、図7のステップS110で示したプレイ準備処理の詳細について、図8〜図11を参照しつつ説明する。図8は、本実施形態におけるプレイ準備処理の処理手順を示すフローチャート、図9は、作成する動画の種類を選択する画面、図10は静止画の背景及びシートのレイアウト等を選択する画面である。
<7-2. Play preparation process>
Next, details of the play preparation process shown in step S110 of FIG. 7 will be described with reference to FIGS. FIG. 8 is a flowchart showing a processing procedure of play preparation processing in the present embodiment, FIG. 9 is a screen for selecting the type of moving image to be created, and FIG. 10 is a screen for selecting the background of the still image, the layout of the sheet, and the like. .
コインが投入され、プレイが開始されると、制御部9は、プレイ準備筐体31のモニタ32に被写体の人数を選択する画面を表示する(ステップS200)。一例として、図示を省略するが、「2人」または3人以上を示す「グループ」のいずれかを選択できるようにする。   When coins are inserted and play is started, the control unit 9 displays a screen for selecting the number of subjects on the monitor 32 of the play preparation housing 31 (step S200). As an example, although not shown, either “2” or “group” indicating three or more people can be selected.
こうして、人数の選択が完了すると、モニタ32には、動画のデザインを選択する画面が表示される。例えば、図9の例では、動画の背景等の合成用画像及び被写体に合成される装飾画像のセットを選択できるようになっており、ユーザは、これらのいずれかを選択する(ステップS210)。なお、合成用画像とは、被写体の背景となる背景画像のほかか、被写体の前景となる前景画像などを含む画像であり、基本的に固定された画像である。一方、装飾画像とは、後述するようにライブビューに表される被写体に追従し、被写体を装飾する合成用画像を指す。但し、被写体を装飾するという点では、装飾画像も合成用画像の一態様ということができる。例えば、被写体に追従しない固定された装飾画像を設け、合成用画像の1つとすることもできる。したがって、以下の説明では、装飾画像を合成用画像の一態様として表現することもある。   Thus, when the selection of the number of people is completed, a screen for selecting the design of the moving image is displayed on the monitor 32. For example, in the example of FIG. 9, it is possible to select a combination image such as a moving image background and a decoration image to be combined with the subject, and the user selects one of these (step S210). Note that the composition image is an image including a background image serving as the background of the subject or a foreground image serving as the foreground of the subject, and is basically a fixed image. On the other hand, the decorative image refers to a composition image that follows the subject represented in the live view and decorates the subject as will be described later. However, in terms of decorating the subject, the decoration image can also be referred to as one aspect of the composition image. For example, a fixed decorative image that does not follow the subject can be provided to be one of the images for synthesis. Therefore, in the following description, the decoration image may be expressed as one aspect of the composition image.
動画のデザインが選択されると、これに続いて、モニタ32には、図10に示すように、静止画の合成用画像及び被写体に合成される装飾画像の選択画面が表示される。同図に示すように、この画面の上部には、現在選択されている画像のイメージサンプル1001と合成用画像のセット1002とが表示されている。ここでは、ステップS200で被写体の人数として「2人」を選択した場合の例を示している。   When the moving image design is selected, the monitor 32 displays a still image combining image and a decoration image selection screen combined with the subject, as shown in FIG. As shown in the figure, an image sample 1001 of the currently selected image and a set 1002 of composition images are displayed at the top of this screen. Here, an example is shown in which “2” is selected as the number of subjects in step S200.
合成用画像のセット1002には、矩形状の枠内に示された5種類の合成用画像(番号1〜5)が表示されている。そして、イメージサンプル1001には、2人の被写体のモデル、装飾画像、及び5つの合成用画像のセットが示されている。この例では、装飾画像として、被写体の両側に配置される羽根や尻尾等が示されている。また、5種類の合成用画像のうちの1つの合成用画像(番号1)は、このイメージサンプル1001の背景等として使用され、残りの4つの合成用画像(番号2〜4)は、このイメージサンプル1001の4隅に重ねて表示されている。   The composite image set 1002 displays five types of composite images (numbers 1 to 5) shown in a rectangular frame. An image sample 1001 shows a model of two subjects, a decorative image, and a set of five compositing images. In this example, feathers and tails arranged on both sides of the subject are shown as decorative images. Further, one of the five types of composition images (number 1) is used as the background of the image sample 1001, and the remaining four composition images (numbers 2 to 4) are the images. The sample 1001 is displayed in the four corners.
また、この画面の下部には、静止画の合成用画像及び装飾画像の候補が示されている。この例では、合成用画像の候補として3つのカテゴリー(「トレンド」、「切れてる」、「グループ」)1003が設定されており、各カテゴリー1003に4つの候補が設定されている。この画面の例では、カテゴリー1003として「トレンド」が選択され、その中の4つの候補1004が表示されている。そして、現在は、4つの候補のうちの二重枠で囲まれた右上の候補が選択され、これがイメージサンプル1001として、実際の印刷サイズとほぼ同じ大きさで画面の上部に示されている。なお、3つのカテゴリー1003のいずれかをタッチすると、カテゴリーの選択を行うことができ、これにより、各カテゴリー毎の4つの候補が表示される。そして、この4つの候補の中から1つをタッチすると、この候補が画面の上部に表示される。その後、選択が終了すると、OKボタン1005を押下する。このとき、所定時間が経過するまで、あるいは、OKボタン1005がタッチされるまでは、何度でも候補画像の選択を行うことができる(ステップS220)。   In the lower part of the screen, still image composition images and decoration image candidates are shown. In this example, three categories (“trend”, “broken”, “group”) 1003 are set as candidates for the composition image, and four candidates are set for each category 1003. In the example of this screen, “trend” is selected as the category 1003, and four candidates 1004 are displayed. At present, an upper right candidate surrounded by a double frame among the four candidates is selected, and this is shown as an image sample 1001 at the upper part of the screen in almost the same size as the actual print size. Note that when one of the three categories 1003 is touched, the category can be selected, and thereby four candidates for each category are displayed. When one of the four candidates is touched, the candidate is displayed at the top of the screen. Thereafter, when the selection is completed, an OK button 1005 is pressed. At this time, the candidate image can be selected any number of times until a predetermined time elapses or until the OK button 1005 is touched (step S220).
また、詳細な図示は省略するが、上記4つの候補1004は、シートデザイン(分割レイアウト)が異なっており、合成用画像(装飾画像を含む)、及びシートデザインを同時に選択するようになっている。これにより、シートデザインと背景デザインに統一感を持たせることができ、デザイン性の優れた印刷物等の最終成果物を得ることができる。   Although the detailed illustration is omitted, the four candidates 1004 have different sheet designs (divided layouts), and a composition image (including a decoration image) and a sheet design are selected at the same time. . As a result, the sheet design and the background design can be unified, and a final product such as a printed matter with excellent design can be obtained.
こうして、背景等の選択が完了すると、モニタ32には、撮影部1の撮影空間10への移動を促す表示がなされる。   Thus, when the selection of the background or the like is completed, the monitor 32 is displayed to prompt the movement of the photographing unit 1 to the photographing space 10.
<7−3.撮影処理>
次に、図7のステップS130で示した撮影処理の詳細について、図11〜図15を参照しつつ説明する。図11は、撮影処理のフローチャート、図12、図14、図15は撮影処理において第1モニタ113に示される画面、図13はライブビューの作成の過程を示す図である。
<7-3. Shooting process>
Next, details of the photographing process shown in step S130 of FIG. 7 will be described with reference to FIGS. FIG. 11 is a flowchart of the shooting process, FIGS. 12, 14, and 15 are screens displayed on the first monitor 113 in the shooting process, and FIG. 13 is a diagram showing a process of creating a live view.
図11に示すように、ユーザが撮影空間10に入ると、アップ画像、全身画像、及び動画の撮影が、この順で行われる。   As shown in FIG. 11, when the user enters the shooting space 10, an up image, a whole body image, and a moving image are shot in this order.
<7−3−1.アップ撮影>
まず、第1カメラ111により、アップ画像の撮影(上述のアップ撮影)が行われる(ステップS310)。このとき、第1モニタ113には、図12に示すような画面が表示される。ユーザは、この画面の中央に配置された矩形状の撮影画像表示領域1133に表示されるライブビューを見ながら撮影を行う。このとき、撮影画像表示領域1133に表示されるライブビューは、第1カメラ111で撮影された撮影画像と、プレイ準備処理で選択した背景画像とを合成した合成画像である。第1カメラ111で撮影する撮影画像には、撮影筐体11の後壁12の前に立つユーザが含まれる。すなわち、この撮影画像は、クロマキー処理用の後壁12及び撮影空間10の床面(図示省略)を背景として、被写体としてのユーザが写る画像である。したがって、制御部9は、公知のクロマキー処理により、撮影画像から被写体のみが写る被写体画像を抽出し、これを合成用画像と合成した上で、ライブビューとして、第1モニタ113に表示する。
<7-3-1. Up shot>
First, the first camera 111 shoots an up image (the above-described up shooting) (step S310). At this time, a screen as shown in FIG. 12 is displayed on the first monitor 113. The user takes a picture while watching a live view displayed in a rectangular photographed image display area 1133 arranged at the center of the screen. At this time, the live view displayed in the captured image display area 1133 is a composite image obtained by combining the captured image captured by the first camera 111 and the background image selected in the play preparation process. The captured image captured by the first camera 111 includes a user standing in front of the rear wall 12 of the imaging housing 11. That is, this photographed image is an image in which a user as a subject is photographed against the back wall 12 for chroma key processing and the floor surface (not shown) of the photographing space 10. Therefore, the control unit 9 extracts a subject image in which only the subject is captured from the photographed image by a known chroma key process, combines it with the composition image, and displays it on the first monitor 113 as a live view.
また、制御部9は、ライブビューの表示に先立って、ユーザをアップ撮影に適した撮影位置へ誘導する。具体的には、第1モニタ113に、誘導用の画面を表示させたり、あるいはスピーカから誘導用の音声を出力する。また、撮影位置に加え、影が投影されやすい撮影ポーズを案内することもできる。   Further, the control unit 9 guides the user to a shooting position suitable for up-shooting prior to displaying the live view. Specifically, a guidance screen is displayed on the first monitor 113 or guidance voice is output from a speaker. In addition to the shooting position, it is also possible to guide a shooting pose in which a shadow is easily projected.
以上のようなライブビューが表示されている間に、アップ撮影(静止画の取得)が3回連続して行われる。このとき、撮影する(表示されるライブビューを静止画として固定する)タイミングで、中央上ストロボ115A、中央下ストロボ115B、天井照明ユニットのストロボが発光する。   While the live view as described above is displayed, up shooting (acquisition of a still image) is performed three times in succession. At this time, at the timing of shooting (fixing the displayed live view as a still image), the center upper strobe 115A, the center lower strobe 115B, and the strobe of the ceiling lighting unit emit light.
撮影はタイマー1134を示してカウントダウンを行いながら所定時間ごとにシャッターが切られることで行われる。つまり、制御部9より第1カメラ111に制御信号が送信され撮影が行われる。そして、撮影された矩形状の画像のサムネイルが、画面左側の第1サムネイル表示領域1135に順に表示されていく。なお、このサムネイルは、合成画像のサムネイルである。こうして、3回の撮影を行うが、1回の撮影が終了するごとに、撮影画像表示領域1133に表示されるライブビューにおいては、合成用画像が切り替わる。すなわち、選択された5つの合成用画像のうちの3つをそれぞれ用いて生成された合成画像が、リアルタイム画像として撮影画像表示領域1133に順に表示される。そして、3回の撮影により、3種類の画像に係る撮影画像データが生成され、メモリに格納される。   Shooting is performed by showing the timer 1134 and releasing the shutter every predetermined time while counting down. That is, a control signal is transmitted from the control unit 9 to the first camera 111 and shooting is performed. Then, thumbnails of the captured rectangular images are sequentially displayed in the first thumbnail display area 1135 on the left side of the screen. Note that this thumbnail is a thumbnail of the composite image. In this way, three shootings are performed, but each time one shooting is completed, the composition image is switched in the live view displayed in the captured image display area 1133. That is, composite images generated using three of the five selected images for composition are displayed in order in the captured image display area 1133 as real-time images. Then, captured image data relating to the three types of images is generated and stored in the memory through the three capturing operations.
<7−3−2.全身撮影>
続いて、第1カメラ111又は第2カメラ112によって全身撮影が行われる(ステップS320)。いずれのカメラを使用するかは、図10にて行われた合成用画像の結果に基づいて決定される。第1カメラ111により正面全身撮影が行われる場合、ユーザは、アップ撮影と同様に、第1モニタ113を見ながら撮影プレイを行う。一方、第2カメラ112による斜め全身撮影の場合は、第2モニタ114を見ながら撮影を行うため、第1モニタ113には、ユーザに対し、第2モニタ114を見るように促すための表示がなされる。そして、ユーザは、第2モニタ114を見ながら、斜め全身撮影を行う(ステップS330)。つまり、第1カメラ111(または、第2カメラ112)による全身撮影が行われる場合、第1モニタ113(または、第2モニタ114)には、ライブビューが表示され、ユーザはこれを見ながら全身撮影を行う。このとき、第1モニタ113(または、第2モニタ114)に表示されるライブビューは、アップ画像の撮影と同様の合成画像である。すなわち、選択された5つの合成用画像のうちの全身撮影に対応する2枚の合成用画像のいずれかが合成された合成画像がライブビューとして表示される。ここでも、図示を省略するが、アップ撮影と同様に、カウントダウン後に撮影が行われ、1回の撮影が終了するごとに、合成用画像が切り替わった合成画像がライブビューとして表示される。そして、撮影が行われるごとに生成されるサムネイルは、第1モニタ113の右側の第2サムネイル表示領域1136に順に表示されていく。
<7-3-2. Whole body photography>
Subsequently, whole body imaging is performed by the first camera 111 or the second camera 112 (step S320). Which camera is used is determined based on the result of the image for synthesis performed in FIG. When front whole body photography is performed by the first camera 111, the user performs a photography play while looking at the first monitor 113 in the same manner as in the up photography. On the other hand, in the case of oblique whole body photographing with the second camera 112, since photographing is performed while looking at the second monitor 114, the first monitor 113 has a display for prompting the user to look at the second monitor 114. Made. Then, the user performs oblique whole body imaging while looking at the second monitor 114 (step S330). That is, when whole-body imaging is performed by the first camera 111 (or the second camera 112), a live view is displayed on the first monitor 113 (or the second monitor 114), and the user looks at the live view. Take a picture. At this time, the live view displayed on the first monitor 113 (or the second monitor 114) is a composite image similar to the shooting of the up image. That is, a synthesized image obtained by synthesizing any of the two synthesis images corresponding to the whole-body imaging among the five selected synthesis images is displayed as a live view. Although illustration is omitted here, as in the case of up-shooting, shooting is performed after the countdown, and each time shooting is completed, a combined image in which the combining image is switched is displayed as a live view. Then, thumbnails generated each time shooting is performed are sequentially displayed in the second thumbnail display area 1136 on the right side of the first monitor 113.
但し、全身撮影においては、次の点でアップ撮影と相違する。上記のようにプレイ準備処理では、装飾画像を含む合成用画像が選択されているが、この装飾画像は、全身撮影時にライブビューに合成されて第1モニタ113あるいは第2モニタ114に表示される。すなわち、このライブビューは、上述した被写体画像、装飾画像を含む合成用画像が合成された複数のフレーム画像によって構成されている。装飾画像は、図10にて示した羽根のようなデザインの場合は、合成用画像を構成する背景画像の前景であって被写体画像の背景となるように合成されるが、これに限らない。例えば、帽子のような装飾画像(図9の中段の左から2番目参照)や口からでる吹き出しのような装飾画像(図9の上段の左から2番目参照)の場合は、被写体画像の前景となるように合成される。以下、この処理について、詳細に説明する。   However, whole body photography differs from up photography in the following respects. As described above, in the play preparation process, a compositing image including a decoration image is selected. This decoration image is combined with the live view and displayed on the first monitor 113 or the second monitor 114 when the whole body is photographed. . That is, this live view is composed of a plurality of frame images obtained by combining the above-described subject image and the composition image including the decoration image. In the case of the design like the blade shown in FIG. 10, the decoration image is synthesized so as to be the foreground of the background image constituting the composition image and the background of the subject image, but is not limited thereto. For example, in the case of a decoration image such as a hat (see the second from the left in the middle of FIG. 9) or a decoration image such as a balloon coming out of the mouth (see the second from the left in the upper part of FIG. 9), the foreground of the subject image Is synthesized. Hereinafter, this process will be described in detail.
以下では、ライブビューを構成する複数のフレーム画像のそれぞれに装飾画像を合成する処理について、図13及び図14を参照しつつ説明する。   Hereinafter, a process of synthesizing a decoration image with each of a plurality of frame images constituting a live view will be described with reference to FIGS. 13 and 14.
図14に示す例では、装飾画像は、複数のパーツ画像により構成される。左側の被写体K1に合成される羽根がパーツ画像W1であり、右側の被写体K2に合成される羽根がパーツ画像W2である。   In the example shown in FIG. 14, the decoration image is composed of a plurality of part images. The blade combined with the left subject K1 is the parts image W1, and the blade combined with the right subject K2 is the parts image W2.
図13は、人物検出により検出した顔の特徴点を模式的に示した図である。同図においては、正方形の印が特徴点を示している。まず、既知の顔検出アルゴリズムにより、各フレーム画像の被写体から特徴点を検出し、これら特徴点に基づいて、被写体の眉間の位置X、及び顔幅Hを算出する。続いて、眉間の位置Xから(2*H)下方で、且つ、その位置から左方向に(1.25*H)離れた位置を装飾画像を合成する合成位置Y1(左側)として算出する。また、眉間の位置Xから(2*H)下方で、且つ、その位置から右方向に(1.25*H)離れた位置を装飾画像を合成する合成位置Y2(右側)として算出する。(2*H),(1.25*H)は、正面を向いてまっすぐに立っていると仮定した場合、眉間の位置Xと顔幅Hを基準として人の肩のおおよその位置を算出するための統計的な数値である。なお、この例では、基準となる位置を眉間にしているが、これは一例であり、例えば、顔の中心である鼻を基準位置とすることもできる。   FIG. 13 is a diagram schematically showing facial feature points detected by person detection. In the figure, square marks indicate feature points. First, feature points are detected from the subject of each frame image by a known face detection algorithm, and the position X between the eyebrows of the subject and the face width H are calculated based on these feature points. Subsequently, a position below (2 * H) from the position X between the eyebrows and away from the position to the left (1.25 * H) is calculated as a combined position Y1 (left side) where the decorative image is combined. Further, a position that is (2 * H) below the position X between the eyebrows and that is (1.25 * H) away from the position in the right direction is calculated as a combined position Y2 (right side) where the decorative image is combined. (2 * H) and (1.25 * H) calculate the approximate position of a person's shoulders based on the position X between the eyebrows and the face width H, assuming that they are standing straight ahead. For statistical numbers. In this example, the reference position is between the eyebrows, but this is an example. For example, the nose, which is the center of the face, can be used as the reference position.
次に、各フレーム画像における被写体の合成位置を算出する。ここでは、図14に示すように、2つの被写体K1,K2において、左側の被写体K1の左側の合成位置Y1、及び右側の被写体K2の右側の合成位置Y2に、それぞれ第1パーツ画像W1及び第2パーツ画像W2を合成する。これらのパーツ画像は向きが決まっており、左側に配置される第1パーツ画像W1は左向きであり、右側に配置される第2パーツ画像W2は右向きである。この処理は種々の方法で行うことができるが、例えば、以下のように処理することができる。   Next, the composition position of the subject in each frame image is calculated. Here, as shown in FIG. 14, in the two subjects K1 and K2, the first part image W1 and the first part image W1 and the right composite position Y2 of the left subject K1 and the right composite position Y2 of the right subject K2, respectively. A two-part image W2 is synthesized. The orientation of these part images is fixed, the first part image W1 arranged on the left side faces left, and the second part image W2 arranged on the right side faces right. This process can be performed by various methods. For example, the process can be performed as follows.
まず、各フレーム画像において、人物検出を行う。このとき、最初に検出した人物(被写体)を0番とし、検出順序に応じて0,1,2番というように異なる人物番号を割り当てる。本例では、各フレーム画像に2名の被写体を含むため、0番と1番の人物番号が割り当てられる。次に、0番の人物が他方の人物に対して左右のどちらに位置するのか、1番の人物が他方の人物に対して左右のどちらに位置するのか、をそれぞれの人物の座標に基づいて判別する。その上で、左側の被写体K1の左側の合成位置Y1に第1パーツ画像W1を合成し、右側の被写体K2の左側の合成位置Y2に第2パーツ画像W2を合成する。   First, person detection is performed in each frame image. At this time, the first detected person (subject) is set to 0, and different person numbers are assigned such as 0, 1, and 2 according to the detection order. In this example, since each frame image includes two subjects, 0th and 1st person numbers are assigned. Next, whether the number 0 person is located on the left or right of the other person, and whether the number 1 person is located on the left or right of the other person based on the coordinates of each person Determine. Then, the first part image W1 is combined with the left combining position Y1 of the left subject K1, and the second part image W2 is combined with the left combining position Y2 of the right subject K2.
こうして、各フレーム画像にパーツ画像W1,W2を合成し、ライブビューを生成すれば、第1モニタ113あるいは第2モニタ114には、2つの被写体K1,K2の両側にパーツ画像W1,W2が生えたようなライブビューが表示される。そして、このようなライブビューを第1モニタあるいは第2モニタ114で確認しながら、2枚の全身撮影を行う。   Thus, if the part images W1 and W2 are combined with each frame image and a live view is generated, the first monitor 113 or the second monitor 114 has the part images W1 and W2 on both sides of the two subjects K1 and K2. Live view is displayed. Then, while confirming such a live view on the first monitor or the second monitor 114, two whole-body images are taken.
<7−3−3.動画撮影>
次に、動画の撮影を第1カメラ111または第2カメラ112で行う。いずれのカメラ111,112を使用するかは、図9にて行われた背景選択の結果に基づいて決定される。このとき、動画の撮影は全身撮影とほぼ同様のカメラ設定(例えば、ズーム、トリミング範囲)で行われる。そして、全身撮影では、静止画を撮影したが、動画撮影では、第1モニタ113あるいは第2モニタ114に表示されるライブビューがそのままメモリに記憶される。より詳細には、図15に示す動画撮影画面の撮影画像表示領域1133に、プレイ準備処理で選択された合成用画像と被写体画像とが合成されたライブビューが表示される。選択された候補の中には、装飾画像が含まれるものもあるが、その場合のライブビューの生成は上述したとおりである。そして、手本となる動画が撮影画像表示領域1133において再生された後、3回の動画撮影が行われる。例えば、図16に示すように、「アクション!」という文字が表示された後、「カット!」(図示省略)という文字が表示されるまで、所定時間の動画撮影が3回行われる。
<7-3-3. Movie shooting>
Next, the first camera 111 or the second camera 112 captures a moving image. Which camera 111 or 112 is used is determined based on the result of background selection performed in FIG. At this time, the moving image is shot with substantially the same camera settings (for example, zoom and trimming range) as the whole-body shooting. In whole body shooting, a still image is shot. In moving image shooting, a live view displayed on the first monitor 113 or the second monitor 114 is stored in the memory as it is. More specifically, a live view in which the composition image selected in the play preparation process and the subject image are combined is displayed in the captured image display area 1133 of the moving image capturing screen shown in FIG. Some of the selected candidates include a decoration image, and generation of a live view in that case is as described above. Then, after a moving image serving as a model is reproduced in the captured image display area 1133, the moving image is captured three times. For example, as shown in FIG. 16, after the characters “Action!” Are displayed, the moving image shooting for a predetermined time is performed three times until the characters “Cut!” (Not shown) are displayed.
以上のように、すべての撮影が終了すると、第1モニタ113には、編集部2のいずれか一方の編集空間20a,20bへの移動を促す表示がなされるとともに、スピーカ19によって、編集空間20a,20bへの移動を促す通知がなされる。また、生成された各撮影画像は、編集部2に送信される。なお、上述した例では、合計5回の静止画撮影と3回の動画撮影が行われたが、撮影回数は特には限定されない。   As described above, when all the shootings are completed, the first monitor 113 is displayed to prompt the user to move to one of the editing spaces 20 a and 20 b of the editing unit 2, and the editing space 20 a is displayed by the speaker 19. , 20b is urged to move. Each generated captured image is transmitted to the editing unit 2. In the example described above, a total of five still image shootings and three moving image shootings are performed, but the number of shootings is not particularly limited.
<7−4.編集処理>
以上のように、撮影処理が完了すると、編集空間20a,20bのいずれかにおいて、編集処理が開始される。編集処理は、落書き編集の説明、落書き編集の順に行われる。
<7-4. Editing process>
As described above, when the photographing process is completed, the editing process is started in one of the editing spaces 20a and 20b. The editing process is performed in the order of explanation of doodle editing and doodle editing.
<7−4−1.編集画面の詳細>
まず、編集用モニタ213に表示される編集画面について説明する。図16に示すように、この編集画面において、編集用モニタ213は、左右一対の編集スペースに区分けされ、2人のユーザが同時並行して使用できるようになっている。編集用モニタ213の左側の編集スペースにおいては、左側のタッチペン214Aによる入力受け付けが可能となっており、右側の編集スペースにおいては、右側のタッチペン214Bによる入力受け付けが可能となっている。これら左右の編集スペースは、左右対称であるため、以下では、左側の編集スペースについて説明し、右側の編集スペースの説明は、省略する。
<7-4-1. Edit screen details>
First, the editing screen displayed on the editing monitor 213 will be described. As shown in FIG. 16, on this editing screen, the editing monitor 213 is divided into a pair of left and right editing spaces, so that two users can use them simultaneously. In the editing space on the left side of the editing monitor 213, input can be received by the left touch pen 214A, and in the right editing space, input can be received by the right touch pen 214B. Since these left and right editing spaces are symmetric, the left editing space will be described below, and the description of the right editing space will be omitted.
各編集スペースの上部中央には、5枚の合成画像(アップ画像、全身画像に係る合成画像)のサムネイル502が表示されており、ここからいずれかかがタッチされることにより選択された1枚の合成画像が、編集対象の画像としてその下方の落書き領域501に表示される。これら5枚のサムネイル502は、左右の編集スペースで同じであるが、例えば、右側の編集スペースで左から2番目のサムネイルに係る合成画像が選択されて落書き領域501に表示されているときには、左側の編集スペースでは、左から2番目のサムネイル502に「右の人が拡大中だよ」との表示がなされ、選択できないようになっている。同様に、左側の編集スペースで右端のサムネイル502に係る合成画像が選択されて落書き領域501に表示されているときには、右側の編集スペースでは、右端のサムネイル502に「左の人が拡大中だよ」との表示がなされ、選択できないようになっている。   In the upper center of each editing space, thumbnails 502 of five composite images (up image, composite image related to the whole body image) are displayed, and one selected by touching one of them. Is displayed in the graffiti area 501 below as an image to be edited. These five thumbnails 502 are the same in the left and right editing spaces. For example, when the composite image related to the second thumbnail from the left is selected and displayed in the graffiti area 501 in the right editing space, the left side In the editing space, the second thumbnail from the left displays “The person on the right is expanding” and cannot be selected. Similarly, when a composite image related to the rightmost thumbnail 502 is selected and displayed in the graffiti area 501 in the editing space on the left side, “the left person is expanding” in the rightmost thumbnail 502 in the editing space on the right side. "Is displayed, so that it cannot be selected.
落書き領域501の両側部には、編集ボタンが配置されている。左側には、装飾OFFボタン561、装飾調整ボタン562、及び、盛れ感パレットボタン563がこの順で上から下へ配置されている。盛れ感パレットボタン563については後述する。なお、装飾OFFボタン561及び装飾調整ボタン562は、落書き領域501に表示されている合成画像に装飾画像が含まれている場合のみ表示され、当該合成画像に装飾画像が含まれていない場合は表示されない。   Edit buttons are arranged on both sides of the graffiti area 501. On the left side, a decoration OFF button 561, a decoration adjustment button 562, and a feeling of pallet palette button 563 are arranged in this order from top to bottom. The fullness palette button 563 will be described later. The decoration OFF button 561 and the decoration adjustment button 562 are displayed only when a decoration image is included in the composite image displayed in the graffiti area 501, and is displayed when the decoration image is not included in the composite image. Not.
装飾OFFボタン561がタッチされると、編集対象の画像として落書き領域501に表示されている合成画像に含まれるすべての装飾画像(例えば、羽根)が消去される。そして、装飾OFFボタン561は、装飾OFFボタン(不図示)に表示が変更される。そして、装飾OFFボタンをタッチすると、落書き領域501に表示されている同じ合成画像に再び装飾画像が合成表示される。   When the decoration OFF button 561 is touched, all decoration images (for example, feathers) included in the composite image displayed in the graffiti area 501 as an image to be edited are deleted. The display of the decoration OFF button 561 is changed to a decoration OFF button (not shown). When the decoration OFF button is touched, the decoration image is again displayed on the same composite image displayed in the graffiti area 501.
次に、装飾調整ボタン562について説明する。この装飾調整ボタン562がタッチされると落書き領域501に表示されている合成画像に含まれる装飾画像の調整が可能となる。装飾画像は、図17に示すように複数のパーツ画像W1,W2を含み、各パーツ画像W1,W2の周囲に矩形状の装飾画像枠811がそれぞれ表示される。そして、装飾調整ボタン562は、装飾調整終了ボタン(不図示)に表示が変更される。   Next, the decoration adjustment button 562 will be described. When the decoration adjustment button 562 is touched, the decoration image included in the composite image displayed in the graffiti area 501 can be adjusted. As shown in FIG. 17, the decoration image includes a plurality of part images W1 and W2, and a rectangular decoration image frame 811 is displayed around each of the part images W1 and W2. The display of the decoration adjustment button 562 is changed to a decoration adjustment end button (not shown).
各装飾画像枠811の四隅には、各パーツ画像の形状等を変更するための機能アイコン812〜815がそれぞれ配置されている。この例では、装飾画像枠811を便宜上、破線で示すが、装飾画像枠811を破線以外の線で構成してもよい。あるいは、装飾画像枠811で囲まれる領域の透明度を下げてパーツ画像W1,W2の背景を半透明にすることにより、装飾画像枠811で囲まれる領域とそれ以外の領域とを視覚上容易に区別できるようにしてもよい。   Function icons 812 to 815 for changing the shape and the like of each part image are arranged at the four corners of each decoration image frame 811. In this example, the decorative image frame 811 is indicated by a broken line for convenience, but the decorative image frame 811 may be configured by a line other than the broken line. Alternatively, by visually reducing the transparency of the area surrounded by the decoration image frame 811 and making the background of the part images W1 and W2 translucent, the area surrounded by the decoration image frame 811 and the other area can be easily distinguished visually. You may be able to do it.
まず、装飾画像枠811で囲まれた領域の任意の位置をユーザがタッチペン214でタッチしたまま上下左右に動かすと、いわゆるドラッグ操作となり、タッチペン214が画面から離されるまでタッチペン214が移動する方向へ装飾画像枠811で囲まれたパーツ画像が追随して移動する。装飾画像枠811及びパーツ画像W1,W2の移動可能範囲は落書き領域501の外まで及び、装飾画像枠811およびパーツ画像W1,W2が落書き領域501の外側にはみ出ても表示される。但し、装飾画像枠811及びパーツ画像W1,W2の移動可能範囲は、装飾画像枠811の四隅にある各機能アイコン812〜815が落書き領域501の外側にある各種のボタンやアイコンなどと干渉しない範囲までである。そうした干渉を避けるために、落書き領域501からその周囲のボタンやアイコンまでの距離ができる限り広くなるように周囲のボタンやアイコンを配置してもよい。   First, when the user moves an arbitrary position in the area surrounded by the decoration image frame 811 up, down, left and right while touching with the touch pen 214, a so-called drag operation is performed, and the touch pen 214 moves in a direction until the touch pen 214 is released from the screen. The part image surrounded by the decoration image frame 811 moves following. The movable range of the decoration image frame 811 and the part images W1 and W2 extends to the outside of the graffiti area 501, and the decoration image frame 811 and the part images W1 and W2 are displayed even if they protrude outside the graffiti area 501. However, the movable range of the decoration image frame 811 and the part images W1 and W2 is a range in which the function icons 812 to 815 at the four corners of the decoration image frame 811 do not interfere with various buttons and icons outside the graffiti area 501. Up to. In order to avoid such interference, the surrounding buttons and icons may be arranged so that the distance from the graffiti area 501 to the surrounding buttons and icons is as large as possible.
装飾画像枠811の四隅に表示される機能アイコン812〜815は、右上隅の回転アイコン812、右下隅の拡縮アイコン813、左下隅の反転アイコン814、左上隅の削除アイコン815で構成される。ユーザがタッチペン214で回転アイコン812をタッチしたままパーツ画像W1,W2における所定位置座標(例えば、パーツ画像の中心座標)を中心とする円を描くように時計回りまたは反時計回りにタッチペン214を動かすと、その円運動に追随するようにパーツ画像W1,W2の垂直軸および水平軸の角度が傾き、パーツ画像W1,W2を上記の所定位置座標を中心に回転させることができる。ユーザがタッチペン214で拡縮アイコン813をタッチしたまま所定位置座標から遠ざかる方向(図17の例では、右下の方向)へタッチペン214を動かすと、装飾画像枠811及びパーツ画像W1,W2の大きさが拡大される。一方、所定位置座標に近づく方向(左上の方向)にタッチペン214を動かすと、装飾画像枠811及びパーツ画像W1,W2の大きさが縮小される。   The function icons 812 to 815 displayed at the four corners of the decorative image frame 811 include a rotation icon 812 at the upper right corner, an enlargement / reduction icon 813 at the lower right corner, a reverse icon 814 at the lower left corner, and a delete icon 815 at the upper left corner. While the user touches the rotation icon 812 with the touch pen 214, the touch pen 214 is moved clockwise or counterclockwise so as to draw a circle centered on a predetermined position coordinate (for example, the center coordinate of the part image) in the part images W1 and W2. Then, the angles of the vertical and horizontal axes of the part images W1 and W2 are inclined so as to follow the circular motion, and the part images W1 and W2 can be rotated around the predetermined position coordinates. When the user moves the touch pen 214 in a direction away from the predetermined position coordinates while touching the enlargement / reduction icon 813 with the touch pen 214 (the lower right direction in the example of FIG. 17), the size of the decoration image frame 811 and the part images W1, W2 Is enlarged. On the other hand, when the touch pen 214 is moved in a direction approaching the predetermined position coordinates (upper left direction), the size of the decoration image frame 811 and the part images W1 and W2 is reduced.
ユーザがタッチペン214で反転アイコン814をタッチしたまま右方向(具体的には、アイコン814,815を結ぶ直線に対して垂直方向)へタッチペン214を動かすと、その動きに追随してパーツ画像W1,W2が奥行き方向へ右回転し、左方向へタッチペン214を動かすと、その動きに追随してパーツ画像W1,W2が奥行き方向へ左回転する。奥行き方向へ右回転または左回転して180度回転すると、パーツ画像W1,W2は左右方向に反転する。また、ユーザが削除アイコン815をタッチすると、その装飾画像枠811及びパーツ画像W1,W2が落書き領域501の編集対象画像から削除される。装飾画像枠811及びパーツ画像W1,W2の一部が落書き領域501からはみ出ても、そのはみ出た部分の隅には機能アイコン812〜815が表示され得る。   When the user moves the touch pen 214 in the right direction (specifically, the direction perpendicular to the straight line connecting the icons 814 and 815) while touching the reverse icon 814 with the touch pen 214, the parts image W1, following the movement. When W2 rotates to the right in the depth direction and moves the touch pen 214 to the left, the part images W1 and W2 rotate to the left in the depth direction following the movement. When rotating 180 degrees by rotating clockwise or counterclockwise in the depth direction, the part images W1, W2 are reversed in the left-right direction. When the user touches the delete icon 815, the decoration image frame 811 and the part images W1 and W2 are deleted from the image to be edited in the graffiti area 501. Even if a part of the decoration image frame 811 and the part images W1 and W2 protrudes from the graffiti area 501, function icons 812 to 815 may be displayed at the corners of the protruding part.
装飾調整終了ボタン、あるいは別のツール(サムネイル502や盛れ感パレット563,パレット509等)がタッチされると、装飾画像枠811が消去され、パーツ画像W1、W2の位置が固定される。このとき、装飾調整終了ボタンに代えて装飾調整ボタン562が表示される。この装飾調整ボタン562をタッチすること、再度のパーツ画像の調整が可能となる。   When the decoration adjustment end button or another tool (thumbnail 502, swell palette 563, palette 509, etc.) is touched, the decoration image frame 811 is deleted, and the positions of the part images W1 and W2 are fixed. At this time, a decoration adjustment button 562 is displayed instead of the decoration adjustment end button. By touching the decoration adjustment button 562, the part image can be adjusted again.
また、図16に示すように、落書き領域501の右側には、上から、終了ボタン540、4種類の消しゴムボタン504、「進む」ボタン505、及び「戻る」ボタン506が配置されている。終了ボタン540は、編集を終了するボタンである。消しゴムボタン507としては、3種類の大きさ消しゴムボタンと、すべての落書きを消すための「全消し」ボタンとがある。例えば、いずれかの大きさ消しゴムボタン507をタッチペン214Aでタッチすると、その大きさ消しゴムが設定され、この状態で落書き領域501をタッチペン214Aでなぞると、なぞった部分の落書きが消去されるようになっている。また、「全消し」ボタンを押下すると、すべての落書きが消去される。   Also, as shown in FIG. 16, an end button 540, four types of eraser buttons 504, a “forward” button 505, and a “return” button 506 are arranged on the right side of the graffiti area 501 from the top. The end button 540 is a button for ending editing. The eraser button 507 includes three types of size eraser buttons and an “all erase” button for erasing all graffiti. For example, when any size eraser button 507 is touched with the touch pen 214A, the size eraser is set, and when the graffiti area 501 is traced with the touch pen 214A in this state, the doodle of the traced part is erased. ing. When the “Erase all” button is pressed, all graffiti is erased.
「戻る」ボタン506は、直前に行った落書き処理を取り消して元に戻すためのボタンであり、「進む」ボタン505は、反対に、「戻る」ボタン507を押下する直前の落書き処理を復活させるためのボタンである。   The “return” button 506 is a button for canceling and returning the graffiti processing performed immediately before, and the “forward” button 505, on the contrary, restores the graffiti processing immediately before the “return” button 507 is pressed. It is a button for.
また、編集画面の上部中央には、カウントダウン用のタイマー508が設けられている。このタイマー508は、種々の設定ができるが、例えば、落書き編集を行える基本制限時間(例えば、300秒)を予め設定しておき、落書き編集が開始されると同時にカウントダウンを始め、タイマー508の表示がゼロになったときに落書き編集を強制的に終了させるように構成することができる。あるいは、撮影部1にユーザがいないとき、つまり、編集作業を待つ後続のユーザがいないときには、カウントダウンを行わず、制限なく編集作業を行えるようにしてもよいし、最大制限時間(例えば、20分)を設定しておき、最大制限時間まで編集作業を行えるようにしてもよい。但し、このような状態になったとき、もう一方の編集部2に後続のユーザがいる状態で、新たなユーザによる撮影処理が開始された場合、撮影処理の開始に合わせて、予め設定された時間(例えば、60秒)からのカウントダウンを始めるようにすることが好ましい。このタイマー508は、左右のユーザで共通であり、両ユーザの編集処理時間が1つのタイマー508で管理される。   In addition, a countdown timer 508 is provided in the upper center of the editing screen. The timer 508 can be set in various ways. For example, a basic time limit (for example, 300 seconds) in which graffiti editing can be performed is set in advance, and the countdown starts at the same time as the graffiti editing starts. It can be configured to forcibly end graffiti editing when becomes zero. Alternatively, when there is no user in the photographing unit 1, that is, when there is no subsequent user waiting for the editing work, the editing work may be performed without limitation without being counted down, or the maximum time limit (for example, 20 minutes). ) May be set so that editing can be performed up to the maximum time limit. However, in such a state, when a shooting process by a new user is started in a state where there is a subsequent user in the other editing unit 2, it is set in advance in accordance with the start of the shooting process. It is preferable to start counting down from time (eg, 60 seconds). This timer 508 is common to the left and right users, and the editing processing time for both users is managed by one timer 508.
タイマー508の下方には、印刷用シートのサムネイル555が表示されている。この印刷用シートは、プレイ準備処理で選択したものであり、このシートのサムネイル555内の各領域には、生成された5枚の合成画像が表示されている。なお、このサムネイル555内の合成画像が、左右の各落書き領域501で行われた落書きをリアルタイムで反映して表示されるようにしてもよい。また、サムネイル555内の合成画像をタッチすることで、当該合成画像を落書き領域501に表示させることもできる。   Below the timer 508, a thumbnail 555 of the printing sheet is displayed. This print sheet is selected in the play preparation process, and five generated composite images are displayed in each area in the thumbnail 555 of this sheet. Note that the composite image in the thumbnail 555 may be displayed reflecting the graffiti performed in the left and right graffiti areas 501 in real time. Further, by touching the composite image in the thumbnail 555, the composite image can be displayed in the graffiti area 501.
落書き領域501の下方には、絵、模様、図形、文字などを書き込むためのパレット509が配置されている。パレット509は、複数の領域に分けられている。まず、パレット509の上段には、複数のカテゴリーが表示されたカテゴリー領域510が配置されている。ここでは、例として「ペン」、「おすすめ」、「スタンプ」、「イベント」、及び「盛れ感パレット」という5つのカテゴリーが表示されている。   Below the graffiti area 501, a palette 509 for writing pictures, patterns, figures, characters and the like is arranged. The pallet 509 is divided into a plurality of areas. First, a category area 510 in which a plurality of categories are displayed is arranged in the upper part of the palette 509. Here, as an example, five categories of “pen”, “recommendation”, “stamp”, “event”, and “health feeling palette” are displayed.
カテゴリー領域510の下方には、詳細ツール領域511が配置されており、上記各カテゴリーに関連した落書き用のツールが表示される。例えば、「スタンプ」というカテゴリーを選択すると、種々の種類のスタンプ(ツール)が表示される。この領域の上段には、4つの種類ボタン(A〜D)512が配置され、その下方には、複数種のスタンプが表示されたツールボタン513が配置されている。また、ツールボタン513の側方には、ツール編集ボタン、及び大きさ調整ボタン518が配置されている。   Below the category area 510, a detailed tool area 511 is arranged, and a graffiti tool related to each category is displayed. For example, when the category “stamp” is selected, various types of stamps (tools) are displayed. In the upper part of this area, four type buttons (A to D) 512 are arranged, and below that, tool buttons 513 displaying a plurality of types of stamps are arranged. Further, a tool edit button and a size adjustment button 518 are arranged on the side of the tool button 513.
種類ボタン512は、選択されたカテゴリーをさらに分類するものである。図16には、1つの種類ボタンに対応する複数のスタンプが示されているが、これと同様に、他の種類ボタンを押下すると、同じカテゴリーでさらに種類の異なるスタンプが表示される。例えば、図16のツールが表示された状態で落書き処理を行う場合には、いずれかのツールをタッチペン214A,214Bで押下してツールを選択し、その後、タッチペン214A,214Bで落書き領域501の任意の位置を押下する。これにより、選択されたツールが落書き領域501における押下された位置に表示される。一旦設定されたツールは、他のツールを選択するまで維持される。   The type button 512 further classifies the selected category. FIG. 16 shows a plurality of stamps corresponding to one type button. Similarly, when another type button is pressed, different types of stamps are displayed in the same category. For example, when the graffiti process is performed in a state where the tool of FIG. 16 is displayed, any tool is pressed with the touch pens 214A and 214B to select the tool, and then the graffiti area 501 is arbitrarily selected with the touch pens 214A and 214B. Press the position of. As a result, the selected tool is displayed at the pressed position in the graffiti area 501. Once a tool is set, it is maintained until another tool is selected.
ツール編集ボタンは、4種類のボタンを有している。上から、第1回転ボタン514、第2回転ボタン515及び反転ボタン516が配置されている。第1回転ボタン514は、画面に垂直な軸回りに選択されたツールを回転するためのものであり、第2回転ボタン515は、画面に平行で上下に延びる軸回りに選択されたツールを回転する(奥行き方向に回転する)ためのものである。反転ボタン516は、落書き領域に表示されたツールの左右を反転させるものである。なお、これらのボタン514,525,516を操作すると、落書き領域501に表示するツールだけでなく、例えば、パレット上のツールの表示も変更される。また、大きさ調整ボタン518は、落書き領域501に表示するツールの大きさを決定するためのものであり、5種類の大きさが表示されている。例えば、カテゴリーとしてスタンプを選択して、大きさ調整ボタン518を押下した後、いずれかのツールを選択すると、選択した大きさに応じたスタンプが落書き領域501に表示される。   The tool edit button has four types of buttons. From the top, a first rotation button 514, a second rotation button 515, and a reverse button 516 are arranged. The first rotation button 514 is for rotating the selected tool around an axis perpendicular to the screen, and the second rotation button 515 is for rotating the selected tool around an axis extending parallel to the screen and extending up and down. For rotating (rotating in the depth direction). The reverse button 516 is used to reverse the right and left of the tool displayed in the graffiti area. When these buttons 514, 525, and 516 are operated, not only the tool displayed in the graffiti area 501 but also the display of the tool on the palette, for example, is changed. The size adjustment button 518 is for determining the size of the tool to be displayed in the graffiti area 501, and five types of sizes are displayed. For example, when a stamp is selected as a category and the size adjustment button 518 is pressed and then any tool is selected, a stamp corresponding to the selected size is displayed in the graffiti area 501.
また、いずれかのツールを選択した後、回転ボタン514,515を押下すると、押下した回数に応じて、選択されたツールがパレット509内で回転する。そして、所望の回転角度になったときに、落書き領域501の任意の位置を押下すると、選択されたツールが、所望の回転角度で落書き領域501に表示される。その後、パレット509の他のツールを押下すると、その直前に回転していたツールは、元の角度に戻る。但し、ツールが所望の回転角度になった状態で、消しゴムボタン504を押下したときには、元の角度には戻らないようになっている。消しゴムボタン504を利用するということは、そのツールを書き直す可能性があり、特に回転角度を変更したい場合もあるので、直前の回転角度を認識させるために、角度の変更は行わないようになっている。   Further, when one of the tools is selected and then the rotation buttons 514 and 515 are pressed, the selected tool is rotated in the pallet 509 according to the number of pressing times. When an arbitrary position of the graffiti area 501 is pressed when the desired rotation angle is reached, the selected tool is displayed in the graffiti area 501 at the desired rotation angle. After that, when another tool of the palette 509 is pressed, the tool that has been rotated immediately before is returned to the original angle. However, when the eraser button 504 is pressed with the tool at a desired rotation angle, the tool does not return to the original angle. The use of the eraser button 504 may rewrite the tool, and in particular there is a case where it is desired to change the rotation angle. Therefore, in order to recognize the previous rotation angle, the angle is not changed. Yes.
<7−4−2.盛れ感パレット>
次に、盛れ感パレットについて説明する。盛れ感パレットは、被写体の顔画像に対して施すメイク処理(例えば、化粧画像を、合成画像における被写体の顔画像の所定箇所に合成する処理)を選択するための複数の選択ボタンが配置されるパレットである。この盛れ感パレットは、パレット509に表示される。カテゴリー領域510に含まれる盛れ感パレットタブあるいは盛れ感パレットボタン563がタッチされると、落書き領域501の下方のパレット509に、図18に示すパレットが表示される。盛れ感パレットボタン563を、パレット509以外に配置することで、ユーザの目に止まりやすく、盛れ感パレットのユーザの使用率を向上させることができる。
<7-4-2. Peeling feeling palette>
Next, the swell feeling palette will be described. The sensation palette is provided with a plurality of selection buttons for selecting a makeup process (for example, a process of combining a makeup image with a predetermined portion of the subject face image in the composite image) to be performed on the subject face image. It is a pallet. This climax feeling palette is displayed on the palette 509. When the feeling palette tab or the feeling palette button 563 included in the category area 510 is touched, a palette shown in FIG. 18 is displayed on the palette 509 below the graffiti area 501. By disposing the climax pallet button 563 other than the pallet 509, the user can easily catch the eye, and the usage rate of the climax pallet user can be improved.
図18に示すように、この盛れ感パレットには、メイクを行う被写体の選択を促す表示と、メイクパレットの選択のための表示が配置されている。この表示がなされている際、落書き領域501に表示された合成画像におけるすべての顔画像には、顔位置を示す枠が表示される。この表示にしたがい、ユーザは、顔位置を示す枠内をタッチし、メイク処理の対象を選択する。すると、タッチされた枠に対応する顔画像が、メイク処理の対象の対象顔画像として選択される。   As shown in FIG. 18, a display for prompting selection of a subject to be makeup and a display for selecting a makeup palette are arranged in this sensation palette. When this display is performed, a frame indicating the face position is displayed on all the face images in the composite image displayed in the graffiti area 501. In accordance with this display, the user touches the inside of the frame indicating the face position, and selects the makeup processing target. Then, the face image corresponding to the touched frame is selected as the target face image to be subjected to the makeup process.
続いて、メイクパレットとして、お手軽メイク、またはポイントメイクのいずれか一方を選択する。お手軽メイクを選択すると、パレット509の表示が、図19に示すパレットに遷移する。このパレットには、予め複数のメイクの画像サンプル901が示されている。例えば、眉、目の色、ノーズシャドウ、リップ、チークなどが適宜施された複数のモデルの画像サンプル901が示されている。ユーザが、この中からいずれかの画像サンプル901をタッチすると、対象顔画像に対して、選択した画像サンプル901に対応するメイク処理が施される。   Subsequently, either a simple makeup or a point makeup is selected as a makeup palette. When easy makeup is selected, the display of the palette 509 transitions to the palette shown in FIG. In this palette, a plurality of makeup image samples 901 are shown in advance. For example, a plurality of model image samples 901 to which eyebrows, eye colors, nose shadows, lips, cheeks, and the like are appropriately applied are shown. When the user touches any one of the image samples 901, makeup processing corresponding to the selected image sample 901 is performed on the target face image.
一方、図18のパレットにおいて、ポイントメイクを選択すると、図20に示すパレットに遷移する。このパレットでは、4つの部位に対して個別にメイク処理を行うことを可能としている。それぞれの部位に対応する4つのボタン、つまり「眉、目の濃さ」911、「鼻筋、肌つや」912、「リップ」913、「チーク」914が配置されており、これらの部位に個々にメイク用の画像処理を施すことができる。図20のパレットでは、「眉、目の濃さ」911の選択されており、4つの「眉」の色のサンプル921と、3つの「目の濃さ」の色のサンプル922が表示されている。ユーザが、この中のいずれかをタッチすると、落書き領域501の中の選択した被写体に対し、眉の色、目の濃さの色を変化させるメイク処理が施される。   On the other hand, when point makeup is selected in the palette shown in FIG. 18, the palette transitions to the palette shown in FIG. In this pallet, it is possible to perform makeup processing on four parts individually. Four buttons corresponding to each part, that is, “eyebrows, darkness of eyes” 911, “nose muscles, skin gloss” 912, “lip” 913, and “teak” 914 are arranged, and these parts are individually provided. Image processing for makeup can be performed. In the palette of FIG. 20, “eyebrow and eye density” 911 is selected, and four “eyebrow” color samples 921 and three “eye density” color samples 922 are displayed. Yes. When the user touches any one of these, a makeup process for changing the color of the eyebrows and the color of the eyes is performed on the selected subject in the graffiti area 501.
ここで、眉の色を変化させるメイク処理の一例について説明する。まず、上述した顔検出技術により、対象顔画像から眉領域を検出するが、例えば、図21に示すように、対象顔画像の眉の一部が髪の毛に隠れている場合がある。このときの眉領域の検出の結果は、に示すように、髪の毛領域を含むことになる。髪の毛領域も眉毛の一部として色を変えてしまうので、見た目が不自然になってしまう。以下では、これを解決するための方法を説明する。   Here, an example of a makeup process for changing the color of the eyebrows will be described. First, the eyebrow area is detected from the target face image by the face detection technique described above. For example, as shown in FIG. 21, a part of the eyebrows of the target face image may be hidden behind the hair. The detection result of the eyebrow area at this time includes a hair area as shown in FIG. The hair region also changes color as part of the eyebrows, making it look unnatural. Hereinafter, a method for solving this will be described.
まず、眉領域の検出に続いて、対象顔画像の髪の毛領域を特定する。具体的には、髪の毛の色やエッジを検出することで特定できる。そして、図21の拡大図に示すように、眉領域から髪の毛領域に重なる部分を覗いた領域を、真の眉領域(真眉領域)として特定する。この真眉領域が、眉の色を変化させるメイク処理の対象となる。なお、対象顔画像において眉のすべてが髪の毛に隠れている場合には、真眉領域がないと検出されるので、眉の色の変更は行わない。   First, following the detection of the eyebrow region, the hair region of the target face image is specified. Specifically, it can be specified by detecting the color or edge of the hair. Then, as shown in the enlarged view of FIG. 21, an area in which a portion overlapping the hair area from the eyebrow area is identified as a true eyebrow area (true eyebrow area). This true eyebrow area is the target of the makeup process that changes the color of the eyebrow. Note that when the entire eyebrows are hidden in the hair in the target face image, it is detected that there is no true eyebrow area, and thus the color of the eyebrows is not changed.
続いて、対象顔画像の本来の眉の色を真眉領域から検出し、その色に基づいて、選択されたサンプル921の眉の色に近くなるように画像処理を行う。具体的には、真眉領域に対して、当該真眉領域の色を利用して色を変更する処理を行う。これは、被写体の本来の眉の色と全く異なる色に変化させると、違和感が生じるからである。なお、眉の色は、準備された色のみならず、例えば、ユーザの髪の色と同じにするような画像処理を選択できるようにしてもよい。髪の毛の色と眉の色を同じにできるので、違和感のない顔画像とすることができる。   Subsequently, the original eyebrow color of the target face image is detected from the true eyebrow region, and image processing is performed based on the color so as to be close to the eyebrow color of the selected sample 921. Specifically, a process of changing the color using the color of the true eyebrow region is performed on the true eyebrow region. This is because a sense of incongruity occurs when the subject is changed to a color completely different from the original eyebrow color. Note that the color of the eyebrows is not limited to the prepared color, and for example, image processing that is the same as the color of the user's hair may be selected. Since the color of the hair and the color of the eyebrows can be made the same, it is possible to obtain a face image without a sense of incongruity.
次に、図20のパレットから、「鼻筋、肌つや」912を選択すると、図22のパレットに遷移する。このパレットでは、ノーズシャドウの濃さ931と肌のつや感932を選択することができる。ノーズシャドウを施すには、選択された被写体の顔から、顔検出技術により、鼻を検出し、ここからノーズシャドウを施すべき鼻筋の部分を特定し、選択された色に着色する画像処理を行う。肌のつやについては、選択された被写体の顔の色から肌の部分を検出し、選択されたつやとなるように画像処理を行う。   Next, when “nasal muscles, skin gloss” 912 is selected from the palette in FIG. 20, a transition is made to the palette in FIG. 22. In this palette, the density 931 of the nose shadow and the glossiness 932 of the skin can be selected. To apply the nose shadow, the nose is detected from the face of the selected subject by face detection technology, the nose muscle portion to which the nose shadow is to be applied is specified, and image processing is performed to color the selected color. . For the skin gloss, the skin portion is detected from the face color of the selected subject, and image processing is performed so that the selected gloss is obtained.
図22のパレットから「リップ」913、または「チーク」914を選択すると、図23または図24のパレットに遷移する。これらのパレットでも同様に、リップの範囲、チークを施すべき範囲を顔検出技術により検出し、選択された色に着色する画像処理を行う。   When “lip” 913 or “teak” 914 is selected from the pallet of FIG. 22, the pallet transitions to the pallet of FIG. Similarly, in these palettes, the lip range and the range to be cheeked are detected by the face detection technique, and image processing for coloring the selected color is performed.
以上の画面構成は、左右の編集スペースで同じである。ユーザは、適宜、編集すべき編集対象画像をサムネイル502から選択し、落書き領域501に表示させる。そして、表示された編集対象画像に対して、編集作業を行う。   The above screen configuration is the same in the left and right editing spaces. The user appropriately selects an image to be edited from the thumbnail 502 and displays it in the graffiti area 501. Then, an editing operation is performed on the displayed editing target image.
こうして、ユーザは、タイマー508の残り時間が0になる(またはユーザが終了させる操作を行う)まで、落書きを行う。そして、タイマー508の残り時間が0になるか、あるいはユーザが終了ボタン540をタッチして自発的に落書きを終了させると、図示を省略するが、編集用モニタ213に「落書き終了」との表示が表れる。そして、その時点において、編集画面で編集されている合成画像が編集済画像(出力用画像)とされ、この編集済画像に係る編集済画像データがメモリに保存され、編集処理が終了する。ここで、生成された編集済画像は、プレイ準備処理で選択した印刷シートと合成され、後述する出力処理により印刷シートあるいはデータとして出力される。そして、編集用モニタ213には、出力部4の出力空間40への移動を促す表示がなされる。   In this way, the user performs graffiti until the remaining time of the timer 508 becomes 0 (or the user performs an operation to end). Then, when the remaining time of the timer 508 becomes zero or when the user touches the end button 540 to end the graffiti voluntarily, the display of “end of graffiti” is displayed on the editing monitor 213, although illustration is omitted. Appears. At that time, the composite image edited on the editing screen is set as an edited image (output image), edited image data relating to the edited image is stored in the memory, and the editing process ends. Here, the generated edited image is combined with the print sheet selected in the play preparation process, and is output as a print sheet or data by an output process described later. On the editing monitor 213, a display that prompts the output unit 4 to move to the output space 40 is displayed.
<7−5.出力処理>
次に、出力空間40における出力処理について説明する。上記のように生成された編集済画像データは、出力部4に送信される。
<7-5. Output processing>
Next, output processing in the output space 40 will be described. The edited image data generated as described above is transmitted to the output unit 4.
また、編集済みデータをユーザに送信することができる。送信に当たっては、複数の方法がある。まず、電子メールを入力させ、その電子メールに画像データを送信したり、あるいは画像データを取得できるインターネット上のサイトのURLを送信することもできる。このとき、図5に示す出力筐体41のモニタ411には、2人のユーザに対して、それぞれメールアドレスの入力を促す画面が表示される。なお、編集済画像データ等の画像データまたはURLは、写真撮影遊戯装置から直接ユーザの電子メールアカウントに送信することもできるし、写真撮影遊戯装置から外部のサーバを介して送信することもできる。   In addition, edited data can be transmitted to the user. There are several methods for transmission. First, an e-mail can be input and image data can be transmitted to the e-mail, or a URL of a site on the Internet from which image data can be acquired can be transmitted. At this time, on the monitor 411 of the output housing 41 shown in FIG. 5, a screen for prompting the two users to input mail addresses is displayed. The image data such as edited image data or the URL can be transmitted directly from the photography game device to the user's e-mail account, or can be transmitted from the photography game device via an external server.
また、出力部4の非接触通信部412から、編集済画像データ等の画像データを携帯端末へ送信することもできる。さらに、モニタ411にQRコード(登録商標)を表示させ、このQRコード(登録商標)を読み取ることで、上述したURLを取得することもできる。   In addition, image data such as edited image data can be transmitted from the non-contact communication unit 412 of the output unit 4 to the portable terminal. Further, the above-described URL can be acquired by displaying a QR code (registered trademark) on the monitor 411 and reading the QR code (registered trademark).
また、出力部4は、印刷シートの選択処理で選択された印刷シートに基づいて、複数の編集済み合成画像を印刷媒体に印刷する。そして、その印刷媒体がシール紙排出口413から排出される。   The output unit 4 prints a plurality of edited composite images on a print medium based on the print sheet selected in the print sheet selection process. Then, the print medium is discharged from the sticker paper discharge port 413.
<8.特徴>
以上のように、本実施形態によれば、撮影時に、各フレーム画像の被写体にパーツ画像W1,W2を合成したライブビューを生成することができる。例えば、2つの被写体K1,K2の両側に羽根が生えたような動画を楽しむことができる。したがって、撮影時においても、遊戯性を高めることができる。
<8. Features>
As described above, according to the present embodiment, a live view in which the part images W1 and W2 are combined with the subject of each frame image can be generated at the time of shooting. For example, it is possible to enjoy a moving image with blades on both sides of the two subjects K1 and K2. Therefore, playability can be improved even during shooting.
このライブビューにおいては、被写体を挟むように一対のパーツ画像W1,W2を合成している。そのため、これを見ながら撮影位置を決めようとするユーザは、パーツ画像W1,W2を含めて撮影を行うことが予測されるため、ユーザを撮影範囲の中央付近に移動させることができる。これにより、被写体を適切に撮影することができる。例えば、被写体が撮影範囲の端部付近に位置すると、カメラのレンズの歪みの影響を受ける可能性があるが、被写体が撮影範囲の中央付近に位置すると、そのような影響を受けず、適切な画像を撮影することができる。   In this live view, a pair of part images W1 and W2 are synthesized so as to sandwich the subject. Therefore, since it is predicted that the user who decides the shooting position while looking at this will perform shooting including the part images W1 and W2, the user can be moved to the vicinity of the center of the shooting range. Thereby, a subject can be appropriately photographed. For example, if the subject is located near the end of the shooting range, it may be affected by camera lens distortion, but if the subject is located near the center of the shooting range, it will not be affected by such effects. Images can be taken.
<9.変形例>
以上、本発明の一実施形態について説明したが、本発明は上記実施形態に限定されるものではなく、その趣旨を逸脱しない限りにおいて、種々の変更が可能である。なお、以下の変形例は、適宜組み合わせが可能である。
<9. Modification>
As mentioned above, although one Embodiment of this invention was described, this invention is not limited to the said embodiment, A various change is possible unless it deviates from the meaning. The following modifications can be combined as appropriate.
<9−1>
上記実施形態では、複数の被写体が撮影されたときに、両側に位置する被写体にパーツ画像W1,W2をそれぞれ配置しているが、パーツ画像の配置は種々の方法が可能である。例えば、被写体が3人以上の場合には、最も左側の人物,及び最も右側の人物を特定した上で、上記のように、第1パーツ画像W1及び第2パーツ画像W2を合成すればよい。また、パーツ画像の数、パーツ画像の合成位置も特には限定されない。また、必ずしも両側の被写体に装飾画像を合成する必要はなく、任意の被写体に装飾画像を合成することができる。
<9-1>
In the above embodiment, when a plurality of subjects are photographed, the part images W1 and W2 are arranged on the subjects located on both sides, but various methods can be used for the arrangement of the part images. For example, when there are three or more subjects, the leftmost person and the rightmost person are specified, and the first part image W1 and the second part image W2 may be combined as described above. Further, the number of part images and the combination position of the part images are not particularly limited. In addition, it is not always necessary to synthesize a decorative image with subjects on both sides, and a decorative image can be combined with any subject.
ここで、図9を参照しつつ、装飾画像の合成方法の具体例について説明する。例えば、図9の左下の画像では、2つの被写体それぞれに同じ装飾画像が合成されている。この例では、猫型の耳と、猫型の鼻を模した装飾画像がそれぞれ合成されている。このような装飾画像は、被写体の数が増えても同様にすべての被写体に合成することができる。また、被写体の大きさや傾きに応じて、各装飾画像を変化させることもできる。   Here, a specific example of the decoration image synthesis method will be described with reference to FIG. For example, in the lower left image of FIG. 9, the same decorative image is synthesized for each of two subjects. In this example, a decorative image simulating a cat-shaped ear and a cat-shaped nose is synthesized. Such a decoration image can be combined with all subjects in the same manner even if the number of subjects increases. In addition, each decoration image can be changed according to the size and inclination of the subject.
また、図9の左下の画像、及び上段中央の画像のような吹き出しを模した装飾画像を合成する場合には、左側の被写体の左側、及び右側の被写体の右側に、それぞれ、合成することができる。例えば、被写体が3人以上の場合には、左右の端の被写体に対しては上記のように装飾画像を合成し、左右の端以外の被写体に対しては、被写体の口の下に吹き出しが配置されるように合成することができる。あるいは、左右の端以外の被写体に対しては吹き出しを合成しないようにすることもできる。これにより、吹き出しが重ならないようにすることができ、装飾画像によってデザインが損なわれるのを防止することができる。   Further, when a decorative image imitating a speech balloon such as the lower left image and the upper center image in FIG. 9 is combined, it can be combined with the left side of the left subject and the right side of the right subject, respectively. it can. For example, when there are three or more subjects, the decorative image is synthesized as described above for the subjects at the left and right ends, and a balloon is blown below the subject's mouth for the subjects other than the left and right ends. Can be combined to be placed. Alternatively, it is possible not to synthesize balloons for subjects other than the left and right ends. Thereby, it is possible to prevent the balloons from overlapping, and it is possible to prevent the design from being damaged by the decorative image.
上記実施形態で説明した羽根に係る装飾画像と同様に、尻尾の装飾画像を合成する場合にも、被写体が3人以上になっても、左右の端の被写体にのみ合成することができる。   Similarly to the decorative image related to the blade described in the above embodiment, even when the decorative image of the tail is combined, even if there are three or more subjects, it can be combined only with the left and right subjects.
<9−2>
フレーム画像に複数の被写体が含まれているとき、複数の被写体の上下方向の位置が大きくずれている場合には、パーツ画像の配置のバランスが悪くなる場合がある。例えば、図25に示すように、左側の被写体K1がフレーム画像の下に位置し、右側の被写体K4が上に位置している場合には、パーツ画像W1,W2が上下に離れて配置されるためバランスが悪い。これを解決するため、例えば、図26に示すように、フレーム画像の所定の位置Lよりも低い位置にある被写体K1は左右の端部に配置されていたとしても、パーツ画像を付さないようにすることができる。これにより、一対のパーツ画像W1,W2の位置が上下方向に大きくずれるのを防止することができる。
<9-2>
When a plurality of subjects are included in the frame image, if the vertical positions of the plurality of subjects are greatly shifted, the arrangement balance of the part images may be deteriorated. For example, as shown in FIG. 25, when the left subject K1 is located below the frame image and the right subject K4 is located above, the part images W1 and W2 are arranged apart from each other. So the balance is bad. In order to solve this, for example, as shown in FIG. 26, even if the subject K1 located at a position lower than the predetermined position L of the frame image is arranged at the left and right ends, no part image is attached. Can be. As a result, it is possible to prevent the positions of the pair of part images W1 and W2 from greatly shifting in the vertical direction.
<9−3>
被写体が1つの場合には、その両側にパーツ画像を配置することができる。あるいは、被写体の位置によっては、装飾画像に含まれるパーツ画像を一つにすることもできる。例えば、図27に示すように、被写体Kの位置がフレーム画像の左右の中心Sよりもずれている場合、被写体Kとフレーム画像の各側縁との距離のうち、長い方の側にパーツ画像Wを配置することができる。パーツ画像W1,W2のいずれを表示するかは、被写体Kの左右どちら側に合成するかに応じて決定される。図27のように、被写体Kの右側に合成する場合は、パーツ画像W2が合成される。一方、被写体Kの左側に合成する場合は、パーツ画像W1が合成される。
<9-3>
When there is one subject, part images can be placed on both sides of the subject. Alternatively, depending on the position of the subject, the part image included in the decoration image can be made one. For example, as shown in FIG. 27, when the position of the subject K is shifted from the left and right center S of the frame image, the part image is placed on the longer side of the distance between the subject K and each side edge of the frame image. W can be arranged. Which of the part images W1 and W2 is to be displayed is determined depending on which of the left and right sides of the subject K is combined. As shown in FIG. 27, when compositing on the right side of the subject K, the part image W2 is composed. On the other hand, when compositing on the left side of the subject K, the part image W1 is composed.
<9−4>
各パーツ画像の大きさや形状は、検出された被写体の大きさ(例えば、被写体の顔の大きさ)に応じて適宜変更することができる。また、被写体の体の形状や向きなどの状態に合わせて回転して表示させることもできる。さらに、左右のパーツ画像を異ならせることもできる。
<9-4>
The size and shape of each part image can be appropriately changed according to the size of the detected subject (for example, the size of the face of the subject). Further, it can be rotated and displayed in accordance with the shape and orientation of the subject's body. Furthermore, the left and right part images can be made different.
<9−5>
装飾画像をフレーム画像毎にアニメーションさせ、例えば羽根が羽ばたくようにフレーム画像毎に動的に表示することもできる。
<9-5>
The decoration image can be animated for each frame image, and can be dynamically displayed for each frame image, for example, so that the wings flutter.
<9−6>
上記実施形態では、装飾画像として羽根を表示しているが、羽根に限定されるものではなく、被写体を装飾するものであれば、特には限定されない。例えば、尻尾、耳、角、道具など種々の画像を用いることができる。そして、上記実施形態では、羽根を装飾画像としていたため、被写体の肩付近に羽根を表示していたが、他の装飾画像であれば、その画像の種類に基づいて、表示する被写体内の位置を適宜決定することができる。例えば、尻尾であれば、腰から延びるように表示させることができる。
<9-6>
In the above-described embodiment, the blade is displayed as the decoration image, but is not limited to the blade, and is not particularly limited as long as the subject is decorated. For example, various images such as a tail, ears, horns, and tools can be used. In the above embodiment, since the wings are used as the decorative image, the wings are displayed near the subject's shoulder. Can be appropriately determined. For example, a tail can be displayed so as to extend from the waist.
<9−7>
上記実施形態では、全身撮影のときにのみ装飾画像として羽根を表示していたが、アップ画像に対しても装飾画像を表示することができる。但し、同じ装飾画像であっても、アップ画像と全身画像とで異なる位置に表示させることもできる。
<9-7>
In the above-described embodiment, the wings are displayed as the decoration image only when the whole body is photographed. However, the decoration image can be displayed even for the up image. However, even the same decorative image can be displayed at different positions in the up image and the whole body image.
<9−8>
上記実施形態では、被写体を検出するために顔検出技術を採用しているが、これ以外の部位を検出することもできる。例えば、人体の骨格モデルによる人物検出技術を用いて推定される関節などの特徴点の位置に基づいて装飾画像の配置態様を決定してもよい。例えば、被写体の人物の関節位置を推定することで、所定の関節位置に基づいて上述した肩の位置に装飾画像を合成することができる。また、顔検出技術と骨格モデルによる人物検出技術の少なくとも一方を用い、被写体の姿勢、向きを適宜検出し、装飾画像を被写体の動きに追随させるように表示することもできる。例えば、被写体が後ろ向きから前向きに体の向きを変えるとき、これに追随して羽根を表示させることもできる。
<9-8>
In the above embodiment, the face detection technique is adopted to detect the subject, but other parts can also be detected. For example, the arrangement mode of the decoration image may be determined based on the position of a feature point such as a joint estimated using a human detection technique based on a human skeleton model. For example, by estimating the joint position of the subject person, it is possible to synthesize the decoration image at the shoulder position described above based on the predetermined joint position. Further, using at least one of the face detection technique and the person detection technique based on the skeleton model, the posture and orientation of the subject can be appropriately detected, and the decoration image can be displayed so as to follow the movement of the subject. For example, when the subject changes the body direction from the rear to the front, the wings can be displayed following the change.
<9−9>
撮影部1において撮影を行うときには、できるだけ被写体が撮影範囲の中心付近に位置することが好ましい。これは、撮影範囲の端部付近であると、カメラのレンズの歪みの影響により被写体を適切に撮影できないおそれがあることによる。そこで、以下のようにユーザを適切な撮影位置に誘導することができる。
<9-9>
When photographing is performed in the photographing unit 1, it is preferable that the subject is located as close to the center of the photographing range as possible. This is because if it is near the end of the shooting range, the subject may not be shot properly due to the distortion of the camera lens. Therefore, the user can be guided to an appropriate shooting position as follows.
例えば、アップ画像を撮影する場合、図28に示すように、撮影範囲内の中央付近に推奨されるユーザの顔の配置領域を設定する。この領域を推奨領域1140と称することとする。そして、被写体の顔検出を行ったとき、被写体の顔が、この推奨範囲に重なっている割合をライブビューの一フレーム画像毎に算出する。例えば、重なり度を以下の式により算出することができる。
重なり度(%)=(推奨範囲の中で被写体の顔が占める面積÷推奨領域の面積)×100
For example, when shooting an up image, as shown in FIG. 28, a recommended user face arrangement region is set near the center of the shooting range. This area is referred to as a recommended area 1140. When the subject face is detected, the ratio of the subject face overlapping this recommended range is calculated for each frame image of the live view. For example, the degree of overlap can be calculated by the following formula.
Overlap degree (%) = (area occupied by subject's face within recommended range / area of recommended area) × 100
そして、この重なり度に応じて、図28に示すように、第1モニタ113に表示される画面において、撮影画像表示領域1133の近傍に指標(適性度)1138を示すことができる。この指標1138は、重なり度に応じて増減してもよいし、重なり度の累積値を示すこともできる。指標1138の数値は、常に増加しており、撮影条件に応じて、増加速度を増減させるようにすることもできる。そして、ユーザがライブビューにおいて撮影範囲の中央付近に近づくと、指標1138がリアルタイムで上昇することを視認できるため、ユーザが推奨領域1140により近づこうとするモチベーションに繋がる。したがって、被写体を、より適切な撮影位置で撮影することができる。   Then, according to the degree of overlap, as shown in FIG. 28, an index (degree of aptitude) 1138 can be shown in the vicinity of the captured image display area 1133 on the screen displayed on the first monitor 113. The index 1138 may be increased or decreased according to the degree of overlap, and may indicate an accumulated value of the degree of overlap. The numerical value of the index 1138 is constantly increasing, and the increasing speed can be increased or decreased according to the shooting conditions. Then, when the user approaches the vicinity of the center of the shooting range in the live view, it can be visually recognized that the index 1138 rises in real time, which leads to motivation for the user to approach the recommended area 1140. Therefore, the subject can be shot at a more appropriate shooting position.
なお、指標1138は、重なり度を直接示す以外にも種々の方法がある。例えば、以下のように、重なり度が高いほど、指標1138の増加量を大きくすることができる。
重なり度が80%以上であれば、2加算
重なり度が60%以上であれば、1加算
重なり度が40%以上であれば、0.3加算
重なり度が20%以上であれば、0.1加算
この規定によれば、例えば、重なり度が85%であれば、3.4の加算があるため、指標の増加量が多くなり、ユーザが中央付近に移動しようとするモチベーションになり得る。
The index 1138 has various methods other than directly indicating the degree of overlap. For example, as described below, the amount of increase in the index 1138 can be increased as the degree of overlap is higher.
If the overlap is 80% or more, add 2 If the overlap is 60% or more, add 1 If the overlap is 40% or more, add 0.3 If the overlap is 20% or more, 0. 1 addition According to this rule, for example, if the degree of overlap is 85%, since there is 3.4 addition, the amount of increase in the index increases, and the user may be motivated to move near the center.
また、推奨領域1140を複数に区分し、中央に近い領域ほど、指標1138が大きくなるようにすることもできる。例えば、図29に示すように、推奨領域1140の中に、特に重み付けの大きい領域1141を形成し、この中に顔が入ると、指標1138がより大きくなるように設定することもできる。   Further, the recommended area 1140 can be divided into a plurality of areas, and the index 1138 can be increased as the area is closer to the center. For example, as shown in FIG. 29, a region 1141 having a particularly high weight can be formed in the recommended region 1140, and the index 1138 can be set to be larger when a face enters this region.
また、指標1138は、数字だけでなく、例えば、図30に示すようなインジケータなどの図形であってもよい。また、この指標1138を配置する位置は特には限定されず、撮影画像表示領域1133の下方のみならず、上方などであってもよい。特に、上方に配置すると、ユーザが指標に注目したときに、上側に配置されているカメラを向かせるのに寄与する。
<9−10>
上記実施形態で示した撮影部1、編集部2、出力部4、及びプレイ準備部3の構成のほか、編集画面の構成、プレイ準備方法、撮影方法、編集方法補、出力方法は、一例であり、写真撮影遊戯装置としては、適宜変更可能である。
In addition, the index 1138 may be a figure such as an indicator as shown in FIG. Further, the position where the index 1138 is disposed is not particularly limited, and may be not only below the captured image display area 1133 but also above. In particular, the upper arrangement contributes to turning the camera arranged on the upper side when the user pays attention to the index.
<9-10>
In addition to the configuration of the photographing unit 1, the editing unit 2, the output unit 4, and the play preparation unit 3 shown in the above embodiment, the configuration of the editing screen, the play preparation method, the photographing method, the editing method supplement, and the output method are examples. Yes, the photography game device can be changed as appropriate.
1 撮影部
5 記憶部
9 制御部
113 第1モニタ(表示部)
114 第2モニタ(表示部)
DESCRIPTION OF SYMBOLS 1 Image pick-up part 5 Storage part 9 Control part 113 1st monitor (display part)
114 Second monitor (display unit)

Claims (7)

  1. 少なくとも1つの被写体を撮影して撮影動画像を取得する撮影部と、
    前記被写体を装飾する装飾画像が少なくとも1つ記憶された記憶部と、
    前記装飾画像が合成された前記撮影動画像を表示する表示部と、
    前記表示部に係る表示内容を制御する制御部と、
    を備え、
    前記制御部は、前記撮影動画像を構成する各フレーム画像において検出された前記被写体の位置に基づいて、前記各フレーム画像内での前記装飾画像を合成する位置を決定する、写真撮影遊戯装置。
    A photographing unit that photographs at least one subject and obtains a captured moving image;
    A storage unit storing at least one decorative image for decorating the subject;
    A display unit for displaying the captured moving image in which the decoration image is combined;
    A control unit for controlling display contents related to the display unit;
    With
    The photographic game device, wherein the control unit determines a position to synthesize the decoration image in each frame image based on the position of the subject detected in each frame image constituting the photographic moving image.
  2. 前記制御部は、前記各フレーム画像に複数の前記被写体が含まれる場合、前記各フレーム画像内の両側に位置する被写体を挟むように、前記装飾画像を合成する、請求項1に記載の写真撮影遊戯装置。   2. The photography according to claim 1, wherein when the plurality of subjects are included in each frame image, the control unit synthesizes the decoration image so as to sandwich subjects located on both sides of each frame image. Amusement equipment.
  3. 前記制御部は、前記各被写体内の所定の箇所の位置を検出することで、前記装飾画像の合成位置を決定し、
    前記所定の箇所が、前記フレーム画像内の所定の位置よりも下側にある場合、当該所定の箇所を含む前記被写体に対しては、前記装飾画像を合成しないように構成されている、請求項1または2に記載の写真撮影遊戯装置。
    The control unit determines a composite position of the decoration image by detecting a position of a predetermined location in each subject.
    The composition is configured not to synthesize the decoration image with respect to the subject including the predetermined part when the predetermined part is below a predetermined position in the frame image. The photography game apparatus according to 1 or 2.
  4. 前記制御部は、前記各フレーム画像に1つの前記被写体が含まれる場合、前記各フレーム画像内における前記被写体の両側のうち、当該被写体と当該フレーム画像の側縁までの距離の長い側に、前記装飾画像を合成する、請求項1に記載の写真撮影遊戯装置。   When each frame image includes the one subject, the control unit is configured such that, on both sides of the subject in the frame image, on the side where the distance between the subject and the side edge of the frame image is long. The photography game device according to claim 1, wherein a decoration image is synthesized.
  5. 前記撮影動画像の撮影範囲内に所定の推奨領域が設定されており、
    前記制御部は、前記推奨領域と撮影された前記被写体との位置関係に基づいて、当該被写体の位置の適性度を前記フレーム画像ごとに決定し、
    前記表示部は、前記適性度を前記リアルタイム画像とともに経時的に表示する、請求項1から4のいずれかに記載の写真撮影遊戯装置。
    A predetermined recommended area is set within the shooting range of the shooting moving image,
    The control unit determines the appropriateness of the position of the subject for each frame image based on the positional relationship between the recommended region and the photographed subject.
    The photography game device according to any one of claims 1 to 4, wherein the display unit displays the suitability with the real-time image over time.
  6. 少なくとも1つの被写体を撮影して撮影動画像を取得するステップと、
    前記撮影動画像を構成する各フレーム画像において検出された前記被写体の位置に基づいて、当該各フレーム画像内での前記装飾画像を合成する位置を決定し、当該各フレーム画像に前記装飾画像が合成された撮影動画像を表示するステップと、
    を備えている、画像表示方法。
    Capturing at least one subject to obtain a captured moving image;
    Based on the position of the subject detected in each frame image constituting the captured moving image, the position for combining the decoration image in each frame image is determined, and the decoration image is combined with each frame image. Displaying the captured moving image,
    An image display method comprising:
  7. コンピュータに、
    少なくとも1つの被写体を撮影して撮影動画像を取得するステップと、
    前記撮影動画像を構成する各フレーム画像において検出された前記被写体の位置に基づいて、当該各フレーム画像内での前記装飾画像を合成する位置を決定し、当該各フレーム画像に前記装飾画像が合成された撮影動画像を表示するステップと、
    を実行させる、画像表示プログラム。
    On the computer,
    Capturing at least one subject to obtain a captured moving image;
    Based on the position of the subject detected in each frame image constituting the captured moving image, the position for combining the decoration image in each frame image is determined, and the decoration image is combined with each frame image. Displaying the captured moving image,
    An image display program that executes
JP2016255465A 2016-12-28 2016-12-28 Photographing game equipment, image display method, and image display program Active JP6978660B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016255465A JP6978660B2 (en) 2016-12-28 2016-12-28 Photographing game equipment, image display method, and image display program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016255465A JP6978660B2 (en) 2016-12-28 2016-12-28 Photographing game equipment, image display method, and image display program

Publications (2)

Publication Number Publication Date
JP2018107765A true JP2018107765A (en) 2018-07-05
JP6978660B2 JP6978660B2 (en) 2021-12-08

Family

ID=62784772

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016255465A Active JP6978660B2 (en) 2016-12-28 2016-12-28 Photographing game equipment, image display method, and image display program

Country Status (1)

Country Link
JP (1) JP6978660B2 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009194644A (en) * 2008-02-14 2009-08-27 Fujifilm Corp Image processor, image processing method and image pick-up device
JP2014155074A (en) * 2013-02-08 2014-08-25 Furyu Kk Imaging apparatus and imaging method
JP2015195580A (en) * 2014-03-28 2015-11-05 フリュー株式会社 Photograph seal creation device and image generation method
JP2016028463A (en) * 2014-07-10 2016-02-25 フリュー株式会社 Photograph seal creation device and display method
JP2016177015A (en) * 2015-03-18 2016-10-06 フリュー株式会社 Photo seal creation device and image processing method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009194644A (en) * 2008-02-14 2009-08-27 Fujifilm Corp Image processor, image processing method and image pick-up device
JP2014155074A (en) * 2013-02-08 2014-08-25 Furyu Kk Imaging apparatus and imaging method
JP2015195580A (en) * 2014-03-28 2015-11-05 フリュー株式会社 Photograph seal creation device and image generation method
JP2016028463A (en) * 2014-07-10 2016-02-25 フリュー株式会社 Photograph seal creation device and display method
JP2016177015A (en) * 2015-03-18 2016-10-06 フリュー株式会社 Photo seal creation device and image processing method

Also Published As

Publication number Publication date
JP6978660B2 (en) 2021-12-08

Similar Documents

Publication Publication Date Title
US9519950B2 (en) Image generating apparatus and image generating method
JP5201430B1 (en) Photo sticker creation apparatus and method, and program
JP5802911B2 (en) Photo game machine
JP6458460B2 (en) Image generating apparatus and method, and program
JP6085838B2 (en) PHOTOGRAPHIC GAME DEVICE, IMAGE GENERATION METHOD, AND IMAGE GENERATION PROGRAM
JP5967275B2 (en) Photographic game machine, its control method and control computer
JP2013041273A (en) Photography game device
JP5483136B1 (en) Imaging apparatus and display control method
JP6978660B2 (en) Photographing game equipment, image display method, and image display program
JP6880394B2 (en) Photographing game console and shooting method
JP6712047B2 (en) Photo creation game machine and image generation method
JP5962643B2 (en) Imaging apparatus and display control method
JP2013037142A (en) Photographic device for amusement, photographing method for amusement, and photographing program for amusement
JP6792154B2 (en) Photographing game console and image processing method
JP6376421B1 (en) Photo creation game machine, display method, and program
JP2019203996A (en) Photograph creation game machine, display control method, and program
JP6881884B2 (en) Photography game device, image generation method, and image generation program
JP6842038B2 (en) Photographing game console and image processing method
JP6635170B2 (en) Photo shooting game device, image processing method, and image processing program
JP2018106678A (en) Sticker making game machine and image processing method
JP2020170097A (en) Photo creation game machine, image processing method, and program
JP6982230B2 (en) Photographing game console and image processing method
JP2019211683A (en) Photograph creation game machine, image processing method, and program
JP2019186875A (en) Photo creation game machine, control method, and program
JP6691292B2 (en) Photo sticker creating apparatus and shooting method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191209

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200804

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200818

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201019

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210323

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210510

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211012

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211025

R151 Written notification of patent or utility model registration

Ref document number: 6978660

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151