JP2015213336A - Imaging apparatus for game, imaging method for game, and program - Google Patents

Imaging apparatus for game, imaging method for game, and program Download PDF

Info

Publication number
JP2015213336A
JP2015213336A JP2015119869A JP2015119869A JP2015213336A JP 2015213336 A JP2015213336 A JP 2015213336A JP 2015119869 A JP2015119869 A JP 2015119869A JP 2015119869 A JP2015119869 A JP 2015119869A JP 2015213336 A JP2015213336 A JP 2015213336A
Authority
JP
Japan
Prior art keywords
image
user
shooting
photographing
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015119869A
Other languages
Japanese (ja)
Inventor
辰巳 聡
Satoshi Tatsumi
聡 辰巳
長谷川 光寛
Michihiro Hasegawa
光寛 長谷川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tatsumi Denshi Kogyo KK
Original Assignee
Tatsumi Denshi Kogyo KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tatsumi Denshi Kogyo KK filed Critical Tatsumi Denshi Kogyo KK
Priority to JP2015119869A priority Critical patent/JP2015213336A/en
Publication of JP2015213336A publication Critical patent/JP2015213336A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To perform image processing in such a manner that a plurality of object users are easily associated with processing content within a limited time.SOLUTION: An imaging apparatus for a game acquires an all-person captured image by a camera S124, then calculates feature amounts of face images of users included in the all-person captured image to identify them S125, then selects the images of the users by two touch panels respectively S126, then selects correcting modes by the two touch panels S127 to associate the images of the users with screens, and then performs image correction in the associated mode for each image of the users included in the obtained captured image S128.

Description

本発明は、遊戯用撮影装置、遊戯用撮影方法およびプログラムに関し、さらに詳しくは、利用者をカメラで撮影し、その撮影画像に基づき生成される合成画像を利用者に提供する遊戯用撮影装置、遊戯用撮影方法およびプログラムに関する。   The present invention relates to a game shooting apparatus, a game shooting method, and a program, and more specifically, a game shooting apparatus for shooting a user with a camera and providing a user with a composite image generated based on the shot image, The present invention relates to a game shooting method and program.

従来、利用者をカメラで撮影し、その撮影画像を利用者に提供する遊戯用撮影装置が知られている。このような遊戯用撮影装置は、遊戯性または娯楽性が高いことから、撮影画像と合成すべき画像を、利用者の嗜好に応じて、予め用意された多種多様な背景画像および前景画像から選択したり、タッチペンを用いて利用者が自由に描いたりできるように構成されているものが多い。利用者によるこのような操作は、撮影画像に対してなされるため、「落書き」と呼ばれる。   2. Description of the Related Art Conventionally, an imaging device for a game that captures a user with a camera and provides the captured image to the user is known. Since such a shooting device for play is highly playable or entertaining, an image to be combined with the shot image is selected from a variety of background images and foreground images prepared in advance according to the user's preference. Or a user can freely draw with a touch pen. Since such an operation by the user is performed on the photographed image, it is called “graffiti”.

また、このような遊戯用撮影装置において落書き対象となる撮影画像は、通常複数回の撮影により得られる複数枚(例えば6枚)の中から、さらに複数枚(例えば4枚)が選択されることが多い。このような撮影画像に対しては、落書きが行われる前に(または落書き中に)予め定められた態様の補正が行われることが多い。例えば、撮影画像に含まれる利用者の像の一部の色(例えば肌や目の色)を変更したり、当該像の一部の形(例えば目や顔の形)を変更したりする補正が行われることがある。例えば、特開2010−50501号公報には、利用者の指示に基づくことなく自動的に撮影画像における利用者の顔の輪郭を小さくする小顔処理が行われる構成が記載されている。   In addition, a plurality of images (for example, 4 images) are selected from among a plurality of images (for example, 6 images) that are usually obtained by a plurality of times of shooting, as the image to be graffitied in such a game shooting apparatus. There are many. Such a photographed image is often corrected in a predetermined manner before (or during) the graffiti. For example, correction that changes a part of a user's image color (for example, skin or eye color) included in a photographed image, or changes a part of the image (for example, eye or face shape). May be performed. For example, Japanese Patent Application Laid-Open No. 2010-50501 describes a configuration in which small face processing is automatically performed to reduce the contour of a user's face in a captured image without being based on the user's instruction.

特開2010−50501号公報JP 2010-50501 A

ここで、上記特開2010−50501号公報に記載されている小顔処理のように利用者の指示を受け付けることなく行うことが可能な補正処理もあるが、例えば肌や目の色など、利用者の像に対する補正の内容によっては、利用者の指示を受け付けることによりその嗜好に応じた補正を行うことが適切な場合がある。この場合には、補正の内容や程度を利用者が選択可能なように表示し、利用者による選択操作を受け付けることになる。   Here, there is a correction process that can be performed without accepting a user's instruction, such as the small face process described in Japanese Patent Application Laid-Open No. 2010-50501. Depending on the content of the correction on the person's image, it may be appropriate to perform correction according to the preference by accepting the user's instruction. In this case, the contents and degree of correction are displayed so that the user can select them, and a selection operation by the user is accepted.

この点、近年の遊戯用撮影装置では、ほとんどの場合、複数の利用者によって利用されるので、1つの撮影画像において異なる利用者の嗜好(意向)を同時に反映させるためには、上記補正を撮影画像に写る利用者の像毎に分けて行う必要がある。   In this regard, most recent shooting devices for games are used by a plurality of users in most cases. Therefore, in order to simultaneously reflect different user preferences (intentions) in one shot image, the above correction is shot. It is necessary to divide each image of the user in the image.

しかし、撮影画像に写る複数の利用者と上記操作を行う複数の利用者との対応関係は、周知の装置構成では通常判別することができないため、上記補正を全ての画像について行うのは利用者にとって煩瑣である場合が多い。また、遊戯用撮影装置では、(一連の撮影の開始から終了までの時間も含め)そのプレイ時間に制限を設けることが多い。その場合には、上記補正内容等の選択操作は、利用者にとって素早くできることが好ましい。   However, since the correspondence between a plurality of users appearing in a photographed image and a plurality of users performing the above operations cannot normally be determined with a known apparatus configuration, it is the user who performs the above correction for all images. It is often bothersome for them. In addition, in a game shooting apparatus, there is often a restriction on the play time (including the time from the start to the end of a series of shooting). In that case, it is preferable that the selection operation for the correction content or the like can be quickly performed by the user.

そこで、本発明では、利用者が複数である場合、(補正の態様などの)各利用者の意向を所定の撮影画像に対して簡単に反映させることができる遊戯用撮影装置、遊戯用撮影方法およびプログラムを提供することを目的とする。   Therefore, in the present invention, when there are a plurality of users, a game shooting apparatus and a game shooting method that can easily reflect each user's intention (such as a correction mode) on a predetermined shot image. And to provide a program.

本発明は、撮影のための撮影空間において複数の利用者の撮影を行い、表示手段で、取得される画像を表示するとともに、複数の利用者による操作入力を受け付け、撮影により取得される画像に含まれる複数の利用者の像をそれぞれ識別し、受け付けられる操作入力と、識別される複数の利用者の像とを関連づけ、受け付けられる操作入力に応じて、当該操作入力に関連付けられた利用者の像の表示態様を変化させる画像処理(補正)を行うものである。   The present invention shoots a plurality of users in a shooting space for shooting, displays an acquired image on a display means, accepts an operation input by a plurality of users, and obtains an image acquired by shooting. Recognize each of the plurality of user images included, associate the received operation input with the identified plurality of user images, and, according to the received operation input, the user input associated with the operation input Image processing (correction) is performed to change the image display mode.

このような本発明の構成によれば、撮影画像に含まれる各利用者の像と、各利用者の操作入力とを関連付けることができ、各利用者の像ごとに各利用者の所望した補正をかけることができる。   According to such a configuration of the present invention, each user's image included in the captured image can be associated with each user's operation input, and each user's image can be corrected by each user's desired correction. Can be applied.

本発明によれば、利用者が複数である場合、(補正の態様などの)各利用者の意向を所定の撮影画像に対して簡単に反映させることができる、という効果を奏する。   According to the present invention, when there are a plurality of users, there is an effect that the intention of each user (such as a correction mode) can be easily reflected on a predetermined captured image.

本発明の一実施形態に係る遊戯用撮影装置である遊戯用撮影装置の外観を示す図である。It is a figure which shows the external appearance of the imaging device for games which is the imaging device for games which concerns on one Embodiment of this invention. 上記実施形態における撮影ユニットの正面図である。It is a front view of the imaging unit in the embodiment. 上記実施形態における編集ユニットの正面図である。It is a front view of the edit unit in the said embodiment. 上記実施形態における出力ユニットの正面図である。It is a front view of the output unit in the said embodiment. 上記実施形態における撮影操作用タッチパネルの表示構成を示す模式図である。It is a schematic diagram which shows the display structure of the touchscreen for imaging operations in the said embodiment. 上記実施形態に係る遊戯用撮影装置の要部を機能面から見た構成を示すブロック図である。It is a block diagram which shows the structure which looked at the principal part of the imaging | photography device for play concerning the said embodiment from the functional surface. 上記実施形態における撮影処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the imaging | photography process in the said embodiment. 上記実施形態における落書き編集処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the graffiti edit process in the said embodiment. 上記実施形態における補正対象決定処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the correction | amendment target determination process in the said embodiment. 上記実施形態における補正決定のための説明画面例を示す図である。It is a figure which shows the example of an explanatory screen for the correction determination in the said embodiment. 上記実施形態における補正決定のための撮影画面例を示す図である。It is a figure which shows the example of an imaging | photography screen for the correction determination in the said embodiment. 上記実施形態において、左側の撮影操作用タッチパネル20Lに表示される利用者選択受付画面例を示す図である。In the said embodiment, it is a figure which shows the user selection reception screen example displayed on the touch panel 20L for imaging operations on the left side. 上記実施形態において、右側の撮影操作用タッチパネル20Rに表示される利用者選択受付画面例を示す図である。In the said embodiment, it is a figure which shows the example of a user selection reception screen displayed on the right touch panel 20R for imaging operation. 上記実施形態において、利用者による補正態様の選択操作を受け付けるための補正選択受付画面例を示す図である。In the said embodiment, it is a figure which shows the example of a correction selection reception screen for receiving selection operation of the correction aspect by a user. 上記実施形態における落書き対象画像生成処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the graffiti target image generation process in the said embodiment. 上記実施形態の変形例において、全員撮影を自動的に行うための撮影画面の一例を示す図である。In the modification of the said embodiment, it is a figure which shows an example of the imaging | photography screen for performing all members imaging | photography automatically. 上記実施形態の変形例において、全員撮影を自動的に行うための撮影画面の他の例を示す図である。In the modification of the said embodiment, it is a figure which shows the other example of the imaging | photography screen for performing all members imaging | photography automatically. 上記実施形態の変形例における撮影ユニットの変形例を示す正面図である。It is a front view which shows the modification of the imaging | photography unit in the modification of the said embodiment. 上記実施形態の変形例において、利用者毎の操作入力画面を含む撮影画面の一例を示す図である。In the modification of the said embodiment, it is a figure which shows an example of the imaging | photography screen containing the operation input screen for every user. 上記実施形態の変形例において、利用者毎の操作入力画面を含む撮影画面の別例を示す図である。In the modification of the said embodiment, it is a figure which shows another example of the imaging | photography screen containing the operation input screen for every user.

以下、添付図面を参照しつつ本発明の一実施形態について説明する。
<1. 全体構成>
図1は、本発明の一実施形態に係る遊戯用撮影装置である遊戯用撮影装置の外観を示す図である。より詳細には、図1(a)は、この遊戯用撮影装置を横から見た外観側面図であり、図1(b)は、上から見た外観平面図である。この遊戯用撮影装置は、利用者が入る撮影室2と、利用者を撮影して撮影画像を取得する撮影ユニット3と、撮影画像に対する利用者による落書き(描画操作)を含む編集操作を受け付け、当該撮影画像に合成した合成画像を生成する編集ユニット4と、合成画像を出力する出力ユニット5とを備えている。図2は、撮影ユニット3の正面図であり、図3は、編集ユニット4の正面図であり、図4は、出力ユニット5の正面図である。以下、図1から図4を参照しつつ、本実施形態に係る遊戯用撮影装置の全体構成について説明する。
Hereinafter, an embodiment of the present invention will be described with reference to the accompanying drawings.
<1. Overall configuration>
FIG. 1 is a diagram showing an appearance of a game shooting apparatus that is a game shooting apparatus according to an embodiment of the present invention. More specifically, FIG. 1 (a) is an external side view of the game photographing apparatus as viewed from the side, and FIG. 1 (b) is an external plan view as viewed from above. This game shooting apparatus accepts an editing operation including a shooting room 2 in which a user enters, a shooting unit 3 for shooting a user to obtain a shot image, and a graffiti (drawing operation) by the user on the shot image, An editing unit 4 that generates a combined image combined with the captured image and an output unit 5 that outputs the combined image are provided. FIG. 2 is a front view of the photographing unit 3, FIG. 3 is a front view of the editing unit 4, and FIG. 4 is a front view of the output unit 5. Hereinafter, the overall configuration of the shooting apparatus for play according to the present embodiment will be described with reference to FIGS. 1 to 4.

撮影室2は、略直方体形状であって、撮影ユニット3は、内部に入る利用者から見て前の面である撮影室2の前面に沿って配置されている。なお、撮影室2の左右両側面の一部には、それぞれ利用者が出入りするための開口部と、当該開口部の一部または全部を覆う遮光カーテンとが設けられている。また、撮影室2の内部に入る利用者から見て後ろの面である背面にはクロマキー合成処理のための単一の色(ここでは青色または緑色)が付されている。なお、これらの色は、例えば、撮影ユニット3の撮影範囲に含まれる床面等にも付されていてもよい。また、撮影室2は、上記の構成に限定されることはなく、撮影に適した空間であればよい。   The photographing room 2 has a substantially rectangular parallelepiped shape, and the photographing unit 3 is arranged along the front surface of the photographing room 2 which is a front surface when viewed from the user entering the inside. Note that an opening for a user to enter and exit, and a light-shielding curtain that covers a part or all of the opening are provided on a part of each of the left and right side surfaces of the photographing room 2. In addition, a single color (in this case, blue or green) for chroma key composition processing is attached to the rear surface, which is the rear surface as viewed from the user who enters the photographing room 2. In addition, these colors may be attached | subjected also to the floor surface etc. which are included in the imaging | photography range of the imaging | photography unit 3, for example. The photography room 2 is not limited to the above configuration, and may be any space suitable for photography.

撮影ユニット3は、利用者を撮影する撮像手段としてのカメラ10と、当該カメラ10の上下左右の位置に配置され閃光を発するストロボ11,12,13L,13R,14と、当該カメラ10の下方に配置され利用者からの操作の受け付けや撮影画像の表示等を行う2つの撮影操作用タッチパネル20L,20Rとを備えている。   The photographing unit 3 includes a camera 10 as an imaging unit for photographing a user, strobes 11, 12, 13 L, 13 R, and 14 that are arranged at the top, bottom, left and right positions of the camera 10 and emit flash light, and below the camera 10. Two photographing operation touch panels 20L and 20R that are arranged and accept operations from a user and display photographed images are provided.

カメラ10は、典型的には、CCD(電荷結合素子)を利用してデジタル画像信号を生成するデジタルカメラであって、利用者を撮影し、その撮影画像を表す画像信号を出力する。ストロボ11〜14は、撮影のための充分な光を得るために利用者に向かって閃光を発する。2つの撮影操作用タッチパネル20L,20Rは、同一の構成であって、撮影の際に利用者による各種操作を受け付けるための操作画面をそれぞれ提供するとともに、上記画像信号に基づく画像をリアルタイムで表示するように構成されている。なお、ここでは、撮影操作用タッチパネル20Lは、カメラ10に対して左側に立つ利用者によって、撮影操作用タッチパネル20Rは、カメラ10に対して右側に立つ利用者によって使用されるものとする。以下では、撮影操作用タッチパネル20Lを例に挙げて説明するが、撮影操作用タッチパネル20Rも同様の表示を行い操作入力を受け付ける。   The camera 10 is typically a digital camera that generates a digital image signal using a CCD (Charge Coupled Device), captures a user, and outputs an image signal representing the captured image. The flashes 11 to 14 emit a flash toward the user in order to obtain sufficient light for photographing. The two shooting operation touch panels 20L and 20R have the same configuration, and each provide an operation screen for accepting various operations by the user at the time of shooting, and display an image based on the image signal in real time. It is configured as follows. Here, it is assumed that the shooting operation touch panel 20 </ b> L is used by a user standing on the left side with respect to the camera 10, and the shooting operation touch panel 20 </ b> R is used by a user standing on the right side with respect to the camera 10. In the following, the shooting operation touch panel 20L will be described as an example, but the shooting operation touch panel 20R also performs the same display and receives an operation input.

図5は、撮影操作用タッチパネル20Lの表示構成を示す模式図である。図5に示すように、撮影時点において、撮影操作用タッチパネル20Lには、リアルタイムで撮影画像を表示するためのリアルタイムプレビュー領域201と、ポーズの見本を表示するためのポーズ見本表示領域202と、撮影によって既に得られた落書き対象画像を表示するための落書き対象画像表示領域203とが表示されている。なお、リアルタイムプレビュー領域201には、撮影画像に対してリアルタイムでクロマキー合成された背景画像が合わせて表示される。   FIG. 5 is a schematic diagram illustrating a display configuration of the touch panel 20L for photographing operation. As shown in FIG. 5, at the time of shooting, the shooting operation touch panel 20L has a real-time preview area 201 for displaying a shot image in real time, a pose sample display area 202 for displaying a pose sample, and a shooting. The graffiti target image display area 203 for displaying the graffiti target image already obtained by the above is displayed. In the real-time preview area 201, a background image that is chroma key-combined in real time with the captured image is displayed together.

また撮影ユニット3は、編集ユニット4内に内蔵されるコンピュータを中心とした構成要素、すなわち各部の制御等を行う制御装置、I/O制御装置、および他のコンピュータと通信を行うためのネットワークアダプタ等によって制御されている。また、撮影ユニット3は、前面下方にコイン投入口26を備えている。   The photographing unit 3 includes components built in the editing unit 4 such as a computer, that is, a control device that controls each unit, an I / O control device, and a network adapter that communicates with other computers. It is controlled by etc. The photographing unit 3 includes a coin insertion slot 26 at the lower front side.

編集ユニット4は、撮影ユニット3を制御するコンピュータとは異なるコンピュータによって制御されている。また、編集ユニット4は、図1(b)に示すように、2組の利用者がプレイ可能なように2つのユニット4a、4bに分かれている。そのうちの一方のユニット4aには、落書き領域や落書きのためのメニュー、ツール等を表示する領域を含みGUI(Graphical User Interface)表示手段として機能する編集操作用タッチパネル400と、当該編集操作用タッチパネル400に対する操作に使用されるポインティングデバイスとしてのタッチペン49L、49Rとが設けられている。なお、他方のユニット4bについても同様の構成となっている。ここで図1(a)において手前に見えるユニット4aを「落書きブースA」と呼び、その反対側(図では裏側)のユニット4bを「落書きブースB」と呼ぶ。   The editing unit 4 is controlled by a computer different from the computer that controls the photographing unit 3. Further, as shown in FIG. 1B, the editing unit 4 is divided into two units 4a and 4b so that two sets of users can play. One of the units 4a includes an editing operation touch panel 400 that includes a graffiti area, an area for displaying a menu for graffiti, a tool, and the like and functions as a GUI (Graphical User Interface) display means, and the editing operation touch panel 400 Touch pens 49L and 49R are provided as pointing devices used for the operation of. The other unit 4b has the same configuration. Here, the unit 4a seen in the foreground in FIG. 1A is referred to as “graffiti booth A”, and the unit 4b on the opposite side (the back side in the figure) is referred to as “graffiti booth B”.

本実施形態における編集操作用タッチパネル400は、各ユニット4a、4bにおいてそれぞれ2人の利用者が同時に落書きを行えるような表示構成となっている。なお、本説明においては、左側の利用者が使用する構成要素には「L」を含む参照符号を付し、右側の利用者が使用する構成要素には「R」を含む参照符号を付している。もっとも、3人以上の利用者がこれらを適宜に使用してもよい。   The editing operation touch panel 400 according to the present embodiment has a display configuration in which two users can perform graffiti at the same time in each of the units 4a and 4b. In this description, components used by the user on the left side are given reference signs including “L”, and components used by the user on the right side are assigned reference signs including “R”. ing. But 3 or more users may use these suitably.

また、本実施形態における編集操作用タッチパネル400は、複数のタッチペン49L、49Rによる操作位置を同時に検出可能に構成されており、かつ、検出される各操作位置が、タッチペン49L、49Rのうちのいずれの操作に対応するのかも検出可能となっている。例えば、編集操作用タッチパネル400として静電容量方式のタッチパネルを使用した場合には、このような複数の操作位置の同時検出と操作されたタッチペンの識別とが可能である。   In addition, the editing operation touch panel 400 according to the present embodiment is configured to be able to simultaneously detect the operation positions of the plurality of touch pens 49L and 49R, and each of the detected operation positions is any of the touch pens 49L and 49R. It is also possible to detect whether it corresponds to the above operation. For example, when a capacitive touch panel is used as the editing operation touch panel 400, simultaneous detection of such a plurality of operation positions and identification of the operated touch pen are possible.

この点、撮影操作用タッチパネル20L,20Rは、タッチペンが使用されるのではなく(もちろん使用されてもよいが)、利用者の指による操作位置を複数検出可能に構成されている。このことを実現するために、撮影操作用タッチパネル20L,20Rとして、例えば上記静電容量方式のタッチパネルや、光センサ方式などその他の周知の方式により、指の近接、接触、または押圧を検出可能な表示パネル(このような検出が可能な表示パネルを「タッチセンサ付きパネル」という)が使用される。   In this respect, the photographing operation touch panels 20L and 20R are configured not to use a touch pen (which may be used as a matter of course) but to be able to detect a plurality of operation positions by the user's finger. In order to realize this, as the photographing operation touch panels 20L and 20R, the proximity, contact, or pressing of the finger can be detected by other known methods such as the capacitive touch panel or the optical sensor method, for example. A display panel (a display panel capable of such detection is referred to as a “panel with a touch sensor”) is used.

出力ユニット5は、図4に示すように、典型的には前面下方に、編集ユニット4で編集操作が行われた合成画像を印刷した写真シールや写真カード等を取り出す取出口33を備えている。また、出力ユニット5は、例えば携帯電話端末に内蔵される赤外線ポートにより、例えばデコメール(登録商標)画像等の素材画像や撮影画像に落書きをした合成画像などを利用者の携帯電話端末に転送する際に利用者によって操作される出力操作用タッチパネル30と、出力操作用タッチパネル30の下方に配置され上記素材画像等を赤外線信号として携帯電話端末に向けて直接送信するための赤外線ポート(非接触通信ポート)31と、上記通信の際に必要な操作方法や効果音などを音声によって利用者に知らせるスピーカ32とを備えている。なおこの構成は一例であってこれらの要素の一部または全部を備えない場合もある。   As shown in FIG. 4, the output unit 5 is typically provided with a take-out port 33 for taking out a photo sticker, a photo card, or the like on which a composite image that has been edited by the editing unit 4 is printed. . Further, the output unit 5 transfers, for example, a material image such as a Deco-mail (registered trademark) image or a composite image obtained by grabbing a photographed image to the user's mobile phone terminal by using an infrared port built in the mobile phone terminal, for example. Output operation touch panel 30 that is operated by the user, and an infrared port (non-contact) that is arranged below the output operation touch panel 30 and directly transmits the material image or the like as an infrared signal to the mobile phone terminal. (Communication port) 31 and a speaker 32 for notifying the user by voice of operation methods and sound effects necessary for the communication. This configuration is an example, and some or all of these elements may not be provided.

出力操作用タッチパネル30は、利用者が合成画像を印刷された写真シール等だけでなく携帯電話端末においても見たい場合に、上記素材画像等を上記非接触通信機能を備えた携帯電話端末に送信するのに必要な各種操作を受け付けるための操作画面を提供するように構成されている。なお、当該操作は主に合成画像の写真シール等が印刷されるまでの時間を利用して行われるので、利用者は写真シール等が印刷されるまでの時間を持て余すことなく有効に利用することができる。また、出力ユニット5に出力操作用タッチパネル30を設けずに、当該操作を編集ユニット4の編集操作用タッチパネル400で行うようにすることもできる。   The output operation touch panel 30 transmits the material image or the like to the mobile phone terminal having the non-contact communication function when the user wants to view the composite image not only on the photo sticker on which the composite image is printed but also on the mobile phone terminal. It is configured to provide an operation screen for accepting various operations necessary for the operation. This operation is mainly performed using the time until the photo sticker of the composite image is printed. Therefore, the user should use the time effectively until the photo sticker etc. is printed. Can do. Further, without providing the output operation touch panel 30 in the output unit 5, it is possible to perform the operation on the editing operation touch panel 400 of the editing unit 4.

また出力ユニット5は、携帯電話端末装置55を内蔵しており、利用者によって使用される携帯電話端末によってサーバから当該合成画像をダウンロードできるよう、撮影画像を含む合成画像を画像データとして典型的には第3世代型携帯電話(3G)方式の無線通信方式で近傍の無線基地へ送信し、この画像データは当該無線基地局からインターネットを介して図示されない画像サーバに与えられ蓄積される。   The output unit 5 has a built-in mobile phone terminal device 55, and a composite image including a photographed image is typically used as image data so that the composite image can be downloaded from a server by a mobile phone terminal used by a user. Is transmitted to a nearby wireless base by a third-generation mobile phone (3G) wireless communication system, and this image data is given from the wireless base station to an image server (not shown) via the Internet and stored.

このような出力ユニット5も、撮影ユニット3を制御するコンピュータを中心に構成され各部の制御等を行う制御装置および他のコンピュータと通信を行うためのネットワークアダプタ等によって制御されているほか、合成画像を写真シール等として印刷するネットワークプリンタ35を備えている。   Such an output unit 5 is also controlled by a control device configured mainly for a computer that controls the photographing unit 3 and controlling each part, a network adapter for communicating with other computers, and the like, and a composite image. Is provided as a photo sticker.

以上のような構成において、利用者は、撮影室2において撮影を行った後、編集ユニット4の落書きブースAまたは落書きブースBの編集操作用タッチパネル400を使用することにより、撮影画像に基づいて生成された落書き対象画像に対して落書きを行う。そして、利用者は、落書きによって生成された合成画像をネットワークプリンタによって印刷したり、赤外線通信機能を有する携帯電話端末に画像を送信し、携帯電話端末で受信した画像を端末画面に表示させたりする。   In the configuration as described above, after shooting in the shooting room 2, the user uses the graffiti booth A of the editing unit 4 or the touch panel 400 for the editing operation of the graffiti booth B to generate based on the shot image. Graffiti is performed on the graffiti target image. Then, the user prints the composite image generated by the graffiti by the network printer, transmits the image to the mobile phone terminal having the infrared communication function, and displays the image received by the mobile phone terminal on the terminal screen. .

<2. 機能的構成>
図6は、本実施形態に係る遊戯用撮影装置の要部を機能面から見た構成を示すブロック図である。この図6に示す遊戯用撮影装置は、機能的には、落書き対象画像に対する利用者の落書き操作に応じて当該落書き対象画像の編集処理を行う編集処理部8と、主として利用者を撮影する処理(撮影処理)を行うとともに、編集処理が行われた落書き対象画像を写真シール等として出力したり、作成された素材画像等を非接触通信を利用して携帯電話端末に出力したりする処理(出力処理)を行う撮影出力処理部7とから構成されている。
<2. Functional configuration>
FIG. 6 is a block diagram showing the configuration of the main part of the shooting apparatus for play according to the present embodiment as seen from the functional aspect. The game photographing apparatus shown in FIG. 6 functionally includes an editing processing unit 8 that performs editing processing of the graffiti target image in accordance with the user's graffiti operation on the graffiti target image, and processing that mainly shoots the user. (Photographing processing) and processing to output the edited graffiti target image as a photo sticker, etc., or to output the created material image etc. to a mobile phone terminal using non-contact communication ( And an imaging output processing unit 7 for performing output processing.

撮影出力処理部7は、第1の制御部70と、撮像部71と、第1の表示・操作部72と、I/O制御部73と、照明部74と、第1の通信部75と、第4の表示・操作部91と、印刷出力部92と、音声出力部93と、非接触通信部94と、無線通信部96とによって構成されている。また、編集処理部8は、第2の制御部80と、第2の表示・操作部81と、第3の表示・操作部82と、第2の通信部85とによって構成されている。ネットワークアダプタである第1および第2の通信部75,85は、LAN(Local Area Network)であるネットワーク6を介してそれぞれ相互に通信可能となっている。   The imaging output processing unit 7 includes a first control unit 70, an imaging unit 71, a first display / operation unit 72, an I / O control unit 73, an illumination unit 74, and a first communication unit 75. The fourth display / operation unit 91, the print output unit 92, the audio output unit 93, the non-contact communication unit 94, and the wireless communication unit 96. The edit processing unit 8 includes a second control unit 80, a second display / operation unit 81, a third display / operation unit 82, and a second communication unit 85. The first and second communication units 75 and 85 that are network adapters can communicate with each other via a network 6 that is a LAN (Local Area Network).

撮像部71は、CCD等の撮像素子を用いて構成されるカメラ10に相当し、リアルタイムに画像を取り込んで当該画像(撮影画像)を表す画像信号を出力する。この画像信号は第1の制御部70に入力されて、その内部のメモリに撮影画像データとして一時的に記憶される。また、この撮影画像データは撮影画像信号として第1の制御部70から第1の表示・操作部72に供給され、当該撮影画像信号に基づく撮影画像がリアルタイムに表示される。なお実際には、撮影画像として保存される撮影画像データは高解像度の静止画データであり、リアルタイム表示を行うための撮影画像データ(「スルー画像データ」とも呼ばれる)は低解像度の動画データであるが、撮影対象は同一であるので、以下ではこれらを特に区別しないで説明することがある。   The imaging unit 71 corresponds to the camera 10 configured using an imaging element such as a CCD, and captures an image in real time and outputs an image signal representing the image (captured image). This image signal is input to the first control unit 70 and temporarily stored as photographed image data in its internal memory. The captured image data is supplied as a captured image signal from the first control unit 70 to the first display / operation unit 72, and a captured image based on the captured image signal is displayed in real time. Actually, the captured image data stored as the captured image is high-resolution still image data, and the captured image data (also referred to as “through image data”) for real-time display is low-resolution moving image data. However, since the photographing target is the same, the following description may be made without particularly distinguishing these.

第1の表示・操作部72は、ここでは2つの撮影操作用タッチパネル20L,20Rに相当する表示入力受付手段(または表示手段および入力受付手段)として機能し、撮影画像に付加されるべき背景画像(および前景画像)を選択する操作や、後述する利用者の像を補正するためのパラメータ設定等を行う操作、シャッター操作等を受け付ける。これらの操作を示す信号は、操作信号として第1の制御部70に入力される。なお、この第1の表示・操作部72は、複数の操作画面(表示画面)を有する表示入力受付手段として機能すればよいので、1つの撮影操作用タッチパネルを複数の画面に分割して使用してもよい。また操作画面が3つ以上である場合には、2つ以上の撮影操作用タッチパネルのうちの1つ以上を複数の画面に分割して使用してもよい。もちろん撮影操作用タッチパネル20L,20Rは一例であって、そのほかの表示入力装置であってもよいし、表示装置(例えば液晶パネル等)と入力装置(例えばボタンや、キーボード、トラックボール等)とにより表示入力装置が構成されており、画面毎に対応する入力装置による操作入力を受け付け可能に構成されていてもよい。   Here, the first display / operation unit 72 functions as display input reception means (or display means and input reception means) corresponding to the two shooting operation touch panels 20L and 20R, and a background image to be added to the shot image. An operation for selecting (and a foreground image), an operation for setting parameters for correcting a user image, which will be described later, a shutter operation, and the like are accepted. Signals indicating these operations are input to the first control unit 70 as operation signals. The first display / operation unit 72 only needs to function as a display input receiving unit having a plurality of operation screens (display screens). Therefore, one shooting operation touch panel is divided into a plurality of screens. May be. When there are three or more operation screens, one or more of the two or more shooting operation touch panels may be divided into a plurality of screens. Of course, the shooting operation touch panels 20L and 20R are only examples, and may be other display input devices, or may be provided by a display device (for example, a liquid crystal panel or the like) and an input device (for example, a button, a keyboard, or a trackball). The display input device may be configured, and may be configured to accept an operation input by the input device corresponding to each screen.

なお、上記表示入力受付手段、または表示手段および入力受付手段は、それぞれ表示および入力のためのハードウェアのみならず、表示および入力のための機能を実現するソフトウェア等を含むものである。したがって、2つ以上の表示手段が1つの表示装置上で実現されていてもよいし、2つ以上の入力受付手段が1つの入力装置において実現されていてもよい。例えば、1つの液晶タッチパネルの画面内に複数の操作画面が表示される構成では、操作のためのアイコン等が複数の表示手段により表示されており、また(当該アイコン等を押下するなどの)利用者による操作入力が複数の入力受付手段により受け付けられる。   The display input receiving means or the display means and the input receiving means include not only hardware for displaying and inputting, but also software for realizing functions for displaying and inputting. Therefore, two or more display means may be realized on one display device, and two or more input reception means may be realized on one input device. For example, in a configuration in which a plurality of operation screens are displayed on the screen of one liquid crystal touch panel, icons for operation and the like are displayed by a plurality of display means, and are used (such as pressing the icons). An operation input by a person is received by a plurality of input receiving means.

ここで、利用者を撮影するための(選択された撮影メニューに対応する)所定の処理が開始されると、第1の表示・操作部72に利用者のための案内が表示され、その後の第1の制御部70からの指示に基づき、数秒程度の予め決められた時間の経過後にカメラ10の撮影方向にストロボ11〜14から閃光が放たれる。そのとき、利用者の撮影画像を表す信号として撮像部71から出力される画像信号が第1の制御部70に入力され、第1の制御部70内のメモリまたは補助記憶装置としてのハードディスク装置等に撮影画像データとして格納される。   Here, when a predetermined process for photographing the user (corresponding to the selected photographing menu) is started, guidance for the user is displayed on the first display / operation unit 72, and thereafter Based on an instruction from the first control unit 70, a flash is emitted from the flashes 11 to 14 in the shooting direction of the camera 10 after a predetermined time of about several seconds. At that time, an image signal output from the imaging unit 71 as a signal representing a photographed image of the user is input to the first control unit 70, a memory in the first control unit 70, a hard disk device as an auxiliary storage device, or the like. Stored as captured image data.

照明部74は、カメラ10の上下左右の位置に配置されたストロボ11,12,13L,13R,14(図2参照)に相当し、第1の制御部70からの指示に基づきI/O制御部73によって点灯/消灯および調光が制御される。I/O制御部73は、撮影ユニット3に内蔵されるI/O制御装置に相当し、第1の制御部70からの指示に基づき、照明部74を制御する。また、後述のコイン検出部(不図示)からの検出信号等の入力信号を第1の制御部70へ転送する。第1の通信部75は、ネットワークアダプタに相当し、ネットワーク6を介したデータ送受信の際のインタフェースとして機能する。   The illumination unit 74 corresponds to the strobes 11, 12, 13 L, 13 R, and 14 (see FIG. 2) disposed at the top, bottom, left, and right positions of the camera 10, and performs I / O control based on instructions from the first control unit 70. Lighting / extinguishing and dimming are controlled by the unit 73. The I / O control unit 73 corresponds to an I / O control device built in the photographing unit 3, and controls the illumination unit 74 based on an instruction from the first control unit 70. Further, an input signal such as a detection signal from a coin detection unit (not shown) described later is transferred to the first control unit 70. The first communication unit 75 corresponds to a network adapter and functions as an interface for data transmission / reception via the network 6.

第1の制御部70は、編集ユニット4に内蔵され、CPU、メモリ、フレームバッファ、タイマー、補助記憶装置等を含むコンピュータを中心に構成される制御装置に相当し、内部メモリに格納された所定プログラムをCPUが実行することにより、上述のようにして入力される操作信号等に基づき各部を制御するために、上述のように各部に指示を出す。また撮影された画像に基づいて落書き対象画像を生成する。生成された落書き対象画像はフレームバッファに書き込まれることにより、第1の表示・操作部72に表示される。さらに、第1の制御部70は、落書き対象画像に所定の背景画像や前景画像を描画した画像である合成画像を生成する。この落書き対象画像には、マスクの作成に使用されるキー色となる背景色が付されており、周知のクロマキー合成処理の手法に基づき、利用者の像のみを含む撮影画像部分を抽出し、当該撮影画像部分が背景画像中に嵌め込まれるように合成する。このように生成された合成画像はフレームバッファに書き込まれることにより第1の表示・操作部72に表示される。   The first control unit 70 is built in the editing unit 4 and corresponds to a control device mainly composed of a computer including a CPU, a memory, a frame buffer, a timer, an auxiliary storage device and the like, and is stored in a predetermined memory stored in an internal memory. When the CPU executes the program, an instruction is given to each unit as described above in order to control each unit based on the operation signal or the like input as described above. A graffiti target image is generated based on the photographed image. The generated graffiti target image is written in the frame buffer and displayed on the first display / operation unit 72. Further, the first control unit 70 generates a composite image that is an image in which a predetermined background image or foreground image is drawn on the graffiti target image. This graffiti target image has a background color that is a key color used to create a mask, and based on a well-known chroma key composition processing method, a captured image portion including only a user image is extracted, The photographed image portion is synthesized so as to be fitted into the background image. The composite image generated in this way is displayed on the first display / operation unit 72 by being written in the frame buffer.

上記の構成要素の他、撮影ユニット3におけるコイン投入口26に投入されたコインを検出するためのコイン検出部(不図示)が更に撮影ユニット3に設けられており、第1の制御部70は、コイン検出部での検出結果に基づき、利用者に所定時間だけ撮影や背景画像および前景画像の選択や落書き等、本遊戯用撮影装置によるプレイを許容するように各部を制御する。このコイン検出部による検出動作やその検出結果に基づく第1の制御部70による制御動作は、従来の遊戯用撮影装置と同様であって周知であるので、その詳しい説明を省略する。   In addition to the above-described components, the photographing unit 3 is further provided with a coin detection unit (not shown) for detecting coins inserted into the coin insertion slot 26 in the photographing unit 3, and the first control unit 70 includes Based on the detection result of the coin detection unit, each unit is controlled so as to allow the user to play with the shooting device for play such as shooting, selection of a background image and foreground image, and graffiti for a predetermined time. Since the detection operation by the coin detection unit and the control operation by the first control unit 70 based on the detection result are the same as those of the conventional game shooting device, they are well known, and thus detailed description thereof is omitted.

次に第2の制御部80は、第1の制御部70とは別に、編集ユニット4に内蔵され、CPU、メモリ、フレームバッファ、タイマー、および補助記憶装置等を含むコンピュータを中心に構成される制御装置に相当し、内部メモリに格納された所定プログラムをCPUが実行することにより、編集ユニット4において行われる編集処理に関する全体の制御を行う。すなわち第2の制御部80は、第2および第3の表示・操作部81,82を制御するGUI制御手段として機能する。また、第2の制御部80は、生成された落書き対象画像(撮影画像を含む画像)に対する落書き処理を行うための操作信号に基づき、その落書き対象画像に所定画像を描画した画像である合成画像を生成する。描画される所定画像としては、例えば、選択されたスタンプ画像や、タッチペンで描かれた線状の画像、選択された2以上のスタンプを所定の順で重ね合わせることにより生成した合成スタンプ画像等の合成画像を利用することができる。   Next, the second control unit 80 is built in the editing unit 4 separately from the first control unit 70, and is configured around a computer including a CPU, a memory, a frame buffer, a timer, an auxiliary storage device, and the like. The CPU corresponds to a control device, and the CPU executes a predetermined program stored in the internal memory, thereby performing overall control relating to editing processing performed in the editing unit 4. That is, the second control unit 80 functions as a GUI control unit that controls the second and third display / operation units 81 and 82. In addition, the second control unit 80 is a composite image that is an image in which a predetermined image is drawn on the graffiti target image based on an operation signal for performing graffiti processing on the generated graffiti target image (an image including a captured image). Is generated. Examples of the predetermined image to be drawn include a selected stamp image, a linear image drawn with a touch pen, and a composite stamp image generated by superimposing two or more selected stamps in a predetermined order. A composite image can be used.

このような合成画像の生成が終了すると、利用者による分割レイアウトの選択指示を受け付けられ、選択された分割レイアウトを示す情報および生成された合成画像は第1の制御部70に送られる。なお、印刷出力部92が別の合成画像を出力中である場合には、その旨が表示されるとともに終了を待って送られる。なお、これらの情報はネットワーク6を介して送受信される。   When the generation of such a composite image is completed, an instruction to select a divided layout from the user is accepted, and information indicating the selected divided layout and the generated composite image are sent to the first control unit 70. If the print output unit 92 is outputting another composite image, a message to that effect is displayed and sent after waiting for completion. These pieces of information are transmitted / received via the network 6.

第2および第3の表示・操作部81,82は、落書きのためのGUI表示手段として機能する編集操作用タッチパネル400に相当し、タッチペンを用いた利用者の操作を受け付ける。   The second and third display / operation units 81 and 82 correspond to an editing operation touch panel 400 that functions as a graffiti GUI display unit, and accepts a user's operation using a touch pen.

第2の通信部85は、ネットワークアダプタに相当し、ネットワーク6を介したデータ送受信の際のインタフェースとして機能する。   The second communication unit 85 corresponds to a network adapter and functions as an interface for data transmission / reception via the network 6.

また第1の制御部70は、上記の撮影処理のほか、出力処理に関する全体の制御を行う。第1の制御部70は、第2の制御部80から送られてきた合成画像を合成画像データとしてメモリに格納する。印刷出力部92は出力ユニットに内蔵されるネットワークプリンタ35に相当し、メモリに格納された合成画像データを(適宜にレイアウトした)写真シール(または写真カード)として印刷する。印刷された写真シール等は、出力ユニット5の正面下方に設けられた取出口33から取り出される。   The first control unit 70 performs overall control related to output processing in addition to the above-described shooting processing. The first control unit 70 stores the composite image sent from the second control unit 80 in the memory as composite image data. The print output unit 92 corresponds to the network printer 35 built in the output unit, and prints the composite image data stored in the memory as a photo sticker (or photo card) (which is appropriately laid out). The printed photo sticker or the like is taken out from an outlet 33 provided at the lower front of the output unit 5.

さらに第1の制御部70は、第2の制御部80から送られてきた分割レイアウト情報および合成画像に基づいて写真シール等の印刷処理を開始すると同時に、利用者の入力操作を受け付けるための後述する操作画面を第4の表示・操作部91に表示する。この第4の表示・操作部91は出力操作用タッチパネル30に相当し、入力受付手段として機能する。出力操作用タッチパネル30は、液晶ディスプレイまたはCRT(Cathode Ray Tube)等の表示手段として機能するモニタと、その上面に積層され、入力座標を認識することができる1人用のタッチパネルから構成される。モニタは複数の画面に分割された操作画面を表示することができ、タッチパネルは分割された複数の画面ごとに利用者のタッチペンを用いた入力操作を受け付け、受け付けた入力操作を操作信号として第1の制御部70に入力する。   Further, the first control unit 70 starts printing processing such as a photo sticker based on the divided layout information and the composite image sent from the second control unit 80, and at the same time receives a user input operation. The operation screen to be displayed is displayed on the fourth display / operation unit 91. The fourth display / operation unit 91 corresponds to the output operation touch panel 30 and functions as an input receiving unit. The output operation touch panel 30 includes a monitor that functions as a display unit such as a liquid crystal display or a CRT (Cathode Ray Tube), and a touch panel for one person that is stacked on the upper surface and can recognize input coordinates. The monitor can display an operation screen divided into a plurality of screens, and the touch panel accepts an input operation using a user's touch pen for each of the plurality of divided screens, and the received input operation is a first as an operation signal. To the control unit 70.

無線通信部96は、出力ユニット5に内蔵される携帯電話端末装置55に相当し、携帯電話端末によって図示されない画像サーバ部から当該合成画像をダウンロードできるように、第1の制御部70により作成された合成画像のデータを3G方式の無線通信方式で無線基地部へ送信する。   The wireless communication unit 96 corresponds to the mobile phone terminal device 55 built in the output unit 5, and is created by the first control unit 70 so that the composite image can be downloaded from an image server unit (not shown) by the mobile phone terminal. The synthesized image data is transmitted to the wireless base unit by the 3G wireless communication method.

ここで、第1の制御部70は、落書きを終えてから操作を始めるまでの間、補助記憶装置に予め記憶されているデモ画像(デモンストレーション用の画像)をフレームバッファに書き込むことにより第4の表示・操作部91に表示する。また音声出力部93は、スピーカ32に相当する。音声出力部93は、第4の表示・操作部91に表示される操作画面と連動して入力操作方法を利用者に説明し、また第4の表示・操作部91にデモ画像が表示されているときにデモ画像に応じた楽曲等を流す。なお、入力操作方法の説明や楽曲等は補助記憶装置としてのハードディス装置等に予め格納されている。   Here, the first control unit 70 writes the demo image (demonstration image) stored in advance in the auxiliary storage device in the frame buffer from the end of the graffiti until the start of the operation, to the fourth buffer. Displayed on the display / operation unit 91. The audio output unit 93 corresponds to the speaker 32. The audio output unit 93 explains the input operation method to the user in conjunction with the operation screen displayed on the fourth display / operation unit 91, and the demo image is displayed on the fourth display / operation unit 91. When playing, play music etc. according to the demo image. The description of the input operation method, music, and the like are stored in advance in a hard disk device as an auxiliary storage device.

その後、第1の制御部70は、第4の表示・操作部91の表示や音声出力部93による音声や効果音等により合成画像の印刷が完了するまで後述するミニゲームを利用者に提供し続ける。このミニゲームの内容も同様にハードディスク装置等に予め格納されている。   Thereafter, the first control unit 70 provides the user with a mini-game to be described later until the composite image is printed by the display of the fourth display / operation unit 91 or the voice or sound effect of the voice output unit 93. to continue. The contents of this mini game are similarly stored in advance in a hard disk device or the like.

ここで、各制御装置において実行される上記所定プログラムは、例えば、そのプログラムを記録した記録媒体であるDVD−ROMによって提供される。すなわち、上記所定プログラムの記録媒体としてのDVD−ROMが補助記憶装置として制御装置内に内蔵されたDVD−ROM駆動装置に装着され、そのDVD−ROMから所定プログラムが読み出されて補助記憶装置としてのハードディスク装置にインストールされる。また、上記所定プログラムは、DVD−ROM以外の記録媒体(CD−ROM等)や通信回線を介して提供されてもよい。そして、本遊戯用撮影装置の起動のための操作がなされると、ハードディスク装置にインストールされた所定プログラムは、制御装置内のメモリに転送されてそこに一時的に格納され、制御装置内のCPUによって実行される。これにより、制御装置による上記各部の制御処理が実現される。   Here, the predetermined program executed in each control device is provided by, for example, a DVD-ROM which is a recording medium on which the program is recorded. That is, a DVD-ROM as a recording medium for the predetermined program is attached to a DVD-ROM driving device built in the control device as an auxiliary storage device, and the predetermined program is read from the DVD-ROM as an auxiliary storage device. Installed on the hard disk drive. The predetermined program may be provided via a recording medium (CD-ROM or the like) other than a DVD-ROM or a communication line. Then, when an operation for starting the game shooting device is performed, the predetermined program installed in the hard disk device is transferred to the memory in the control device and temporarily stored therein, and the CPU in the control device Executed by. Thereby, the control process of each part by the control device is realized.

なお、上記第1および第2の制御部70,80は、異なるコンピュータを含む装置に相当するものとして説明したが、このような構成は一例であって、上記第1および第2の制御部70,80は、1つまたは3つ以上の装置により実現されてもよいし、どのユニットに内蔵されていてもよい。なお、この場合には各装置において、それぞれ実現されるべき機能に応じたプログラムが実行される。また、撮影ユニット3、編集ユニット4、および出力ユニット5についても、2つ以下または4つ以上のユニットにより構成されてもよい。   Although the first and second control units 70 and 80 have been described as corresponding to devices including different computers, such a configuration is merely an example, and the first and second control units 70 are described. , 80 may be realized by one or three or more devices, and may be incorporated in any unit. In this case, each device executes a program corresponding to a function to be realized. In addition, the photographing unit 3, the editing unit 4, and the output unit 5 may be configured by two or less units or four or more units.

<3. 遊戯用撮影装置における処理手順>
上述したように、この遊戯用撮影装置には、撮影ユニット3と編集ユニット4と出力ユニット5とが含まれている。撮影ユニット3では撮影処理が行われ、編集ユニット4では後述する落書き編集処理が行われ、出力ユニット5では出力処理が行われる。なお、或る利用者が撮影ユニット3でプレイしている時に他の利用者は編集ユニット4でプレイし、さらに他の利用者は出力ユニット5で合成画像を出力することができるように構成されている。すなわち、この遊戯用撮影装置は、撮影処理と落書き編集処理と出力処理とを並行して行うことができる。以下に、撮影処理を中心に、落書き編集処理、および出力処理の手順の概要についても説明する。
<3. Processing procedure in game shooting device>
As described above, the shooting device for play includes the shooting unit 3, the editing unit 4, and the output unit 5. The photographing unit 3 performs photographing processing, the editing unit 4 performs later-described graffiti editing processing, and the output unit 5 performs output processing. It should be noted that when a certain user is playing with the photographing unit 3, another user can play with the editing unit 4, and yet another user can output a composite image with the output unit 5. ing. In other words, this gaming device can perform shooting processing, graffiti editing processing, and output processing in parallel. The outline of the doodle editing process and the output process will be described below with a focus on the shooting process.

<3.1 撮影処理>
図7は、本実施形態における撮影処理の手順を示すフローチャートである。この遊戯用撮影装置が使用されていない時(プレイが行われていない時)には、撮影操作用タッチパネル20L,20Rにはデモ画像が表示されている。デモ画像の表示中に利用者がコイン投入口26にコインを投入すると、プレイが開始される(ステップS110)。
<3.1 Shooting process>
FIG. 7 is a flowchart showing the procedure of the photographing process in the present embodiment. When the game shooting device is not used (when no play is performed), demonstration images are displayed on the shooting operation touch panels 20L and 20R. When the user inserts a coin into the coin insertion slot 26 while displaying the demo image, the play is started (step S110).

続いてステップS120において、第1の制御部70は、利用者が望む態様で撮影画像に含まれる(典型的には)当該利用者の像が補正されるように、利用者の顔と(典型的には)当該利用者が使用する操作画面との対応付けを行うとともに、撮影画像の補正態様を利用者に選択させる処理(補正対象決定処理)を行う。この補正対象決定処理は、特徴的な構成であるため、詳しく後述する。   Subsequently, in step S120, the first controller 70 determines the user's face (typically) so that the image of the user included in the captured image (typically) is corrected in a manner desired by the user. Specifically, a process (correction target determination process) is performed in which the user is associated with the operation screen used by the user and the user selects the correction mode of the captured image. Since this correction target determination processing has a characteristic configuration, it will be described in detail later.

上記補正対象決定処理が終了すると、自動で撮影するか手動で撮影するかを選択し、自動で撮影する場合には撮影用テーマの選択が行われる。自動で撮影することが選択された場合、第1の制御部70は、予め用意された複数の撮影用テーマの中から1つ以上の撮影用テーマを利用者に選択させるための画面を撮影操作用タッチパネル20L,20Rに表示し、利用者による選択操作を受け付ける。そして、第1の制御部70は、利用者の選択操作に基づいて選択情報を取得し、選択された撮影用テーマに基づいて、撮影の際に使用するフレームと背景との組み合わせ画像(以下、「背景画像」という)を決定する。このとき、撮影が複数回行われる場合は、撮影の回数に等しい枚数の背景画像が決定される。   When the correction target determination process is completed, whether to shoot automatically or manually is selected, and when shooting automatically, a shooting theme is selected. When automatic shooting is selected, the first control unit 70 performs a shooting operation on a screen for allowing the user to select one or more shooting themes from a plurality of shooting themes prepared in advance. Are displayed on the touch panels 20L and 20R, and a selection operation by the user is accepted. Then, the first control unit 70 acquires selection information based on the user's selection operation, and based on the selected shooting theme, a combined image (hereinafter referred to as a frame and a background) used for shooting. "Background image"). At this time, when shooting is performed a plurality of times, the number of background images equal to the number of shootings is determined.

一方、手動で撮影する場合は、背景画像を利用者が自由に決定する。つまり、複数種類用意された背景画像の中から、撮影の際に使用するものを利用者が選択する。撮影が複数回行われる場合、撮影の回数に相当する枚数の背景画像を利用者に選択させる。利用者によって選択された背景画像が撮影に使用する背景画像として決定される。   On the other hand, when shooting manually, the user freely determines the background image. That is, the user selects one to be used for shooting from a plurality of types of background images prepared. When shooting is performed a plurality of times, the user is made to select the number of background images corresponding to the number of shootings. The background image selected by the user is determined as the background image used for shooting.

次にステップS130において、第1の制御部70は、図5に示すような操作画面を撮影操作用タッチパネル20L,20Rにそれぞれ表示する。なお前述したように、リアルタイムプレビュー領域201には、撮影画像に対してリアルタイムでクロマキー合成された背景画像が表示されるが、このクロマキー合成表示処理は、一般的にはクロマキーマスクを作成する処理と、背景画像を合成する処理とを含む。クロマキーマスクとは、例えば周知の合成マスク(アルファチャネル)であって、対象となる撮影画像のうちのキー色(ここでは青色または緑色)を有する領域、すなわち撮影室2の背面の像が占める領域を透明とし、それ以外の領域を非透明とするためのデータである。この合成マスクは一般的には対象となる画像の画素毎に0(完全透明)または255(完全非透明)の透過度を示す値αが設定される。このようなクロマキーマスクを使用することにより、撮影画像の非透明領域(α=255)に相当する背景画像の領域は隠され(マスクされ)、その透明領域(α=0)に相当する背景画像の領域は見えるように合成される。そのため、あたかも対象となる撮影画像の非透明領域の部分が切り取られ、切り取られた当該部分が上記背景画像に対して貼り付けられたような合成画像が得られる。このようにして得られる合成画像は、撮影操作用タッチパネル20L,20Rに同じく表示される。なお、ここで表示される撮影画像は実際には撮影画像として保存される(高解像度の)静止画データではなく、リアルタイム表示を行うためのスルー画像データである。このスルー画像データは、撮影処理全体の開始時点から終了時点まで(S100〜S170)、カメラ10から(広義の撮影画像として)連続的に取得される。このようなクロマキー処理によって遊戯性の高い写真作成を行うことができる。   Next, in step S130, the first control unit 70 displays an operation screen as shown in FIG. 5 on the photographing operation touch panels 20L and 20R, respectively. As described above, in the real-time preview area 201, a background image that is chroma key-combined in real time with respect to a captured image is displayed. This chroma key composition display processing is generally a process for creating a chroma key mask. And a process of synthesizing the background image. The chroma key mask is, for example, a well-known composite mask (alpha channel), and an area having a key color (in this case, blue or green) in a target photographed image, that is, an area occupied by an image on the back of the photographing room 2. Is data for making transparent and making other areas non-transparent. In this composite mask, a value α indicating transparency of 0 (completely transparent) or 255 (completely non-transparent) is generally set for each pixel of the target image. By using such a chroma key mask, the background image region corresponding to the non-transparent region (α = 255) of the photographed image is hidden (masked), and the background image corresponding to the transparent region (α = 0). This area is synthesized so that it can be seen. Therefore, a composite image can be obtained as if a non-transparent area portion of the target captured image is cut out and the cut-out portion is pasted on the background image. The composite image obtained in this way is also displayed on the shooting operation touch panels 20L and 20R. The captured image displayed here is not actually (high-resolution) still image data stored as a captured image, but through-image data for performing real-time display. This through image data is continuously acquired from the camera 10 (as a broadly captured image) from the start point to the end point of the entire shooting process (S100 to S170). With such chroma key processing, it is possible to create a photo with high playability.

その後、ステップS140に進み、撮影が行われるべき撮影タイミングであるか否かが判定され、撮影タイミングでない場合(ステップS140においてNoの場合)には撮影タイミングとなるまで上記操作画面表示が繰り返され(S140→S130→S140)、撮影タイミングである場合(ステップS140においてYesの場合)には、ステップS150における撮影処理に進む。   Thereafter, the process proceeds to step S140, where it is determined whether or not it is a shooting timing at which shooting should be performed. If it is not the shooting timing (No in step S140), the operation screen display is repeated until the shooting timing is reached ( (S140 → S130 → S140) If it is the shooting timing (Yes in step S140), the process proceeds to the shooting process in step S150.

ステップS150における撮影処理では、前述したように数秒程度の予め決められた時間の経過後にカメラ10の撮影方向に閃光が放たれ、カメラ10によって取得された撮影画像データが第1の制御部70のメモリに格納される。   In the shooting process in step S150, as described above, after a predetermined time of about several seconds has elapsed, a flash is emitted in the shooting direction of the camera 10, and the shot image data acquired by the camera 10 is stored in the first control unit 70. Stored in memory.

次に、ステップS160において、第1の制御部70は、ステップS150において得られた撮影画像に対して、ステップS120において各利用者に選択され確定されたそれぞれの補正態様で、対応する各利用者の像に対して補正し、背景画像と合成することにより落書き対象画像を生成する処理(落書き対象画像生成処理)を行う。この落書き対象画像生成処理(S160)も、上記補正対象決定処理(S120)と関連して特徴的な構成を有するため、詳しく後述する。なお、このステップS160における落書き対象画像生成処理は、以下のステップS170における処理が終了後に行われる構成であってもよい。   Next, in step S160, the first control unit 70 corresponds to each user corresponding to the captured image obtained in step S150 in each correction mode selected and confirmed by each user in step S120. A process for generating a graffiti target image by correcting the image and combining it with a background image (graffit target image generation process) is performed. This graffiti target image generation process (S160) also has a characteristic configuration related to the correction target determination process (S120), and will be described in detail later. Note that the graffiti target image generation process in step S160 may be performed after the process in the following step S170 is completed.

続いて、ステップS170において、第1の制御部70は、予め定められた所定回数(セット数)の撮影が終了したか否かを判定する。判定の結果、所定回数の撮影が終了していればステップS180に進み、所定回数の撮影が終了していなければステップS130に戻る。なお、実際には撮影のための制限時間(例えば3分)が設けられており、制限時間よりも(或る程度)早く所定回数の撮影が終了した場合には、さらに撮影が行われる(ボーナスショットと呼ばれる)。   Subsequently, in step S170, the first control unit 70 determines whether or not shooting of a predetermined number of times (the number of sets) has been completed. As a result of the determination, if the predetermined number of shootings have been completed, the process proceeds to step S180, and if the predetermined number of shootings has not been completed, the process returns to step S130. In practice, a time limit for shooting (for example, 3 minutes) is provided, and when a predetermined number of times of shooting is completed earlier (somewhat) than the time limit, shooting is further performed (bonus). Called a shot).

ステップS180では、複数の落書き対象画像の中から実際の落書き対象となる画像の(利用者による)選択が行われる。具体的には、第1の制御部70は、落書きおよび印刷に使用する画像を利用者に選択させるために、落書き対象画像の一覧を撮影操作用タッチパネル20L,20Rに表示し、利用者による選択操作を受け付ける。なお、撮影操作用タッチパネル20Lと撮影操作用タッチパネル20Rとで利用者毎に異なる落書き対象画像を選択する操作を受け付けてもよい。そして、第1の制御部70は、利用者によって選択された画像を実際の(最終的な)落書き対象画像とする。このとき撮影操作用タッチパネル20L,20Rに表示される複数の落書き対象画像は、ステップS160の処理による補正がなされた各撮影画像である。   In step S180, an image to be actually graffitied is selected (by the user) from a plurality of graffiti subject images. Specifically, the first control unit 70 displays a list of graffiti target images on the touch panels 20L and 20R for photographing operation so that the user can select images to be used for graffiti and printing. Accept the operation. Note that an operation for selecting a different graffiti target image for each user may be accepted on the photographing operation touch panel 20L and the photographing operation touch panel 20R. Then, the first control unit 70 sets the image selected by the user as an actual (final) graffiti target image. At this time, the plurality of graffiti target images displayed on the photographing operation touch panels 20L and 20R are each photographed image corrected by the process of step S160.

このステップS180における処理が終了すると、ステップS190の処理に進む。ステップS190では、案内画面の表示が行われる。具体的には、第1の制御部70は、利用者を編集ユニット4のいずれか(4aまたは4b)に導くための画面を撮影操作用タッチパネル20L,20Rに表示する。これにより、撮影処理が終了する。なお、本実施形態では、上記ステップS120における補正対象決定処理の内容と、上記ステップS160における落書き対象画像生成処理の内容とに特徴を有するが、これらの点については図9および図16を参照して後述するものとし、続く落書き編集処理の内容について説明する。   When the process in step S180 ends, the process proceeds to step S190. In step S190, a guidance screen is displayed. Specifically, the first control unit 70 displays a screen for guiding the user to any one of the editing units 4 (4a or 4b) on the photographing operation touch panels 20L and 20R. Thereby, the photographing process is completed. The present embodiment is characterized by the content of the correction target determination process in step S120 and the content of the graffiti target image generation process in step S160. For these points, refer to FIG. 9 and FIG. The contents of the subsequent graffiti editing process will be described later.

<3.2 落書き編集処理>
図8は、本実施形態における落書き編集処理の手順を示すフローチャートである。第2の制御部80が所定のプログラムに基づき図8に示すように動作することで、この落書き編集処理が実現される。この処理では、上述した撮影処理の終了後、第2の制御部80に内蔵されるタイマーが所定の時間(具体的には、落書きを許可する時間)に設定され、カウントダウンが開始される(ステップS205)。このとき、図7のステップS190の処理(案内表示)によって利用者に移動を促したほうの編集ユニット4(4aまたは4b)の編集操作用タッチパネルにおいて、落書き編集操作画面が表示される。そして、選択された複数の撮影対象画像に対する利用者による落書き操作(描画操作)が受け付けられる(ステップS210〜S240)。なおこの落書き編集処理時において、編集ユニット4では、撮影画像に基づく落書き対象画像(図7のステップS180で選択されたもの)に対する編集操作の他に、デコメール(登録商標)画像等の素材画像を作成するための編集操作が受け付けられてもよいが、その説明は省略する。
<3.2 Graffiti editing process>
FIG. 8 is a flowchart showing the procedure of graffiti editing processing in the present embodiment. The graffiti editing process is realized by the second control unit 80 operating as shown in FIG. 8 based on a predetermined program. In this process, after completion of the above-described shooting process, a timer built in the second control unit 80 is set to a predetermined time (specifically, a time for allowing graffiti), and countdown is started (step S1). S205). At this time, a graffiti editing operation screen is displayed on the editing operation touch panel of the editing unit 4 (4a or 4b) that has prompted the user to move by the process (guidance display) in step S190 of FIG. Then, a graffiti operation (drawing operation) by the user with respect to the selected plurality of shooting target images is accepted (steps S210 to S240). During the graffiti editing process, the editing unit 4 performs a material image such as a Deco-mail (registered trademark) image in addition to an editing operation for the graffiti target image (selected in step S180 in FIG. 7) based on the photographed image. An editing operation for creating the file may be accepted, but the description thereof is omitted.

タッチパネル400に落書き編集画面が表示された状態で、この画面の所定箇所に配置された所定のツールアイコン(不図示)をタッチペンでタッチすると、タッチしたツールアイコンに対応する落書き機能が選択され、実行可能な状態となる(ステップS210)。続いて、落書き編集画面に表示された落書き対象画像(不図示)を含む領域をタッチペンでタッチすると、タッチされた位置座標が入力され(ステップS220)、当該位置に、典型的には選択した落書き機能に対応する(スタンプ画像等の)合成用画像、すなわち落書きが表示される(ステップS230)。なお、この落書き編集処理では、典型的にはその処理内容が位置とともに順に記憶され、最終的な編集結果が表示される構成となっている。そのため、編集の取り消しも可能である。その後ステップS240においてタイマーの残り時間が0になる(または利用者が終了させる操作を行う)ことにより落書きが終了したかが判定され、終了していない場合(ステップS240においてNoの場合)にはステップS210に戻り、落書きが終了するまで処理が繰り返され、落書きが終了した場合(ステップS240においてYesの場合)には、上記ステップS230の処理において記憶された編集処理の手順に従って、選択された合成用画像と落書き対象画像との(最終的な)合成処理が開始され、合成画像が生成される(ステップS250)。   When a graffiti editing screen is displayed on the touch panel 400 and a predetermined tool icon (not shown) arranged at a predetermined position on this screen is touched with a touch pen, the graffiti function corresponding to the touched tool icon is selected and executed. A possible state is reached (step S210). Subsequently, when the area including the graffiti target image (not shown) displayed on the graffiti editing screen is touched with the touch pen, the touched position coordinates are input (step S220), and the graffiti typically selected at the position is selected. A compositing image (such as a stamp image) corresponding to the function, that is, a graffiti is displayed (step S230). In this graffiti editing process, the processing contents are typically stored in order with the position, and the final editing result is displayed. Therefore, editing can be canceled. Thereafter, in step S240, it is determined whether or not the graffiti has ended by the remaining time of the timer becoming zero (or performing an operation to be ended by the user), and if not (if No in step S240), step Returning to S210, the process is repeated until the graffiti is completed, and when the graffiti is completed (Yes in step S240), the composition for the selected composition is selected according to the procedure of the editing process stored in the process of step S230. A (final) synthesis process of the image and the graffiti target image is started, and a synthesized image is generated (step S250).

ステップS260では、出力される写真の分割パターンの選択が行われる。具体的には第2の制御部80は、予め用意された複数の分割パターンの中からいずれかの分割パターンを利用者に選択させるための操作画面を編集操作用タッチパネル400に表示し、利用者による選択操作を受け付ける。ステップS260の処理が終了した後、ステップS270の処理に進む。   In step S260, the division pattern of the output photo is selected. Specifically, the second control unit 80 displays on the editing operation touch panel 400 an operation screen for causing the user to select one of a plurality of division patterns prepared in advance, and the user The selection operation by is accepted. After the process of step S260 is completed, the process proceeds to step S270.

ステップS270では、案内画面の表示が行われる。具体的には、第2の制御部80は、利用者を出力ユニット5に導くための画面を編集操作用タッチパネル400に表示する。これにより、落書き編集処理が終了する。落書き編集処理が終了すると、出力ユニット5において、第2の制御部80から送られてきた合成画像(および選択された分割パターンの情報)に基づいて写真シール等の印刷処理が開始されることなどについては前述した通りである。   In step S270, a guidance screen is displayed. Specifically, the second control unit 80 displays a screen for guiding the user to the output unit 5 on the editing operation touch panel 400. Thereby, the graffiti editing process ends. When the graffiti editing process ends, the output unit 5 starts a printing process such as a photo sticker based on the composite image (and information on the selected division pattern) sent from the second control unit 80. Is as described above.

<3.3 補正対象決定処理>
次に、上記ステップS120における補正対象決定処理の詳しい内容について図9を参照して説明する。図9は、本実施形態における補正対象決定処理の手順を示すフローチャートである。図9に示すステップS121において、第1の制御部70は、通常の撮影とは異なる全員撮影のための説明画面を撮影操作用タッチパネル20L,20Rに表示する。
<3.3 Correction Target Determination Process>
Next, detailed contents of the correction target determination process in step S120 will be described with reference to FIG. FIG. 9 is a flowchart showing a procedure of correction target determination processing in the present embodiment. In step S121 shown in FIG. 9, the first control unit 70 displays an explanation screen for photographing everyone, which is different from normal photographing, on the photographing operation touch panels 20L and 20R.

図10は、全員撮影のための説明画面例を示す図である。この図10に示されるように、利用者の嗜好に合わせた画質(ここでは後述する目の形や濃さ、顔の輪郭や、肌質などの画像補正態様)を設定するため、全員撮影が行われることが撮影操作用タッチパネル20に表示される。なおこの撮影は、詳しくは後述するように、全ての利用者の顔を認識・識別するために行われる。また、上記撮影の他、撮影操作用タッチパネル20にはOKボタン205が表示されており、利用者がこのOKボタン205を押下する操作(具体的には当該位置を指などで触れる操作)を行うことにより、次の操作画面に遷移する。なお、図10に示すように、これから通常の撮影とは異なる全員撮影が行われることを利用者に対して告知することが望ましいが、このような告知は省略することもできる。また、後述する撮影用の操作画面例との関係で、図10に示す説明画面に代えて、またはその後に表示される図示されない画面において、利用者の数を質問する説明文とともに、利用者の数を入力する操作を受け付ける構成であってもよい。   FIG. 10 is a diagram illustrating an example of an explanation screen for photographing everyone. As shown in FIG. 10, since the image quality (image correction mode such as eye shape and density, face contour, skin quality, etc. described later) is set in accordance with the user's preference, This is displayed on the touch panel 20 for shooting operation. Note that this photographing is performed in order to recognize and identify the faces of all users, as will be described in detail later. In addition to the above shooting, an OK button 205 is displayed on the shooting operation touch panel 20, and the user performs an operation of pressing the OK button 205 (specifically, an operation of touching the position with a finger or the like). As a result, the screen shifts to the next operation screen. As shown in FIG. 10, it is desirable to notify the user that everyone will be shooting different from normal shooting from now on, but such notification may be omitted. Further, in relation to an example of an operation screen for shooting described later, in place of the explanation screen shown in FIG. 10 or on a screen (not shown) displayed thereafter, along with an explanation for asking the number of users, The structure which receives operation which inputs a number may be sufficient.

続いてステップS122において、第1の制御部70は、図11に示すような、通常の撮影とは異なる全員撮影のための撮影用の操作画面(撮影画面)を撮影操作用タッチパネル20に表示する。   Subsequently, in step S122, the first control unit 70 displays on the photographing operation touch panel 20 a photographing operation screen (photographing screen) for photographing all members different from normal photographing as shown in FIG. .

図11は、全員撮影のための撮影画面例を示す図である。図11に示されるように、撮影操作用タッチパネル20には、通常撮影時と同様の(ここではやや大きい)リアルタイムプレビュー領域201と、このリアルタイムプレビュー領域201内に固定的に(予め定められた位置に)表示される顔位置ガイド206と、OKボタン205とが表示される。この顔位置ガイド206は、通常撮影時には表示されず、また通常撮影時よりも顔が大きく写るように表示されるべき位置が定められている。この顔位置ガイド206が表示されると、この枠内に顔が入るように、かつ枠一杯に顔が写るように、利用者は自然と顔の位置を移動させるので、後述する顔認識を行う際に好適な撮影画像が得られる。もちろん、この顔位置ガイド206は、省略されてもよいが、そのような構成においても、正面を向いて撮影するように、さらには全員の顔がはっきりと写るようカメラ10に近づいて撮影するように、告知文を表示したり、音声による案内を行う構成などが好ましい。   FIG. 11 is a diagram illustrating an example of a shooting screen for shooting all the members. As shown in FIG. 11, the photographing operation touch panel 20 has a real-time preview area 201 (which is slightly larger here) similar to that during normal photographing, and a fixed position (predetermined position) in the real-time preview area 201. B) A displayed face position guide 206 and an OK button 205 are displayed. The face position guide 206 is not displayed during normal shooting, and the position where the face should be displayed is determined so that the face appears larger than during normal shooting. When this face position guide 206 is displayed, the user naturally moves the face position so that the face is within the frame and the face is fully captured, so that face recognition described later is performed. In this case, a suitable photographed image can be obtained. Of course, the face position guide 206 may be omitted. However, even in such a configuration, the face position guide 206 may be taken so as to face the front, and close to the camera 10 so that everyone's face can be clearly seen. In addition, a configuration in which a notification sentence is displayed or voice guidance is provided is preferable.

また、図11に示される顔位置ガイド206は、2人の利用者によって使用されることが予定されている形状となっているが、利用者の人数は例えば前述したように図10に示す操作画面内またはその前後で利用者の操作入力を受け付けることにより決定される。したがって、利用者が1人または3人以上である場合には、顔位置ガイド206は、決定された利用者の数に応じて、予め定められた当該数の利用者によって使用されることが予定されている形状で表示される。また、後述する顔認識処理をこの時点で行うことにより、人数を検出してもよい。   Further, the face position guide 206 shown in FIG. 11 has a shape that is planned to be used by two users, but the number of users is, for example, the operation shown in FIG. It is determined by accepting a user operation input in or around the screen. Therefore, when the number of users is one or three or more, the face position guide 206 is scheduled to be used by a predetermined number of users according to the determined number of users. It is displayed in the shape that has been. Further, the number of persons may be detected by performing a face recognition process described later at this time.

このようにして利用者の撮影準備が整った後、撮影操作用タッチパネル20に表示されるOKボタン205を押下する操作が行われると撮影が行われる。すなわち、図9に示される以下のような処理が行われる。   After the user is ready for shooting in this way, shooting is performed when an operation of pressing the OK button 205 displayed on the shooting operation touch panel 20 is performed. That is, the following processing shown in FIG. 9 is performed.

まずステップS123において、第1の制御部70は、撮影タイミングであるか否か(ここでは上記OKボタン205が押下されたか否か)が判定され、撮影タイミングでない場合(ステップS123においてNoの場合)、撮影タイミングとなるまで上記操作画面表示が繰り返され(S123→S122→S123)、撮影タイミングである場合(ステップS123においてYesの場合)、ステップS124における撮影処理に進む。   First, in step S123, the first control unit 70 determines whether or not it is a shooting timing (here, whether or not the OK button 205 is pressed), and when it is not a shooting timing (in the case of No in step S123). The operation screen display is repeated until the shooting timing is reached (S123 → S122 → S123). If it is the shooting timing (Yes in step S123), the process proceeds to the shooting process in step S124.

ステップS124における撮影処理では、通常撮影と同様に数秒程度の予め決められた時間の経過後にカメラ10の撮影方向に閃光が放たれ、カメラ10によって取得された撮影画像データ(ここでは全員撮影画像)が第1の制御部70のメモリに格納される。   In the shooting process in step S124, a flash is emitted in the shooting direction of the camera 10 after a predetermined time of about several seconds as in the normal shooting, and the shot image data (here, all the shot images) acquired by the camera 10 is emitted. Is stored in the memory of the first control unit 70.

続いて、ステップS125では、ステップS124により取得された全員撮影画像に含まれる利用者全員(ここでは2人)の顔を認識する処理が行われる。この顔の認識処理は、顔領域であることを認識する顔領域の認識処理と、利用者の顔を個別に識別するための顔識別処理とを含む。なおこれらは段階的に行われてもよいし、同時的に行われてもよい。また、上記顔領域の認識処理を行うことなく、顔識別処理を行ってもよい。以上のような処理を総じてここでは顔認識処理と呼ぶ。この顔認識処理によって、ここでは2人の利用者の顔領域がそれぞれ認識され、対応する特徴量が算出されることにより2人の利用者の顔が識別される。   Subsequently, in step S125, a process of recognizing the faces of all the users (here, two people) included in the all-person photographed image acquired in step S124 is performed. This face recognition process includes a face area recognition process for recognizing a face area and a face identification process for individually identifying the user's face. These may be performed stepwise or simultaneously. Further, the face identification process may be performed without performing the face area recognition process. Such processing is generally referred to as face recognition processing here. In this face recognition process, the face areas of two users are recognized here, and the faces of the two users are identified by calculating corresponding feature amounts.

より詳しく説明すると、まず顔領域の認識処理は、周知の手法を採用すればよく、例えば予め記憶されたモデル画像を拡大・縮小、回転することによりテンプレート画像を生成し、このテンプレート画像を基準として顔としての特徴を有する画像が撮影画像内に含まれている場合に当該領域を顔領域として認識する手法や、テンプレートを使用しない周知の認識手法、例えば肌色領域の形状に基づき顔領域を認識したり、各種のパターン認識手法を使用した認識手法等を採用可能である。これらの周知の手法についての詳しい説明は省略する。次に、顔識別処理も同様に周知の手法を採用すればよく、例えば顔の目や鼻などの相対的な位置関係や大きさ、目や鼻やほお骨やあごの形を特徴として示す量など、顔を識別するために使用される周知の幾何学的または統計的な数値(以下「特徴量」という)を算出する。この特徴量は、複数のパラメータからなる複数の整数値であるが、他の顔と識別することが可能であればどのように規定されていてもよい。この顔識別処理により、2人の利用者が撮影画像のどの位置に写っていても、どのように撮影されていても識別することが可能となる。このように顔領域を認識し識別するプログラムを実行することにより、簡単にかつセンサなどを設けることなく安価に利用者の顔を認識することができる。なお、周知の顔検出用(または顔識別用)LSIチップなどのハードウェアを使用すれば、ソフトウェア処理の場合よりも顔領域の認識および顔の識別を高速化することができる。また、ここでの顔認識処理は、多数の(登録された)者の顔から1つを正確に抽出することが要求される通常の顔認識処理とは異なり、撮影される複数の利用者を互いに区別することができる程度の認識処理で足り、また区別できる程度の特徴量の算出を行えば足りる。   More specifically, first, a known method may be employed for the face area recognition process. For example, a template image is generated by enlarging, reducing, or rotating a model image stored in advance, and this template image is used as a reference. When an image having facial features is included in the captured image, a method for recognizing the region as a face region or a well-known recognition method that does not use a template, such as a skin color region shape, is recognized. It is possible to adopt a recognition method using various pattern recognition methods. Detailed description of these known methods is omitted. Next, a well-known technique may be used for the face identification process as well, such as the relative positional relationship and size of the eyes, nose, etc. of the face, the amount that characterizes the shape of the eyes, nose, cheeks, chin, etc. Then, a known geometrical or statistical numerical value (hereinafter referred to as “feature amount”) used for identifying the face is calculated. The feature amount is a plurality of integer values composed of a plurality of parameters, but may be defined in any manner as long as it can be distinguished from other faces. With this face identification process, it is possible to identify whether two users are photographed in any position or how they are photographed. By executing the program for recognizing and identifying the face area in this way, the user's face can be recognized easily and inexpensively without providing a sensor or the like. If hardware such as a well-known face detection (or face identification) LSI chip is used, face area recognition and face identification can be performed faster than in the case of software processing. Further, the face recognition process here is different from the normal face recognition process that requires one of a large number of (registered) faces to be accurately extracted. It is sufficient to perform recognition processing that can be distinguished from each other, and it is sufficient to calculate feature quantities that can be distinguished from each other.

続いて、ステップS126では、補正対象となる利用者を決定するための後述する利用者選択受付画面が撮影操作用タッチパネル20L,20Rに表示され、表示された利用者選択受付画面に基づく利用者による操作入力の受付が行われる。このような選択受付画面および当該画面に対する入力例を図12および図13を参照して詳しく説明する。   Subsequently, in step S126, a later-described user selection reception screen for determining a user to be corrected is displayed on the photographing operation touch panels 20L and 20R, and the user based on the displayed user selection reception screen is displayed. Operation input is accepted. An example of such a selection reception screen and an input to the screen will be described in detail with reference to FIGS.

図12は、左側の撮影操作用タッチパネル20Lに表示される利用者選択受付画面例を示す図であり、図13は、右側の撮影操作用タッチパネル20Rに表示される利用者選択受付画面例を示す図である。図12に示されるように、撮影操作用タッチパネル20Lには、上記ステップS124において撮影された全員撮影画像211と、次の画面に遷移するためのOKボタン205とが表示される。これは図13においても同様である。ただし、図12に示される全員撮影画像211に含まれる左側の利用者の顔領域には斜線が付されており、図13に示される全員撮影画像211に含まれる右側の利用者の顔領域には斜線が付されている。この斜線は選択されたことをわかりやすく示すために付されており、利用者が顔領域を押下する操作で顔領域を選択することによって、その色が変わったり、凹んだりする表示態様で表示の変更が行われる。このことにより、選択した利用者の顔領域が容易に識別できる。もっとも、このような表示態様は一例であって、利用者の選択が受付可能であれば、どのような表示態様および入力受付態様であってもよい。このようにして選択された利用者(の顔領域)の選択が完了すると、第1の制御部70は、選択された画面(撮影操作用タッチパネル20L,20Rのいずれかの画面)と、選択された利用者を示す特徴量とを関連付けて記憶する。例えば、左画面では特徴量Aを有する利用者が選択され、右画面では特徴量Bを有する利用者が選択されたことが記憶される。   FIG. 12 is a diagram showing an example of a user selection reception screen displayed on the left photographing operation touch panel 20L, and FIG. 13 is an example of a user selection acceptance screen displayed on the right photographing operation touch panel 20R. FIG. As shown in FIG. 12, the photographing operation touch panel 20L displays the whole-person photographed image 211 photographed in step S124 and an OK button 205 for transitioning to the next screen. The same applies to FIG. However, the left user's face area included in the all-person photographed image 211 shown in FIG. 12 is hatched, and the right user's face area included in the all-person photographed image 211 shown in FIG. Are hatched. This diagonal line is attached to indicate that the selection has been made in an easy-to-understand manner. When the user selects a face area by pressing the face area, the color of the face changes or the display is depressed. Changes are made. As a result, the face area of the selected user can be easily identified. However, such a display mode is an example, and any display mode and input reception mode may be used as long as the user's selection can be received. When the selection of the user (the face area) selected in this way is completed, the first control unit 70 is selected from the selected screen (one of the touch screens 20L and 20R for photographing operation). The feature quantity indicating the user is stored in association with each other. For example, it is stored that the user having the feature amount A is selected on the left screen, and the user having the feature amount B is selected on the right screen.

続いて、ステップS127では、撮影画像の補正態様を決定するための後述する補正選択受付画面が撮影操作用タッチパネル20L,20Rに表示され、表示された補正選択受付画面に基づく利用者による操作入力の受付が行われる。このような補正選択受付画面および当該画面に対する入力例を図14を参照して詳しく説明する。   Subsequently, in step S127, a correction selection reception screen (to be described later) for determining the correction mode of the captured image is displayed on the shooting operation touch panels 20L and 20R, and an operation input by the user based on the displayed correction selection reception screen is performed. Reception is done. Such a correction selection acceptance screen and an input example on the screen will be described in detail with reference to FIG.

図14は、利用者による補正態様の選択操作を受け付けるための補正選択受付画面例を示す図である。図14に示されるように、撮影操作用タッチパネル20L,20Rには、補正態様を選択するための複数の補正態様決定ボタン207と、次の画面に遷移するためのOKボタン205とが表示される。   FIG. 14 is a diagram illustrating an example of a correction selection reception screen for receiving a correction mode selection operation by a user. As shown in FIG. 14, a plurality of correction mode determination buttons 207 for selecting a correction mode and an OK button 205 for transitioning to the next screen are displayed on the shooting operation touch panels 20L and 20R. .

ここで補正態様は、図14に示されるように4種類が設定されており、目の形(具体的には、目の大きさや、つり目やたれ目などの形状等、およそ目の輪郭形状に関連する要素)と、目の濃さ(具体的には、目の色や、瞳の大きさ等、およそ目の内部形状や色彩に関連する要素)と、輪郭(具体的には、顎や頬などの特徴的な部分を含む顔の外縁形状や、髪型、髪の毛の色などに関連する要素)と、肌質(具体的には、肌の色や明るさ、ぼかし具合など、およそ肌の見え方に関連する要素)とが選択可能に表示されている。なお、このような補正は、画像の色彩または形状の少なくとも一方に対する、周知のまたは適宜の変更手法または変形手法を用いることにより、容易に実現することができる。また、これらの補正態様は例示であって周知のあらゆる補正態様を適用可能である。これら4つの補正態様は、それぞれAからDまでの4つの典型的な状態(以下「設定状態」という)が補正態様決定ボタン207によって選択可能に表示されている。なお、図14では、これらの設定状態はAからDまでの記号によって表示されているが、このような記号に代えて設定状態を示す説明文や、補正の程度を示す数字などであってもよい。また、スライダー(バー)などを使用することにより、無段階に変化する量を入力可能に表示されてもよく、これらの種類や、数、入力態様などには特に限定はない。よって、周知の様々な入力インタフェースを使用可能である。このように、或る(種類の)補正態様における補正の状態を設定するための上記設定状態を以下では「パラメータ」とも呼び、このパラメータに設定される数値や記号などの情報を以下では「パラメータの値」とも呼ぶ。   Here, four types of correction modes are set as shown in FIG. 14, and the shape of the eye (specifically, the shape of the eye, the shape of a suspended eye, a leaned eye, etc.) ), Darkness of eyes (specifically, elements related to the internal shape and color of the eye, such as eye color and pupil size), and contour (specifically, chin And the skin edge (specifically, skin color, brightness, blur condition, etc.) The elements related to the appearance of the display are selectable. Note that such correction can be easily realized by using a known or appropriate change method or modification method for at least one of the color or shape of the image. Further, these correction modes are examples, and any known correction mode can be applied. These four correction modes are displayed so that four typical states A to D (hereinafter referred to as “setting states”) can be selected by a correction mode determination button 207. In FIG. 14, these setting states are indicated by symbols A to D. However, instead of these symbols, an explanatory text indicating the setting state or a number indicating the degree of correction may be used. Good. Further, by using a slider (bar) or the like, it may be displayed so as to be able to input an amount that changes steplessly, and there is no particular limitation on the type, number, input mode, and the like. Therefore, various known input interfaces can be used. As described above, the setting state for setting the correction state in a certain (type) correction mode is also referred to as “parameter” below. Information such as numerical values and symbols set in this parameter is hereinafter referred to as “parameter”. Also called “value”.

このようにして、これらの補正態様の設定状態(パラメータの設定)が完了すると、第1の制御部70は、選択された画面(撮影操作用タッチパネル20L,20Rのいずれかの画面)と、設定されたパラメータの値とを関連付けて記憶する。このことにより、ステップS126において記憶された画面と特徴量との関係と関連付けることが可能となる。すなわち、(所定の特徴量を有する)各利用者の像に対して、どのような設定状態の補正態様で補正を行うべきかを記憶することができる。例えば、左画面では特徴量Aを示す利用者が選択され、右画面では特徴量Bを示す利用者が選択される場合、特徴量Aを示す利用者の像に対する補正態様の設定状態と、特徴量Bを示す利用者の像に対する補正態様の設定状態とがそれぞれ関連づけられて記憶される。第1の制御部70は、このように各利用者の顔の像と、補正態様の設定状態の入力を含む操作入力とを関連づける関連付け手段として機能する。   In this way, when the setting state (parameter setting) of these correction modes is completed, the first control unit 70 sets the selected screen (one of the shooting operation touch panels 20L and 20R) and the setting. The associated parameter values are stored in association with each other. This makes it possible to associate the relationship between the screen stored in step S126 and the feature amount. That is, it is possible to store in what correction state the correction mode should be corrected for each user image (having a predetermined feature amount). For example, when a user showing the feature amount A is selected on the left screen and a user showing the feature amount B is selected on the right screen, the setting state of the correction mode for the image of the user showing the feature amount A, and the feature The setting state of the correction mode for the user image indicating the amount B is stored in association with each other. In this way, the first control unit 70 functions as an association unit that associates each user's face image with an operation input including an input of a correction mode setting state.

また、図14に示されるように、補正態様の設定状態(パラメータ)には初期値が設定されている。図中では、オススメという表題が付された点線で囲まれており、「B」と表記された複数の補正態様決定ボタン207に対応する設定状態がそれぞれの補正態様の初期値として設定されている。なお、実際には利用者による操作入力が行われる前の初期的な選択受付画面として、それぞれ「B」の表記に対応する設定状態が初期的に設定された初期画面が表示される。   Further, as shown in FIG. 14, an initial value is set in the correction mode setting state (parameter). In the figure, a setting state corresponding to a plurality of correction mode determination buttons 207 indicated by “B” is set as an initial value of each correction mode, which is surrounded by a dotted line labeled “Recommendation”. . In practice, an initial screen in which setting states corresponding to the notation “B” are initially set is displayed as an initial selection reception screen before an operation input by the user is performed.

このような初期的な設定状態は、利用者によって適宜の補正態様決定ボタン207が押下されることにより変化し、例えば図14に示すような設定状態に変化させることができる。そうして、補正態様の設定状態が決定すれば、図14に示すOKボタン205が押下され、補正態様の設定状態の決定が終了し(パラメータの値を確定し)、補正対象決定処理が終了する。なお、OKボタン205が押されてなくとも、選択受け付け画面(図12参照)が表示されてから所定時間が経過すると、補正態様の設定状態の決定が終了し、補正対象決定処理が終了するようにしてもよい。   Such an initial setting state is changed when the user presses an appropriate correction mode determination button 207, and can be changed to a setting state as shown in FIG. 14, for example. When the setting state of the correction mode is determined, the OK button 205 shown in FIG. 14 is pressed, the determination of the correction mode setting state ends (the parameter value is determined), and the correction target determination process ends. To do. Even if the OK button 205 is not pressed, when a predetermined time has elapsed after the selection acceptance screen (see FIG. 12) is displayed, the determination of the correction mode setting state is terminated and the correction target determination process is terminated. It may be.

以上のように図7に示す補正対象決定処理(S120)が終了すると、所定枚数の撮影が行われ、撮影処理が終了する。その後の落書き処理および出力処理についても前述したとおりである。次に、上記ステップS160における落書き対象画像生成処理の詳しい内容について図15を参照して説明する。   As described above, when the correction target determination process (S120) shown in FIG. 7 is finished, a predetermined number of pictures are taken, and the photographing process is finished. Subsequent graffiti processing and output processing are also as described above. Next, detailed contents of the graffiti target image generation process in step S160 will be described with reference to FIG.

<3.4 落書き対象画像生成処理>
図15は、本実施形態における落書き対象画像生成処理の手順を示すフローチャートである。図15に示すステップS161において、第1の制御部70は、前述したクロマキーマスクを作成するとともに、利用者の占める像(以下「利用者像」という)を利用者毎に(ここでは2つ)生成する。前述したように、クロマキーマスクを作成することによって、2人の利用者像と、キー色を有する撮影室2の背面の像が占める背景領域とを区別することができ、また2人は別れて立っていることが多いため、利用者像は2つに分かれていることが多い。しかし、利用者が接している場合など利用者像が2つに分かれていない場合には、適宜に(例えば2つの顔から等距離となる点からなる)境界線を設定することにより、2つの利用者像を作成する。ここで、利用者の像を2つに分けることは容易でない場合もあるが、補正対象として最も重要であって利用者が特に意識する領域は、顔領域である。この顔領域はほとんどの場合、接することなく2つに分かれており、分かれていない場合であっても、顔認識処理により顔の境界を正確に認識することができる。したがって、少なくとも顔領域について、利用者毎の区別が(或る程度)正確になされていれば、例えその他の(手や足などの肌色領域)における利用者毎の区別が正確でない場合にも大きな問題とはならない。
<3.4 Graffiti target image generation processing>
FIG. 15 is a flowchart showing the procedure of the graffiti target image generation process in the present embodiment. In step S161 shown in FIG. 15, the first control unit 70 creates the above-described chroma key mask, and images (hereinafter referred to as “user images”) occupied by the user for each user (here, two). Generate. As described above, by creating a chroma key mask, it is possible to distinguish between the two user images and the background area occupied by the back image of the photographing room 2 having the key color. Since the user is often standing, the user image is often divided into two. However, when the user image is not divided into two, such as when the user is in contact, two boundaries can be set by appropriately setting a boundary line (for example, consisting of points equidistant from the two faces). Create a user profile. Here, although it may not be easy to divide the user's image into two, the most important area to be corrected and the area that the user is particularly aware of is the face area. In most cases, this face area is divided into two without touching, and even if it is not divided, the boundary of the face can be accurately recognized by face recognition processing. Therefore, if at least the face area is accurately distinguished to some extent (to some extent), it is large even if the distinction for each user in other (skin color areas such as hands and feet) is not accurate. It doesn't matter.

続いてステップS162において、第1の制御部70は、利用者毎の特徴量を算出する。前述したように、この利用者毎の特徴量の算出は、周知の顔認識処理により行われる。算出された特徴量は、その特徴量を有する顔領域を含む利用者像と関連付けられて一旦記憶される。なお、顔領域と顔領域以外の利用者像の部分とは一連の領域であり位置関係もほぼ固定されているため、容易に互いを関連付けることができる。   Subsequently, in step S162, the first control unit 70 calculates a feature amount for each user. As described above, the feature amount for each user is calculated by a known face recognition process. The calculated feature amount is temporarily stored in association with the user image including the face area having the feature amount. Note that the face area and the portion of the user image other than the face area are a series of areas and the positional relationship is substantially fixed, and therefore can be easily associated with each other.

次にステップS163において、第1の制御部70は、算出された利用者毎の特徴量に応じたパラメータ値で、対応する利用者像に対する補正を行う。前述したように、ステップS126,S127において、(所定の特徴量を有する)各利用者の像に対して、どのような設定状態の補正態様で補正を行うべきかが記憶される。例えば、特徴量Aを示す利用者の像に対する補正態様の設定状態と、特徴量Bを示す利用者の像に対する補正態様の設定状態とがそれぞれ記憶される。第1の制御部70は、記憶されたパラメータ値で、対応する利用者像毎に補正を行う。   Next, in step S163, the first control unit 70 corrects the corresponding user image with the parameter value corresponding to the calculated feature amount for each user. As described above, in steps S126 and S127, it is stored in what setting state the correction mode should be corrected for each user image (having a predetermined feature amount). For example, the setting state of the correction mode for the user image indicating the feature amount A and the setting state of the correction mode for the user image indicating the feature amount B are stored. The first control unit 70 performs correction for each corresponding user image with the stored parameter value.

ここで、上記特徴量は、どのような条件でも同一の値が得られることが理想的ではあるが、実際には利用者の表情や撮影条件の変化などの理由により、完全に同一の値が得られないこともある。しかし、もし同一の値が得られない場合であっても、他の利用者の特徴量と同一または近似する程度まで値が変化することは通常は考えられないため、通常考えられる特徴量の変化範囲を前提にして、記憶される特徴量と同一またはそれに近似する特徴量を有する場合、同一の利用者の顔(の特徴量)であるものとして問題はない。具体的には、記憶された全ての(利用者に対応する)特徴量のうち、算出された特徴量から所定範囲内の特徴量、または算出された特徴量に最も近い特徴量を、対応する利用者として識別する例などが考えられる。なお、その他の識別手法が使用されてもよい。このように第1の制御部70は、算出された利用者毎の特徴量と同一または近似する特徴量に応じたパラメータ値で、当該特徴量に対応する利用者像に対する補正を行う。   Here, it is ideal that the same feature value is obtained under any condition, but in reality, the feature value is completely the same value for reasons such as changes in the user's facial expression and shooting conditions. It may not be obtained. However, even if the same value cannot be obtained, it is not normally considered that the value will change to the same or approximate value as the feature value of other users. On the premise of the range, when the feature amount is the same as or similar to the feature amount stored, there is no problem as long as it is the same user's face (feature amount). Specifically, among all the stored feature values (corresponding to the user), a feature value within a predetermined range from the calculated feature value or a feature value closest to the calculated feature value is associated. An example of identifying as a user is conceivable. Other identification methods may be used. As described above, the first control unit 70 corrects the user image corresponding to the feature amount with the parameter value corresponding to the feature amount that is the same as or approximate to the calculated feature amount for each user.

続いてステップS162において、第1の制御部70は、上記ステップS163において補正された各利用者像に対して、選択された撮影テーマに対応する背景画像をクロマキー合成した合成画像、すなわちステップS130においてなされる処理と同様のクロマキー合成処理(厳密には低解像度のスルー画像を上記背景画像にクロマキー合成するのではなく、高解像度の静止画像である撮影画像を上記背景画像にクロマキー合成する処理)により生成される合成画像が、落書き対象画像として撮影操作用タッチパネル20L,20Rに表示される。なお、補正された全員撮影画像を落書き対象画像としてもよい。   Subsequently, in step S162, the first control unit 70 combines the user images corrected in step S163 with a chroma key composition of the background image corresponding to the selected shooting theme, that is, in step S130. By the same chroma key composition processing as the processing that is performed (strictly, the low-resolution through image is not chroma-keyed with the background image, but the captured image that is a high-resolution still image is chroma-keyed with the background image) The generated composite image is displayed on the photographing operation touch panels 20L and 20R as a graffiti target image. Note that the corrected photographed image for all members may be used as the graffiti target image.

その後、ステップS165に進み、撮影された画像が全て補正されたか否かが判定され、補正されていない場合(ステップS165においてNoの場合)には全ての撮影画像が補正されるまで上記処理が繰り返され(S165→S161→…→S165)、全ての撮影画像に対する補正が終了した場合(ステップS165においてYesの場合)、落書き対象画像生成処理が終了する。   Thereafter, the process proceeds to step S165, where it is determined whether or not all the captured images have been corrected. If not corrected (No in step S165), the above processing is repeated until all the captured images are corrected. This is the case (S165 → S161 →... → S165), and when the correction for all the photographed images is completed (Yes in step S165), the graffiti target image generation process is completed.

以上のように図15に示す落書き対象画像生成処理処理(S160)が終了すると、所定枚数の撮影が終了するまで2回目以降の撮影および落書き画像の生成が繰り返され(S130→S140→…→S170→S130)、落書き対象画像が選択され(S180)、撮影処理が終了する。その後の落書き処理および出力処理についても前述したとおりである。   As described above, when the graffiti target image generation processing (S160) shown in FIG. 15 is completed, the second and subsequent shootings and the generation of graffiti images are repeated (S130 → S140 →. → S130), a graffiti target image is selected (S180), and the photographing process ends. Subsequent graffiti processing and output processing are also as described above.

<4.変形例>
<4.1 第1の変形例>
上記実施形態では、図12および図13に示すように、利用者の(ここでは顔領域を押下する)操作入力によって選択された画面(撮影操作用タッチパネル20L,20Rのいずれかの画面)と、選択された利用者を示す特徴量とが関連付けて記憶されるが、利用者の操作入力によらず、自動的に関連づけが行われる構成であってもよい。
<4. Modification>
<4.1 First Modification>
In the above embodiment, as shown in FIG. 12 and FIG. 13, a screen (any one of the shooting operation touch panels 20 </ b> L and 20 </ b> R) selected by a user's (here, pressing the face area) operation input; Although the feature quantity indicating the selected user is stored in association with each other, the configuration may be such that the association is automatically performed regardless of the user's operation input.

図16は、全員撮影を自動的に行うための撮影画面の一例を示す図である。図16に示されるように、撮影操作用タッチパネル20L,20Rには、通常撮影時と同様のリアルタイムプレビュー領域201と、このリアルタイムプレビュー領域201内に固定的に表示される顔位置ガイド206とが表示される。なお、この顔位置ガイド206が表示されると、図11に示される場合と同じくこの枠内に顔が入るように、かつ枠一杯に顔が写るように、利用者は自然と顔の位置を移動させるので、補正を行うための好適な撮影画像が得られる。   FIG. 16 is a diagram illustrating an example of a shooting screen for automatically shooting all members. As shown in FIG. 16, the photographing operation touch panels 20L and 20R display a real-time preview area 201 similar to that during normal photographing and a face position guide 206 that is fixedly displayed in the real-time preview area 201. Is done. When this face position guide 206 is displayed, the user naturally moves the face position so that the face is in this frame and the face is full as in the case shown in FIG. Since it is moved, a suitable captured image for correction can be obtained.

ここで上記実施形態では、図9に示すステップS123において、第1の制御部70は、(図11に示す)OKボタン205が押下されたか否かを撮影タイミングとして判定するが、本変形例では顔位置ガイド206の左画面用と右画面用との2つの枠内にそれぞれ各利用者の顔領域が適宜の大きさで入ると、第1の制御部70は、自動的に写真撮影を行う。このとき、顔位置ガイド206の上部に示されるように、左画面用の枠内の顔の特徴量は、左画面に関連付けられ、右画面用の枠内の顔の特徴量は、右画面に自動的に関連付けられる。したがって、この変形例の構成によれば、利用者はステップS126における利用者選択の受け付けを行う必要が無いので、簡単にかつ素早く利用者毎の補正を行うことができる。また、このような関連付けの自動化は、図17に示すような態様で行うこともできる。   Here, in the above embodiment, in step S123 shown in FIG. 9, the first control unit 70 determines whether or not the OK button 205 (shown in FIG. 11) is pressed as the shooting timing. When each user's face area has an appropriate size within the two frames of the left and right screens of the face position guide 206, the first control unit 70 automatically takes a picture. . At this time, as shown in the upper part of the face position guide 206, the face feature amount in the left screen frame is associated with the left screen, and the face feature amount in the right screen frame is displayed on the right screen. Automatically associated. Therefore, according to the configuration of this modified example, the user does not need to accept the user selection in step S126, so that the correction for each user can be performed easily and quickly. Further, such automation of association can be performed in a manner as shown in FIG.

図17は、全員撮影を自動的に行うための撮影画面の他の例を示す図である。図17に示されるように、撮影操作用タッチパネル20L,20Rには、通常撮影時と同様のリアルタイムプレビュー領域201と、このリアルタイムプレビュー領域201内に固定的に表示される中央分離線208とが表示される。この中央分離線208を境界として、左右に利用者の像が分かれると、第1の制御部70は、自動的に写真撮影を行う。このように利用者の立つ位置を自然に左右に移動させることができるので、その後の画面との対応関係が自然になされる。なお、この場合も図16に示される場合と同様に、左画面用の枠内の顔の特徴量は、左画面に関連付けられ、右画面用の枠内の顔の特徴量は、右画面に自動的に関連付けられる。したがって、利用者はステップS126における利用者選択の受け付けを行う必要が無いので、簡単にかつ素早く利用者毎の補正を行うことができる。このような関連付けの自動化は、上記変形例に示す態様のほか、利用者の立ち位置の順番で自動的に決定するなど、利用者の顔の位置(または利用者の像の位置)に基づき、様々な態様で行うことができる。   FIG. 17 is a diagram illustrating another example of a shooting screen for automatically shooting all members. As shown in FIG. 17, the photographing operation touch panels 20L and 20R display a real-time preview area 201 similar to that during normal photographing and a center separation line 208 fixedly displayed in the real-time preview area 201. Is done. When the image of the user is divided on the left and right with the center separation line 208 as a boundary, the first controller 70 automatically takes a picture. Since the user's standing position can be naturally moved to the left and right in this way, the correspondence with the subsequent screen is naturally made. Also in this case, as in the case shown in FIG. 16, the feature amount of the face in the frame for the left screen is associated with the left screen, and the feature amount of the face in the frame for the right screen is displayed on the right screen. Automatically associated. Accordingly, since the user does not need to accept the user selection in step S126, the correction for each user can be performed easily and quickly. The automation of such association is based on the position of the user's face (or the position of the user's image), such as automatically determining in the order of the user's standing position, in addition to the mode shown in the above modification example, It can be done in various ways.

また、上記図11から図13まで、図16、または図17に示されるような画像表示を行うことなく、上記関連付けが自動的に行われる構成も考えられる。例えば、上記全身撮影画像を取得するのではなく、リアルタイム表示を行うためのスルー画像データに基づき利用者の顔認識を行い、利用者の位置に応じて各利用者と撮影操作用タッチパネル20L,20Rとを関連づける。具体的には、利用者が3人以上の場合、各利用者が立つ位置に応じて左右の2つのグループに分け、左側のグループに属する利用者(の顔の像)を撮影操作用タッチパネル20Lに、右側のグループに属する利用者(の顔の像)を撮影操作用タッチパネル20Rにそれぞれ関連づける。また、利用者の立つ位置とは異なる、所定の条件(例えば顔認識により判別される性別や顔の特徴など)に基づき、上記関連付けがなされてもよい。このような動作は、タッチパネルの個数が3つ以上であっても同様である。   Further, a configuration in which the association is automatically performed without performing the image display as shown in FIG. 16 or FIG. 17 from FIG. 11 to FIG. For example, instead of acquiring the whole body captured image, the user's face is recognized based on through image data for real-time display, and each user and the imaging operation touch panels 20L and 20R according to the position of the user. Is associated with Specifically, when there are three or more users, the user is divided into two groups on the left and right according to the position where each user stands, and the users (images of their faces) belonging to the group on the left are taken for the shooting operation touch panel 20L. In addition, users (images of their faces) belonging to the right group are respectively associated with the shooting operation touch panel 20R. Further, the association may be performed based on a predetermined condition (for example, gender and facial features determined by face recognition) different from the position where the user stands. Such an operation is the same even when the number of touch panels is three or more.

さらに、利用者が3人以上の場合には、スルー画像データに基づき、撮影操作用タッチパネル20L,20Rのうちの少なくとも一方の画面を複数に分割する構成も考えられる。このような動作は、タッチパネルの個数が3つ以上であっても同様であり、1つの場合にも利用者の人数に等しい操作画面を表示すればよい。   Furthermore, when there are three or more users, a configuration in which at least one of the photographing operation touch panels 20L and 20R is divided into a plurality based on the through image data is also conceivable. Such an operation is the same even when the number of touch panels is three or more, and an operation screen equal to the number of users may be displayed even in the case of one.

なお、上記各関連付けは利用者の操作に基づくものではなく、利用者の意思とは無関係に行われる。そのため、上記関連付けの後で、利用者が操作入力に適した位置に移動しなければならないこともあるが、例えば「この顔の人は左(または、右)の画面を操作してね」等の利用者の顔画像を含む案内画面を表示してやることでその問題は解決できる。   Each of the above associations is not based on the user's operation, but is performed regardless of the user's intention. For this reason, after the above association, the user may have to move to a position suitable for operation input. For example, "This person should operate the left (or right) screen" The problem can be solved by displaying a guidance screen including the face image of the user.

<4.2 第2の変形例>
上記実施形態では、図2に示すように、撮影操作用タッチパネル20L,20Rのそれぞれの画面で表示および操作入力がなされる構成であるが、図18に示されるように撮影操作用タッチパネル20が1つであって、2画面で表示される構成であってもよい。
<4.2 Second Modification>
In the above embodiment, as shown in FIG. 2, the display and operation input are performed on the respective screens of the shooting operation touch panels 20L and 20R. However, as shown in FIG. However, it may be configured to be displayed on two screens.

図18は、撮影ユニット3の変形例を示す正面図である。図18に示されるように、撮影操作用タッチパネル20Cが1つだけ設けられており、この撮影操作用タッチパネル20Cは、左右に同じ大きさの2つの画面を表示する。この構成では、ソフトウェアによって、2つの操作画面を表示し、それぞれの画面において異なる入力を受け付ける構成であるが、2つの画面を表示する場合には上記実施形態とほぼ同様に動作する。しかし、利用者は必ずしも2人ではないため、利用者が3人以上の場合には、上記実施形態では少なくとも同じ大きさの3つの操作画面を表示することが困難となる。しかし、本第2の変形例の構成では、利用者の数に応じて自由に操作画面の数を変更することができる。例えば、利用者が2人から3人になった場合には、撮影操作用タッチパネル20Cの表示画面を2分割から3分割に変更することにより、3つの操作画面を得ることができ、利用者が2人から1人になった場合には、表示画面を分割せずそのまま操作画面を表示するよう変更すればよい。この構成では、第1の制御部70は、入力受付手段の数を変更する入力制御手段として機能する。このように、本第2の変形例では、利用者の数に適した操作画面を提供し、補正対象決定処理を行わせることができる。   FIG. 18 is a front view showing a modification of the photographing unit 3. As shown in FIG. 18, only one shooting operation touch panel 20C is provided, and this shooting operation touch panel 20C displays two screens of the same size on the left and right. In this configuration, two operation screens are displayed by software, and different inputs are received on the respective screens. However, when two screens are displayed, the operation is substantially the same as in the above embodiment. However, since there are not necessarily two users, when there are three or more users, it is difficult to display at least three operation screens of the same size in the above embodiment. However, in the configuration of the second modification, the number of operation screens can be freely changed according to the number of users. For example, when the number of users is changed from two to three, by changing the display screen of the touch panel for photographing operation 20C from two divisions to three divisions, three operation screens can be obtained. When the number of persons is changed from two to one, the operation screen may be changed to be displayed as it is without dividing the display screen. In this configuration, the first control unit 70 functions as an input control unit that changes the number of input receiving units. As described above, in the second modification, an operation screen suitable for the number of users can be provided, and correction target determination processing can be performed.

また、この第2の変形例の構成を2つの撮影操作用タッチパネルを備える上記実施形態に適用する場合、利用者の人数が奇数であれば、同じ大きさの操作画面を表示することが困難ではあるが、利用者の人数に応じた操作画面を表示することは上記実施形態の構成においても可能である。例えば、利用者が3人である場合には、撮影操作用タッチパネル20L,20Rのうちの一方の画面を2つに分割することにより、合計3つの操作画面を得ることができる。   In addition, when the configuration of the second modification is applied to the above-described embodiment including two shooting operation touch panels, it is difficult to display an operation screen of the same size if the number of users is an odd number. However, the operation screen according to the number of users can be displayed in the configuration of the above embodiment. For example, when there are three users, a total of three operation screens can be obtained by dividing one of the shooting operation touch panels 20L and 20R into two.

さらに、利用者の数と操作画面の数とを同じにすることは必須ではなく、利用者の数よりも操作画面の数が少ない構成であっても、上記実施形態と同様に補正を行うことは可能である。もっとも、この構成では、1つの画面で2人以上の利用者の像を選択することになるため、全ての利用者の嗜好を反映した補正を行うことはできない。しかし、少なくとも操作画面の数だけ異なった態様の補正を(当該画面において選択した利用者の像に対して)行うことができるので、或る程度利用者の嗜好を反映した補正を素早く行うことができるという効果が得られる。   Furthermore, it is not essential that the number of users and the number of operation screens be the same, and even if the number of operation screens is smaller than the number of users, correction is performed in the same manner as in the above embodiment. Is possible. However, in this configuration, since images of two or more users are selected on one screen, it is not possible to perform correction reflecting the preferences of all users. However, since it is possible to perform correction in a manner that differs by at least the number of operation screens (for the user image selected on the screen), correction that reflects the user's preference to some extent can be performed quickly. The effect that it can be obtained.

なお、上記複数の操作画面は、撮影操作用タッチパネル20Cの表示画面を分割する形態での画面例で説明したが、この操作画面の形状はどのようなものであってもよく、例えば一般的なウィンドウ画面のように表示面より小さい矩形形状や、吹き出しのような形状などであってもよい。この場合にも利用者の数より当該操作画面の数が少ない構成であってもよいが、どの操作画面にどの利用者が対応するかを(図形の形状や説明などで)明示する構成が好ましい。   The plurality of operation screens have been described in the screen examples in the form of dividing the display screen of the shooting operation touch panel 20C. However, the operation screen may have any shape. A rectangular shape smaller than the display surface like a window screen or a shape like a balloon may be used. Also in this case, the number of operation screens may be smaller than the number of users, but a configuration that clearly indicates which user corresponds to which operation screen (by the shape of the figure or description) is preferable. .

また、前述したように上記補正態様の設定は、必ずしも撮影の最初に行われてなくてもよく、撮影の途中で、一度または何度も行われる構成であってもよい。さらに、撮影される人数(すなわち撮影画像に含まれる利用者の像の数)が変更される場合も考えられる。この場合には、撮影画像に含まれる利用者の像の数に応じて、上記操作画面の数や形状、位置などを適宜に変更する構成が好ましい。また、撮影が終了した後に、当該撮影により得られる複数の撮影画像の1つ以上に対して、上記のような補正態様の設定を受け付けるための操作画面を表示する構成であってもよい。この構成では、撮影終了直後から出力処理が開始される前までの間に上記操作画面を表示する構成であってもよく、例えば落書き編集中に編集ユニット4の編集操作用タッチパネル400において上記操作画面が表示される構成であってもよい。この操作画面において補正態様が設定された後、各利用者の顔の認識を行なえば、各撮影画像における各利用者の像に対して個別に補正をかけることができる。また、複数の撮影画像のうちの1つではなく、その一部または全部に対して上記操作画面による補正態様の設定を受け付ける構成であればよい。   Further, as described above, the setting of the correction mode does not necessarily have to be performed at the beginning of shooting, and may be configured to be performed once or many times during shooting. Furthermore, there may be a case where the number of persons to be photographed (that is, the number of user images included in the photographed image) is changed. In this case, a configuration in which the number, shape, position, and the like of the operation screen are appropriately changed according to the number of user images included in the captured image is preferable. In addition, an operation screen for accepting the setting of the correction mode as described above may be displayed on one or more of a plurality of captured images obtained by the shooting after shooting is completed. In this configuration, the operation screen may be displayed immediately after the shooting is finished and before the output process is started. For example, the operation screen is displayed on the editing operation touch panel 400 of the editing unit 4 during the graffiti editing. May be displayed. If the user's face is recognized after the correction mode is set on the operation screen, the image of each user in each captured image can be individually corrected. Moreover, what is necessary is just a structure which receives the setting of the correction | amendment aspect by the said operation screen with respect to one part or all instead of one of several picked-up images.

次に、上記変形例の構成において、撮影画面において利用者毎に補正態様の選択操作を受け付けるための補正選択受付画面例が表示される例について、図19および図20を参照して説明する。なお、以下の画面例は、利用者の像を含む撮影画像が表示されるが、この撮影画像が静止画像であってもスルー画像であってもよいことについては前述したとおりである。   Next, an example in which a correction selection receiving screen example for receiving a correction mode selection operation for each user on the shooting screen in the configuration of the above-described modification is displayed will be described with reference to FIGS. 19 and 20. In the following screen example, a captured image including a user image is displayed. As described above, the captured image may be a still image or a through image.

図19は、利用者毎の操作入力画面を含む撮影画面の一例を示す図である。図19に示されるように、撮影操作用タッチパネル20Cには、通常撮影時と同様のリアルタイムプレビュー領域201と、このリアルタイムプレビュー領域201内に2人の利用者の像と、一方の利用者の左上に当該利用者による補正態様の選択操作を受け付けるための左補正選択受付ウィンドウ209Lと、他方の利用者の右上に当該利用者による補正態様の選択操作を受け付けるための右補正選択受付ウィンドウ209Rと、OKボタン205とが表示されている。   FIG. 19 is a diagram illustrating an example of a shooting screen including an operation input screen for each user. As shown in FIG. 19, the photographing operation touch panel 20 </ b> C includes a real-time preview area 201 that is the same as that during normal photographing, an image of two users in the real-time preview area 201, and the upper left of one user. A left correction selection reception window 209L for receiving a correction mode selection operation by the user, a right correction selection reception window 209R for receiving a correction mode selection operation by the user at the upper right of the other user, An OK button 205 is displayed.

これら左補正選択受付ウィンドウ209Lおよび右補正選択受付ウィンドウ209Rには、図14に示される補正選択受付画面例と同様に、それぞれ補正態様を選択するための複数の補正態様決定ボタンが表示されており、それぞれの利用者によって同様に押下され、補正態様の設定状態(パラメータの設定)を行うことができる。第1の制御部70は、上記設定が行われたウィンドウ画面に対応する利用者の像と、設定されたパラメータの値とを関連付けて記憶する。第1の制御部70は、このように各利用者の(顔の)像と、補正態様の設定状態の入力を含む操作入力とを関連づける関連付け手段として機能する。また、設定された補正態様は、当該補正選択受付画面に表示される利用者の像に必ずしも反映される必要はないが、ここでは反映されるものとする。   In the left correction selection acceptance window 209L and the right correction selection acceptance window 209R, as in the example of the correction selection acceptance screen shown in FIG. Each user can similarly press the button to set the correction mode (parameter setting). The first control unit 70 stores the image of the user corresponding to the window screen on which the above setting has been made and the set parameter value in association with each other. The first control unit 70 thus functions as an association unit that associates each user's (face) image with an operation input including an input of a correction mode setting state. Further, the set correction mode does not necessarily have to be reflected in the image of the user displayed on the correction selection reception screen, but is assumed to be reflected here.

このように、利用者毎に補正選択を受け付けるウィンドウ画面を表示することにより、各利用者が好む設定を行うことができるとともに、各利用者が当該ウィンドウ画面を確認することにより、自らの設定状態(補正状態)を確認しやすくすることができる。   In this way, by displaying a window screen that accepts correction selection for each user, it is possible to make settings that each user prefers, and by checking each window screen, each user can check their own setting status. This makes it easy to check the (correction state).

なお、この図19では利用者は2人である例を示しているが、3人以上であってもよく、その場合には、それぞれの利用者の像に対応した位置(例えば頭上の適宜に離れた位置)に同様のウィンドウ画面が表示され、同様に補正態様を設定することができる。   Note that FIG. 19 shows an example in which there are two users, but there may be three or more users. In that case, positions corresponding to the images of the respective users (for example, overhead as appropriate). A similar window screen is displayed at a remote position, and the correction mode can be set in the same manner.

図20は、利用者毎の操作入力画面を含む撮影画面の別例を示す図である。この図20に示されるように、撮影操作用タッチパネル20Cには、通常撮影時と同様のリアルタイムプレビュー領域201と、このリアルタイムプレビュー領域201内に2人の利用者の像と、それぞれの利用者の像の胸部位置近傍において撮影モード選択ウィンドウ219L,219Rと、OKボタン205とが表示されている。   FIG. 20 is a diagram illustrating another example of a shooting screen including an operation input screen for each user. As shown in FIG. 20, the photographing operation touch panel 20C includes a real-time preview area 201 similar to that during normal photographing, images of two users in the real-time preview area 201, and each user's image. Shooting mode selection windows 219L and 219R and an OK button 205 are displayed near the chest position of the image.

これらの撮影モード選択ウィンドウ219L,219Rは、撮影モードの選択、例えば画質(ここでは、柔らかなふんわりとした画質、または透明感のあるクールな画質のうちのいずれか)を選択するための、利用者による補正態様の選択操作を受け付ける。   These shooting mode selection windows 219L and 219R are used to select a shooting mode, for example, to select an image quality (in this case, one of soft, soft image quality and cool image quality with transparency). A correction mode selection operation by a person is accepted.

なお、この撮影モード選択ウィンドウ219L,219Rの表示位置は例示であって、利用者に対応するどの位置に表示されてもよいが、利用者との関連性(対応関係)が容易に判別可能な位置に表示することが好ましい。そうすれば、各利用者が当該ウィンドウ画面を確認することにより、自らの設定状態(補正状態)をより確認しやすくすることができる。   The display positions of the shooting mode selection windows 219L and 219R are merely examples, and may be displayed at any position corresponding to the user, but the relevance (correspondence) with the user can be easily determined. It is preferable to display the position. If it does so, it can make it easier to confirm a user's setting state (correction state) by each user confirming the said window screen.

<4.3 第3の変形例>
上記実施形態では、顔認識処理を行うことにより、利用者の顔の特徴量と画面との対応関係を関連付ける構成であるが、画面と利用者との対応関係を特徴量を使用することなく、すなわち顔認識処理を使用することなく行う構成も考えられる。
<4.3 Third Modification>
In the above embodiment, the face recognition process is performed to associate the correspondence between the feature amount of the user's face and the screen, but the correspondence relationship between the screen and the user is used without using the feature amount. That is, a configuration in which face recognition processing is performed without using it is also conceivable.

例えば、補正対象となる利用者を撮影画像全てにおいて利用者に選択させる構成であれば、自動的に補正対象となる利用者像を決定することはできないものの、撮影画像毎に補正態様を決定する必要は無いため、素早く各撮影画像に含まれる利用者毎に補正を行うことができる。   For example, if the configuration allows the user to select the user to be corrected in all the captured images, the user image to be corrected cannot be automatically determined, but the correction mode is determined for each captured image. Since it is not necessary, correction can be performed quickly for each user included in each captured image.

また、撮影画像において左側に立つ人(または右側に立つ人)は全て同一の利用者であると仮定するなど、撮影画像における利用者像の位置に基づき、利用者の顔を認識することなく利用者を自動的に決定する構成も考えられる。この場合には、各撮影画像において利用者による利用者像の選択の必要もないため、利用者が素早く補正を行うことができるとも言える。ただし、遊戯用撮影装置では、利用者の位置が入れ替わるなど撮影画像毎に変化することが多いため、顔認識処理によって正しく利用者を識別する構成がより好ましい。   In addition, it is assumed that the person standing on the left side (or the person standing on the right side) in the captured image is the same user, for example, based on the position of the user image in the captured image without using the user's face. A configuration is also conceivable in which the person is automatically determined. In this case, since it is not necessary for the user to select a user image in each captured image, it can be said that the user can quickly correct the image. However, since the shooting device for games often changes for each captured image, such as the user's position being changed, a configuration in which the user is correctly identified by face recognition processing is more preferable.

なお、顔認識処理のうち、利用者の識別を行わず、利用者の像を認識する処理だけを行う場合であっても、顔領域を正確に他の領域と区別することができる。このような区別はクロマキー合成処理に基づき行うことはできるが、顔の部分だけを正確に区別するには、上記認識処理が好適である。このことから、画面と利用者との対応関係を特徴量を使用することなく行う構成において、利用者の識別を行わず、利用者の像を認識する処理だけを行う構成も考えられる。この構成によれば、重要な顔部分を(クロマキー合成処理を行うことなく)正確に判別することができる。   Note that even in the face recognition process, the face area can be accurately distinguished from other areas even when only the process of recognizing the user image is performed without identifying the user. Such distinction can be made based on the chroma key composition process, but the above recognition process is suitable for accurately distinguishing only the face portion. Therefore, in a configuration in which the correspondence between the screen and the user is performed without using the feature amount, a configuration in which only the process of recognizing the user image is performed without identifying the user. According to this configuration, it is possible to accurately determine an important face portion (without performing chroma key composition processing).

<4.4 その他の変形例>
本実施形態では、カメラ10が1つ設けられる構成であるが、2つ以上のカメラが設けられる構成であってもよく、例えば利用者の顔付近を拡大して撮影するアップ撮影用カメラと、利用者の全身から半身程度までの範囲を撮影する全身撮影用カメラとが設けられる構成であってもよい。この構成では、例えば補正対象決定処理に使用される撮影画像をアップ撮影用カメラで取得して補正態様の設定状態を決定し、決定された設定状態で全身撮影用カメラによって取得される撮影画像に対する補正を行うことが考えられる。またその逆であってもよい。さらに、アップ撮影用カメラによる補正対象決定処理に代えて、またはこれとともに全身撮影用カメラによる全員撮影を行い、全身撮影用カメラによって取得される撮影画像に対して好適な補正態様の設定状態を利用者の操作入力に基づき決定する構成であってもよい。例えば、全身撮影用カメラにより取得された撮影画像に対して足を長くしたり、体を細くするなどの態様で補正を行う構成であってもよい。
<4.4 Other Modifications>
In the present embodiment, one camera 10 is provided, but two or more cameras may be provided. For example, an up-shooting camera that takes an enlarged image of the vicinity of the user's face, A configuration may be provided in which a whole body photographing camera for photographing a range from the whole body of the user to about half the body is provided. In this configuration, for example, a captured image used for the correction target determination process is acquired by the up-shooting camera, the setting state of the correction mode is determined, and the captured image acquired by the whole-body shooting camera in the determined setting state is determined. It is conceivable to perform correction. The reverse is also possible. Furthermore, instead of the correction target determination process using the up-shooting camera, or together with this, the whole-body shooting camera is used to take a suitable correction mode setting for the captured image acquired by the whole-body shooting camera. It may be configured to be determined based on an operation input by a person. For example, a configuration may be used in which correction is performed in a manner such as lengthening a foot or narrowing a body with respect to a captured image acquired by a whole-body imaging camera.

また本実施形態では、利用者の像の一部に対する色などの変更を行うものであるが、利用者の像に関連する撮影画像の一部に対して、所定の画像処理を行う構成であってもよい。例えば、利用者の像の周囲に所定の模様や色彩を有する帯状の付加画像(以下、「オーラ画像」という)を配置したり、利用者の顔領域の上方(すなわち頭の上)に帽子やリングなどを示す付加画像を配置する画像(合成)処理などが考えられる。例えば、オーラ画像を利用者の像の近傍に配置する場合、利用者は撮影操作用タッチパネル20L,20Rにおいてそれぞれの利用者の顔の像に対応する付加画像の内容を指定する操作入力を受け付ける。そうすると、同一の利用者の像の周囲に、指定されたオーラ画像が配置される、という画像処理がなされる。なお、全ての撮影画像に含まれる同一の利用者の像の周囲に同一のオーラ画像が配置される必要はなく、例えばオーラ画像の種類を指定する操作入力が受け付けられ、受け付けられた当該種類に基づき(予め定められた順にまたはランダムに選ばれた)オーラ画像が撮影画像それぞれに配置される構成などが考えられる。またオーラ画像とは異なるスタンプ画像などの画像が利用者の像から所定の距離だけ離れた位置に配置される構成であってもよい。また、画像処理の対象となる撮影画像の一部と利用者の像との関連は(上述した周囲や近傍などの)位置関係に限定されるわけではなく、所定の対応関係が存在すれば足りる。   In the present embodiment, the color or the like of a part of the user's image is changed. However, the predetermined image processing is performed on a part of the captured image related to the user's image. May be. For example, a belt-like additional image (hereinafter referred to as an “aura image”) having a predetermined pattern or color is arranged around the user's image, or a hat or An image (synthesizing) process for arranging an additional image showing a ring or the like can be considered. For example, when the aura image is arranged in the vicinity of the user's image, the user receives an operation input for designating the contents of the additional image corresponding to the image of the user's face on the photographing operation touch panels 20L and 20R. Then, image processing is performed in which the designated aura image is arranged around the image of the same user. Note that the same aura image need not be arranged around the same user image included in all the captured images. For example, an operation input for specifying the type of the aura image is accepted, and the received type A configuration in which aura images (selected in a predetermined order or randomly selected) are arranged on each captured image is considered. Further, a configuration may be employed in which an image such as a stamp image different from the aura image is disposed at a position separated from the user image by a predetermined distance. In addition, the relationship between a part of a captured image to be subjected to image processing and the user's image is not limited to the positional relationship (such as the above-mentioned surroundings and the vicinity), and it is sufficient if there is a predetermined correspondence relationship. .

さらに本実施形態では、撮影画像に対する補正は、画像の一部に対する色および形状のうち少なくとも一方の変更を行うものであるが、画像に対する変更処理ではなく、当該変更に相当する2回目以降の撮影における撮影環境を変更する構成であってもよい。例えば、利用者の肌を白くする補正を行う場合フラッシュの光量を大きくし、利用者の肌を黒くする補正を行う場合にはフラッシュの光量を小さくする構成や、カメラ10に対して適宜の色や補正効果を付与する周知の光学フィルタ板を(選択的に適用可能に)設ける構成、図示されない所定色の専用光源の光を照射する構成などが周知の様々な構成が考えられる。このような撮影環境の変更によって、全員撮影画像に対して周知の画像処理手法を用いて行われた補正態様と同様の補正結果を、その他の撮影画像に対する上記画像処理手法を用いることなく実現することができる。   Furthermore, in the present embodiment, the correction for the captured image is to change at least one of the color and shape for a part of the image, but is not a change process for the image, and the second and subsequent shootings corresponding to the change. The imaging environment may be changed. For example, when correcting to make the user's skin white, the amount of light of the flash is increased, and when correcting to make the user's skin black, a configuration in which the amount of light of the flash is reduced or an appropriate color for the camera 10 is used. Various known configurations such as a configuration in which a well-known optical filter plate that imparts a correction effect (selectively applicable), a configuration in which light of a dedicated light source of a predetermined color (not shown) is irradiated, and the like can be considered. By such a change in the shooting environment, the same correction result as the correction mode performed using a well-known image processing method for all the captured images is realized without using the image processing method for other captured images. be able to.

また本実施形態のステップS120において、利用者は、撮影モードの選択、例えば画質(具体的にはコントラストが高いくっきりとした画質、柔らかなふんわりとした画質、または透明感のあるクールな画質のうちのいずれか)を選択し、明るさを選択するといった補正態様の選択を行ってもよい。   In step S120 of the present embodiment, the user selects a shooting mode, for example, image quality (specifically, a clear image quality with high contrast, a soft soft image quality, or a cool image quality with transparency). The correction mode may be selected such that the brightness is selected.

さらに、図11および図15に示されるように、顔位置ガイド206は、2人の利用者によって使用されることが予定される形状で表示されるが、前述したように予め利用者の人数を選択させるための利用者による操作入力を受け付けておくことにより、利用者の人数に応じた形状(例えば人数分の枠を有する形状)の顔位置ガイド206を表示させることができる。また、前述した顔認識処理などの周知の手法によれば、利用者によって人数を選択させることなく、利用者の人数に応じた顔位置ガイド206を自動的に表示させることもできる。   Further, as shown in FIGS. 11 and 15, the face position guide 206 is displayed in a shape that is expected to be used by two users. By receiving an operation input by the user for selection, the face position guide 206 having a shape corresponding to the number of users (for example, a shape having a frame for the number of users) can be displayed. In addition, according to a known method such as the face recognition process described above, the face position guide 206 corresponding to the number of users can be automatically displayed without selecting the number of users by the user.

また、上述の落書き編集を行う際に、確定されたパラメータの値に応じて変更された複数の落書き対象画像のうちの1つ以上を、確定されたパラメータの値に応じて変更される前の元の状態に個別に(例えば目の形などの補正態様毎に)または一括して戻すことが可能な構成であってもよい。このような構成は、例えば(パラメータ毎の)変更を行う前の各画像を記憶することなどによって容易に実現できる。また、各パラメータの値を個別にまたは一括して再設定する操作入力を受け付け、再設定されたパラメータ値に応じて変更を行う構成であってもよい。なお、複数の落書き対象画像を元の状態に戻す等の上記処理を行う際には、当該複数の落書き対象画像すべてを一括して変更するようにしてもよいし、対象となる落書き対象画像を指定して変更するようにしてもよい。また、落書き対象画像に含まれる利用者ごとに変更を行う構成であってもよい。さらに上記の各構成は、落書き編集処理前や、撮影処理中に適用されてもよい。   In addition, when performing the above-mentioned graffiti editing, one or more of the plurality of graffiti target images that have been changed according to the determined parameter value are changed before being changed according to the determined parameter value. It may be configured to be able to return to the original state individually (for example, for each correction mode such as the eye shape) or collectively. Such a configuration can be easily realized, for example, by storing each image before the change (for each parameter). Moreover, the structure which receives the operation input which resets the value of each parameter individually or collectively, and changes according to the reset parameter value may be sufficient. In addition, when performing the above-described processing such as returning a plurality of graffiti target images to the original state, all of the plurality of graffiti target images may be changed at once, or the target graffiti target images may be changed. It may be specified and changed. Moreover, the structure which changes for every user contained in a graffiti object image may be sufficient. Furthermore, each of the above configurations may be applied before the graffiti editing process or during the shooting process.

さらにまた上記顔認識処理は、補正の前に行われればよいので、上記のようにリアルタイム表示を行うためのスルー画像データに基づいて行われてもよいし、上記顔認識処理のための(静止画)撮影を断続的に行う構成であってもよい。   Furthermore, since the face recognition process only needs to be performed before correction, it may be performed based on the through image data for performing real-time display as described above, or for the face recognition process (static The image may be taken intermittently.

また、撮影操作用タッチパネル20L,20Rのそれぞれにおいて、利用者による背景画像の選択操作を受け付ける際に、前述したように撮影テーマ毎に対応づけられた各背景画像を撮影操作用タッチパネル20Lと、撮影操作用タッチパネル20Rとにおいて全く同じ内容で(すなわち選択対象が共通するよう)表示し、撮影操作用タッチパネル20L,20Rのうち、一方で先に選択された画像に(いわば早い者勝ちの形で)確定させてもよい。そうすれば、素早く背景画像を決定することができ、また(競争のように)遊戯性を高めることもできる。   In addition, in each of the shooting operation touch panels 20L and 20R, when receiving a background image selection operation by the user, as described above, each background image associated with each shooting theme is shot with the shooting operation touch panel 20L. It is displayed with exactly the same content on the operation touch panel 20R (that is, so that the selection target is common), and one of the shooting operation touch panels 20L and 20R is displayed on the first selected image (in the form of first-come-first-served basis). It may be confirmed. Then, the background image can be determined quickly, and playability can be improved (like competition).

さらに各画面で異なるテーマ(および背景画像)を表示することにより、選択操作の内容を分担させてもよい。例えば、6つの撮影テーマのうち前半を撮影操作用タッチパネル20Lに、後半を撮影操作用タッチパネル20Rにそれぞれ表示し、各利用者の選択を受け付ける構成であってもよい。そうすれば、作業が分担されることにより、素早く背景画像を決定することができる。なお、これらの選択対象は、背景画像以外の選択項目、例えば撮影方法や補正態様を決定するための選択項目に対しても同様に適用することができ、上記のような効果を得ることができる。   Furthermore, the contents of the selection operation may be shared by displaying different themes (and background images) on each screen. For example, among the six shooting themes, the first half may be displayed on the shooting operation touch panel 20L and the second half may be displayed on the shooting operation touch panel 20R, and the selection of each user may be accepted. By doing so, the background image can be quickly determined by sharing the work. Note that these selection targets can be similarly applied to selection items other than the background image, for example, selection items for determining the shooting method and correction mode, and the above-described effects can be obtained. .

さらにまた、撮影操作用タッチパネル20L,20Rのそれぞれにおいて、利用者に関連する情報をそれぞれ受け付ける構成であってもよい。例えば、利用者の個人的な情報をそれぞれの画面で受け付け、受け付けられた情報に基づき、落書き時に使用されるスタンプ画像をそれぞれ生成する構成などが考えられる。   Still further, each of the photographing operation touch panels 20L and 20R may be configured to receive information related to the user. For example, a configuration in which personal information of a user is received on each screen and a stamp image used at the time of graffiti is generated based on the received information can be considered.

また、撮影操作用タッチパネル20L,20Rに代えて、落書きのためのGUI表示手段として機能する編集操作用タッチパネル400(第2および第3の表示・操作部81,82)または印刷の際の入力受付手段として機能する出力操作用タッチパネル30(第4の表示・操作部91)が2つの画面に分かれており、そのそれぞれにおいて、利用者の像を補正するためのパラメータ(などの利用者に関連する情報)をそれぞれ受け付ける構成であってもよい。   Further, instead of the shooting operation touch panels 20L and 20R, an editing operation touch panel 400 (second and third display / operation units 81 and 82) functioning as a GUI display means for graffiti or input reception at the time of printing. The output operation touch panel 30 (fourth display / operation unit 91) functioning as a means is divided into two screens, each of which is associated with a parameter (such as a parameter for correcting the user's image). (Information) may be received.

<5.効果>
以上のように上記実施形態または上記変形例(以下、単に「本実施形態」という)の遊戯用撮影装置は、撮影操作用タッチパネル20L,20Rにおけるそれぞれの操作画面で、受け付けられる(ここでは補正態様の決定などの)操作入力と、顔認識されることにより識別される複数の利用者の顔の像とを関連付けるので、例えば画像処理の態様を指定する操作入力を撮影画像毎に行うことなく、限られた時間内に簡単に対象となる複数の利用者の顔の像と操作入力との関連付けを利用する(ここでは画像の補正を行う)ことにより、各利用者の意図を各撮影画像に対して反映させることができる。
<5. Effect>
As described above, the game shooting device of the embodiment or the modified example (hereinafter simply referred to as “this embodiment”) is received on the respective operation screens on the shooting operation touch panels 20L and 20R (here, the correction mode). The operation input (such as determination) is associated with the face images of a plurality of users identified by face recognition, for example, without performing an operation input for specifying an image processing mode for each captured image. By using the association between the facial images of multiple users and operation inputs that are easily targeted within a limited time (in this case, correcting the image), the intention of each user is assigned to each captured image. It can be reflected.

また、本実施形態によれば、図9に示すステップS125において、全員撮影画像に対して顔認識処理を行うことにより各利用者の顔の特徴量を算出し、その後に取得される撮影画像に含まれる同一または近似する特徴を示す量を有する利用者の顔の像に対して、関連付けられた補正態様で変更がそれぞれ行われるように、図15に示すステップS162において、補正対象となる利用者の像における特徴量を算出する。このように顔の特徴量に基づき、限られた時間内に(したがって素早く)簡単に補正対象となる複数の利用者と補正内容とを関連付けた補正を行うことができる。   Further, according to the present embodiment, in step S125 shown in FIG. 9, the face feature of each user is calculated by performing face recognition processing on the captured image, and the captured image obtained thereafter is calculated. In step S162 shown in FIG. 15, the user to be corrected is set so that the face image of the user having the amount indicating the same or similar feature is changed in the associated correction mode. The feature amount in the image is calculated. As described above, based on the feature amount of the face, it is possible to easily perform correction in which a plurality of users to be corrected are associated with correction contents within a limited time (and thus quickly).

さらに、本実施形態によれば、図9に示すステップS126において、撮影操作用タッチパネル20L,20Rにおけるそれぞれの操作画面に表示される利用者の像が利用者に選択され、ステップS127における補正態様の設定が行われる画面との対応付け処理が顔の特徴量に基づきなされるので(S128)、顔の特徴量に基づき補正対象となる利用者と補正内容とを関連付けた補正を素早く簡単に行うことができる。   Furthermore, according to the present embodiment, in step S126 shown in FIG. 9, the user's image displayed on the respective operation screens on the photographing operation touch panels 20L and 20R is selected by the user, and the correction mode in step S127 is changed. Since the process of associating with the screen on which the setting is performed is performed based on the feature amount of the face (S128), correction that associates the correction target user with the correction content based on the feature amount of the face is performed quickly and easily. Can do.

また、本実施形態によれば、図16または図17に示されるように、顔の特徴量と、全員撮影画像に含まれる各利用者の顔の像の位置とに基づき、利用者毎に補正内容と関連付けた補正を素早く簡単に行うことができる。   Further, according to the present embodiment, as shown in FIG. 16 or FIG. 17, correction is performed for each user based on the facial feature amount and the position of each user's face image included in the photographed image for all users. Corrections associated with the contents can be performed quickly and easily.

さらに、本実施形態によれば、クロマキー合成処理により、簡単に利用者の像を抽出することができるので、上記補正を簡単な構成で行うことができる。   Furthermore, according to the present embodiment, the image of the user can be easily extracted by the chroma key composition process, so that the correction can be performed with a simple configuration.

また、本実施形態の変形例によれば、撮影操作用タッチパネル20L,20Rのそれぞれにおいて、選択対象となる背景画像が共通的に表示され、最も早く受け付けられる操作入力により選択された画像を背景画像として確定する。そうすれば、素早く背景画像を決定することができ、また(競争のように)遊戯性を高めることもできる。   Further, according to the modification of the present embodiment, the background image to be selected is displayed in common on each of the photographing operation touch panels 20L and 20R, and the image selected by the operation input accepted earliest is the background image. Confirm as Then, the background image can be determined quickly, and playability can be improved (like competition).

さらに、本実施形態の変形例によれば、撮影操作用タッチパネル20L,20Rのそれぞれにおいて、選択対象となる背景画像が異なるように(すなわち選択対象が分担されるように)表示され、各利用者の選択が受け付けられる。そうすれば、作業が分担されることにより、素早く背景画像を決定することができる。   Furthermore, according to the modification of the present embodiment, the background images to be selected are displayed differently (that is, the selection targets are shared) on each of the photographing operation touch panels 20L and 20R, and each user is displayed. Selection is accepted. By doing so, the background image can be quickly determined by sharing the work.

また、本実施形態によれば、撮影操作用タッチパネル20L,20Rのように、表示装置が複数設けられることにより、複数の利用者による個別の操作入力を受け付けることができ、補正を素早く簡単に行うことができる。   Further, according to the present embodiment, by providing a plurality of display devices like the shooting operation touch panels 20L and 20R, it is possible to receive individual operation inputs from a plurality of users, and to perform correction quickly and easily. be able to.

さらに、本実施形態によれば、利用者と同数の画面が設けられることにより、全ての利用者による個別の操作入力を受け付けることができ、利用者の嗜好を反映した補正を素早く簡単に行うことができる。   Furthermore, according to the present embodiment, by providing the same number of screens as users, it is possible to accept individual operation inputs by all users, and to perform corrections reflecting user preferences quickly and easily. Can do.

<6.付記的構成>
なお、本実施形態において、
上記撮影手段は、上記複数の利用者全員の顔の像を含む全員撮影画像を取得し、
上記複数の入力受付手段は、上記複数の画面それぞれにおいて、上記全員撮影画像に含まれる一人以上の利用者の顔の像を各画面で異なるように指定する操作入力を受け付け、
上記画像処理手段は、上記複数の撮影画像に含まれる顔の像であって、上記操作入力により指定される利用者の顔の像と同一または近似する上記特徴を示す量を有する利用者の顔の像に対して、上記利用者の顔の像を指定する操作入力を受け付けた画面と同一の画面において受け付けられた操作入力によって指定された態様で、上記画像処理を行うことを特徴とする、遊戯用撮影装置の構成も考えられる。
<6. Additional Structure>
In this embodiment,
The photographing means acquires a photographed image including all the images of the faces of all the users,
The plurality of input accepting means accepts an operation input for designating a face image of one or more users included in the photographed image for all members to be different on each screen on each of the plurality of screens,
The image processing means is an image of a face included in the plurality of photographed images, and has a quantity indicating the feature that is the same as or similar to the image of the user's face specified by the operation input. The image processing is performed in a manner designated by the operation input accepted on the same screen as the screen accepting the operation input designating the user's face image. A configuration of an imaging device for play is also conceivable.

また、本実施形態において、
上記撮影手段は、上記複数の利用者全員の顔の像を含む全員撮影画像を取得し、
上記画像処理段は、上記特徴を示す量と、上記全員撮影画像に含まれる上記各利用者の顔の像の位置とに基づき、上記複数の画面のそれぞれに各画面で異なるように上記特徴を示す量を対応付けた後、上記複数の撮影画像に含まれる顔の像であって、上記対応付けられた特徴を示す量と同一または近似する上記特徴を示す量を有する利用者の顔の像に対して、上記特徴を示す量と対応付けられた画面と同一の画面において受け付けられた操作入力によって指定された態様で、上記画像処理を行うことを特徴とする、遊戯用撮影装置の構成も考えられる。
In this embodiment,
The photographing means acquires a photographed image including all the images of the faces of all the users,
The image processing stage is configured to change the characteristics so that each of the plurality of screens is different on each screen based on the amount indicating the characteristics and the position of the face image of each user included in the whole-person photographed image. After associating the indicated amounts, the images of the faces of the user included in the plurality of captured images and having the amount indicating the feature that is the same as or similar to the amount indicating the associated feature On the other hand, there is also a configuration of an imaging device for a game characterized in that the image processing is performed in a mode specified by an operation input received on the same screen as the screen associated with the amount indicating the feature. Conceivable.

さらに、本実施形態において、
上記複数の入力受付手段は、上記抽出手段により抽出される利用者の像に対して背景として合成されるべき背景画像を予め用意された複数の候補背景画像から選択する操作入力を、上記複数の画面それぞれにおいて受け付け、
上記表示手段は、前記操作入力を受け付け可能なように、上記複数の候補背景画像を上記複数の画面において共通的に表示し、
上記画像処理手段は、上記複数の画面のうち最も早く受け付けられる操作入力により選択される候補背景画像を上記背景画像として上記利用者の像に対して合成することを特徴とする、遊戯用撮影装置の構成も考えられる。
Furthermore, in this embodiment,
The plurality of input receiving means select an operation input for selecting a background image to be synthesized as a background with respect to the user image extracted by the extracting means from a plurality of candidate background images prepared in advance. Accepted on each screen,
The display means displays the plurality of candidate background images in common on the plurality of screens so that the operation input can be received,
The image processing means synthesizes a candidate background image selected by an operation input accepted earliest among the plurality of screens as the background image with the image of the user, The configuration of is also conceivable.

さらにまた、本実施形態において、
上記複数の入力受付手段は、上記抽出手段により抽出される利用者の像に対して背景として合成されるべき背景画像を予め用意された複数の候補背景画像から選択する操作入力であって、上記複数の画面それぞれにおいて異なる撮影画像に対して合成されるべき背景画像を選択する操作入力を受け付け、
上記表示手段は、前記操作入力を受け付け可能なように、上記複数の候補背景画像を上記複数の画面においてそれぞれ異なるように表示し、
上記画像処理手段は、上記複数の画面においてそれぞれ受け付けられる操作入力により選択される候補背景画像を上記背景画像として上記利用者の像に対して合成することを特徴とする、遊戯用撮影装置の構成も考えられる。
Furthermore, in this embodiment,
The plurality of input receiving means are operation inputs for selecting a background image to be synthesized as a background with respect to the user image extracted by the extracting means from a plurality of candidate background images prepared in advance, Accepting an operation input for selecting a background image to be combined with a different captured image on each of a plurality of screens,
The display means displays the plurality of candidate background images differently on the plurality of screens so that the operation input can be received,
The image processing means is configured to synthesize a candidate background image selected by an operation input received on each of the plurality of screens with the user image as the background image, Is also possible.

3…撮影ユニット
4…編集ユニット
5…出力ユニット
6…ネットワーク(LAN)
10…カメラ
20L,20R…撮影操作用タッチパネル
30…出力操作用タッチパネル
35…ネットワークプリンタ
31…赤外線ポート
32…スピーカ
70…第1の制御部
72…第1の表示・操作部(撮影操作用タッチパネル)
80…第2の制御部
81,82…第2および第3の表示・操作部(編集操作用タッチパネル)
91…第4の表示・操作部(出力操作用タッチパネル)
92…印刷出力部(ネットワークプリンタ)
94…非接触通信部(赤外線ポート)
201…リアルタイムプレビュー領域
207…補正態様決定ボタン
211…全員撮影画像
400…編集操作用タッチパネル
3 ... Shooting unit 4 ... Editing unit 5 ... Output unit 6 ... Network (LAN)
DESCRIPTION OF SYMBOLS 10 ... Camera 20L, 20R ... Touch panel for imaging operation 30 ... Touch panel for output operation 35 ... Network printer 31 ... Infrared port 32 ... Speaker 70 ... First control unit 72 ... First display / operation unit (touch panel for shooting operation)
80 ... second control unit 81, 82 ... second and third display / operation units (touch panel for editing operation)
91 ... Fourth display / operation unit (touch panel for output operation)
92 ... Print output section (network printer)
94 ... Non-contact communication part (infrared port)
201 ... Real-time preview area 207 ... Correction mode determination button 211 ... All-member photographed image 400 ... Touch panel for editing operation

そこで、本発明では、撮影画像に写る複数の利用者と操作入力のための複数の操作画面との対応関係を自動的に関連付けることができる遊戯用撮影装置、遊戯用撮影方法およびプログラムを提供することを目的とする。 Accordingly, the present invention provides a game shooting apparatus, a game shooting method, and a program capable of automatically associating correspondences between a plurality of users shown in a shot image and a plurality of operation screens for operation input. For the purpose.

本発明は、利用者を撮影する撮影手段と、左側に配置された第1の操作画面と右側に配置された第2の操作画面に撮影画像を表示する表示手段と、前記第1及び第2の操作画面に対して前記利用者が操作入力を行うための入力手段と、前記各手段を制御する制御手段と、を備えた遊戯用撮影装置に関するものである。
そして、本発明では、前記制御手段が、前記撮影画像に含まれる第1及び第2の利用者の像の左右の位置関係に基づいて、前記第1の利用者を前記第1の操作画面に関連付け、前記第2の利用者を前記第2の操作画面に関連付ける関連付け処理を実行する。
The present invention provides a photographing means for photographing a user, a display means for displaying a photographed image on a first operation screen arranged on the left side and a second operation screen arranged on the right side, and the first and second The present invention relates to a game photographing apparatus comprising input means for the user to input an operation to the operation screen, and control means for controlling the means.
And in this invention, the said control means makes the said 1st user into the said 1st operation screen based on the positional relationship of the right and left of the image of the 1st and 2nd user contained in the said picked-up image. An association process for associating and associating the second user with the second operation screen is executed.

このような本発明の構成によれば、制御手段が、上記の関連付け処理を実行するので、撮影画像に含まれる複数の利用者と操作入力のための複数の操作画面とを自動的に関連付けることができAccording to such a configuration of the present invention, since the control means executes the above association process, the plurality of users included in the photographed image and the plurality of operation screens for operation input are automatically associated with each other. It is Ru can.

本発明によれば、撮影画像に含まれる複数の利用者と操作入力のための複数の操作画面とを自動的に関連付けることができる、という効果を奏する。 According to the present invention, it is possible to automatically associate a plurality of users included in a captured image with a plurality of operation screens for operation input .

Claims (6)

撮影のための撮影空間における複数の利用者の撮影を行う撮影手段を備える遊戯用撮影装置であって、
前記撮影手段により取得される撮影画像を表示する表示手段と、
操作入力を受け付ける複数の入力受付手段と、
前記撮影手段により取得される撮影画像に含まれる前記複数の利用者の像をそれぞれ識別する認識手段と、
前記複数の入力受付手段と、前記認識手段により識別される前記複数の利用者の像とを関連づける関連付け手段と、
前記複数の入力受付手段のうちの1つ以上において受け付けられる操作入力に応じて、当該操作入力を受け付ける入力受付手段に関連付けられた前記利用者の像の表示態様を変化させる画像処理を前記撮影画像に対して行う画像処理手段と、を備える
ことを特徴とする遊戯用撮影装置。
An imaging device for games comprising a photographing means for photographing a plurality of users in a photographing space for photographing,
Display means for displaying a photographed image acquired by the photographing means;
A plurality of input receiving means for receiving operation inputs;
Recognizing means for identifying each of the plurality of user images included in the photographed image acquired by the photographing means;
Association means for associating the plurality of input receiving means with the images of the plurality of users identified by the recognition means;
In accordance with an operation input received by one or more of the plurality of input receiving means, image processing for changing a display mode of the user image associated with the input receiving means for receiving the operation input is performed on the captured image. And an image processing means for the game.
前記認識手段は、前記撮影手段により取得される画像に含まれる前記複数の利用者の顔の像をそれぞれ識別する顔認識手段であり、
前記関連付け手段は、前記複数の入力受付手段により受け付けられる操作入力と、前記複数の利用者の顔の像とを関連づけ、
前記表示手段は、異なる画像をそれぞれ表示可能な複数の画面であって、かつ前記関連付け手段によって関連づけられるべき操作入力をそれぞれ受け付け可能な複数の画面を有し、
前記画像処理手段は、前記複数の入力受付手段のうちの1つ以上において受け付けられる操作入力に応じて、当該操作入力を受け付ける入力受付手段に関連付けられた前記利用者の顔の像または当該顔の像に関連する撮影画像の部分の表示態様を変化させることを特徴とする、請求項1に記載の遊戯用撮影装置。
The recognizing means is a face recognizing means for identifying each of the plurality of user face images included in the image acquired by the photographing means;
The associating means associates operation inputs received by the plurality of input receiving means with images of the plurality of user faces,
The display means includes a plurality of screens capable of displaying different images, and a plurality of screens capable of receiving operation inputs to be associated by the association means,
In response to an operation input received in one or more of the plurality of input receiving units, the image processing unit is configured to receive an image of the user's face associated with the input receiving unit that receives the operation input or the face The game shooting device according to claim 1, wherein a display mode of a portion of the shot image related to the image is changed.
前記撮影手段は、複数回の撮影を行うことにより、複数の撮影画像を取得し、
前記顔認識手段は、前記撮影画像に含まれる顔の像に対応する前記各利用者の顔の特徴を示す量をそれぞれ算出し、
前記画像処理手段は、前記複数の撮影画像に含まれる同一または近似する前記特徴を示す量を有する利用者の顔の像または当該顔の像に関連する撮影画像の部分に対して、当該顔の像と関連付けられる操作入力によって指定される態様に基づく画像処理を行うことを特徴とする、請求項2に記載の遊戯用撮影装置。
The photographing means acquires a plurality of photographed images by performing photographing a plurality of times,
The face recognizing unit calculates an amount indicating the feature of each user's face corresponding to the face image included in the captured image;
The image processing means is configured to apply an image of the face to an image of a user's face having an amount indicating the same or similar feature included in the plurality of captured images or a portion of the captured image related to the face image. The game photographing apparatus according to claim 2, wherein image processing is performed based on an aspect specified by an operation input associated with an image.
前記複数の利用者の数に応じて、前記複数の入力受付手段の数を変更する入力制御手段をさらに備えることを特徴とする、請求項1から請求項3までのいずれか1項に記載の遊戯用撮影装置。   4. The apparatus according to claim 1, further comprising an input control unit that changes the number of the plurality of input receiving units according to the number of the plurality of users. 5. A shooting device for games. 遊戯用撮影方法であって、
撮像手段により撮影のための撮影空間における複数の利用者の撮影を行う撮影ステップと、
前記撮影ステップにより取得される撮影画像を表示手段に表示する表示ステップと、
複数の入力受付手段に対する操作入力を受け付ける入力ステップと、
前記撮影手段により取得される撮影画像に含まれる前記複数の利用者の像をそれぞれ識別する認識ステップと、
前記複数の入力受付手段と、前記認識ステップにより識別される前記複数の利用者の像とを関連づける関連付けステップと、
前記複数の入力受付手段のうちの1つ以上において受け付けられる操作入力に応じて、当該操作入力を受け付ける入力受付手段に関連付けられた前記利用者の像の表示態様を変化させる画像処理を前記撮影画像に対して行う画像処理ステップと、を有する
ことを特徴とする、遊戯用撮影方法。
A shooting method for play,
A shooting step of shooting a plurality of users in a shooting space for shooting by the imaging means;
A display step of displaying on the display means a photographed image acquired by the photographing step;
An input step for receiving operation inputs to a plurality of input receiving means;
A recognition step for identifying each of the plurality of user images included in the photographed image acquired by the photographing means;
An association step for associating the plurality of input receiving means with the images of the plurality of users identified by the recognition step;
In accordance with an operation input received by one or more of the plurality of input receiving means, image processing for changing a display mode of the user image associated with the input receiving means for receiving the operation input is performed on the captured image. And an image processing step for the game.
撮像手段により撮影のための撮影空間における複数の利用者の撮影を行う撮影ステップと、
前記撮影ステップにより取得される撮影画像を表示手段に表示する表示ステップと、
複数の入力受付手段に対する操作入力を受け付ける入力ステップと、
前記撮影手段により取得される撮影画像に含まれる前記複数の利用者の像をそれぞれ識別する認識ステップと、
前記複数の入力受付手段と、前記認識ステップにより識別される前記複数の利用者の像とを関連づける関連付けステップと、
前記複数の入力受付手段のうちの1つ以上において受け付けられる操作入力に応じて、当該操作入力を受け付ける入力受付手段に関連付けられた前記利用者の像の表示態様を変化させる画像処理を前記撮影画像に対して行う画像処理ステップと、をコンピュータに実行させることを特徴とする、プログラム。
A shooting step of shooting a plurality of users in a shooting space for shooting by the imaging means;
A display step of displaying on the display means a photographed image acquired by the photographing step;
An input step for receiving operation inputs to a plurality of input receiving means;
A recognition step for identifying each of the plurality of user images included in the photographed image acquired by the photographing means;
An association step for associating the plurality of input receiving means with the images of the plurality of users identified by the recognition step;
In accordance with an operation input received by one or more of the plurality of input receiving means, image processing for changing a display mode of the user image associated with the input receiving means for receiving the operation input is performed on the captured image. And a computer-executable image processing step.
JP2015119869A 2015-06-15 2015-06-15 Imaging apparatus for game, imaging method for game, and program Pending JP2015213336A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015119869A JP2015213336A (en) 2015-06-15 2015-06-15 Imaging apparatus for game, imaging method for game, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015119869A JP2015213336A (en) 2015-06-15 2015-06-15 Imaging apparatus for game, imaging method for game, and program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2012114559A Division JP2013243466A (en) 2012-05-18 2012-05-18 Imaging apparatus for game, imaging method for game, and program

Publications (1)

Publication Number Publication Date
JP2015213336A true JP2015213336A (en) 2015-11-26

Family

ID=54697334

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015119869A Pending JP2015213336A (en) 2015-06-15 2015-06-15 Imaging apparatus for game, imaging method for game, and program

Country Status (1)

Country Link
JP (1) JP2015213336A (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002077592A (en) * 2000-04-13 2002-03-15 Fuji Photo Film Co Ltd Image processing method
JP2007328546A (en) * 2006-06-07 2007-12-20 Furyu Kk Photographic image composer, control method of photography image composer, control program, and recording medium
JP2012037735A (en) * 2010-08-06 2012-02-23 Furyu Kk Image editing device, image editing method and program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002077592A (en) * 2000-04-13 2002-03-15 Fuji Photo Film Co Ltd Image processing method
JP2007328546A (en) * 2006-06-07 2007-12-20 Furyu Kk Photographic image composer, control method of photography image composer, control program, and recording medium
JP2012037735A (en) * 2010-08-06 2012-02-23 Furyu Kk Image editing device, image editing method and program

Similar Documents

Publication Publication Date Title
JP5782873B2 (en) Game shooting device, game shooting method and program
JP6206707B2 (en) Imaging apparatus and display control method
JP2013243466A (en) Imaging apparatus for game, imaging method for game, and program
JP2012169987A (en) Automatic photograph making device
JP5632104B2 (en) Game shooting device, processing method and program for game shooting device
JP2018029343A (en) Image processing apparatus, image processing method, and program
JP6156559B2 (en) Game shooting device, game shooting method, and program
JP6614386B2 (en) Image processing apparatus, image processing method, and program
JP5967275B2 (en) Photographic game machine, its control method and control computer
JP4720602B2 (en) PHOTOGRAPHIC PRINTING DEVICE, PHOTOGRAPHIC PRINTING DEVICE CONTROL METHOD, CONTROL PROGRAM, AND RECORDING MEDIUM
JP6090369B2 (en) Game shooting device, game shooting method and program
JP5527460B2 (en) Game shooting device, game shooting method and computer program
JP2012199743A (en) Automatic photograph making apparatus
JP6245529B2 (en) Game shooting device, game shooting method and program
JP5967283B2 (en) Photo shooting game machine, its control method and control program
JP5895394B2 (en) Game shooting device, game shooting method, and game shooting program
JP6614374B2 (en) Photography game machine, control method and program
JP5790034B2 (en) Automatic photo creation device
JP2017173848A (en) Imaging apparatus for game, imaging method for game, and program
JP5660243B2 (en) Game shooting device, game shooting method and computer program
JP5790896B2 (en) Game shooting device, game shooting method, and game shooting program
JP2015213336A (en) Imaging apparatus for game, imaging method for game, and program
JP5887752B2 (en) Photography game device, photography game method, and photography game program
JP5983717B2 (en) Imaging apparatus, imaging method, and program thereof
JP2018106678A (en) Sticker making game machine and image processing method

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150929

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20160216

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160516

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20160623

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20160805