JP6614386B2 - Image processing apparatus, image processing method, and program - Google Patents
Image processing apparatus, image processing method, and program Download PDFInfo
- Publication number
- JP6614386B2 JP6614386B2 JP2019083734A JP2019083734A JP6614386B2 JP 6614386 B2 JP6614386 B2 JP 6614386B2 JP 2019083734 A JP2019083734 A JP 2019083734A JP 2019083734 A JP2019083734 A JP 2019083734A JP 6614386 B2 JP6614386 B2 JP 6614386B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- correction
- user
- shooting
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012545 processing Methods 0.000 title claims description 38
- 238000003672 processing method Methods 0.000 title description 4
- 238000012937 correction Methods 0.000 claims description 134
- 238000000034 method Methods 0.000 claims description 104
- 238000003384 imaging method Methods 0.000 claims description 24
- 239000002131 composite material Substances 0.000 description 38
- 238000004891 communication Methods 0.000 description 17
- 230000006870 function Effects 0.000 description 12
- 238000001514 detection method Methods 0.000 description 11
- 238000010586 diagram Methods 0.000 description 11
- 239000000203 mixture Substances 0.000 description 10
- 238000003825 pressing Methods 0.000 description 9
- 238000003860 storage Methods 0.000 description 7
- 230000000694 effects Effects 0.000 description 5
- 239000000463 material Substances 0.000 description 5
- 238000012986 modification Methods 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 238000005286 illumination Methods 0.000 description 3
- 238000003780 insertion Methods 0.000 description 3
- 230000037431 insertion Effects 0.000 description 3
- 238000004519 manufacturing process Methods 0.000 description 3
- 240000007320 Pinus strobus Species 0.000 description 2
- 208000029152 Small face Diseases 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000002194 synthesizing effect Effects 0.000 description 2
- 239000003086 colorant Substances 0.000 description 1
- 238000003702 image correction Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000002715 modification method Methods 0.000 description 1
- 238000012567 pattern recognition method Methods 0.000 description 1
- 210000001747 pupil Anatomy 0.000 description 1
Landscapes
- Cameras Adapted For Combination With Other Photographic Or Optical Apparatuses (AREA)
- Studio Devices (AREA)
Description
本発明は、自動写真作成装置、自動写真作成方法およびプログラムに関し、さらに詳しくは、利用者をカメラで撮影し、その撮影画像に基づき生成される合成画像を写真等として出力する自動写真作成装置、自動写真作成方法およびプログラムに関する。 The present invention relates to an automatic photo creation device, an automatic photo creation method, and a program, and more specifically, an automatic photo creation device that takes a user with a camera and outputs a composite image generated based on the taken image as a photograph, The present invention relates to an automatic photo creation method and program.
従来、利用者をカメラで撮影し、その撮影画像を写真シールや写真カード等として出力する遊戯用写真作成装置が知られている。このような遊戯用写真作成装置は、遊戯性または娯楽性が高いことから、撮影画像と合成すべき画像を、利用者の嗜好に応じて、予め用意された多種多様な背景画像および前景画像から選択したり、タッチペンを用いて利用者が自由に描いたりできるように構成されているものが多い。利用者によるこのような操作は、撮影画像に対してなされるため、「落書き」と呼ばれる。 2. Description of the Related Art Conventionally, there is known a photo creation device for a game in which a user is photographed with a camera and the photographed image is output as a photo sticker or a photo card. Such a play photo creation device is highly playable or entertaining, and therefore, an image to be combined with a photographed image is prepared from a variety of background images and foreground images prepared in advance according to the user's preference. Many are configured so that a user can select or draw freely using a touch pen. Since such an operation by the user is performed on the photographed image, it is called “graffiti”.
また、このような遊戯用写真作成装置において落書き対象となる撮影画像は、通常複数回の撮影により得られる複数枚(例えば6枚)の中から、さらに複数枚(例えば4枚)が選択されることが多い。このような撮影画像に対しては、落書きが行われる前に(または落書き中に)予め定められた態様の補正が行われることが多い。例えば、撮影画像に含まれる利用者の像の一部の色(例えば肌や目の色)を変更したり、当該像の一部の形(例えば目や顔の形)を変更したりする補正が行われることがある。例えば、特開2010−50501号公報には、利用者の指示に基づくことなく自動的に撮影画像における利用者の顔の輪郭を小さくする小顔処理が行われる構成が記載されている。 In addition, a plurality of images (for example, 4 images) are selected from among a plurality of images (for example, 6 images) that are usually obtained by a plurality of times of shooting, as the captured images in such a game photo creation device. There are many cases. Such a photographed image is often corrected in a predetermined manner before (or during) the graffiti. For example, correction that changes a part of a user's image color (for example, skin or eye color) included in a photographed image, or changes a part of the image (for example, eye or face shape). May be performed. For example, Japanese Patent Application Laid-Open No. 2010-50501 describes a configuration in which small face processing is automatically performed to reduce the contour of a user's face in a captured image without being based on the user's instruction.
ここで、上記特開2010−50501号公報に記載されている小顔処理のように利用者の指示を受け付けることなく行うことが可能な補正処理もあるが、例えば肌や目の色など、利用者の像に対する補正の内容によっては、利用者の指示を受け付けることによりその嗜好に応じた補正を行うことが適切な場合がある。この場合には、補正の内容や程度を利用者が選択可能なように表示し、利用者による選択操作を受け付けることになる。 Here, there is a correction process that can be performed without accepting a user's instruction, such as the small face process described in Japanese Patent Application Laid-Open No. 2010-50501. Depending on the content of the correction on the person's image, it may be appropriate to perform correction according to the preference by accepting the user's instruction. In this case, the contents and degree of correction are displayed so that the user can select them, and a selection operation by the user is accepted.
しかし、遊戯用写真作成装置では、利用者のプレイ時間(撮影から落書きを経て写真出力するまでの時間)に制限を設けることが多い。そのため、上記補正内容等の選択操作は、利用者にとって直感的に素早くできることが好ましく、かつ限られた撮影時間内にできるだけ多くの写真を撮影できることが好ましい。 However, in the photo creation device for games, there is often a restriction on the user's play time (time from shooting to graffiti photo output). For this reason, it is preferable that the selection operation of the correction content and the like can be performed intuitively and quickly for the user, and it is preferable that as many photographs as possible can be taken within a limited shooting time.
そこで、本発明では、限られた時間内に多くの撮影画像を取得することができ、かつ利用者が撮影画像に対する補正を直感的に素早く行うことができる自動写真作成装置、自動写真作成方法およびプログラムを提供することを目的とする。 Therefore, in the present invention, an automatic photo creation device, an automatic photo creation method, and an automatic photo creation method capable of acquiring many captured images within a limited time and allowing a user to intuitively and quickly correct a captured image. The purpose is to provide a program.
本発明の或る局面は、利用者の撮影を行い、撮影により取得される撮影画像を含む合成画像を写真として出力し、利用者による操作入力を受け付け、画像を表示するものである。
撮影により一回目の撮影画像を取得した後、当該一回目の撮影画像に含まれる利用者の像の少なくとも一部における色または形状の少なくとも一方の変更を行うためのパラメータの値に対する予め定められた複数の候補値それぞれに基づき変更が行われた複数の撮影画像を表示するとともに、複数の候補値から1つを選択しパラメータの値とする操作入力を受け付け、全てのパラメータの値が確定された後、撮影により二回目以降に取得される撮影画像に対して、確定された全てのパラメータの値に応じて変更を行う。そして、確定された全てのパラメータの値に応じて変更が行われた撮影画像を1つ以上含む1つ以上の合成画像を出力する。
According to one aspect of the present invention, a user is photographed, a composite image including a photographed image acquired by photographing is output as a photograph, an operation input by the user is received, and the image is displayed.
After acquiring the first shot image by shooting, a predetermined parameter value for changing at least one of the color or shape of at least a part of the user image included in the first shot image is predetermined. A plurality of captured images that have been changed based on each of a plurality of candidate values are displayed, and an operation input that selects one of the plurality of candidate values and uses it as a parameter value is accepted, and the values of all the parameters are confirmed. Thereafter, the captured image acquired for the second time or later by photographing is changed according to all the determined parameter values. Then, one or more composite images including one or more photographed images that have been changed according to all the determined parameter values are output.
また本発明の他の局面は、利用者の撮影を行い、撮影により取得される撮影画像を含む合成画像を写真として出力し、利用者による操作入力を受け付け、画像を表示するものである。
撮影により一回目の撮影画像を取得した後、当該一回目の撮影画像に含まれる利用者の像の少なくとも一部における色または形状の少なくとも一方の変更を行うためのパラメータの値を設定する操作入力を受け付け、パラメータの値に応じて一回目の撮影画像に対して変更を行うとともに、変更が行われた一回目の撮影画像を表示し、全てのパラメータの値が確定された後、撮影により二回目以降に取得される撮影画像に対して、確定された全てのパラメータの値に応じて変更を行う。そして、確定された全てのパラメータの値に応じて変更が行われた撮影画像を1つ以上含む1つ以上の合成画像を出力する。
In another aspect of the present invention, a user is photographed, a composite image including a photographed image acquired by photographing is output as a photograph, an operation input by the user is received, and the image is displayed.
An operation input for setting a parameter value for changing at least one of color and shape in at least a part of the user image included in the first captured image after acquiring the first captured image by shooting The first shot image is changed according to the parameter value, and the changed first shot image is displayed. After all the parameter values are determined, The captured image acquired after the first time is changed according to the values of all parameters that have been determined. Then, one or more composite images including one or more photographed images that have been changed according to all the determined parameter values are output.
上記本発明の或る局面によれば、一回目の撮影画像に含まれる利用者の像の変更を行うためのパラメータの値に対する予め定められた複数の候補値それぞれに基づき変更が行われた複数の撮影画像を表示するとともに、複数の候補値から1つを選択しパラメータの値とする操作入力を受け付け、一回目の撮影画像に対して確定されたパラメータの値に応じて変更を行い、撮影により二回目以降に取得される撮影画像に対して、確定されたパラメータの値に応じて変更を行うので、全体として限られた時間内に取得される撮影画像を多くすることができ、かつあらかじめ定められた複数の候補値に応じた態様で補正された補正撮影画像が表示されるので、利用者が撮影画像に対する補正を直感的に(したがって素早く)行うことができる。 According to one aspect of the present invention, a plurality of changes made based on a plurality of predetermined candidate values for parameter values for changing the user image included in the first captured image. In addition to displaying a photographed image, an operation input for selecting one of a plurality of candidate values as a parameter value is received, and a change is made according to the parameter value determined for the first photographed image. Since the change is made in accordance with the determined parameter value for the captured images acquired after the second time, the number of captured images acquired in a limited time as a whole can be increased, and in advance Since the corrected captured image corrected in a manner corresponding to the plurality of determined candidate values is displayed, the user can intuitively (and quickly) correct the captured image.
上記本発明の他の局面によれば、一回目の撮影画像に含まれる利用者の像の変更を行うためのパラメータの値を設定する操作入力を受け付け、パラメータの値に応じて一回目の撮影画像に対して変更を行うとともに表示し、撮影により二回目以降に取得される撮影画像に対して、確定されたパラメータの値に応じて変更を行うので、全体として限られた時間内に取得される撮影画像を多くすることができ、かつ利用者が設定した態様で補正された補正撮影画像が表示されるので、利用者が撮影画像に対する補正を直感的に(したがって素早く)行うことができる。 According to another aspect of the present invention, an operation input for setting a parameter value for changing a user image included in a first captured image is received, and a first capturing operation is performed according to the parameter value. Changes are made to the image and displayed, and changes are made in accordance with the determined parameter values for the captured images acquired after the second shooting, so that they are acquired within a limited time as a whole. Since the number of captured images can be increased, and the corrected captured image corrected in a manner set by the user is displayed, the user can intuitively (and quickly) correct the captured image.
以下、添付図面を参照しつつ本発明の一実施形態について説明する。
<1. 全体構成>
図1は、本発明の一実施形態に係る自動写真作成装置である遊戯用写真作成装置の外観を示す図である。より詳細には、図1(a)は、この遊戯用写真作成装置を横から見た外観側面図であり、図1(b)は、上から見た外観平面図である。この遊戯用写真作成装置は、利用者が入る撮影室2と、利用者を撮影して撮影画像を取得する撮影ユニット3と、撮影画像に対する利用者による落書き(描画操作)を含む編集操作を受け付け、当該撮影画像に合成した合成画像を生成する編集ユニット4と、合成画像を出力する出力ユニット5とを備えている。図2は、撮影ユニット3の正面図であり、図3は、編集ユニット4の正面図であり、図4は、出力ユニット5の正面図である。以下、図1から図4を参照しつつ、本実施形態に係る遊戯用写真作成装置の全体構成について説明する。
Hereinafter, an embodiment of the present invention will be described with reference to the accompanying drawings.
<1. Overall configuration>
FIG. 1 is a diagram showing an appearance of a game photo creation device that is an automatic photo creation device according to an embodiment of the present invention. More specifically, FIG. 1 (a) is an external side view of the play photo creation apparatus as viewed from the side, and FIG. 1 (b) is an external plan view as viewed from above. This play photo creation apparatus accepts an editing operation including a shooting room 2 in which a user enters, a shooting unit 3 for shooting a user to obtain a shot image, and a graffiti (drawing operation) by the user for the shot image. The editing unit 4 generates a composite image combined with the captured image, and the output unit 5 outputs the composite image. FIG. 2 is a front view of the photographing unit 3, FIG. 3 is a front view of the editing unit 4, and FIG. 4 is a front view of the output unit 5. Hereinafter, the overall configuration of the game photo creation device according to the present embodiment will be described with reference to FIGS. 1 to 4.
撮影室2は、略直方体形状であって、撮影ユニット3は、内部に入る利用者から見て前の面である撮影室2の前面に沿って配置されている。なお、撮影室2の左右両側面の一部には、それぞれ利用者が出入りするための開口部と、当該開口部の一部または全部を覆う遮光カーテンとが設けられている。また、撮影室2の内部に入る利用者から見て後ろの面である背面にはクロマキー合成処理のための単一の色(ここでは青色または緑色)が付されている。なお、これらの色は、例えば、撮影ユニット3の撮影範囲に含まれる床面等にも付されていてもよい。 The photographing room 2 has a substantially rectangular parallelepiped shape, and the photographing unit 3 is arranged along the front surface of the photographing room 2 which is a front surface when viewed from the user entering the inside. Note that an opening for a user to enter and exit, and a light-shielding curtain that covers a part or all of the opening are provided on a part of each of the left and right side surfaces of the photographing room 2. In addition, a single color (in this case, blue or green) for chroma key composition processing is attached to the rear surface, which is the rear surface as viewed from the user who enters the photographing room 2. In addition, these colors may be attached | subjected also to the floor surface etc. which are included in the imaging | photography range of the imaging | photography unit 3, for example.
撮影ユニット3は、利用者を撮影する撮像手段としてのカメラ10と、当該カメラ10の上下左右の位置に配置され閃光を発するストロボ11,12,13L,13R,14と、当該カメラ10の下方に配置され利用者からの操作の受け付けや撮影画像の表示等を行う撮影操作用タッチパネル20とを備えている。 The photographing unit 3 includes a camera 10 as an imaging unit for photographing a user, strobes 11, 12, 13 L, 13 R, and 14 that are arranged at the top, bottom, left and right positions of the camera 10 and emit flash light, and below the camera 10. It is provided with a shooting operation touch panel 20 that is arranged and receives operations from a user, displays shot images, and the like.
カメラ10は、典型的には、CCD(電荷結合素子)を利用してデジタル画像信号を生成するデジタルカメラであって、利用者を撮影し、その撮影画像を表す画像信号を出力する。ストロボ11〜14は、撮影のための充分な光を得るために利用者に向かって閃光を発する。撮影操作用タッチパネル20は、撮影の際に利用者による各種操作を受け付けるための操作画面を提供するとともに、上記画像信号に基づく画像をリアルタイムで表示するように構成されている。 The camera 10 is typically a digital camera that generates a digital image signal using a CCD (Charge Coupled Device), captures a user, and outputs an image signal representing the captured image. The flashes 11 to 14 emit a flash toward the user in order to obtain sufficient light for photographing. The shooting operation touch panel 20 is configured to provide an operation screen for accepting various operations by the user during shooting, and to display an image based on the image signal in real time.
図5は、撮影操作用タッチパネル20の表示構成を示す模式図である。図5に示すように、撮影時点において、撮影操作用タッチパネル20には、リアルタイムで撮影画像を表示するためのリアルタイムプレビュー領域201と、ポーズの見本を表示するためのポーズ見本表示領域202と、撮影によって既に得られた落書き対象画像を表示するための落書き対象画像表示領域203とが表示されている。なお、リアルタイムプレビュー領域201には、撮影画像に対してリアルタイムでクロマキー合成された背景画像が合わせて表示される。 FIG. 5 is a schematic diagram showing a display configuration of the touch panel 20 for shooting operation. As shown in FIG. 5, at the time of shooting, the shooting operation touch panel 20 has a real-time preview area 201 for displaying a shot image in real time, a pose sample display area 202 for displaying a pose sample, and a shooting. The graffiti target image display area 203 for displaying the graffiti target image already obtained by the above is displayed. In the real-time preview area 201, a background image that is chroma key-combined in real time with the captured image is displayed together.
また撮影ユニット3は、編集ユニット4内に内蔵されるコンピュータを中心とした構成要素、すなわち各部の制御等を行う制御装置、I/O制御装置、および他のコンピュータと通信を行うためのネットワークアダプタ等によって制御されている。また、撮影ユニット3は、前面下方にコイン投入口26を備えている。 The photographing unit 3 includes components built in the editing unit 4 such as a computer, that is, a control device that controls each unit, an I / O control device, and a network adapter that communicates with other computers. It is controlled by etc. The photographing unit 3 includes a coin insertion slot 26 at the lower front side.
編集ユニット4は、撮影ユニット3を制御するコンピュータとは異なるコンピュータによって制御されている。また、編集ユニット4は、図1(b)に示すように、2組の利用者がプレイ可能なように2つのユニット4a、4bに分かれている。そのうちの一方のユニット4aには、落書き領域や落書きのためのメニュー、ツール等を表示する領域を含みGUI(Graphical User Interface)表示手段として機能する編集操作用タッチパネル400と、当該編集操作用タッチパネル400に対する操作に使用されるポインティングデバイスとしてのタッチペン49L、49Rとが設けられている。なお、他方のユニット4bについても同様の構成となっている。ここで図1(a)において手前に見えるユニット4aを「落書きブースA」と呼び、その反対側(図では裏側)のユニット4bを「落書きブースB」と呼ぶ。 The editing unit 4 is controlled by a computer different from the computer that controls the photographing unit 3. Further, as shown in FIG. 1B, the editing unit 4 is divided into two units 4a and 4b so that two sets of users can play. One of the units 4a includes an editing operation touch panel 400 that includes a graffiti area, an area for displaying a menu for graffiti, a tool, and the like and functions as a GUI (Graphical User Interface) display means, and the editing operation touch panel 400 Touch pens 49L and 49R are provided as pointing devices used for the operation of. The other unit 4b has the same configuration. Here, the unit 4a seen in the foreground in FIG. 1A is referred to as “graffiti booth A”, and the unit 4b on the opposite side (the back side in the figure) is referred to as “graffiti booth B”.
本実施形態における編集操作用タッチパネル400は、各ユニット4a、4bにおいてそれぞれ2人の利用者が同時に落書きを行えるような表示構成となっている。なお、本説明においては、左側の利用者が使用する構成要素には「L」を含む参照符号を付し、右側の利用者が使用する構成要素には「R」を含む参照符号を付している。もっとも、3人以上の利用者がこれらを適宜に使用してもよい。 The editing operation touch panel 400 according to the present embodiment has a display configuration in which two users can perform graffiti at the same time in each of the units 4a and 4b. In this description, components used by the user on the left side are given reference signs including “L”, and components used by the user on the right side are assigned reference signs including “R”. ing. But 3 or more users may use these suitably.
また、本実施形態における編集操作用タッチパネル400は、複数のタッチペン49L、49Rによる操作位置を同時に検出可能に構成されており、かつ、検出される各操作位置が、タッチペン49L、49Rのうちのいずれの操作に対応するのかも検出可能となっている。例えば、編集操作用タッチパネル400として静電容量方式のタッチパネルを使用した場合には、このような複数の操作位置の同時検出と操作されたタッチペンの識別とが可能である。 In addition, the editing operation touch panel 400 according to the present embodiment is configured to be able to simultaneously detect the operation positions of the plurality of touch pens 49L and 49R, and each of the detected operation positions is any of the touch pens 49L and 49R. It is also possible to detect whether it corresponds to the above operation. For example, when a capacitive touch panel is used as the editing operation touch panel 400, simultaneous detection of such a plurality of operation positions and identification of the operated touch pen are possible.
出力ユニット5は、図4に示すように、典型的には前面下方に、編集ユニット4で編集操作が行われた合成画像を印刷した写真シールや写真カード等を取り出す取出口33を備えている。また、出力ユニット5は、例えば携帯電話端末に内蔵される赤外線ポートにより、例えばデコメール(登録商標)画像等の素材画像や撮影画像に落書きをした合成画像などを利用者の携帯電話端末に転送する際に利用者によって操作される出力操作用タッチパネル30と、出力操作用タッチパネル30の下方に配置され上記素材画像等を赤外線信号として携帯電話端末に向けて直接送信するための赤外線ポート(非接触通信ポート)31と、上記通信の際に必要な操作方法や効果音などを音声によって利用者に知らせるスピーカ32とを備えている。なおこの構成は一例であってこれらの要素の一部または全部を備えない場合もある。 As shown in FIG. 4, the output unit 5 is typically provided with a take-out port 33 for taking out a photo sticker, a photo card, or the like on which a composite image that has been edited by the editing unit 4 is printed. . Further, the output unit 5 transfers, for example, a material image such as a Deco-mail (registered trademark) image or a composite image obtained by grabbing a photographed image to the user's mobile phone terminal, for example, by an infrared port built in the mobile phone terminal Output operation touch panel 30 that is operated by the user, and an infrared port (non-contact) that is arranged below the output operation touch panel 30 and directly transmits the material image or the like as an infrared signal to the mobile phone terminal. (Communication port) 31 and a speaker 32 for notifying the user by voice of operation methods and sound effects necessary for the communication. This configuration is an example, and some or all of these elements may not be provided.
出力操作用タッチパネル30は、利用者が合成画像を印刷された写真シール等だけでなく携帯電話端末においても見たい場合に、上記素材画像等を上記非接触通信機能を備えた携帯電話端末に送信するのに必要な各種操作を受け付けるための操作画面を提供するように構成されている。なお、当該操作は主に合成画像の写真シール等が印刷されるまでの時間を利用して行われるので、利用者は写真シール等が印刷されるまでの時間を持て余すことなく有効に利用することができる。また、出力ユニット5に出力操作用タッチパネル30を設けずに、当該操作を編集ユニット4の編集操作用タッチパネル400で行うようにすることもできる。 The output operation touch panel 30 transmits the material image or the like to the mobile phone terminal having the non-contact communication function when the user wants to view the composite image not only on the photo sticker on which the composite image is printed but also on the mobile phone terminal. It is configured to provide an operation screen for accepting various operations necessary for the operation. This operation is mainly performed using the time until the photo sticker of the composite image is printed. Therefore, the user should use the time effectively until the photo sticker etc. is printed. Can do. Further, without providing the output operation touch panel 30 in the output unit 5, it is possible to perform the operation on the editing operation touch panel 400 of the editing unit 4.
また出力ユニット5は、携帯電話端末装置55を内蔵しており、利用者によって使用される携帯電話端末によってサーバから当該合成画像をダウンロードできるよう、撮影画像を含む合成画像を画像データとして典型的には第3世代型携帯電話(3G)方式の無線通信方式で近傍の無線基地へ送信し、この画像データは当該無線基地局からインターネットを介して図示されない画像サーバに与えられ蓄積される。 The output unit 5 has a built-in mobile phone terminal device 55, and a composite image including a photographed image is typically used as image data so that the composite image can be downloaded from a server by a mobile phone terminal used by a user. Is transmitted to a nearby wireless base by a third-generation mobile phone (3G) wireless communication system, and this image data is given from the wireless base station to an image server (not shown) via the Internet and stored.
このような出力ユニット5も、撮影ユニット3を制御するコンピュータを中心に構成され各部の制御等を行う制御装置および他のコンピュータと通信を行うためのネットワークアダプタ等によって制御されているほか、合成画像を写真シール等として印刷するネットワークプリンタ35を備えている。 Such an output unit 5 is also controlled by a control device configured mainly for a computer that controls the photographing unit 3 and controlling each part, a network adapter for communicating with other computers, and the like, and a composite image. Is provided as a photo sticker.
以上のような構成において、利用者は、撮影室2において撮影を行った後、編集ユニット4の落書きブースAまたは落書きブースBの編集操作用タッチパネル400を使用することにより、撮影画像に基づいて生成された落書き対象画像に対して落書きを行う。そして、利用者は、落書きによって生成された合成画像をネットワークプリンタによって印刷したり、赤外線通信機能を有する携帯電話端末に画像を送信し、携帯電話端末で受信した画像を端末画面に表示させたりする。 In the configuration as described above, after shooting in the shooting room 2, the user uses the graffiti booth A of the editing unit 4 or the touch panel 400 for the editing operation of the graffiti booth B to generate based on the shot image. Graffiti is performed on the graffiti target image. Then, the user prints the composite image generated by the graffiti by the network printer, transmits the image to the mobile phone terminal having the infrared communication function, and displays the image received by the mobile phone terminal on the terminal screen. .
<2. 機能的構成>
図6は、本実施形態に係る遊戯用写真作成装置の要部を機能面から見た構成を示すブロック図である。この図6に示す遊戯用写真作成装置は、機能的には、落書き対象画像に対する利用者の落書き操作に応じて当該落書き対象画像の編集処理を行う編集処理部8と、主として利用者を撮影する処理(撮影処理)を行うとともに、編集処理が行われた落書き対象画像を写真シール等として出力したり、作成された素材画像等を非接触通信を利用して携帯電話端末に出力したりする処理(出力処理)を行う撮影出力処理部7とから構成されている。
<2. Functional configuration>
FIG. 6 is a block diagram showing the configuration of the main part of the play photo creating apparatus according to the present embodiment as seen from the functional aspect. The game photo creation device shown in FIG. 6 is functionally photographed mainly by the editing processing unit 8 that performs editing processing of the graffiti target image in accordance with the user's graffiti operation on the graffiti target image, and the user. Processing (photographing processing), processing to output the edited graffiti target image as a photo sticker, etc., and outputting the created material image etc. to the mobile phone terminal using non-contact communication It is comprised from the imaging | photography output process part 7 which performs (output process).
撮影出力処理部7は、第1の制御部70と、撮像部71と、第1の表示・操作部72と、I/O制御部73と、照明部74と、第1の通信部75と、第4の表示・操作部91と、印刷出力部92と、音声出力部93と、非接触通信部94と、無線通信部96とによって構成されている。また、編集処理部8は、第2の制御部80と、第2の表示・操作部81と、第3の表示・操作部82と、第2の通信部85とによって構成されている。ネットワークアダプタである第1および第2の通信部75,85は、LAN(Local Area Network)であるネットワーク6を介してそれぞれ相互に通信可能となっている。 The imaging output processing unit 7 includes a first control unit 70, an imaging unit 71, a first display / operation unit 72, an I / O control unit 73, an illumination unit 74, and a first communication unit 75. The fourth display / operation unit 91, the print output unit 92, the audio output unit 93, the non-contact communication unit 94, and the wireless communication unit 96. The edit processing unit 8 includes a second control unit 80, a second display / operation unit 81, a third display / operation unit 82, and a second communication unit 85. The first and second communication units 75 and 85 that are network adapters can communicate with each other via a network 6 that is a LAN (Local Area Network).
撮像部71は、CCD等の撮像素子を用いて構成されるカメラ10に相当し、リアルタイムに画像を取り込んで当該画像(撮影画像)を表す画像信号を出力する。この画像信号は第1の制御部70に入力されて、その内部のメモリに撮影画像データとして一時的に記憶される。また、この撮影画像データは撮影画像信号として第1の制御部70から第1の表示・操作部72に供給され、当該撮影画像信号に基づく撮影画像がリアルタイムに表示される。なお実際には、撮影画像として保存される撮影画像データは高解像度の静止画データであり、リアルタイム表示を行うための撮影画像データ(「スルー画像データ」とも呼ばれる)は低解像度の動画データであるが、撮影対象は同一であるので、以下ではこれらを特に区別しないで説明することがある。 The imaging unit 71 corresponds to the camera 10 configured using an imaging element such as a CCD, and captures an image in real time and outputs an image signal representing the image (captured image). This image signal is input to the first control unit 70 and temporarily stored as photographed image data in its internal memory. The captured image data is supplied as a captured image signal from the first control unit 70 to the first display / operation unit 72, and a captured image based on the captured image signal is displayed in real time. Actually, the captured image data stored as the captured image is high-resolution still image data, and the captured image data (also referred to as “through image data”) for real-time display is low-resolution moving image data. However, since the photographing target is the same, the following description may be made without particularly distinguishing these.
第1の表示・操作部72は、撮影操作用タッチパネル20に相当し、撮影画像に付加されるべき背景画像(および前景画像)を選択する操作やシャッター操作等を受け付ける。これらの操作を示す信号は、操作信号として第1の制御部70に入力される。ここで、利用者を撮影するための(選択された撮影メニューに対応する)所定の処理が開始されると、第1の表示・操作部72に利用者のための案内が表示され、その後の第1の制御部70からの指示に基づき、数秒程度の予め決められた時間の経過後にカメラ10の撮影方向にストロボ11〜14から閃光が放たれる。そのとき、利用者の撮影画像を表す信号として撮像部71から出力される画像信号が第1の制御部70に入力され、第1の制御部70内のメモリまたは補助記憶装置としてのハードディスク装置等に撮影画像データとして格納される。 The first display / operation unit 72 corresponds to the shooting operation touch panel 20 and accepts an operation for selecting a background image (and foreground image) to be added to the shot image, a shutter operation, and the like. Signals indicating these operations are input to the first control unit 70 as operation signals. Here, when a predetermined process for photographing the user (corresponding to the selected photographing menu) is started, guidance for the user is displayed on the first display / operation unit 72, and thereafter Based on an instruction from the first control unit 70, a flash is emitted from the flashes 11 to 14 in the shooting direction of the camera 10 after a predetermined time of about several seconds. At that time, an image signal output from the imaging unit 71 as a signal representing a photographed image of the user is input to the first control unit 70, a memory in the first control unit 70, a hard disk device as an auxiliary storage device, or the like. Stored as captured image data.
照明部74は、カメラ10の上下左右の位置に配置されたストロボ11,12,13L,13R,14(図2参照)に相当し、第1の制御部70からの指示に基づきI/O制御部73によって点灯/消灯および調光が制御される。I/O制御部73は、撮影ユニット3に内蔵されるI/O制御装置に相当し、第1の制御部70からの指示に基づき、照明部74を制御する。また、後述のコイン検出部(不図示)からの検出信号等の入力信号を第1の制御部70へ転送する。第1の通信部75は、ネットワークアダプタに相当し、ネットワーク6を介したデータ送受信の際のインタフェースとして機能する。 The illumination unit 74 corresponds to the strobes 11, 12, 13 L, 13 R, and 14 (see FIG. 2) disposed at the top, bottom, left, and right positions of the camera 10, and performs I / O control based on instructions from the first control unit 70. Lighting / extinguishing and dimming are controlled by the unit 73. The I / O control unit 73 corresponds to an I / O control device built in the photographing unit 3, and controls the illumination unit 74 based on an instruction from the first control unit 70. Further, an input signal such as a detection signal from a coin detection unit (not shown) described later is transferred to the first control unit 70. The first communication unit 75 corresponds to a network adapter and functions as an interface for data transmission / reception via the network 6.
第1の制御部70は、編集ユニット4に内蔵され、CPU、メモリ、フレームバッファ、タイマー、補助記憶装置等を含むコンピュータを中心に構成される制御装置に相当し、内部メモリに格納された所定プログラムをCPUが実行することにより、上述のようにして入力される操作信号等に基づき各部を制御するために、上述のように各部に指示を出す。また撮影された画像に基づいて落書き対象画像を生成する。生成された落書き対象画像はフレームバッファに書き込まれることにより、第1の表示・操作部72に表示される。
さらに、第1の制御部70は、落書き対象画像に所定の背景画像や前景画像を描画した画像である合成画像を生成する。この落書き対象画像には、マスクの作成に使用されるキー色となる背景色が付されており、周知のクロマキー合成処理の手法に基づき、利用者の像のみを含む撮影画像部分を抽出し、当該撮影画像部分が背景画像中に嵌め込まれるように合成する。このように生成された合成画像はフレームバッファに書き込まれることにより第1の表示・操作部72に表示される。
The first control unit 70 is built in the editing unit 4 and corresponds to a control device mainly composed of a computer including a CPU, a memory, a frame buffer, a timer, an auxiliary storage device and the like, and is stored in a predetermined memory stored in an internal memory. When the CPU executes the program, an instruction is given to each unit as described above in order to control each unit based on the operation signal or the like input as described above. A graffiti target image is generated based on the photographed image. The generated graffiti target image is written in the frame buffer and displayed on the first display / operation unit 72.
Further, the first control unit 70 generates a composite image that is an image in which a predetermined background image or foreground image is drawn on the graffiti target image. This graffiti target image has a background color that is a key color used to create a mask, and based on a well-known chroma key composition processing method, a captured image portion including only a user image is extracted, The photographed image portion is synthesized so as to be fitted into the background image. The composite image generated in this way is displayed on the first display / operation unit 72 by being written in the frame buffer.
上記の構成要素の他、撮影ユニット3におけるコイン投入口26に投入されたコインを検出するためのコイン検出部(不図示)が更に撮影ユニット3に設けられており、第1の制御部70は、コイン検出部での検出結果に基づき、利用者に所定時間だけ撮影や背景画像および前景画像の選択や落書き等、本遊戯用写真作成装置によるプレイを許容するように各部を制御する。このコイン検出部による検出動作やその検出結果に基づく第1の制御部70による制御動作は、従来の遊戯用写真作成装置と同様であって周知であるので、その詳しい説明を省略する。 In addition to the above-described components, the photographing unit 3 is further provided with a coin detection unit (not shown) for detecting coins inserted into the coin insertion slot 26 in the photographing unit 3, and the first control unit 70 includes Based on the detection result of the coin detection unit, each unit is controlled so as to allow the user to play with the present photo creation device, such as shooting, selection of the background image and foreground image, and graffiti for a predetermined time. Since the detection operation by the coin detection unit and the control operation by the first control unit 70 based on the detection result are the same as those of the conventional game photo creation device and are well known, detailed description thereof will be omitted.
次に第2の制御部80は、第1の制御部70とは別に、編集ユニット4に内蔵され、CPU、メモリ、フレームバッファ、タイマー、および補助記憶装置等を含むコンピュータを中心に構成される制御装置に相当し、内部メモリに格納された所定プログラムをCPUが実行することにより、編集ユニット4において行われる編集処理に関する全体の制御を行う。すなわち第2の制御部80は、第2および第3の表示・操作部81,82を制御するGUI制御手段として機能する。また、第2の制御部80は、生成された落書き対象画像(撮影画像を含む画像)に対する落書き処理を行うための操作信号に基づき、その落書き対象画像に所定画像を描画した画像である合成画像を生成する。描画される所定画像としては、例えば、選択されたスタンプ画像や、タッチペンで描かれた線状の画像、選択された2以上のスタンプを所定の順で重ね合わせることにより生成した合成スタンプ画像等を利用することができる。 Next, the second control unit 80 is built in the editing unit 4 separately from the first control unit 70, and is configured around a computer including a CPU, a memory, a frame buffer, a timer, an auxiliary storage device, and the like. The CPU corresponds to a control device, and the CPU executes a predetermined program stored in the internal memory, thereby performing overall control relating to editing processing performed in the editing unit 4. That is, the second control unit 80 functions as a GUI control unit that controls the second and third display / operation units 81 and 82. In addition, the second control unit 80 is a composite image that is an image in which a predetermined image is drawn on the graffiti target image based on an operation signal for performing graffiti processing on the generated graffiti target image (an image including a captured image). Is generated. As the predetermined image to be drawn, for example, a selected stamp image, a linear image drawn with a touch pen, a composite stamp image generated by superimposing two or more selected stamps in a predetermined order, etc. Can be used.
このような合成画像の生成が終了すると、利用者による分割レイアウトの選択指示を受け付けられ、選択された分割レイアウトを示す情報および生成された合成画像は第1の制御部70に送られる。なお、印刷出力部92が別の合成画像を出力中である場合には、その旨が表示されるとともに終了を待って送られる。なお、これらの情報はネットワーク6を介して送受信される。 When the generation of such a composite image is completed, an instruction to select a divided layout from the user is accepted, and information indicating the selected divided layout and the generated composite image are sent to the first control unit 70. If the print output unit 92 is outputting another composite image, a message to that effect is displayed and sent after waiting for completion. These pieces of information are transmitted / received via the network 6.
第2および第3の表示・操作部81,82は、落書きのためのGUI表示手段として機能する編集操作用タッチパネル400に相当し、タッチペンを用いた利用者の操作を受け付ける。 The second and third display / operation units 81 and 82 correspond to an editing operation touch panel 400 that functions as a graffiti GUI display unit, and accepts a user's operation using a touch pen.
第2の通信部85は、ネットワークアダプタに相当し、ネットワーク6を介したデータ送受信の際のインタフェースとして機能する。 The second communication unit 85 corresponds to a network adapter and functions as an interface for data transmission / reception via the network 6.
また第1の制御部70は、上記の撮影処理のほか、出力処理に関する全体の制御を行う。第1の制御部70は、第2の制御部80から送られてきた合成画像を合成画像データとしてメモリに格納する。印刷出力部92は出力ユニットに内蔵されるネットワークプリンタ35に相当し、メモリに格納された合成画像データを(適宜にレイアウトした)写真シール(または写真カード)として印刷する。印刷された写真シール等は、出力ユニット5の正面下方に設けられた取出口33から取り出される。 The first control unit 70 performs overall control related to output processing in addition to the above-described shooting processing. The first control unit 70 stores the composite image sent from the second control unit 80 in the memory as composite image data. The print output unit 92 corresponds to the network printer 35 built in the output unit, and prints the composite image data stored in the memory as a photo sticker (or photo card) (which is appropriately laid out). The printed photo sticker or the like is taken out from an outlet 33 provided at the lower front of the output unit 5.
さらに第1の制御部70は、第2の制御部80から送られてきた分割レイアウト情報および合成画像に基づいて写真シール等の印刷処理を開始すると同時に、利用者の入力操作を受け付けるための後述する操作画面を第4の表示・操作部91に表示する。この第4の表示・操作部91は出力操作用タッチパネル30に相当し、入力手段として機能する。出力操作用タッチパネル30は、液晶ディスプレイまたはCRT(Cathode Ray Tube)等の表示手段として機能するモニタと、その上面に積層され、入力座標を認識することができる1人用のタッチパネルから構成される。モニタは複数の画面に分割された操作画面を表示することができ、タッチパネルは分割された複数の画面ごとに利用者のタッチペンを用いた入力操作を受け付け、受け付けた入力操作を操作信号として第1の制御部70に入力する。 Further, the first control unit 70 starts printing processing such as a photo sticker based on the divided layout information and the composite image sent from the second control unit 80, and at the same time receives a user input operation. The operation screen to be displayed is displayed on the fourth display / operation unit 91. The fourth display / operation unit 91 corresponds to the output operation touch panel 30 and functions as an input unit. The output operation touch panel 30 includes a monitor that functions as a display unit such as a liquid crystal display or a CRT (Cathode Ray Tube), and a touch panel for one person that is stacked on the upper surface and can recognize input coordinates. The monitor can display an operation screen divided into a plurality of screens, and the touch panel accepts an input operation using a user's touch pen for each of the plurality of divided screens, and the received input operation is a first as an operation signal. To the control unit 70.
無線通信部96は、出力ユニット5に内蔵される携帯電話端末装置55に相当し、携帯電話端末によって図示されない画像サーバ部から当該合成画像をダウンロードできるように、第1の制御部70により作成された合成画像のデータを3G方式の無線通信方式で無線基地部へ送信する。 The wireless communication unit 96 corresponds to the mobile phone terminal device 55 built in the output unit 5, and is created by the first control unit 70 so that the composite image can be downloaded from an image server unit (not shown) by the mobile phone terminal. The synthesized image data is transmitted to the wireless base unit by the 3G wireless communication method.
ここで、第1の制御部70は、落書きを終えてから操作を始めるまでの間、補助記憶装置に予め記憶されているデモ画像(デモンストレーション用の画像)をフレームバッファに書き込むことにより第4の表示・操作部91に表示する。また音声出力部93は、スピーカ32に相当する。音声出力部93は、第4の表示・操作部91に表示される操作画面と連動して入力操作方法を利用者に説明し、また第4の表示・操作部91にデモ画像が表示されているときにデモ画像に応じた楽曲等を流す。なお、入力操作方法の説明や楽曲等は補助記憶装置としてのハードディス装置等に予め格納されている。 Here, the first control unit 70 writes the demo image (demonstration image) stored in advance in the auxiliary storage device in the frame buffer from the end of the graffiti until the start of the operation, to the fourth buffer. Displayed on the display / operation unit 91. The audio output unit 93 corresponds to the speaker 32. The audio output unit 93 explains the input operation method to the user in conjunction with the operation screen displayed on the fourth display / operation unit 91, and the demo image is displayed on the fourth display / operation unit 91. When playing, play music etc. according to the demo image. The description of the input operation method, music, and the like are stored in advance in a hard disk device as an auxiliary storage device.
その後、第1の制御部70は、第4の表示・操作部91の表示や音声出力部93による音声や効果音等により合成画像の印刷が完了するまで後述するミニゲームを利用者に提供し続ける。このミニゲームの内容も同様にハードディスク装置等に予め格納されている。 Thereafter, the first control unit 70 provides the user with a mini-game to be described later until the composite image is printed by the display of the fourth display / operation unit 91 or the voice or sound effect of the voice output unit 93. to continue. The contents of this mini game are similarly stored in advance in a hard disk device or the like.
ここで、各制御装置において実行される上記所定プログラムは、例えば、そのプログラムを記録した記録媒体であるDVD−ROMによって提供される。すなわち、上記所定プログラムの記録媒体としてのDVD−ROMが補助記憶装置として制御装置内に内蔵されたDVD−ROM駆動装置に装着され、そのDVD−ROMから所定プログラムが読み出されて補助記憶装置としてのハードディスク装置にインストールされる。また、上記所定プログラムは、DVD−ROM以外の記録媒体(CD−ROM等)や通信回線を介して提供されてもよい。そして、本遊戯用写真作成装置の起動のための操作がなされると、ハードディスク装置にインストールされた所定プログラムは、制御装置内のメモリに転送されてそこに一時的に格納され、制御装置内のCPUによって実行される。これにより、制御装置による上記各部の制御処理が実現される。 Here, the predetermined program executed in each control device is provided by, for example, a DVD-ROM which is a recording medium on which the program is recorded. That is, a DVD-ROM as a recording medium for the predetermined program is attached to a DVD-ROM driving device built in the control device as an auxiliary storage device, and the predetermined program is read from the DVD-ROM as an auxiliary storage device. Installed on the hard disk drive. The predetermined program may be provided via a recording medium (CD-ROM or the like) other than a DVD-ROM or a communication line. Then, when an operation for starting the present photo creating device is performed, the predetermined program installed in the hard disk device is transferred to the memory in the control device and temporarily stored therein, It is executed by the CPU. Thereby, the control process of each part by the control device is realized.
なお、上記第1および第2の制御部70,80は、異なるコンピュータを含む装置に相当するものとして説明したが、このような構成は一例であって、上記第1および第2の制御部70,80は、1つまたは3つ以上の装置により実現されてもよいし、どのユニットに内蔵されていてもよい。なお、この場合には各装置において、それぞれ実現されるべき機能に応じたプログラムが実行される。また、撮影ユニット3、編集ユニット4、および出力ユニット5についても、2つ以下または4つ以上のユニットにより構成されてもよい。 Although the first and second control units 70 and 80 have been described as corresponding to devices including different computers, such a configuration is merely an example, and the first and second control units 70 are described. , 80 may be realized by one or three or more devices, and may be incorporated in any unit. In this case, each device executes a program corresponding to a function to be realized. In addition, the photographing unit 3, the editing unit 4, and the output unit 5 may be configured by two or less units or four or more units.
<3. 遊戯用写真作成装置における処理手順>
上述したように、この遊戯用写真作成装置には、撮影ユニット3と編集ユニット4と出力ユニット5とが含まれている。撮影ユニット3では撮影処理が行われ、編集ユニット4では後述する落書き編集処理が行われ、出力ユニット5では出力処理が行われる。なお、或る利用者が撮影ユニット3でプレイしている時に他の利用者は編集ユニット4でプレイし、さらに他の利用者は出力ユニット5で合成画像を出力することができるように構成されている。すなわち、この遊戯用写真作成装置は、撮影処理と落書き編集処理と出力処理とを並行して行うことができる。以下に、撮影処理を中心に、落書き編集処理、および出力処理の手順の概要についても説明する。
<3. Processing procedure in a photo creation device for play>
As described above, the play photo creating apparatus includes the photographing unit 3, the editing unit 4, and the output unit 5. The photographing unit 3 performs photographing processing, the editing unit 4 performs later-described graffiti editing processing, and the output unit 5 performs output processing. It should be noted that when a certain user is playing with the photographing unit 3, another user can play with the editing unit 4, and yet another user can output a composite image with the output unit 5. ing. In other words, this game photo creation device can perform shooting processing, graffiti editing processing, and output processing in parallel. The outline of the doodle editing process and the output process will be described below with a focus on the shooting process.
<3.1 撮影処理>
図7は、本実施形態における撮影処理の手順を示すフローチャートである。この遊戯用写真作成装置が使用されていない時(プレイが行われていない時)には、撮影操作用タッチパネル20にはデモ画像が表示されている。デモ画像の表示中に利用者がコイン投入口26にコインを投入すると、プレイが開始される(ステップS110)。
<3.1 Shooting process>
FIG. 7 is a flowchart showing the procedure of the photographing process in the present embodiment. When the play photo creation device is not used (when no play is performed), a demonstration image is displayed on the shooting operation touch panel 20. When the user inserts a coin into the coin insertion slot 26 while displaying the demo image, the play is started (step S110).
続いてステップS120において、第1の制御部70は、利用者が望む態様で撮影画像が補正されるように、初回撮影時において撮影画像の補正態様を利用者に選択させる処理(初回撮影処理)を行う。この初回撮影処理は、特徴的な構成であるため、詳しく後述する。この処理では、初回撮影時における撮影画像を、ユーザの補正確認するためだけのサンプル用撮影画像として取得してもよいし、落書き対象の画像として取得してもよい。初回撮影時における撮影画像を落書き対象の画像として取得することで、より多くの編集対象画像を得ることができる。 Subsequently, in step S120, the first control unit 70 causes the user to select a correction mode of the shot image at the time of the first shooting so that the shot image is corrected in a mode desired by the user (first shooting process). I do. Since this initial photographing process has a characteristic configuration, it will be described later in detail. In this process, the captured image at the time of the first imaging may be acquired as a sample captured image only for confirming correction by the user, or may be acquired as an image to be graffitied. By acquiring a photographed image at the time of the first photographing as a graffiti target image, more editing target images can be obtained.
上記初回撮影処理が終了すると、次回以降を自動で撮影するか手動で撮影するかを選択し、自動で撮影する場合には撮影用テーマの選択が行われる。この場合、第1の制御部70は、予め用意された複数の撮影用テーマの中から1つ以上の撮影用テーマを利用者に選択させるための画面を撮影操作用タッチパネル20に表示し、利用者による選択操作を受け付ける。そして、第1の制御部70は、利用者の選択操作に基づいて選択情報を取得し、選択された撮影用テーマに基づいて、撮影の際に使用するフレームと背景との組み合わせを決定する。また手動で撮影する場合は、上記フレームと背景とを利用者が自由に決定する。 When the first shooting process is completed, it is selected whether to shoot automatically or manually from the next time onward, and when shooting automatically, a shooting theme is selected. In this case, the first control unit 70 displays on the shooting operation touch panel 20 a screen for allowing the user to select one or more shooting themes from a plurality of shooting themes prepared in advance. The selection operation by the person is accepted. Then, the first control unit 70 acquires selection information based on a user's selection operation, and determines a combination of a frame and a background to be used for shooting based on the selected shooting theme. When shooting manually, the user can freely determine the frame and background.
次にステップS130において、第1の制御部70は、図5に示すような操作画面を撮影操作用タッチパネル20に表示する。なお前述したように、リアルタイムプレビュー領域201には、撮影画像に対してリアルタイムでクロマキー合成された背景画像が表示されるが、このクロマキー合成表示処理は、一般的にはクロマキーマスクを作成する処理と、背景画像を合成する処理とを含む。クロマキーマスクとは、例えば周知の合成マスク(アルファチャネル)であって、対象となる撮影画像のうちのキー色(ここでは青色または緑色)を有する領域、すなわち撮影室2の背面の像が占める領域を透明とし、それ以外の領域を非透明とするためのデータである。この合成マスクは一般的には対象となる画像の画素毎に0(完全透明)または255(完全非透明)の透過度を示す値αが設定される。このようなクロマキーマスクを使用することにより、撮影画像の非透明領域(α=255)に相当する背景画像の領域は隠され(マスクされ)、その透明領域(α=0)に相当する背景画像の領域は見えるように合成される。そのため、あたかも対象となる撮影画像の非透明領域の部分が切り取られ、切り取られた当該部分が上記背景画像に対して貼り付けられたような合成画像が得られる。このようにして得られる合成画像は、撮影操作用タッチパネル20に表示される。なお、ここでの撮影画像は実際には撮影画像として保存される(高解像度の)静止画データではなく、リアルタイム表示を行うためのスルー画像データである。このスルー画像データは、撮影処理全体の開始時点から終了時点まで(S100〜S170)、カメラ10から(広義の撮影画像として)連続的に取得される。このようなクロマキー処理によって遊戯性の高い写真作成を行うことができる。 Next, in step S130, the first control unit 70 displays an operation screen as shown in FIG. As described above, in the real-time preview area 201, a background image that is chroma key-combined in real time with respect to a captured image is displayed. This chroma key composition display processing is generally a process for creating a chroma key mask. And a process of synthesizing the background image. The chroma key mask is, for example, a well-known composite mask (alpha channel), and an area having a key color (in this case, blue or green) in a target photographed image, that is, an area occupied by an image on the back of the photographing room 2. Is data for making transparent and making other areas non-transparent. In this composite mask, a value α indicating transparency of 0 (completely transparent) or 255 (completely non-transparent) is generally set for each pixel of the target image. By using such a chroma key mask, the background image region corresponding to the non-transparent region (α = 255) of the photographed image is hidden (masked), and the background image corresponding to the transparent region (α = 0). This area is synthesized so that it can be seen. Therefore, a composite image can be obtained as if a non-transparent area portion of the target captured image is cut out and the cut-out portion is pasted on the background image. The composite image obtained in this way is displayed on the shooting operation touch panel 20. The captured image here is not actually (high-resolution) still image data stored as a captured image, but through-image data for real-time display. This through image data is continuously acquired from the camera 10 (as a broadly captured image) from the start point to the end point of the entire shooting process (S100 to S170). With such chroma key processing, it is possible to create a photo with high playability.
その後、ステップS140に進み、1セット3回の撮影が行われるべき撮影タイミングであるか否かが判定され、撮影タイミングでない場合(ステップS140においてNoの場合)には撮影タイミングとなるまで上記操作画面表示が繰り返され(S140→S130→S140)、撮影タイミングである場合(ステップS140においてYesの場合)には、ステップS150における撮影処理に進む。 Thereafter, the process proceeds to step S140, where it is determined whether or not it is a shooting timing at which one set of three shootings should be performed. If it is not the shooting timing (No in step S140), the operation screen is displayed until the shooting timing is reached. When the display is repeated (S140 → S130 → S140) and it is the shooting timing (Yes in step S140), the process proceeds to the shooting process in step S150.
ステップS150における撮影処理では、前述したように数秒程度の予め決められた時間の経過後にカメラ10の撮影方向に閃光が放たれ、カメラ10によって取得された撮影画像データが第1の制御部70のメモリに格納される。 In the shooting process in step S150, as described above, after a predetermined time of about several seconds has elapsed, a flash is emitted in the shooting direction of the camera 10, and the shot image data acquired by the camera 10 is stored in the first control unit 70. Stored in memory.
次に、ステップS160において、ステップS150において得られた撮影画像に対して、ステップS120において利用者に選択され確定された初回撮影時における撮影画像の補正態様で補正を行い、この補正された撮影画像に対してステップS130において得られる背景画像をクロマキー合成した合成画像、すなわちステップS130においてなされる処理と同様のクロマキー合成処理(厳密には低解像度のスルー画像を上記背景画像にクロマキー合成するのではなく、高解像度の静止画像である撮影画像を上記背景画像にクロマキー合成する処理)により生成される合成画像が、落書き対象画像として撮影操作用タッチパネル20に表示される。 Next, in step S160, the photographed image obtained in step S150 is corrected in the manner of correcting the photographed image at the first photographing selected and confirmed by the user in step S120. On the other hand, a composite image obtained by performing chroma key composition on the background image obtained in step S130, that is, chroma key composition processing similar to the process performed in step S130 (strictly speaking, the low resolution through image is not subjected to chroma key composition on the background image). Then, a composite image generated by a chroma key composition of a photographed image that is a high-resolution still image with the background image is displayed on the photographing operation touch panel 20 as a graffiti target image.
なお、補正された初回撮影画像も落書き対象画像として表示する場合もあるが、具体的にはこの初回撮影画像に対して所定の背景画像をクロマキー合成した合成画像を生成し、生成された合成画像が落書き対象画像として表示される。もちろん初回撮影画像に対してのみクロマキー合成が行われない構成であってもよい。 Although the corrected first shot image may be displayed as a graffiti target image, specifically, a synthesized image is generated by synthesizing a predetermined background image with a chroma key to the first shot image, and the generated synthesized image Is displayed as a graffiti target image. Of course, a configuration in which chroma key composition is not performed only on the first photographed image may be employed.
続いて、ステップS170において、第1の制御部70は、予め定められた枚数(セット数)の撮影が終了したか否かを判定する。判定の結果、当該枚数の撮影が終了していればステップS160に進み、当該枚数の撮影が終了していなければステップS110に戻る。なお、実際には撮影のための制限時間(例えば3分)が設けられており、制限時間よりも(或る程度)早く予定枚数の撮影が終了した場合には、さらに所定枚数だけ撮影が行われる(ボーナスショットと呼ばれる)。 Subsequently, in step S170, the first control unit 70 determines whether or not photographing of a predetermined number (set number) has been completed. As a result of the determination, if the number of images has been shot, the process proceeds to step S160. If the number of images has not been shot, the process returns to step S110. Actually, a time limit for shooting (for example, 3 minutes) is provided, and when a predetermined number of shots are completed earlier (somewhat) than the time limit, a predetermined number of shots are further taken. Is called (bonus shot).
ステップS180では、複数の落書き対象画像の中から実際の落書き対象となる画像の(利用者による)選択が行われる。具体的には、第1の制御部70は、落書きおよび印刷に使用する画像を利用者に選択させるために、落書き対象画像の一覧を撮影操作用タッチパネル20に表示し、利用者による選択操作を受け付ける。そして、第1の制御部70は、利用者によって選択された画像を実際の(最終的な)落書き対象画像とする。なお前述したように、選択される対象としての落書き対象画像として、初回撮影処理において撮影された初回撮影画像を含むようにすることもできるので、この場合、落書き対象画像としての撮影画像を限られた撮影時間内で多く取得することができる。 In step S180, an image to be actually graffitied is selected (by the user) from a plurality of graffiti subject images. Specifically, the first control unit 70 displays a list of graffiti target images on the shooting operation touch panel 20 in order to allow the user to select an image to be used for graffiti and printing, and performs a selection operation by the user. Accept. Then, the first control unit 70 sets the image selected by the user as an actual (final) graffiti target image. As described above, the graffiti target image to be selected can include the first shot image shot in the first shooting process. In this case, the shot image as the graffiti target image is limited. Many can be acquired within the shooting time.
このステップS180における処理が終了すると、ステップS190の処理に進む。ステップS190では、案内画面の表示が行われる。具体的には、第1の制御部70は、利用者を編集ユニット4のいずれか(4aまたは4b)に導くための画面を撮影操作用タッチパネル20に表示する。これにより、撮影処理が終了する。なお、本実施形態では、上記ステップS120における初回撮影処理の内容に特徴を有するが、この点については図9を参照して後述するものとし、続く落書き編集処理の内容について説明する。 When the process in step S180 ends, the process proceeds to step S190. In step S190, a guidance screen is displayed. Specifically, the first control unit 70 displays a screen for guiding the user to any one of the editing units 4 (4 a or 4 b) on the photographing operation touch panel 20. Thereby, the photographing process is completed. Note that the present embodiment is characterized in the contents of the initial photographing process in step S120 described above. This point will be described later with reference to FIG. 9, and the contents of the subsequent graffiti editing process will be described.
<3.2 落書き編集処理>
図8は、本実施形態における落書き編集処理の手順を示すフローチャートである。第2の制御部80が所定のプログラムに基づき図8に示すように動作することで、この落書き編集処理が実現される。この処理では、上述した撮影処理の終了後、第2の制御部80に内蔵されるタイマーが所定の時間(具体的には、落書きを許可する時間)に設定され、カウントダウンが開始され(ステップS210)、タイマーのカウントダウン開始後、編集ユニット4を構成するユニット4a,4bのそれぞれの編集操作用タッチパネル400において、落書き編集操作画面が表示され、利用者によって前述のように撮影され選択された複数の落書き対象画像に対する利用者による落書き操作(描画操作)が受け付けられる(ステップS220〜S240)。なおこの落書き編集処理時において、編集ユニット4では、撮影画像に基づく落書き対象画像に対する編集操作の他に、デコメール画像等の素材画像を作成するための編集操作が受け付けられてもよい。
<3.2 Graffiti editing process>
FIG. 8 is a flowchart showing the procedure of graffiti editing processing in the present embodiment. The graffiti editing process is realized by the second control unit 80 operating as shown in FIG. 8 based on a predetermined program. In this process, after the above-described shooting process is completed, a timer built in the second control unit 80 is set to a predetermined time (specifically, a time when graffiti is permitted), and countdown is started (step S210). ) After the timer countdown starts, a graffiti editing operation screen is displayed on the editing operation touch panel 400 of each of the units 4a and 4b constituting the editing unit 4, and a plurality of images captured and selected as described above by the user are displayed. Graffiti operation (drawing operation) by the user for the graffiti target image is accepted (steps S220 to S240). At the time of this graffiti editing process, the editing unit 4 may accept an editing operation for creating a material image such as a decomail image in addition to an editing operation on the graffiti target image based on the photographed image.
上記処理は、具体的には編集操作画面内のボタンやツールなどの1つをタッチペンでタッチすると、その座標値が入力され(S220)、対応する落書き画面処理(S230)が行われる。その後ステップS240においてタイマーの残り時間が0になる(または利用者が終了させる操作を行う)ことにより落書きが終了したかが判定され、終了していない場合(ステップS240においてNoの場合)にはステップS220に戻り、落書きが終了するまで処理が繰り返され、落書きが終了した場合(ステップS240においてYesの場合)には、処理はステップS250に進む。 Specifically, when one of the buttons and tools in the editing operation screen is touched with a touch pen, the coordinate value is input (S220), and the corresponding graffiti screen processing (S230) is performed. Thereafter, in step S240, it is determined whether or not the graffiti has ended by the remaining time of the timer becoming zero (or performing an operation to be ended by the user), and if not (if No in step S240), step Returning to S220, the process is repeated until the graffiti is completed, and if the graffiti is completed (Yes in step S240), the process proceeds to step S250.
ステップS250では、出力される写真の分割パターンの選択が行われる。具体的には第2の制御部80は、予め用意された複数の分割パターンの中からいずれかの分割パターンを利用者に選択させるための操作画面を編集操作用タッチパネル400に表示し、利用者による選択操作を受け付ける。そして、第2の制御部80は、利用者の選択操作に基づいて、選択情報を取得する。ステップS250の処理が終了した後、ステップS260の処理に進む。 In step S250, the division pattern of the photo to be output is selected. Specifically, the second control unit 80 displays on the editing operation touch panel 400 an operation screen for causing the user to select one of a plurality of division patterns prepared in advance, and the user The selection operation by is accepted. And the 2nd control part 80 acquires selection information based on a user's selection operation. After the process of step S250 is completed, the process proceeds to step S260.
ステップS260では、案内画面の表示が行われる。具体的には、第2の制御部80は、利用者を出力ユニット5に導くための画面を編集操作用タッチパネル400に表示する。これにより、落書き編集処理が終了する。落書き編集処理が終了すると、出力ユニット5において、第2の制御部80から送られてきた合成画像に基づいて写真シール等の印刷処理が開始されることなどについては前述した通りである。次に、上記ステップS120における初回撮影処理の詳しい内容について図9を参照して説明する。 In step S260, a guidance screen is displayed. Specifically, the second control unit 80 displays a screen for guiding the user to the output unit 5 on the editing operation touch panel 400. Thereby, the graffiti editing process ends. As described above, when the graffiti editing process ends, the output unit 5 starts a printing process such as a photo sticker based on the composite image sent from the second control unit 80. Next, detailed contents of the initial photographing process in step S120 will be described with reference to FIG.
<3.3 初回撮影処理>
図9は、本実施形態における初回撮影処理の手順を示すフローチャートである。図9に示すステップS121において、第1の制御部70は、通常の撮影とは異なる初回撮影のための説明画面を撮影操作用タッチパネル20に表示する。
<3.3 Initial shooting process>
FIG. 9 is a flowchart showing the procedure of the initial photographing process in the present embodiment. In step S <b> 121 shown in FIG. 9, the first control unit 70 displays a description screen for the first shooting different from the normal shooting on the shooting operation touch panel 20.
図10は、初回撮影のための説明画面例を示す図である。この図10に示されるように、利用者の嗜好に合わせた画質(ここでは後述する目の形や濃さ、顔の輪郭や、肌質などの画像補正態様)を設定するため、初回撮影が行われることが撮影操作用タッチパネル20に表示される。また、上記撮影の他、撮影操作用タッチパネル20にはOKボタン205が表示されており、利用者がこのOKボタン205を押下する操作(具体的には当該位置を指などで触れる操作)を行うことにより、次の操作画面に遷移する。なお、図10に示すように、これから通常の撮影とは異なる初回撮影が行われることを利用者に対して告知することが望ましいが、このような告知は省略することもできる。また、後述する撮影用の操作画面例との関係で、図10に示す説明画面に代えて、またはその後に表示される図示されない画面において、利用者の数を質問する説明文とともに、利用者の数を入力する操作を受け付ける構成であってもよい。 FIG. 10 is a diagram illustrating an example of an explanation screen for the first shooting. As shown in FIG. 10, in order to set the image quality (image correction mode such as eye shape and darkness, face outline, skin quality, etc. described later) according to the user's preference, the first shooting is performed. This is displayed on the touch panel 20 for shooting operation. In addition to the above shooting, an OK button 205 is displayed on the shooting operation touch panel 20, and the user performs an operation of pressing the OK button 205 (specifically, an operation of touching the position with a finger or the like). As a result, the screen shifts to the next operation screen. As shown in FIG. 10, it is desirable to notify the user that the first shooting different from the normal shooting will be performed from now on, but such notification may be omitted. Further, in relation to an example of an operation screen for shooting described later, in place of the explanation screen shown in FIG. 10 or on a screen (not shown) displayed thereafter, along with an explanation for asking the number of users, The structure which receives operation which inputs a number may be sufficient.
続いてステップS122において、第1の制御部70は、図11に示すような、通常の撮影とは異なる初回撮影のための撮影用の操作画面(撮影画面)を撮影操作用タッチパネル20に表示する。 Subsequently, in step S122, the first control unit 70 displays a shooting operation screen (shooting screen) for the first shooting different from the normal shooting, as shown in FIG. .
図11は、初回撮影のための撮影画面例を示す図である。図11に示されるように、撮影操作用タッチパネル20には、通常撮影時と同様の(ここではやや大きい)リアルタイムプレビュー領域201と、このリアルタイムプレビュー領域201内に固定的に(予め定められた位置に)表示される顔位置ガイド206と、OKボタン205とが表示される。この顔位置ガイド206は、通常撮影時には表示されず、また通常撮影時よりも顔が大きく写るように表示されるべき位置が定められている。この顔位置ガイド206が表示されると、この枠内に顔が入るように、かつ枠一杯に顔が写るように、利用者は自然と顔の位置を移動させるので、後述する補正を行う際に好適な撮影画像が得られる。 FIG. 11 is a diagram illustrating an example of a shooting screen for the first shooting. As shown in FIG. 11, the photographing operation touch panel 20 has a real-time preview area 201 (which is slightly larger here) similar to that during normal photographing, and a fixed position (predetermined position) in the real-time preview area 201. B) A displayed face position guide 206 and an OK button 205 are displayed. The face position guide 206 is not displayed during normal shooting, and the position where the face should be displayed is determined so that the face appears larger than during normal shooting. When the face position guide 206 is displayed, the user naturally moves the face position so that the face is in the frame and the face is fully captured. A suitable photographed image is obtained.
このような顔位置ガイド206は、証明用写真撮影装置には設けられることがある。しかし、遊戯用写真作成装置には設けられることがない。遊戯用途に使用する場合には、利用者の自由な撮影が望まれるため、顔位置ガイド206は不要であるばかりか、遊戯性を低下させる場合もあるからである。しかし、本実施形態における初回撮影時には、利用者の自由な撮影よりも顔が大きく写るような撮影が行われることが重要であるため、このように顔位置ガイド206を設けることが好ましい。もちろん、顔位置ガイド206が省略される構成であってもよいが、そのような構成においても、正面を向いて撮影するように、さらには顔が大きく写るようカメラ10に近づいて撮影するように、告知文を表示したり、音声による案内を行う構成が好ましい。 Such a face position guide 206 may be provided in the certification photography apparatus. However, it is not provided in the game photo creation device. This is because, when used for amusement purposes, the user's free photography is desired, so the face position guide 206 is not necessary, and the playability may be reduced. However, at the time of the first shooting in the present embodiment, it is important that shooting is performed such that the face appears larger than the user's free shooting, and thus the face position guide 206 is preferably provided in this way. Of course, the configuration may be such that the face position guide 206 is omitted, but in such a configuration as well, the camera 10 is photographed so as to be photographed facing the front, and closer to the camera 10 so that the face is photographed larger. A configuration in which a notice sentence is displayed or voice guidance is provided is preferable.
また、図11に示される顔位置ガイド206は、2人の利用者によって使用されることが予定されている形状となっているが、利用者の人数は例えば前述したように図10に示す操作画面内またはその前後で利用者の操作入力を受け付けることにより決定される。したがって、利用者が1人または3人以上である場合には、顔位置ガイド206は、決定された利用者の数に応じて、予め定められた当該数の利用者によって使用されることが予定されている形状で表示される。 Further, the face position guide 206 shown in FIG. 11 has a shape that is planned to be used by two users, but the number of users is, for example, the operation shown in FIG. It is determined by accepting a user operation input in or around the screen. Therefore, when the number of users is one or three or more, the face position guide 206 is scheduled to be used by a predetermined number of users according to the determined number of users. It is displayed in the shape that has been.
このようにして利用者の撮影準備が整った後、撮影操作用タッチパネル20に表示されるOKボタン205を押下する操作が行われると撮影が行われる。すなわち、図9に示される以下のような処理が行われる。 After the user is ready for shooting in this way, shooting is performed when an operation of pressing the OK button 205 displayed on the shooting operation touch panel 20 is performed. That is, the following processing shown in FIG. 9 is performed.
まずステップS123において、第1の制御部70は、撮影タイミングであるか否か(ここでは上記OKボタン205が押下されたか否か)が判定され、撮影タイミングでない場合(ステップS123においてNoの場合)、撮影タイミングとなるまで上記操作画面表示が繰り返され(S123→S122→S123)、撮影タイミングである場合(ステップS123においてYesの場合)、ステップS124における撮影処理に進む。 First, in step S123, the first control unit 70 determines whether or not it is a shooting timing (here, whether or not the OK button 205 is pressed), and when it is not a shooting timing (in the case of No in step S123). The operation screen display is repeated until the shooting timing is reached (S123 → S122 → S123). If it is the shooting timing (Yes in step S123), the process proceeds to the shooting process in step S124.
ステップS124における撮影処理では、通常撮影と同様に数秒程度の予め決められた時間の経過後にカメラ10の撮影方向に閃光が放たれ、カメラ10によって取得された撮影画像データが第1の制御部70のメモリに格納される。 In the shooting process in step S124, a flash is emitted in the shooting direction of the camera 10 after a predetermined time of about several seconds, as in the normal shooting, and the shot image data acquired by the camera 10 is the first control unit 70. Stored in the memory.
続いて、ステップS125では、撮影画像の補正態様を決定するための後述する選択受付画面が撮影操作用タッチパネル20に表示され、ステップS126では、表示された選択受付画面に基づく利用者による操作入力の受付が行われる。このような選択受付画面および当該画面に対する入力例を図12および図13を参照して詳しく説明する。 Subsequently, in step S125, a selection reception screen, which will be described later, for determining the correction mode of the captured image is displayed on the shooting operation touch panel 20, and in step S126, an operation input by the user based on the displayed selection reception screen is displayed. Reception is done. An example of such a selection reception screen and an input to the screen will be described in detail with reference to FIGS.
図12は、利用者による操作入力前の選択受付画面例を示す図であり、図13は、利用者による操作入力後の選択受付画面例を示す図である。まず、利用者による操作入力が行われる前の初期的な選択受付画面として、図12に示されるように、撮影操作用タッチパネル20には、上記ステップS124において撮影された初回撮影時の撮影画像に対する初期補正画像211と、補正態様を選択するための複数の補正態様決定ボタン207と、次の画面に遷移するためのOKボタン205とが表示される。なお、初期補正画像211は、後述するように、初回撮影時の撮影画像とは異なる画像となっている。 FIG. 12 is a diagram illustrating an example of a selection reception screen before an operation input by the user, and FIG. 13 is a diagram illustrating an example of a selection reception screen after an operation input by the user. First, as shown in FIG. 12, an initial selection reception screen before operation input by the user is performed. As shown in FIG. 12, the shooting operation touch panel 20 displays the first shot taken image taken in step S124. An initial correction image 211, a plurality of correction mode determination buttons 207 for selecting a correction mode, and an OK button 205 for transitioning to the next screen are displayed. As will be described later, the initial corrected image 211 is an image different from the captured image at the time of initial shooting.
ここで補正態様は、図12に示されるように4種類が設定されており、目の形(具体的には、目の大きさや、つり目やたれ目などの形状等、およそ目の輪郭形状に関連する要素)と、目の濃さ(具体的には、目の色や、瞳の大きさ等、およそ目の内部形状や色彩に関連する要素)と、輪郭(具体的には、顎や頬などの特徴的な部分を含む顔の外縁形状や、髪型、髪の毛の色などに関連する要素)と、肌質(具体的には、肌の色や明るさ、ぼかし具合など、およそ肌の見え方に関連する要素)とが選択可能に表示されている。なお、このような補正は、画像の色彩または形状の少なくとも一方に対する、周知のまたは適宜の変更手法または変形手法を用いることにより、容易に実現することができる。また、これらの補正態様は例示であって周知のあらゆる補正態様を適用可能である。これら4つの補正態様は、それぞれAからDまでの4つの典型的な状態(以下「設定状態」という)が補正態様決定ボタン207によって選択可能に表示されている。なお、図12では、これらの設定状態はAからDまでの記号によって表示されているが、このような記号に代えて設定状態を示す説明文や、補正の程度を示す数字などであってもよい。また、スライダー(バー)などを使用することにより、無段階に変化する量を入力可能に表示されてもよく、これらの種類や、数、入力態様などには特に限定はない。よって、周知の様々な入力インタフェースを使用可能である。このように、或る(種類の)補正態様における補正の状態を設定するための上記設定状態を以下では「パラメータ」とも呼び、このパラメータに設定される数値や記号などの情報を以下では「パラメータの値」とも呼ぶ。 Here, four types of correction modes are set as shown in FIG. 12, and the shape of the eye (specifically, the shape of the eye, the shape of a suspended eye, a leaned eye, etc.) ), Darkness of eyes (specifically, elements related to the internal shape and color of the eye, such as eye color and pupil size), and contour (specifically, chin And the skin edge (specifically, skin color, brightness, blur condition, etc.) The elements related to the appearance of the display are selectable. Note that such correction can be easily realized by using a known or appropriate change method or modification method for at least one of the color or shape of the image. Further, these correction modes are examples, and any known correction mode can be applied. These four correction modes are displayed so that four typical states A to D (hereinafter referred to as “setting states”) can be selected by a correction mode determination button 207. In FIG. 12, these setting states are indicated by symbols A to D. However, instead of these symbols, an explanatory text indicating the setting state or a number indicating the degree of correction may be used. Good. Further, by using a slider (bar) or the like, it may be displayed so as to be able to input an amount that changes steplessly, and there is no particular limitation on the type, number, input mode, and the like. Therefore, various known input interfaces can be used. As described above, the setting state for setting the correction state in a certain (type) correction mode is also referred to as “parameter” below. Information such as numerical values and symbols set in this parameter is hereinafter referred to as “parameter”. Also called “value”.
また、これらの補正態様の設定状態(パラメータ)には初期値が設定されており、図12に示されるように、オススメと表題が付された点線で囲まれており、「B」と表記された複数の補正態様決定ボタン207に対応する設定状態がそれぞれの補正態様の初期値として設定されている。なお、図中に付された斜線は、当該補正態様決定ボタン207が選択状態(具体的には押下され暗い色に変化して表示されている状態)であることを表している。もちろん、初期的な選択状態であることが示されていればどのような表示態様であってもよい。 In addition, initial values are set in the setting states (parameters) of these correction modes, and are surrounded by a dotted line with a recommendation and a title as shown in FIG. The setting states corresponding to the plurality of correction mode determination buttons 207 are set as initial values of the respective correction modes. The hatched lines in the figure indicate that the correction mode determination button 207 is in a selected state (specifically, a state where the correction mode determination button 207 is pressed and displayed in a dark color). Of course, any display mode may be used as long as the initial selection state is indicated.
このように上記4つの補正態様において、ここではそれぞれ「B」の表記に対応する設定状態が初期的に設定されている。初期補正画像211は、初回撮影時の撮影画像に対して、これら4つの補正態様における設定状態で補正された結果得られる画像である。すなわち、初回撮影時の撮影画像に対して、目の形、目の濃さ、輪郭、および肌質を設定状態「B」(の値であるパラメータ)で補正、具体的には輪郭形状等の変形や画素色の変更などが行われる。このような補正処理は、上記ステップS127において行われる。 As described above, in the above four correction modes, the setting states corresponding to the notation “B” are initially set. The initial corrected image 211 is an image obtained as a result of correcting the captured image at the time of the initial shooting in the setting state in these four correction modes. In other words, the shape, darkness, contour, and skin quality of the captured image at the time of the first photographing are corrected with the setting state “B” (a parameter that is a value), specifically, the contour shape, etc. Deformation and pixel color change are performed. Such correction processing is performed in step S127.
なお、このような初期的な設定状態は、多くの利用者が(統計的に)好むような補正態様に基づき設定されることが多いが、必ず初期的に何らかの補正態様を設定する必要はなく、初期補正画像211が補正されていない初回撮影時の撮影画像と同一のものであってもよい。ただし、初期的な設定状態がたとえ当該利用者の嗜好に反する場合であっても、(初期的な設定状態に応じた)何らかの補正が行われていることにより、利用者が好む補正態様に変化させやすくなることも考えられ、また初期的な補正によって意外性などの遊戯性が増大することもあるため、何らかの補正態様を設定する構成が好ましい。 Such an initial setting state is often set based on a correction mode that many users prefer (statistically), but it is not always necessary to set an initial correction mode. The initial corrected image 211 may be the same as the captured image at the time of the first shooting without correction. However, even if the initial setting state is contrary to the user's preference, some corrections (according to the initial setting state) are performed, so that the correction mode preferred by the user is changed. It is conceivable that the correction may be easily performed, and playability such as unexpectedness may be increased by the initial correction. Therefore, a configuration in which some correction mode is set is preferable.
このような初期的な設定状態は、利用者によって適宜の補正態様決定ボタン207が押下されることにより変化し、例えば図13に示すような設定状態に変化させることができる。この場合、補正態様決定ボタン207は、4つの補正態様において同時に押下されることはあまりなく、1つずつ押下されるのが通常であるため、実際には1つの補正態様決定ボタン207が押下されることにより1つの補正態様が変化し、補正態様が(1つ)変化する度に、図13に示す(決定された当該補正態様で)補正された補正画像212が表示される。例えば、図12に示される初期状態から、対応する補正態様決定ボタン207を押下することにより、目の形を設定状態Aに設定すれば、補正画像212は、初期補正画像211に対して目の形が設定状態Aに設定された補正態様に変更した状態で表示され、その後、さらに対応する補正態様決定ボタン207を押下することにより、輪郭を設定状態Cに設定すれば、補正画像212は、初期補正画像211に対して目の形が補正された補正画像212に対して、さらに輪郭が設定状態Cに設定された補正態様に変更された補正画像212が表示される。続いて、さらに対応する補正態様決定ボタン207を押下することにより、肌質を設定状態Aに設定すれば、同様にさらに肌質が設定状態Aに設定された補正態様に変更した補正画像212が表示される。そうして、補正態様の設定状態が決定すれば、図13に示すOKボタン205が押下され、補正態様の設定状態の決定が終了し(パラメータの値を確定し)、初回撮影処理が終了する。したがって、OKボタン205が押下されるまで、同一種類の補正態様の設定状態を決定する(ここでは4つの)補正態様決定ボタン207を試みに押す(例えば1回ずつ全部を押してみる)ことにより、どのように補正されるかを、補正画像212を見ることにより、容易に判断することができる。 Such an initial setting state is changed when the user presses an appropriate correction mode determination button 207, and can be changed to a setting state as shown in FIG. 13, for example. In this case, the correction mode determination button 207 is not often pressed at the same time in the four correction modes, and is normally pressed one by one, so in fact, one correction mode determination button 207 is actually pressed. As a result, one correction mode changes, and each time the correction mode changes (one), a corrected image 212 corrected (in the determined correction mode) shown in FIG. 13 is displayed. For example, if the eye shape is set to the setting state A by pressing the corresponding correction mode determination button 207 from the initial state shown in FIG. If the shape is changed to the correction mode set in the setting state A and then the contour is set to the setting state C by further pressing the corresponding correction mode determination button 207, the corrected image 212 is displayed. A corrected image 212 in which the contour is further changed to the correction mode set to the setting state C is displayed with respect to the corrected image 212 in which the eye shape is corrected with respect to the initial corrected image 211. Subsequently, if the skin quality is set to the setting state A by further pressing the corresponding correction mode determination button 207, the corrected image 212 that is similarly changed to the correction mode in which the skin quality is set to the setting state A is obtained. Is displayed. If the correction mode setting state is determined, the OK button 205 shown in FIG. 13 is pressed, the determination of the correction mode setting state is completed (the parameter value is confirmed), and the initial imaging process is completed. . Therefore, until the OK button 205 is pressed, by pressing the correction mode determination buttons 207 (in this case, four) for determining the setting state of the same type of correction mode (for example, pressing all at once) It can be easily determined by looking at the corrected image 212 how it is corrected.
以上のような設定状態の入力および反映は、図9に示すステップS126,S127において行われる。すなわちステップS127では、上記ステップS126において受け付けられた撮影画像の補正態様を示す操作入力に応じて、撮影画像に対する補正処理が行われ、補正された撮影画像が直ちに表示される。 The input and reflection of the setting state as described above are performed in steps S126 and S127 shown in FIG. That is, in step S127, a correction process is performed on the photographic image in accordance with the operation input indicating the correction mode of the photographic image accepted in step S126, and the corrected photographic image is immediately displayed.
続いて、ステップS128では、補正態様の設定状態(を示す補正態様決定ボタン207)の選択が終了したか否かが判定される。具体的には、図12または図13に示すOKボタン205が押下されることにより選択が終了したか否かが判定される。選択が終了した場合(ステップS128においてYesの場合)、図7に示す処理の流れに戻り、選択が終了した場合(ステップS128においてNoの場合)、処理はステップS125の処理に戻り、上記選択が終了するまで上記処理が繰り返される(S128→S125→…→S128)。なお、OKボタン205が押されてなくとも、選択受け付け画面(図12参照)が表示されてから所定時間が経過すると、補正態様の設定状態の決定が終了し、初回撮影処理が終了するようにしてもよい。 Subsequently, in step S128, it is determined whether or not the selection of the correction mode setting state (the correction mode determination button 207 indicating it) has been completed. Specifically, it is determined whether or not the selection is completed when the OK button 205 shown in FIG. 12 or 13 is pressed. When the selection is completed (Yes in step S128), the process returns to the flow shown in FIG. 7. When the selection is completed (No in step S128), the process returns to the process of step S125, and the above selection is performed. The above process is repeated until the process is completed (S128 → S125 →... → S128). Even if the OK button 205 is not pressed, when a predetermined time has elapsed after the selection acceptance screen (see FIG. 12) is displayed, the determination of the correction mode setting state is completed and the initial photographing process is terminated. May be.
以上のように図7に示す初回撮影処理(S120)が終了すると、所定枚数の撮影が終了するまで2回目以降の撮影および落書き画像の生成が繰り返され(S130→S140→…→S170→S130)、落書き対象画像が選択され(S180)、撮影処理が終了する。その後の落書き処理および出力処理についても前述したとおりである。 When the first shooting process (S120) shown in FIG. 7 is completed as described above, the second and subsequent shootings and the generation of graffiti images are repeated (S130 → S140 →... → S170 → S130) until the predetermined number of shootings is completed. The graffiti target image is selected (S180), and the shooting process is terminated. Subsequent graffiti processing and output processing are also as described above.
なおステップS160において、前述したように、補正された初回撮影画像と所定の背景画像が合成され、落書き対象画像として表示する場合は、上記ステップS127(およびステップS125)において表示される補正撮影画像に代えて、この補正撮影画像に対して所定の背景画像をクロマキー合成した合成画像を生成し、生成された合成画像が表示される構成であってもよい。 In step S160, as described above, when the corrected initial captured image and the predetermined background image are combined and displayed as a graffiti target image, the corrected captured image displayed in step S127 (and step S125) is displayed. Instead, a composition image may be generated in which a predetermined background image is chroma key-combined with the corrected photographed image, and the generated composition image is displayed.
<4.変形例>
<4.1 第1の変形例>
上記実施形態では、図12および図13に示すように、複数種類(ここでは4つ)の補正態様の設定状態を複数(ここでは合計16個の)の補正態様決定ボタン207を押下することにより決定する構成であるが、1種類ずつ順番に補正態様の設定状態を決定するなど、どのような方式または態様で補正態様の設定状態を決定してもよい。
<4. Modification>
<4.1 First Modification>
In the above embodiment, as shown in FIG. 12 and FIG. 13, by pressing a plurality of (here, a total of 16) correction mode determination buttons 207 for setting states of a plurality of types (four in this case) of correction modes. Although it is the structure to determine, you may determine the setting state of a correction | amendment aspect by what kind of system or aspect, such as determining the setting state of a correction | amendment order one by one.
また、上記実施形態では、図12および図13に示すように、補正態様の設定状態が変更される毎に、変更された設定状態を(重畳的に)反映した補正態様で補正された1つの補正画像212を表示する構成であるが、或る補正態様における(選択されるべき候補である)複数の設定状態をそれぞれ反映した複数の補正画像を表示する図14に示すような構成であってもよい。 Moreover, in the said embodiment, as shown in FIG.12 and FIG.13, whenever the setting state of a correction | amendment aspect is changed, one correction | amendment was carried out with the correction | amendment aspect which reflected the changed setting state (superimposed). The correction image 212 is configured to display a plurality of correction images each reflecting a plurality of setting states (candidates to be selected) in a certain correction mode as shown in FIG. Also good.
図14は、複数の設定状態をそれぞれ反映した複数の補正画像を表示する選択受付画面例を示す図である。図14に示されるように、この撮影操作用タッチパネル20には、初回撮影時の撮影画像に対して、或る補正態様(ここでは目の形)における(ここでは4つの)設定状態をそれぞれ反映した4つの補正画像213と、当該4つの補正画像213の設定状態に対応する4つの補正態様決定ボタン207と、次の画面に遷移するためのOKボタン205とが表示される。 FIG. 14 is a diagram illustrating an example of a selection reception screen that displays a plurality of corrected images reflecting a plurality of setting states. As shown in FIG. 14, the photographing operation touch panel 20 reflects (four here) setting states in a certain correction mode (here, the eye shape) on the photographed image at the first photographing. The four corrected images 213, four correction mode determination buttons 207 corresponding to the setting states of the four corrected images 213, and an OK button 205 for transitioning to the next screen are displayed.
このように各補正態様決定ボタン207に対応する設定状態で補正した補正画像213が全て表示されているので、上記実施形態のように一度押してみるなどして補正結果を確認することなく、補正結果を直感的に判断することができる。そうして当該補正態様の設定状態が決定すると、利用者はOKボタン205を押下することにより、次の補正態様を決定する選択受付画面に移行する。 Since all the corrected images 213 corrected in the setting state corresponding to each correction mode determination button 207 are displayed in this way, the correction result is confirmed without confirming the correction result by pressing once as in the above embodiment. Can be determined intuitively. When the setting state of the correction mode is determined, the user presses an OK button 205 to shift to a selection reception screen for determining the next correction mode.
なお、このOKボタン205を省略し、補正態様決定ボタン207のいずれかが押下されることにより、次の選択受付画面に移行する構成であってもよい。また、OKボタン205に代えて、またはこれとともに、前の補正態様の選択受付画面に戻る「戻るボタン」が備えられる構成であってもよい。 The configuration may be such that the OK button 205 is omitted and the screen shifts to the next selection acceptance screen when one of the correction mode determination buttons 207 is pressed. Further, instead of or together with the OK button 205, a “return button” for returning to the selection screen for the previous correction mode may be provided.
さらに、ここでは1種類の補正態様における選択可能な4つの設定状態が表示されているが、このような表示は一例であって、複数(例えば4つ)の補正態様における複数(例えば16)の補正態様決定ボタン207および対応する補正画像213を表示するなど、表示される設定状態や補正画像の数には特に限定はない。また、次の選択受付画面において表示される補正画像は、現在までに選択された補正態様の設定状態を重畳的に反映していてもよいし、当該画面において選択されるべき設定状態(の候補)のみを反映していてもよい。 Furthermore, four selectable setting states in one type of correction mode are displayed here, but such display is an example, and a plurality (for example, 16) of a plurality of (for example, four) correction modes is displayed. There are no particular limitations on the displayed setting state and the number of correction images, such as displaying the correction mode determination button 207 and the corresponding correction image 213. In addition, the correction image displayed on the next selection reception screen may reflect the setting state of the correction mode selected so far, or the setting state (candidate for selection) to be selected on the screen. ) May be reflected.
また、各補正態様決定ボタン207を省略する代わりに、当該各補正態様決定ボタン207の機能を兼ねる補正画像213を設けることもできる。これに加え、OKボタン205を省略する場合には、OKボタン205の機能をさらに有する補正画像213を備えればよい。 Further, instead of omitting each correction mode determination button 207, a correction image 213 that also functions as each correction mode determination button 207 can be provided. In addition to this, when the OK button 205 is omitted, a correction image 213 further having the function of the OK button 205 may be provided.
<4.2 第2の変形例>
上記実施形態では、図11に示すように、利用者によってOKボタン205が押下されることにより撮影に移行する構成ではなく、図15に示されるように自動的に撮影が行われる構成であってもよい。
<4.2 Second Modification>
In the above embodiment, as shown in FIG. 11, the configuration is such that the shooting is automatically performed as shown in FIG. 15 instead of the configuration in which the user shifts to shooting when the OK button 205 is pressed. Also good.
図15は、初回撮影を自動的に行うための撮影画面例を示す図である。図15に示されるように、撮影操作用タッチパネル20には、通常撮影時と同様のリアルタイムプレビュー領域201と、このリアルタイムプレビュー領域201内に固定的に表示される顔位置ガイド206とが表示される。なお、この顔位置ガイド206が表示されると、図11に示される場合と同じくこの枠内に顔が入るように、かつ枠一杯に顔が写るように、利用者は自然と顔の位置を移動させるので、補正を行うための好適な撮影画像が得られる。 FIG. 15 is a diagram illustrating an example of a shooting screen for automatically performing the first shooting. As shown in FIG. 15, the photographing operation touch panel 20 displays a real-time preview area 201 similar to that during normal photographing and a face position guide 206 fixedly displayed in the real-time preview area 201. . When this face position guide 206 is displayed, the user naturally moves the face position so that the face is within this frame and the face is fully captured as in the case shown in FIG. Since it is moved, a suitable captured image for correction can be obtained.
ここで上記実施形態では、図9に示すステップS123において、第1の制御部70は、OKボタン205が押下されたか否かを撮影タイミングとして判定するが、本変形例では撮影画像における利用者の顔領域の位置を周知の顔認識処理によって認識することにより、認識された利用者の顔領域の位置が顔位置ガイド206内に(例えばほぼ内接するよう)収まっているか否かを判定することにより、撮影タイミングであるか否かを判定する。そうすれば、自動的に好適な撮影画像が得られるので、利用者の操作を不要とすることができ、かつ利用者に撮影タイミングの決定を委ねる場合よりも、より好適なタイミングで撮影された撮影画像が得られる。 In the above embodiment, in step S123 shown in FIG. 9, the first control unit 70 determines whether or not the OK button 205 is pressed as the shooting timing. By recognizing the position of the face area by a well-known face recognition process, by determining whether the position of the recognized user's face area is within the face position guide 206 (for example, almost inscribed) It is determined whether or not it is a shooting timing. Then, since a suitable captured image is automatically obtained, the user's operation can be made unnecessary, and the image was captured at a more suitable timing than when the user decides the photographing timing. A captured image is obtained.
ここで、この顔領域の認識処理は、周知の手法を採用すればよく、例えば予め記憶されたモデル画像を拡大・縮小、回転することによりテンプレート画像を生成し、このテンプレート画像を基準として顔としての特徴を有する画像が撮影画像内に含まれている場合に当該領域を顔領域として認識する手法や、テンプレートを使用しない周知の認識手法、例えば肌色領域の形状に基づき顔領域を認識したり、各種のパターン認識手法を使用した認識手法等を採用可能である。これらの周知の手法についての詳しい説明は省略する。このように顔領域を認識するプログラムを実行することにより、簡単にかつセンサなどを設けることなく安価に利用者の位置を計測することができる。なお、周知の顔検出用LSIチップなどのハードウェアを使用すれば、ソフトウェア処理の場合よりも顔領域の認識を高速化することができる。 Here, the recognition process of the face area may adopt a well-known method. For example, a template image is generated by enlarging / reducing and rotating a model image stored in advance, and the template image is used as a reference as a face. When a captured image includes an image having the above characteristics, a method for recognizing the region as a face region, a well-known recognition method that does not use a template, for example, recognizing a face region based on the shape of a skin color region, A recognition method using various pattern recognition methods can be employed. Detailed description of these known methods is omitted. By executing the program for recognizing the face area in this way, the position of the user can be measured easily and inexpensively without providing a sensor or the like. If hardware such as a well-known face detection LSI chip is used, the recognition of the face area can be performed faster than in the case of software processing.
また上記顔認識処理は、利用者の位置が検出可能なものであればよいので、利用者を個体識別する必要はないが、識別してもよく、また顔の位置だけでなく顔の向きを検出し、顔の向きがカメラに正対している場合(正面を向いている場合)に撮影を行う構成であってもよい。さらに、上記顔認識処理は、初回撮影前に行われればよいので、上記のようにリアルタイム表示を行うためのスルー画像データに基づいて行われる構成が好適であるが、上記顔認識処理のための(静止画)撮影を断続的に行う構成であってもよい。 In addition, since the face recognition process only needs to be able to detect the user's position, it is not necessary to identify the user individually, but the user may be identified, and not only the face position but also the face direction. It may be configured to detect and detect the face when the face is facing the camera (when facing the front). Further, since the face recognition process only needs to be performed before the first shooting, a configuration that is performed based on through image data for performing real-time display as described above is preferable. (Still Image) A configuration in which shooting is performed intermittently may be used.
さらにまた利用者の位置が検出可能であれば、顔認識処理を使用しない周知の様々な位置検出手法を採用可能であり、例えば利用者の立つ位置を検出するため床に(典型的にはマトリクス状に)配置される圧力センサや、複数の光センサ、超音波センサなどを設ける構成であってもよい。もっとも、これらのセンサを新たに設けるにはコストがかかるため、典型的にはソフトウェアのみの処理で位置検出することができる顔認識処理を使用することが好適である。 Furthermore, if the position of the user can be detected, various well-known position detection methods that do not use the face recognition process can be employed. For example, the position of the user is detected on the floor (typically a matrix). A configuration may be provided in which a pressure sensor, a plurality of optical sensors, an ultrasonic sensor, and the like are provided. However, since it is expensive to newly provide these sensors, it is typically preferable to use a face recognition process that can detect the position only by software processing.
<4.3 その他の変形例>
本実施形態では、カメラ10が1つ設けられる構成であるが、2つ以上のカメラが設けられる構成であってもよく、例えば利用者の顔付近を拡大して撮影するアップ撮影用カメラと、利用者の全身から半身程度までの範囲を撮影する全身撮影用カメラとが設けられる構成であってもよい。この構成では、例えば初回撮影処理に使用される撮影画像をアップ撮影用カメラで取得して補正態様の設定状態を決定し、決定された設定状態で全身撮影用カメラによって取得される撮影画像に対する補正を行うことが考えられる。またその逆であってもよい。さらに、アップ撮影用カメラによる初回撮影処理に代えて、またはこれとともに全身撮影用カメラによる初回撮影を行い、全身撮影用カメラによって取得される撮影画像に対して好適な補正態様の設定状態を利用者の操作入力に基づき決定する構成であってもよい。例えば、全身撮影用カメラにより取得された撮影画像に対して足を長くしたり、体を細くするなどの態様で補正を行う構成であってもよい。
<4.3 Other Modifications>
In the present embodiment, one camera 10 is provided, but two or more cameras may be provided. For example, an up-shooting camera that takes an enlarged image of the vicinity of the user's face, A configuration may be provided in which a whole body photographing camera for photographing a range from the whole body of the user to about half the body is provided. In this configuration, for example, a photographed image used for the first photographing process is acquired by the up-shooting camera to determine the setting state of the correction mode, and correction is performed on the photographed image acquired by the whole-body photographing camera in the determined setting state. Can be considered. The reverse is also possible. Further, instead of the initial shooting process using the up-shooting camera, or together with this, the first-shot shooting using the whole-body shooting camera is performed, and the setting state of the correction mode suitable for the shot image acquired by the whole-body shooting camera is set to the user. The configuration may be determined based on the operation input. For example, a configuration may be used in which correction is performed in a manner such as lengthening a foot or narrowing a body with respect to a captured image acquired by a whole-body imaging camera.
また本実施形態では、撮影画像に対する補正は、画像の一部に対する色および形状のうち少なくとも一方の変更を行うものであるが、画像に対する変更処理ではなく、等が変更に相当する2回目以降の撮影における撮影環境を変更する構成であってもよい。例えば、利用者の肌を白くする補正を行う場合フラッシュの光量を大きくし、利用者の肌を黒くする補正を行う場合にはフラッシュの光量を小さくする構成や、カメラ10に対して適宜の色や補正効果を付与する周知の光学フィルタ板を(選択的に適用可能に)設ける構成、図示されない所定色の専用光源の光を照射する構成などが周知の様々な構成が考えられる。このような撮影環境の変更によって、初回撮影画像に対して周知の画像処理手法を用いて行われた補正態様と同様の補正結果を、2回目以降の撮影画像に対する上記画像処理手法を用いることなく実現することができる。 Further, in the present embodiment, the correction for the captured image is performed by changing at least one of the color and shape for a part of the image, but is not a change process for the image, and the second and subsequent times corresponding to the change. It may be configured to change the shooting environment in shooting. For example, when correcting to make the user's skin white, the amount of light of the flash is increased, and when correcting to make the user's skin black, a configuration in which the amount of light of the flash is reduced or an appropriate color for the camera 10 is used. Various known configurations such as a configuration in which a well-known optical filter plate that imparts a correction effect (selectively applicable), a configuration in which light of a dedicated light source of a predetermined color (not shown) is irradiated, and the like can be considered. By such a change in the shooting environment, a correction result similar to the correction mode performed for the first shot image using a known image processing method can be obtained without using the image processing method for the second and subsequent shot images. Can be realized.
また本実施形態のステップS120において、利用者は、撮影モードの選択、例えば画質(具体的にはコントラストが高いくっきりとした画質、柔らかなふんわりとした画質、または透明感のあるクールな画質のうちのいずれか)を選択し、明るさを選択するといった補正態様の選択を行ってもよい。 In step S120 of the present embodiment, the user selects a shooting mode, for example, image quality (specifically, a clear image quality with high contrast, a soft soft image quality, or a cool image quality with transparency). The correction mode may be selected such that the brightness is selected.
さらに、図11および図15に示されるように、顔位置ガイド206は、2人の利用者によって使用されることが予定される形状で表示されるが、前述したように予め利用者の人数を選択させるための利用者による操作入力を受け付けておくことにより、利用者の人数に応じた形状(例えば人数分の枠を有する形状)の顔位置ガイド206を表示させることができる。また、前述した顔認識処理などの周知の手法によれば、利用者によって人数を選択させることなく、利用者の人数に応じた顔位置ガイド206を自動的に表示させることもできる。 Further, as shown in FIGS. 11 and 15, the face position guide 206 is displayed in a shape that is expected to be used by two users. By receiving an operation input by the user for selection, the face position guide 206 having a shape corresponding to the number of users (for example, a shape having a frame for the number of users) can be displayed. In addition, according to a known method such as the face recognition process described above, the face position guide 206 corresponding to the number of users can be automatically displayed without selecting the number of users by the user.
また、上述の落書き編集を行う際に、確定されたパラメータの値に応じて変更された複数の落書き対象画像のうちの1つ以上を、確定されたパラメータの値に応じて変更される前の元の状態に個別に(例えば目の形などの補正態様毎に)または一括して戻すことが可能な構成であってもよい。このような構成は、例えば(パラメータ毎の)変更を行う前の各画像を記憶することなどによって容易に実現できる。また、各パラメータの値を個別にまたは一括して再設定する操作入力を受け付け、再設定されたパラメータ値に応じて変更を行う構成であってもよい。なお、複数の落書き対象画像を元の状態に戻す等の上記処理を行う際には、当該複数の落書き対象画像すべてを一括して変更するようにしてもよいし、対象となる落書き対象画像を指定して変更するようにしてもよい。また、落書き対象画像に含まれる利用者ごとに変更を行う構成であってもよい。さらに上記の各構成は、落書き編集処理前や、撮影処理中に適用されてもよい In addition, when performing the above-mentioned graffiti editing, one or more of the plurality of graffiti target images that have been changed according to the determined parameter value are changed before being changed according to the determined parameter value. It may be configured to be able to return to the original state individually (for example, for each correction mode such as the eye shape) or collectively. Such a configuration can be easily realized, for example, by storing each image before the change (for each parameter). Moreover, the structure which receives the operation input which resets the value of each parameter individually or collectively, and changes according to the reset parameter value may be sufficient. In addition, when performing the above-described processing such as returning a plurality of graffiti target images to the original state, all of the plurality of graffiti target images may be changed at once, or the target graffiti target images may be changed. It may be specified and changed. Moreover, the structure which changes for every user contained in a graffiti object image may be sufficient. Furthermore, each of the above configurations may be applied before the graffiti editing process or during the shooting process.
<5.効果>
以上のように上記実施形態または上記変形例(以下、単に「本実施形態」という)の自動写真作成装置は、カメラ10により一回目の撮影画像を取得した後、当該初回撮影画像に含まれる利用者の像に対する補正態様の設定状態(具体的には画像の少なくとも一部における色または形状の少なくとも一方の変更を行うためのパラメータの値)に対する図14に示されるような予め定められたパラメータの複数の候補値(ここではA〜Dの4つ)それぞれに基づき変更が行われた撮影画像(ここでは各補正画像213)が表示され、これらから1つを選択しパラメータの値とする操作入力が受け付けられ、二回目以降に取得される撮影画像に対しては、確定されたパラメータの値に応じて変更が行われるので、各パラメータに対応する補正結果を一覧することができる。そのため、全体として限られた時間内に取得される撮影画像を多くすることができ、かつ、利用者が撮影画像に対する補正を直感的に(したがって素早く)行うことができる。
<5. Effect>
As described above, the automatic photo creation apparatus of the embodiment or the modified example (hereinafter simply referred to as “the present embodiment”) uses the first photographed image after obtaining the first photographed image by the camera 10. A predetermined parameter as shown in FIG. 14 for the setting state of the correction mode for the person's image (specifically, the value of the parameter for changing at least one of the color or the shape in at least a part of the image) A photographed image (here, each corrected image 213) that has been changed based on each of a plurality of candidate values (here, four from A to D) is displayed, and an operation input that selects one of these as a parameter value is selected. Since the change is made according to the determined parameter value for the captured image acquired after the second time, the correction result corresponding to each parameter It is possible to list. Therefore, the number of captured images acquired within a limited time as a whole can be increased, and the user can intuitively (and quickly) correct the captured image.
また、本実施形態によれば、自動写真作成装置は、カメラ10により一回目の撮影画像を取得した後、当該初回撮影画像に含まれる利用者の像に対する補正態様の設定状態(具体的には画像の少なくとも一部における色または形状の少なくとも一方の変更を行うためのパラメータの値)を設定する操作入力を受け付け、パラメータの値(初期値も含む)に応じて一回目の撮影画像を変更して表示し、二回目以降に取得される撮影画像に対しては、確定されたパラメータの値に応じて変更が行われるので、全体として限られた時間内に取得される撮影画像を多くすることができ、かつ一回目で利用者が設定した態様で補正された補正撮影画像が表示されるので、利用者が撮影画像に対する補正を直感的に(したがって素早く)行うことができる。 Further, according to the present embodiment, the automatic photo creation apparatus acquires the first captured image by the camera 10 and then sets the correction mode setting state (specifically, the user image included in the first captured image). Accepts an operation input to set a parameter value for changing at least one of color or shape in at least a part of the image, and changes the first captured image according to the parameter value (including the initial value) The captured images acquired for the second time or later are changed according to the determined parameter values, so the number of captured images acquired as a whole is limited. Since the corrected captured image corrected in the manner set by the user at the first time is displayed, the user can intuitively (and quickly) correct the captured image.
さらに、本実施形態によれば、図7に示すステップS180において、変更が行われた撮影画像の全てから、最終的な合成画像に含まれるべき落書き対象となる撮影画像を1つ以上選択する操作入力を受け付けるので、初回撮影画像も落書き対象画像として選択することができる。そのため、全体として限られた時間内に取得される撮影画像を多くすることができる。 Further, according to the present embodiment, in step S180 shown in FIG. 7, an operation for selecting one or more photographed images to be included in the final composite image from all the photographed images that have been changed. Since the input is accepted, the first shot image can also be selected as a graffiti target image. Therefore, the number of captured images acquired within a limited time as a whole can be increased.
また、本実施形態によれば、利用者が所定位置に存在するときに初回撮影画像を取得するので、利用者が撮影(ここではシャッターを切る動作)を行う必要がない。そのため、初回撮影画像を素早く取得することができ、また利用者は撮影操作を省略することができる。 Further, according to the present embodiment, since the first shot image is acquired when the user is present at a predetermined position, it is not necessary for the user to perform shooting (in this case, an operation of releasing the shutter). Therefore, the first shot image can be acquired quickly, and the user can omit the shooting operation.
さらに、本実施形態によれば、初回撮影画像を取得する前に、カメラ10によって取得される(典型的にはスルー画像における)利用者の像に含まれる顔領域を認識し、認識された顔領域が(ここでは図15が示す顔位置ガイド206内の)所定位置に存在するときに初回撮影画像の取得が行われる。そのため、初回撮影画像を素早くかつ顔認識によって好適な状態(例えば大きさや位置)で取得することができ、また利用者は撮影操作を省略することができる。 Furthermore, according to the present embodiment, the face area included in the user image (typically in the through image) acquired by the camera 10 is recognized and the recognized face is acquired before the first captured image is acquired. When the region exists at a predetermined position (here, in the face position guide 206 shown in FIG. 15), the first-captured image is acquired. Therefore, the first shot image can be acquired quickly and in a suitable state (for example, size and position) by face recognition, and the user can omit the shooting operation.
また、本実施形態によれば、図9に示すステップS126において、パラメータの値を設定する操作入力が行われる毎に、今までに設定された全てのパラメータの値に基づき補正された初回撮影画像が表示されるので(S127)、利用者が設定したパラメータで直ちに補正された補正撮影画像が表示される。よって、利用者が撮影画像に対する補正を直感的に(したがって素早く)行うことができる。 Further, according to the present embodiment, every time an operation input for setting a parameter value is performed in step S126 shown in FIG. 9, the first shot image corrected based on all the parameter values set so far. Is displayed (S127), the corrected captured image immediately corrected with the parameters set by the user is displayed. Therefore, the user can intuitively (and thus quickly) correct the captured image.
さらに、本実施形態によれば、図12に示されるようにパラメータの初期値が設定されており、当該初期値に基づき変更が行われた初回撮影画像がまず表示されるので、当該初期値に応じた補正が行われることにより、たとえ当該利用者の嗜好に反する補正が行われている場合であっても、利用者が好む補正態様に変化させやすくなることも考えられ、また初期的な補正によって意外性などの遊戯性が増大する。 Further, according to the present embodiment, the initial value of the parameter is set as shown in FIG. 12, and the first shot image changed based on the initial value is first displayed. By performing the correction according to the user's preference, even if the correction is contrary to the user's preference, it can be easily changed to the correction mode preferred by the user. As a result, playability such as unexpectedness increases.
3…撮影ユニット
4…編集ユニット
5…出力ユニット
6…ネットワーク(LAN)
10…カメラ
20…撮影操作用タッチパネル
30…出力操作用タッチパネル
35…ネットワークプリンタ
31…赤外線ポート
32…スピーカ
70…第1の制御部
72…第1の表示・操作部(撮影操作用タッチパネル)
80…第2の制御部
81,82…第2および第3の表示・操作部(編集操作用タッチパネル)
91…第4の表示・操作部(出力操作用タッチパネル)
92…印刷出力部(ネットワークプリンタ)
94…非接触通信部(赤外線ポート)
201…リアルタイムプレビュー領域
207…補正態様決定ボタン
211…初期補正画像
212,213…補正画像
400…編集操作用タッチパネル
3 ... Shooting unit 4 ... Editing unit 5 ... Output unit 6 ... Network (LAN)
DESCRIPTION OF SYMBOLS 10 ... Camera 20 ... Touch panel for imaging operation 30 ... Touch panel for output operation 35 ... Network printer 31 ... Infrared port 32 ... Speaker 70 ... First control unit 72 ... First display / operation unit (touch panel for shooting operation)
80 ... second control unit 81, 82 ... second and third display / operation units (touch panel for editing operation)
91 ... Fourth display / operation unit (touch panel for output operation)
92 ... Print output section (network printer)
94 ... Non-contact communication part (infrared port)
201 ... Real-time preview area 207 ... Correction mode determination button 211 ... Initial correction image 212, 213 ... Correction image 400 ... Touch panel for editing operation
Claims (6)
前記1回のプレイにおいて取得される前記撮影画像を用いてユーザにより設定された補正処理を複数の前記撮影画像に対して行い、複数の第1補正画像を生成する第1補正画像生成部と、
前記第1補正画像に対して、当該第1補正画像に含まれる利用者ごとに補正処理の再設定を受け付ける補正再設定部と、
前記再設定部にて受け付けられた再設定に基づいて第2補正画像を生成する第2補正画像生成部と、
を備える遊戯用撮影装置。 A shooting unit that takes a plurality of shots in one play and obtains a shot image;
A first correction image generation unit configured to perform correction processing set by a user using the captured image acquired in the one-time play on the plurality of captured images, and generate a plurality of first correction images;
A correction resetting unit that accepts resetting of correction processing for each user included in the first correction image with respect to the first correction image;
A second corrected image generating unit that generates a second corrected image based on the reset accepted by the resetting unit;
An imaging device for games comprising:
請求項1に記載の遊戯用撮影装置。 The first corrected image generation unit performs a similar correction process on the plurality of captured images.
The game photographing apparatus according to claim 1.
前記補正再設定部は、前記複数部位のうちの少なくとも一部に関する補正処理の再設定を受け付け可能とする、
請求項1または2に記載の遊戯用撮影装置。 The first corrected image generation unit performs a correction process on a plurality of the captured images with respect to a plurality of parts of the user included in the captured images,
The correction resetting unit is capable of accepting resetting of correction processing related to at least a part of the plurality of parts.
The game photographing apparatus according to claim 1 or 2.
前記補正再設定部は、前記利用者の目及び顔の輪郭の少なくとも一方に関する補正処理の再設定を受け付け可能とする、
請求項3に記載の遊戯用撮影装置。 The first corrected image generating unit performs a correction process including at least a user's eyes and face contours included in the captured images on the plurality of captured images.
The correction resetting unit is capable of accepting resetting of correction processing relating to at least one of the user's eyes and face contours,
The imaging device for play according to claim 3.
前記1回のプレイにおいて取得される前記撮影画像を用いてユーザにより設定された補正処理を複数の前記撮影画像に対して行い、複数の第1補正画像を生成するステップと、
前記第1補正画像に対して、当該第1補正画像に含まれる利用者ごとに補正処理の再設定を受け付けるステップと、
受け付けられた前記補正処理の再設定に基づいて第2補正画像を生成するステップと、
を備える画像生成方法。 Taking a plurality of shots in one play and obtaining a shot image;
Performing a correction process set by a user using the captured image acquired in the one-time play on the plurality of captured images to generate a plurality of first corrected images;
Accepting resetting of correction processing for each user included in the first correction image with respect to the first correction image;
Generating a second corrected image based on the accepted resetting of the correction process;
An image generation method comprising:
1回のプレイにおいて複数回の撮影を行い、撮影画像を取得するステップと、
前記1回のプレイにおいて取得される前記撮影画像を用いてユーザにより設定された補正処理を複数の前記撮影画像に対して行い、複数の第1補正画像を生成するステップと、
前記第1補正画像に対して、当該第1補正画像に含まれる利用者ごとに補正処理の再設定を受け付けるステップと、
受け付けられた前記補正処理の再設定に基づいて第2補正画像を生成するステップと、
を実行させる、画像生成プログラム。
On the computer,
Taking a plurality of shots in one play and obtaining a shot image;
Performing a correction process set by a user using the captured image acquired in the one-time play on the plurality of captured images to generate a plurality of first corrected images;
Accepting resetting of correction processing for each user included in the first correction image with respect to the first correction image;
Generating a second corrected image based on the accepted resetting of the correction process;
An image generation program that executes
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019083734A JP6614386B2 (en) | 2019-04-25 | 2019-04-25 | Image processing apparatus, image processing method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019083734A JP6614386B2 (en) | 2019-04-25 | 2019-04-25 | Image processing apparatus, image processing method, and program |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017174665A Division JP2018029343A (en) | 2017-09-12 | 2017-09-12 | Image processing apparatus, image processing method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019176481A JP2019176481A (en) | 2019-10-10 |
JP6614386B2 true JP6614386B2 (en) | 2019-12-04 |
Family
ID=68169790
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019083734A Active JP6614386B2 (en) | 2019-04-25 | 2019-04-25 | Image processing apparatus, image processing method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6614386B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11849232B2 (en) | 2020-11-03 | 2023-12-19 | Samsung Electronics Co., Ltd. | Integrated image sensor with internal feedback and operation method thereof |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004080549A (en) * | 2002-08-20 | 2004-03-11 | Make Softwear:Kk | Method and device for image display, image printer, computer program, and recording medium |
JP4142918B2 (en) * | 2002-08-23 | 2008-09-03 | 株式会社メイクソフトウェア | Image editing method, image editing apparatus, and computer program |
JP2009124231A (en) * | 2007-11-12 | 2009-06-04 | Oki Electric Ind Co Ltd | Image correction device, and image correction method |
-
2019
- 2019-04-25 JP JP2019083734A patent/JP6614386B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2019176481A (en) | 2019-10-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5782873B2 (en) | Game shooting device, game shooting method and program | |
JP2007240887A (en) | Automatic photographing device and method thereof | |
JP2013243466A (en) | Imaging apparatus for game, imaging method for game, and program | |
JP6245529B2 (en) | Game shooting device, game shooting method and program | |
JP2018029343A (en) | Image processing apparatus, image processing method, and program | |
JP6614386B2 (en) | Image processing apparatus, image processing method, and program | |
JP5527460B2 (en) | Game shooting device, game shooting method and computer program | |
JP2012169987A (en) | Automatic photograph making device | |
JP5632104B2 (en) | Game shooting device, processing method and program for game shooting device | |
JP6614374B2 (en) | Photography game machine, control method and program | |
JP6156559B2 (en) | Game shooting device, game shooting method, and program | |
JP5967275B2 (en) | Photographic game machine, its control method and control computer | |
JP5119642B2 (en) | Automatic photo creation device and automatic photo creation method | |
JP6090369B2 (en) | Game shooting device, game shooting method and program | |
JP5380770B2 (en) | Automatic photo creation device and automatic photo creation method | |
JP5660243B2 (en) | Game shooting device, game shooting method and computer program | |
JP2011164141A (en) | Automatic photograph producing device | |
JP5682596B2 (en) | Game shooting device and game shooting method | |
JP5895394B2 (en) | Game shooting device, game shooting method, and game shooting program | |
JP5967283B2 (en) | Photo shooting game machine, its control method and control program | |
JP5790896B2 (en) | Game shooting device, game shooting method, and game shooting program | |
JP5887752B2 (en) | Photography game device, photography game method, and photography game program | |
JP2017173848A (en) | Imaging apparatus for game, imaging method for game, and program | |
JP2015213336A (en) | Imaging apparatus for game, imaging method for game, and program | |
JP2008276438A (en) | Automatic photograph creation device and automatic photograph creation method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190425 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190426 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20190509 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20190517 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190702 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190724 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20191008 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20191021 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6614386 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |