JP5750961B2 - Game shooting device, game shooting method, and program - Google Patents

Game shooting device, game shooting method, and program Download PDF

Info

Publication number
JP5750961B2
JP5750961B2 JP2011062079A JP2011062079A JP5750961B2 JP 5750961 B2 JP5750961 B2 JP 5750961B2 JP 2011062079 A JP2011062079 A JP 2011062079A JP 2011062079 A JP2011062079 A JP 2011062079A JP 5750961 B2 JP5750961 B2 JP 5750961B2
Authority
JP
Japan
Prior art keywords
image
range
specific element
user
face
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2011062079A
Other languages
Japanese (ja)
Other versions
JP2012199743A5 (en
JP2012199743A (en
Inventor
辰巳 聡
聡 辰巳
竜介 中西
竜介 中西
Original Assignee
辰巳電子工業株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 辰巳電子工業株式会社 filed Critical 辰巳電子工業株式会社
Priority to JP2011062079A priority Critical patent/JP5750961B2/en
Publication of JP2012199743A publication Critical patent/JP2012199743A/en
Publication of JP2012199743A5 publication Critical patent/JP2012199743A5/en
Application granted granted Critical
Publication of JP5750961B2 publication Critical patent/JP5750961B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Cameras Adapted For Combination With Other Photographic Or Optical Apparatuses (AREA)
  • Studio Circuits (AREA)
  • Studio Devices (AREA)

Description

本発明は、遊戯用撮影装置、遊戯用撮影方法、およびプログラムに関し、さらに詳しくは、利用者をカメラで撮影し、その撮影画像に基づき生成される合成画像を写真等として出力する遊戯用撮影装置、遊戯用撮影方法、およびプログラムに関する。 The present invention is amusement imaging apparatus, imaging method for play, and a program, and more particularly, taking the user with the camera, amusement imaging apparatus which outputs a composite image generated based on the captured image as a photograph or the like , A shooting method for playing games, and a program .

従来、利用者をカメラで撮影し、その撮影画像を写真シールや写真カード等として出力する遊戯用写真作成装置が知られている。このような遊戯用写真作成装置は、遊戯性または娯楽性が高いことから、撮影画像と合成すべき画像を、利用者の嗜好に応じて、予め用意された多種多様な背景画像および前景画像(特にフレーム画像)から選択したり、タッチペンを用いて利用者が自由に描いたりできるように構成されているものが多い。利用者によるこのような操作は、撮影画像に対してなされるため、「落書き」と呼ばれる。   2. Description of the Related Art Conventionally, there is known a photo creation device for a game in which a user is photographed with a camera and the photographed image is output as a photo sticker or a photo card. Such a play photo creation device is highly playable or entertaining, and therefore, a variety of background images and foreground images (foreground images) prepared in advance according to the user's preference are combined with images to be synthesized. In particular, many are configured so that the user can select from frame images) or draw freely using a touch pen. Since such an operation by the user is performed on the photographed image, it is called “graffiti”.

また、このような遊戯用写真作成装置は、複数の利用者によって使用されることが多いので、複数の利用者のそれぞれが操作する操作画面が提供できるように構成されていることが多い(例えば特許文献1参照)。   In addition, since such a play photo creating apparatus is often used by a plurality of users, it is often configured to provide an operation screen operated by each of the plurality of users (for example, Patent Document 1).

特開2007−67565号公報JP 2007-67565 A

このように複数の利用者によって使用されることが多い遊戯用写真作成装置では、複数の利用者の顔が撮影画像に含まれることが多い。したがって、一人用の(典型的には証明写真用の)自動写真作成装置とは異なり、各利用者の顔は撮影画像において多様な位置に含まれることになる。   As described above, in a game photo creating apparatus that is often used by a plurality of users, a plurality of users' faces are often included in the captured image. Therefore, unlike an automatic photo creation device for one person (typically for an ID photo), each user's face is included in various positions in the captured image.

このような場合、特に落書き時に使用される前景画像のうち、比較的小さい画像であって任意の位置に合成可能な付加画像(典型的にはスタンプ画像)を撮影画像に合成する場合には、各利用者の顔に差し掛からない位置を選択することが可能であるため特に問題はない。しかし、予め合成位置が定まっている大きい付加画像(典型的にはフレーム画像)を撮影画像に合成する場合には、各利用者の顔に差し掛かる位置に合成される場合が生じる。   In such a case, particularly when combining an additional image (typically a stamp image) that is a relatively small image and can be combined at an arbitrary position among the foreground images used at the time of graffiti, Since it is possible to select a position that does not reach the face of each user, there is no particular problem. However, when a large additional image (typically a frame image) having a predetermined synthesis position is synthesized with a captured image, the image may be synthesized at a position approaching each user's face.

この点、利用者の顔に差し掛かる付加画像の部分を予め定められた位置から動かすことができるよう構成することも可能であるが、利用者にとって簡単な操作で(典型的にはワンタッチ操作で)合成しようとする当該付加画像を部分的に動かす操作が必要となる。この操作は利用者にとって煩瑣である。   In this respect, it is possible to move the additional image portion that approaches the user's face from a predetermined position. However, it is easy for the user (typically with a one-touch operation). ) An operation for partially moving the additional image to be synthesized is required. This operation is cumbersome for the user.

また、上記フレーム画像などの付加画像を部分的に動かすと、全体的なバランスが崩れることがあるため、美しく見える位置へ当該部分を動かす操作は、利用者にとって困難であることが多く、さらに煩瑣である。   Further, if the additional image such as the frame image is partially moved, the overall balance may be lost. Therefore, it is often difficult for the user to move the portion to a position where the image looks beautiful, and is troublesome. It is.

そこで、本発明では、撮影画像に合成されるべき付加画像が利用者の顔部分に差し掛かる状態を、利用者の操作を要することなく低減または解消することができる遊戯用撮影装置、遊戯用撮影方法、およびプログラムを提供することを目的とする。 Therefore, in the present invention, the state of the additional image to be combined with the photographed image is reduced or eliminated without requiring the user's operation, the state of the additional image to be combined with the photographer's face portion, the photographing for the game It is an object to provide a method and a program .

第1の発明は、利用者の撮影を行う撮影手段と
記撮影手段によって撮影された撮影画像に含まれる利用者の顔を検出するとともに検出した顔の少なくとも一部を含む顔領域を設定する顔領域設定手段と、
前記撮影画像に対する合成位置が予め定められた第1合成位置に設定された特定要素画像を含む付加画像を前記撮影画像に対して合成する編集手段とを備え、
前記編集手段は、
前記特定要素画像を前記第1合成位置に合成した場合において前記特定要素画像が占める特定領域の範囲と、前記顔領域の範囲とが重複する場合、重複する範囲を減少または消失させるよう、前記第1合成位置とは異なる第2合成位置に前記特定要素画像を合成し、
前記特定領域の範囲と前記顔領域の範囲とが重複しない場合、前記第1合成位置に前記特定要素画像を合成することを特徴とする。
The first invention is a photographing means for photographing a user ;
It detects the face of the previous Symbol shooting means a Subscriber that is part of the images picked up I'm in, and the face area setting means for setting a face area that includes at least a portion of the detected face,
Editing means for synthesizing the additional image including the specific element image, in which the combined position with respect to the captured image is set to a predetermined first combined position, with the captured image;
The editing means includes
If the range of the specific region occupied by the particular elements picture image have you when synthesizing the specific element image to the first combined position, where the range before Kikao regions overlap, reduce or eliminate overlapping ranges The specific element image is synthesized at a second synthesis position different from the first synthesis position,
When the range of the specific area and the range of the face area do not overlap, the specific element image is synthesized at the first synthesis position .

第2の発明は、第1の発明において、
前記編集手段は、前記撮影画像における予め定められた位置に合成されるべき複数の装飾要素画像のうち、前記顔領域の範囲と重複する装飾要素画像を合成しないか、または前記顔領域の範囲および前記撮影画像に含まれる利用者の像の範囲のうちの少なくとも一方の範囲に対して背景となるように合成することを特徴とする。
According to a second invention, in the first invention,
The editing means, among the multiple decorative elements image to be synthesized at a predetermined position in the captured image, or do not synthesize decorative element image that overlaps with the range before Kikao region, or of the face region It is characterized by synthesizing so as to be a background to at least one of the range and the range of the user image included in the captured image.

第3の発明は、第1または第2の発明において、
前記編集手段は、変更後の合成位置の候補であって予め優先順位を付された複数の候補合成位置に前記特定要素画像をそれぞれ合成しようとする場合における、前記特定領域の範囲と前記顔領域の範囲とが重複する範囲を所定値以下に減少させまたは消失させることができる候補合成位置のうち、最も高い優先順位を付された候補合成位置に、前記特定要素画像を合成することを特徴とする。
According to a third invention, in the first or second invention,
The editing unit includes the range of the specific area and the face area when the specific element image is to be combined with a plurality of candidate combination positions that are candidates for the combination position after the change and have been given priority in advance. range and are among the candidate synthetic position range can be a decrease is caused or disappear below a predetermined value which overlap, the candidate combination position, labeled the highest priority, and wherein the synthesis of the specific element image To do.

第4の発明は、第1または第2の発明において、
前記編集手段は、前記第1合成位置を起点として、当該起点から離れるように所定の計算式に基づき算出される変更後の合成位置の候補である候補合成位置に前記特定要素画像を合成しようとする場合、前記特定領域の範囲と前記顔領域の範囲とが重複する範囲を所定値以下に減少させまたは消失させることができる候補合成位置のうち、前記起点に最も近い候補合成位置に、前記特定要素画像を合成することを特徴とする。
4th invention is 1st or 2nd invention,
The editing means attempts to synthesize the specific element image at a candidate composition position that is a candidate for a composition position after change calculated based on a predetermined calculation formula starting from the first composition position and away from the origin. In the case where the range of the specific region and the range of the face region overlap, among the candidate composite positions that can reduce or eliminate the range where the range of the face region overlaps below a predetermined value , It is characterized by composing element images.

第5の発明は、第1から第4までの発明のいずれかにおいて、
前記特定要素画像は、前記特定領域が前記撮影画像の上下方向に伸びる中心線に掛かりかつ前記上下方向とは異なる方向に配列される一連の文字、記号、または模様を示す複数の画像を含むことを特徴とする。
According to a fifth invention, in any one of the first to fourth inventions,
The specific element image includes a plurality of images showing a series of characters, symbols, or patterns arranged on a center line extending in the vertical direction of the photographed image, and arranged in a direction different from the vertical direction. It is characterized by.

第6の発明は、第1から第5までの発明のいずれかにおいて、
前記編集手段は、前記特定要素画像を、前記第1合成位置から下方向に定める位置に合成することを特徴とする。
A sixth invention is any one of the first to fifth inventions,
It said editing means, the specific element image, characterized by combining in a position specified in the second direction from the first combined position.

第7の発明は、第1から第6までの発明のいずれかにおいて、
表示手段をさらに備え、
前記表示手段は、前記第1合成位置に前記特定要素画像を配置した付加画像を縮小表示する画面である操作画面と、前記利用者により選択された付加画像を前記撮影画像に対して合成する前記編集手段により合成された合成画像を表示する画面である編集画面とを同時に表示することを特徴とする。
According to a seventh invention, in any one of the first to sixth inventions,
A display means,
The display means synthesizes an operation screen, which is a screen for reducing and displaying an additional image in which the specific element image is arranged at the first synthesis position, and the additional image selected by the user with the captured image. An editing screen, which is a screen for displaying a composite image synthesized by the editing means , is simultaneously displayed .

第8の発明は、利用者の撮影を行う撮影ステップと、
前記撮影ステップによって撮影された撮影画像に含まれる利用者の顔を検出するとともに検出した顔の少なくとも一部を含む顔領域を設定する顔領域設定ステップと、
前記撮影画像に対する合成位置が予め定められた第1合成位置に設定された特定要素画像を含む付加画像を前記撮影画像に対して合成する編集ステップとを備え、
前記編集ステップでは、
前記特定要素画像を前記第1合成位置に合成した場合において前記特定要素画像が占める特定領域の範囲と、前記顔領域の範囲とが重複する場合、重複する範囲を減少または消失させるよう、前記第1合成位置とは異なる第2合成位置に前記特定要素画像を合成し、
前記特定領域の範囲と前記顔領域の範囲とが重複しない場合、前記第1合成位置に前記特定要素画像を合成することを特徴とする。
An eighth aspect of the present invention is a photographing step for photographing a user;
Detects the face of a Subscriber that is part of the image captured me by the photographing step, a face region setting step of setting a face area that includes at least part of the detected face,
An editing step of synthesizing the additional image including the specific element image in which the synthesis position with respect to the captured image is set to a predetermined first synthesis position with respect to the captured image,
In the editing step,
If the range of the specific region occupied by the particular elements picture image have you when synthesizing the specific element image to the first combined position, where the range before Kikao regions overlap, reduce or eliminate overlapping ranges The specific element image is synthesized at a second synthesis position different from the first synthesis position,
When the range of the specific area and the range of the face area do not overlap, the specific element image is synthesized at the first synthesis position .

第9の発明は、コンピュータに、
利用者の撮影を行う撮影ステップと、
前記撮影ステップによって撮影された撮影画像に含まれる利用者の顔を検出するとともに検出した顔の少なくとも一部を含む顔領域を設定する顔領域設定ステップと、
前記撮影画像に対する合成位置が予め定められた第1合成位置に設定された特定要素画像を含む付加画像を前記撮影画像に対して合成する編集ステップとを実行させるプログラムであって、
前記編集ステップでは、
前記特定要素画像を前記第1合成位置に合成した場合において前記特定要素画像が占める特定領域の範囲と、前記顔領域の範囲とが重複する場合、重複する範囲を減少または消失させるよう、前記第1合成位置とは異なる第2合成位置に前記特定要素画像を合成し、
前記特定領域の範囲と前記顔領域の範囲とが重複しない場合、前記第1合成位置に前記特定要素画像を合成する、プログラムである。
The ninth invention provides a computer,
A shooting step for shooting the user;
Detects the face of a Subscriber that is part of the image captured me by the photographing step, a face region setting step of setting a face area that includes at least part of the detected face,
A program for executing an editing step for synthesizing an additional image including a specific element image set to a predetermined first synthesis position with respect to the captured image, with respect to the captured image,
In the editing step,
If the range of the specific region occupied by the particular elements picture image have you when synthesizing the specific element image to the first combined position, where the range before Kikao regions overlap, reduce or eliminate overlapping ranges The specific element image is synthesized at a second synthesis position different from the first synthesis position,
When the range of the specific area and the range of the face area do not overlap , the program is a program for synthesizing the specific element image at the first synthesis position .

上記第1の発明によれば、特定要素画像が占める特定領域の範囲と、顔領域の範囲とが重複する場合、重複する範囲を減少または消失させるよう、第1合成位置とは異なる第2合成位置に前記特定要素画像を合成し、重複しない場合、第1合成位置に特定要素画像を合成するので、特定要素画像が利用者の顔部分に差し掛かる状態を、利用者の操作を要することなく自動的に、またデザインを大きく変えることなく低減または解消することができる。 According to the first aspect, the range of the specific region occupied by the specific element image picture, if the range of the face region overlap, so as to reduce or eliminate the overlapping ranges, the second which is different from the first combination position When the specific element image is synthesized at the synthesis position and does not overlap, the specific element image is synthesized at the first synthesis position, so that the user needs to operate the state where the specific element image is approaching the user's face part. Can be reduced or eliminated automatically and without major design changes.

上記第2の発明によれば、予め定められた位置に合成されるべき複数の装飾要素画像のうち、顔領域の範囲と重複する装飾要素画像が合成されない(すなわち結果的に消去する)か、または顔領域の範囲および利用者の像の範囲のうちの少なくとも一方の範囲に対して背景となるように合成されるので、当該装飾画像要素と他の画像要素との位置関係や全体的な配置関係などに基づく(典型的には全体的な)デザインを大きく変えないようにすることが可能となる。 According to the second aspect, among the plurality of decoration element images to be combined at a predetermined position, the decoration element image overlapping the range of the face area is not combined (that is, erased as a result), Alternatively, since it is synthesized so as to be a background with respect to at least one of the range of the face area and the range of the user's image, the positional relationship and overall arrangement of the decoration image element and other image elements It will be possible to avoid significant changes in the design (typically overall) based on relationships.

上記第3の発明によれば、候補となる合成位置のうち、最も高い優先順位を付された候補合成位置に、特定要素画像の合成位置が変更されるので、例えば優先順位をデザインが好ましい順に付与すれば合成後のデザインがより好ましくなり、例えば予め定められた初期位置からの距離等に基づいて優先順位を付与すれば、予め定められた初期状態(のデザイン)から大きく変えないようにすることができる。また、候補合成位置を計算によって求める必要がないので、構成を簡易にすることができる。   According to the third aspect, the combination position of the specific element image is changed to the candidate combination position with the highest priority among the candidate combination positions. If given, the design after synthesis becomes more preferable. For example, if priority is given based on a distance from a predetermined initial position, the design is not greatly changed from the predetermined initial state (design). be able to. In addition, since it is not necessary to obtain a candidate synthesis position by calculation, the configuration can be simplified.

上記第4の発明によれば、第1合成位置を起点として、当該起点に最も近い候補合成位置に、特定要素画像が合成されるので、予め定められた初期状態(のデザイン)から大きく変えないようにすることができる。また予め複数の候補となる合成位置の中から選択する構成よりも、場合によってはさらに(典型的にはデザイン上)好適な位置を算出することができ、また候補となる合成位置では全てが顔領域と重なってしまう場合であっても、場合によっては顔領域と重ならない合成位置を算出することができる。 According to the fourth aspect of the invention, since the specific element image is synthesized from the first synthesis position as the starting point to the candidate synthesis position closest to the starting point, the initial state (design) is not greatly changed. Can be. In addition, a more suitable position (typically in terms of design) can be calculated in some cases than a configuration in which a plurality of candidate composition positions are selected in advance, and all face positions can be calculated at candidate composition positions. Even if the region overlaps with the region, in some cases, a combined position that does not overlap with the face region can be calculated.

上記第5の発明によれば、特定要素画像が占める領域が撮影画像の上下方向に伸びる中心線に掛かりかつ上下方向とは異なる方向に配列される一連の文字、記号、または模様を示す複数の画像を含むので、当該特定要素画像が顔領域に差し掛かる可能性が高くため、差し掛かる場合に合成位置が移動されることによって、当該特定要素画像の示す意味や、連続性などに基づくデザインを少なくとも大きく変えないようにすることができる。   According to the fifth aspect, the region occupied by the specific element image is applied to a center line extending in the vertical direction of the photographed image, and a plurality of characters indicating a series of characters, symbols, or patterns arranged in a direction different from the vertical direction Since the image includes an image, there is a high possibility that the specific element image will reach the face area, so the design position based on the meaning, continuity, etc. indicated by the specific element image can be changed by moving the composition position when the image is reached. At least not greatly change.

上記第6の発明によれば、特定要素画像における変更後の合成位置が、第1合成位置から下方向に定められるので、通常撮影画像の上半分にあることが多い顔部分に差し掛かる可能性を低くすることができる。また顔部分の上の空白部分(背景部分)には利用者による(ペンやスタンプなどの)落書きが含まれることが多いため、下方向へ移動させることにより、これらの落書きが特定要素画像により隠されないようにすることができる。 According to the sixth aspect, since the composite position after the change in the specific element image is determined downward from the first composite position, there is a possibility of reaching a face portion that is often in the upper half of the normal captured image. Can be lowered. In addition, since the blank part (background part) above the face part often includes graffiti (such as a pen or stamp) by the user, these graffiti are hidden by the specific element image by moving downward. Can be prevented.

上記第7の発明によれば、第1合成位置に特定要素画像を配置した付加画像を縮小表示する画面である操作画面と、利用者により選択された付加画像を撮影画像に対して合成した合成画像を表示する画面である編集画面とが同時に表示されるので、利用者が操作画面において付加画像を選択しやすくすることができ、また選択した付加画像を(場合によって合成位置を変更して)合成した結果を利用者に編集画面において確認させることができる。 According to the seventh aspect, the operation screen, which is a screen for reducing the additional image in which the specific element image is arranged at the first synthesis position, and the synthesized image obtained by synthesizing the additional image selected by the user with the photographed image. Since the editing screen, which is a screen for displaying images, is displayed at the same time, it is easy for the user to select an additional image on the operation screen, and the selected additional image can be selected (by changing the composite position in some cases). The synthesized result can be confirmed on the editing screen by the user.

上記第8の発明によれば、上記第1の装置発明における効果を方法の発明において同様に奏することができる。   According to the eighth aspect of the invention, the effect of the first aspect of the invention can be similarly achieved in the method invention.

上記第9の発明によれば、上記第1の装置発明における効果をプログラムの発明において同様に奏することができる。   According to the ninth aspect, the effect of the first device invention can be similarly achieved in the invention of the program.

本発明の一実施形態に係る自動写真作成装置である遊戯用写真作成装置の外観を示す図である。It is a figure which shows the external appearance of the photo production apparatus for games which is an automatic photo production apparatus which concerns on one Embodiment of this invention. 上記実施形態における撮影ユニットの正面図である。It is a front view of the imaging unit in the embodiment. 上記実施形態における編集ユニットの正面図である。It is a front view of the edit unit in the said embodiment. 上記実施形態における出力ユニットの正面図である。It is a front view of the output unit in the said embodiment. 上記実施形態における撮影操作用タッチパネルの表示構成を示す模式図である。It is a schematic diagram which shows the display structure of the touchscreen for imaging operations in the said embodiment. 上記実施形態に係る遊戯用写真作成装置の要部を機能面から見た構成を示すブロック図である。It is a block diagram which shows the structure which looked at the principal part of the photo production apparatus for play concerning the said embodiment from the functional surface. 上記実施形態における編集操作用タッチパネルの表示構成の一例を示す模式図である。It is a schematic diagram which shows an example of the display structure of the touch panel for edit operations in the said embodiment. 上記実施形態において選択されるフレーム画像を示す図である。It is a figure which shows the frame image selected in the said embodiment. 図8に示すフレーム画像を2人の利用者が写る撮影画像に対して単純に合成して得られる合成画像を示す図である。It is a figure which shows the synthesized image obtained by simply synthesize | combining with the picked-up image which two users image the frame image shown in FIG. 図8に示すフレーム画像を3人の利用者が写る撮影画像に対して単純に合成して得られる合成画像を示す図である。It is a figure which shows the synthesized image obtained by simply synthesize | combining with the picked-up image which three users image | photograph the frame image shown in FIG. 上記実施形態において、フレーム画像を部分的に変更した後に合成した結果得られる合成画像を示す図である。In the said embodiment, it is a figure which shows the synthesized image obtained as a result of synthesize | combining after changing a frame image partially. 上記実施形態における撮影処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the imaging | photography process in the said embodiment. 上記実施形態における落書き編集処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the graffiti edit process in the said embodiment. 上記実施形態におけるフレーム画像の部分的な変更処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the partial change process of the frame image in the said embodiment. 上記実施形態において、フレーム画像の各要素画像と、利用者の顔領域との位置関係を示す図である。In the said embodiment, it is a figure which shows the positional relationship of each element image of a frame image, and a user's face area. 上記実施形態における処理の経過および結果、部分的に変更されたフレーム画像と、顔領域との位置関係を示す図である。It is a figure which shows the positional relationship of the progress and result of the process in the said embodiment, and the frame image changed partially, and a face area. 上記実施形態の変形例において、移動後の特定要素画像の合成位置を一回的に算出する例を説明するための図である。It is a figure for demonstrating the example which calculates the synthetic | combination position of the specific element image after a movement once in the modification of the said embodiment. 上記実施形態の変形例において、移動後の特定要素画像の合成位置を計算により算出しない例を説明するための図である。It is a figure for demonstrating the example which does not calculate the synthetic | combination position of the specific element image after a movement in the modification of the said embodiment. 上記実施形態の変形例において、特定要素画像と複数の特殊な前景画像とを含むフレーム画像と顔領域との関係を示す図である。In the modification of the said embodiment, it is a figure which shows the relationship between the frame image containing a specific element image and a some special foreground image, and a face area.

以下、添付図面を参照しつつ本発明の一実施形態について説明する。
<1.全体構成>
図1は、本発明の一実施形態に係る自動写真作成装置である遊戯用写真作成装置の外観を示す図である。より詳細には、図1(a)は、この遊戯用写真作成装置を横から見た外観側面図であり、図1(b)は、上から見た外観平面図である。この遊戯用写真作成装置は、利用者が入る撮影室2と、利用者を撮影し背景画像および前景画像の選択を受け付ける撮影ユニット3と、利用者による落書き(描画操作)を含む編集操作を受け付け撮影画像に合成した合成画像を生成する編集ユニット4と、合成画像を出力する出力ユニット5とを備えている。図2は、撮影ユニット3の正面図であり、図3は、編集ユニット4の正面図であり、図4は、出力ユニット5の正面図である。以下、図1から図4を参照しつつ、本実施形態に係る遊戯用写真作成装置の全体構成について説明する。
Hereinafter, an embodiment of the present invention will be described with reference to the accompanying drawings.
<1. Overall configuration>
FIG. 1 is a diagram showing an appearance of a game photo creation device that is an automatic photo creation device according to an embodiment of the present invention. More specifically, FIG. 1 (a) is an external side view of the play photo creation apparatus as viewed from the side, and FIG. 1 (b) is an external plan view as viewed from above. This play photo creation device accepts a shooting room 2 where a user enters, a shooting unit 3 that takes a picture of the user and receives selection of a background image and a foreground image, and an editing operation including graffiti (drawing operation) by the user. An editing unit 4 that generates a combined image combined with the photographed image and an output unit 5 that outputs the combined image are provided. FIG. 2 is a front view of the photographing unit 3, FIG. 3 is a front view of the editing unit 4, and FIG. 4 is a front view of the output unit 5. Hereinafter, the overall configuration of the game photo creation device according to the present embodiment will be described with reference to FIGS. 1 to 4.

撮影室2は、略直方体形状であって、撮影ユニット3は、内部に入る利用者から見て前の面である撮影室2の前面に沿って配置されている。なお、撮影室2の左右両側面の一部には、それぞれ利用者が出入りするための開口部と、当該開口部の一部または全部を覆う遮光カーテンとが設けられている。また、撮影室2の内部に入る利用者から見て後ろの面である背面にはクロマキー合成処理のための単一の色(ここでは青色または緑色)が付されている。なお、これらの色は床面等にも付されているものとする。   The photographing room 2 has a substantially rectangular parallelepiped shape, and the photographing unit 3 is arranged along the front surface of the photographing room 2 which is a front surface when viewed from the user entering the inside. Note that an opening for a user to enter and exit, and a light-shielding curtain that covers a part or all of the opening are provided on a part of each of the left and right side surfaces of the photographing room 2. In addition, a single color (in this case, blue or green) for chroma key composition processing is attached to the rear surface, which is the rear surface as viewed from the user who enters the photographing room 2. These colors are also attached to the floor surface.

撮影ユニット3は、利用者を撮影する撮像手段としてのカメラ10と、当該カメラ10の上下左右の位置に配置され閃光を発するストロボ11,12,13L,13R,14と、当該カメラ10の下方に配置され利用者からの操作の受け付けや撮影画像の表示等を行う撮影操作用タッチパネル20とを備えている。   The photographing unit 3 includes a camera 10 as an imaging unit for photographing a user, strobes 11, 12, 13 L, 13 R, and 14 that are arranged at the top, bottom, left and right positions of the camera 10 and emit flash light, and below the camera 10. It is provided with a shooting operation touch panel 20 that is arranged and receives operations from a user, displays shot images, and the like.

カメラ10は、典型的には、CCD(電荷結合素子)を利用してデジタル画像信号を生成するデジタルカメラであって、利用者を撮影し、その撮影画像を表す画像信号を出力する。ストロボ11〜14は、撮影のための充分な光を得るために利用者に向かって閃光を発する。撮影操作用タッチパネル20は、撮影の際に利用者による各種操作を受け付けるための操作画面を提供するとともに、上記画像信号に基づく画像をリアルタイムで表示するように構成されている。   The camera 10 is typically a digital camera that generates a digital image signal using a CCD (Charge Coupled Device), captures a user, and outputs an image signal representing the captured image. The flashes 11 to 14 emit a flash toward the user in order to obtain sufficient light for photographing. The shooting operation touch panel 20 is configured to provide an operation screen for accepting various operations by the user during shooting, and to display an image based on the image signal in real time.

図5は、撮影操作用タッチパネル20の表示構成を示す模式図である。図5に示すように、撮影操作用タッチパネル20には、リアルタイムで撮影画像を表示するためのリアルタイムプレビュー領域201と、ポーズの見本を表示するためのポーズ見本表示領域202と、撮影によって得られる落書き対象画像を表示するための落書き対象画像表示領域203とが含まれている。   FIG. 5 is a schematic diagram showing a display configuration of the touch panel 20 for shooting operation. As shown in FIG. 5, the shooting operation touch panel 20 has a real-time preview area 201 for displaying a shot image in real time, a pose sample display area 202 for displaying a pose sample, and a graffiti obtained by shooting. A graffiti target image display area 203 for displaying the target image is included.

また撮影ユニット3は、コンピュータを中心に構成され各部の制御等を行う制御装置、I/O制御装置、および編集ユニット4と通信を行うためのネットワークアダプタ等を内蔵している。また、撮影ユニット3は、前面下方にコイン投入口26を備えている。   The photographing unit 3 is built around a computer and incorporates a control device for controlling each part, an I / O control device, a network adapter for communicating with the editing unit 4, and the like. The photographing unit 3 includes a coin insertion slot 26 at the lower front side.

編集ユニット4は、撮影ユニット3と同様のコンピュータを中心に構成され各部の制御等を行う制御装置、および撮影ユニット3等と通信を行うためのネットワークアダプタ等を内蔵している。また、編集ユニット4は、図1(b)に示すように、2組の利用者がプレイ可能なように2つのユニット4a、4bに分かれている。そのうちの一方のユニット4aには、落書き領域や落書きのためのメニュー、ツール等を表示する領域を含みGUI(Graphical User Interface)表示手段として機能する編集操作用タッチパネル400と、当該編集操作用タッチパネル400に対する操作に使用されるポインティングデバイスとしてのタッチペン49L、49R、49Cとが設けられている。なお、他方のユニット4bについても同様の構成となっている。ここで図1(a)において手前に見えるユニット4aを「落書きブースA」と呼び、その反対側(図では裏側)のユニット4bを「落書きブースB」と呼ぶ。   The editing unit 4 is configured around a computer similar to the photographing unit 3, and includes a control device that controls each part and the like, and a network adapter that communicates with the photographing unit 3 and the like. Further, as shown in FIG. 1B, the editing unit 4 is divided into two units 4a and 4b so that two sets of users can play. One of the units 4a includes an editing operation touch panel 400 that includes a graffiti area, an area for displaying a menu for graffiti, a tool, and the like and functions as a GUI (Graphical User Interface) display means, and the editing operation touch panel 400 Touch pens 49L, 49R, and 49C are provided as pointing devices used for an operation on the. The other unit 4b has the same configuration. Here, the unit 4a seen in the foreground in FIG. 1A is referred to as “graffiti booth A”, and the unit 4b on the opposite side (the back side in the figure) is referred to as “graffiti booth B”.

本実施形態における編集操作用タッチパネル400は、各ユニット4a、4bにおいて典型的にはそれぞれ2人の利用者が同時に落書きを行えるような表示構成となっている。なお、本説明においては、左側の利用者が使用する構成要素には「L」を含む参照符号を付し、右側の利用者が使用する構成要素には「R」を含む参照符号を付している。   The touch panel 400 for editing operation in the present embodiment has a display configuration in which each of the units 4a and 4b typically allows two users to simultaneously doodle. In this description, components used by the user on the left side are given reference signs including “L”, and components used by the user on the right side are assigned reference signs including “R”. ing.

また、本実施形態における編集操作用タッチパネル400に表示される表示画面は、典型的には2人の利用者の操作に適するよう、左右に2分割されて表示されている。以下では、この表示画面のうちの左側の操作画面を左操作画面といい、右側の操作画面を右操作画面という。   In addition, the display screen displayed on the editing operation touch panel 400 in the present embodiment is typically divided into two parts on the left and right sides so as to be suitable for the operation of two users. Hereinafter, the left operation screen of the display screen is referred to as a left operation screen, and the right operation screen is referred to as a right operation screen.

さらに、編集操作用タッチパネル400は、4つのタッチペン49L1、49L2、49R1、49R2による操作位置を同時に検出可能に構成されており、かつ、検出される各操作位置が、49L1、49L2、49R1、49R2のうちのいずれの操作に対応するのかも検出可能となっている。例えば、編集操作用タッチパネル400として静電容量方式のタッチパネルを使用した場合には、このような複数の操作位置の同時検出と操作されたタッチペンの識別とが可能である。   Further, the editing operation touch panel 400 is configured to be able to simultaneously detect the operation positions of the four touch pens 49L1, 49L2, 49R1, and 49R2, and the detected operation positions are those of 49L1, 49L2, 49R1, and 49R2. It is possible to detect which of these operations is supported. For example, when a capacitive touch panel is used as the editing operation touch panel 400, simultaneous detection of such a plurality of operation positions and identification of the operated touch pen are possible.

なお、左操作画面用の2つのタッチペン(以下「左画面用ペン」という)49L1、49L2、または右操作画面用の2つのタッチペン(以下「右画面用ペン」という)49R1、49R2は、それぞれが同時に使用(入力操作)できるが、これをできないように、すなわち先にアクティブとなり(先に操作入力が受け付けられ)継続的にアクティブとなっているタッチペンのみが操作入力可能となるように制御してもよい。このように制御すれば描画レスポンスを高速に保つことができる。   Two touch pens for left operation screen (hereinafter referred to as “left screen pen”) 49L1 and 49L2, or two touch pens for right operation screen (hereinafter referred to as “right screen pen”) 49R1 and 49R2, respectively. Although it can be used (input operation) at the same time, it is controlled so that only the touch pen that is active first (operation input is accepted first) and is continuously active can be input. Also good. By controlling in this way, the drawing response can be maintained at high speed.

また、上記タッチペンの数には特に限定がなく、またタッチペンに代えて、同時に座標検出可能な周知のポインティングデバイス(例えばトラックボールやカーソルキー、カメラ画像に基づく位置判定など)を入力手段として使用してもよい。   The number of touch pens is not particularly limited, and instead of the touch pen, a known pointing device capable of detecting coordinates at the same time (for example, a position determination based on a trackball, a cursor key, or a camera image) is used as an input means. May be.

出力ユニット5は、図4に示すように、典型的には携帯電話端末に内蔵される赤外線ポートにより、例えばデコメール(登録商標)画像等の素材画像や撮影画像に落書きをした合成画像などを利用者の携帯電話端末に転送する際に利用者によって操作される出力操作用タッチパネル30と、出力操作用タッチパネル30の下方に配置され上記素材画像等を赤外線信号として携帯電話端末に向けて直接送信するための赤外線ポート(非接触通信ポート)31と、上記通信の際に必要な操作方法や効果音などを音声によって利用者に知らせるスピーカ32とを備えている。また、出力ユニット5は、前面下方に、編集ユニット4で編集操作が行われた合成画像を印刷した写真シールや写真カード等を取り出す取出口33を備えている。   As shown in FIG. 4, the output unit 5 typically displays, for example, a material image such as a Deco-mail (registered trademark) image or a composite image obtained by grabbing a photographed image by an infrared port built in the mobile phone terminal. An output operation touch panel 30 that is operated by the user when transferring to the user's mobile phone terminal, and the above-described material image or the like arranged below the output operation touch panel 30 is directly transmitted to the mobile phone terminal as an infrared signal. An infrared port (non-contact communication port) 31 and a speaker 32 that informs the user by voice of operation methods and sound effects necessary for the communication. Further, the output unit 5 includes an outlet 33 for taking out a photo sticker, a photo card, or the like on which a composite image that has been edited by the editing unit 4 is printed.

出力操作用タッチパネル30は、利用者が合成画像を印刷された写真シール等だけでなくサーバからダウンロードして携帯電話端末でも見たい場合に、上記素材画像等を上記非接触通信機能を備えた携帯電話端末に送信するのに必要な各種操作を受け付けるための操作画面を提供するように構成されていている。なお、当該操作は主に合成画像の写真シール等が印刷されるまでの時間を利用して行われるので、利用者は写真シール等が印刷されるまでの時間を持て余すことなく有効に利用することができる。その詳しい表示例については後述する。   The touch panel 30 for output operation is a mobile phone provided with the non-contact communication function when the user wants to download the composite image from a server as well as a photo sticker or the like to view it on a mobile phone terminal. It is configured to provide an operation screen for accepting various operations necessary for transmission to the telephone terminal. This operation is mainly performed using the time until the photo sticker of the composite image is printed. Therefore, the user should use the time effectively until the photo sticker etc. is printed. Can do. A detailed display example will be described later.

出力操作用タッチパネル30は、利用者が合成画像を印刷された写真シールを携帯電話端末でも見たい場合に、上記赤外線通信機能(またはその他の近接無線通信機能)を備えた携帯電話端末に送信するのに必要な各種操作を受け付けるための操作画面を提供するように構成されている。   When the user wants to view the photo sticker on which the composite image is printed on the mobile phone terminal, the output operation touch panel 30 transmits the photo sticker to the mobile phone terminal having the infrared communication function (or other proximity wireless communication function). It is configured to provide an operation screen for accepting various operations necessary for this.

このような出力ユニット5も、撮影ユニット3と同様のコンピュータを中心に構成され各部の制御等を行う制御装置および編集ユニット4等と通信を行うためのネットワークアダプタ等を内蔵しているほか、合成画像を写真シール等として印刷するネットワークプリンタ35を備えている。   Such an output unit 5 is also configured around a computer similar to the photographing unit 3, and includes a control device for controlling each part, a network adapter for communicating with the editing unit 4, etc. A network printer 35 for printing an image as a photo sticker or the like is provided.

以上のような構成において、利用者は、撮影室2において撮影を行った後、編集ユニット4の落書きブースAまたは落書きブースBの編集操作用タッチパネル400を使用することにより、撮影画像に基づいて生成された落書き対象画像に対して落書きを行う。そして、利用者は、落書きによって生成された合成画像をネットワークプリンタによって印刷したり、赤外線通信機能を有する携帯電話端末に画像を送信し、携帯電話端末で受信した画像を端末画面に表示させたりする。   In the configuration as described above, after shooting in the shooting room 2, the user uses the graffiti booth A of the editing unit 4 or the touch panel 400 for the editing operation of the graffiti booth B to generate based on the shot image. Graffiti is performed on the graffiti target image. Then, the user prints the composite image generated by the graffiti by the network printer, transmits the image to the mobile phone terminal having the infrared communication function, and displays the image received by the mobile phone terminal on the terminal screen. .

<2.機能的構成>
図6は、本実施形態に係る遊戯用写真作成装置の要部を機能面から見た構成を示すブロック図である。この図6に示す遊戯用写真作成装置は、機能的には、主として利用者を撮影する処理(撮影処理)を行うための撮影処理部7と、主として落書き対象画像に対する利用者の落書き操作に応じて当該落書き対象画像の編集処理を行うための編集処理部8と、編集処理が行われた落書き対象画像を写真シール等として出力したり、作成された素材画像等を非接触通信を利用して携帯電話端末に出力したりする処理(出力処理)を行う出力処理部9とから構成されている。
<2. Functional configuration>
FIG. 6 is a block diagram showing the configuration of the main part of the play photo creating apparatus according to the present embodiment as seen from the functional aspect. 6 is functionally according to a photographing processing unit 7 for mainly performing a process of photographing a user (photographing process) and a graffiti operation of the user mainly on a graffiti target image. Edit processing unit 8 for performing the editing process of the graffiti target image, and output the graffiti target image subjected to the editing process as a photo sticker, etc. And an output processing unit 9 that performs processing (output processing) for outputting to a mobile phone terminal.

撮影処理部7は、第1の制御部70と、撮像部71と、第1の表示・操作部72と、I/O制御部73と、照明部74と、第1の通信部75とによって構成されている。編集処理部8は、第2の制御部80と、第2の表示・操作部81,82と、第2の通信部83とによって構成されている。出力処理部9は、第3の制御部90と、第3の表示・操作部91と、印刷出力部92と、音声出力部93と、非接触通信部94と、第3の通信部95と、無線通信部96とによって構成されている。ネットワークアダプタである第1、第2および第3の通信部75,83,95は、LAN(Local Area Network)であるネットワーク6を介してそれぞれ相互に通信可能となっている。   The imaging processing unit 7 includes a first control unit 70, an imaging unit 71, a first display / operation unit 72, an I / O control unit 73, an illumination unit 74, and a first communication unit 75. It is configured. The edit processing unit 8 includes a second control unit 80, second display / operation units 81 and 82, and a second communication unit 83. The output processing unit 9 includes a third control unit 90, a third display / operation unit 91, a print output unit 92, an audio output unit 93, a non-contact communication unit 94, and a third communication unit 95. And a wireless communication unit 96. The first, second, and third communication units 75, 83, and 95 that are network adapters can communicate with each other via a network 6 that is a LAN (Local Area Network).

撮像部71は、CCD等の撮像素子を用いて構成されるカメラ10に相当し、リアルタイムに画像を取り込んで当該画像(撮影画像)を表す画像信号を出力する。この画像信号は第1の制御部70に入力されて、その内部のメモリに撮影画像データとして一時的に記憶される。また、この撮影画像データは撮影画像信号として第1の制御部70から第1の表示・操作部72に供給され、当該撮影画像信号に基づく撮影画像がリアルタイムに表示される。   The imaging unit 71 corresponds to the camera 10 configured using an imaging element such as a CCD, and captures an image in real time and outputs an image signal representing the image (captured image). This image signal is input to the first control unit 70 and temporarily stored as photographed image data in its internal memory. The captured image data is supplied as a captured image signal from the first control unit 70 to the first display / operation unit 72, and a captured image based on the captured image signal is displayed in real time.

第1の表示・操作部72は、撮影操作用タッチパネル20に相当し、撮影画像に付加されるべき背景画像および前景画像を選択する操作やシャッター操作等を受け付ける。これらの操作を示す信号は、操作信号として第1の制御部70に入力される。ここで、利用者を撮影するための(選択された撮影メニューに対応する)所定の処理が開始されると、第1の表示・操作部72に利用者のための案内が表示され、その後の第1の制御部70からの指示に基づき、数秒程度の予め決められた時間の経過後にカメラ10の撮影方向にストロボ11〜14から閃光が放たれる。そのとき、利用者の撮影画像を表す信号として撮像部71から出力される画像信号が第1の制御部70に入力され、第1の制御部70内のメモリまたは補助記憶装置としてのハードディスク装置等に撮影画像データとして格納される。   The first display / operation unit 72 corresponds to the shooting operation touch panel 20 and accepts an operation for selecting a background image and a foreground image to be added to the shot image, a shutter operation, and the like. Signals indicating these operations are input to the first control unit 70 as operation signals. Here, when a predetermined process for photographing the user (corresponding to the selected photographing menu) is started, guidance for the user is displayed on the first display / operation unit 72, and thereafter Based on an instruction from the first control unit 70, a flash is emitted from the flashes 11 to 14 in the shooting direction of the camera 10 after a predetermined time of about several seconds. At that time, an image signal output from the imaging unit 71 as a signal representing a photographed image of the user is input to the first control unit 70, a memory in the first control unit 70, a hard disk device as an auxiliary storage device, or the like. Stored as captured image data.

照明部74は、カメラ10の上下左右の位置に配置されたストロボ11,12,13L,13R,14に相当し、第1の制御部70からの指示に基づきI/O制御部73によって点灯/消灯および調光が制御される。I/O制御部73は、撮影ユニット3に内蔵されるI/O制御装置に相当し、第1の制御部70からの指示に基づき、照明部74を制御する。また、後述のコイン検出部(不図示)からの検出信号等の入力信号を第1の制御部70へ転送する。第1の通信部75は、撮影ユニット3に内蔵されるネットワークアダプタに相当し、ネットワーク6を介したデータ送受信の際のインタフェースとして機能する。   The illumination unit 74 corresponds to the strobes 11, 12, 13 </ b> L, 13 </ b> R, 14 disposed at the top, bottom, left, and right positions of the camera 10. Turning off and dimming are controlled. The I / O control unit 73 corresponds to an I / O control device built in the photographing unit 3, and controls the illumination unit 74 based on an instruction from the first control unit 70. Further, an input signal such as a detection signal from a coin detection unit (not shown) described later is transferred to the first control unit 70. The first communication unit 75 corresponds to a network adapter built in the photographing unit 3 and functions as an interface for data transmission / reception via the network 6.

第1の制御部70は、撮影ユニット3に内蔵され、CPU、メモリ、フレームバッファ、タイマー、補助記憶装置等を含むコンピュータを中心に構成される制御装置に相当し、内部メモリに格納された所定プログラムをCPUが実行することにより、上述のようにして入力される操作信号等に基づき各部を制御するために、上述のように各部に指示を出す。また撮影された画像に基づいて落書き対象画像を生成する。生成された落書き対象画像はフレームバッファに書き込まれることにより、第1の表示・操作部72に表示される。さらに、第1の制御部70は、落書き対象画像に所定の背景画像や前景画像を描画した画像である合成画像を生成する。この落書き対象画像には、詳しくは後述するようにマスクの作成に使用されるキー色となる背景色が付されており、周知のクロマキー合成処理の手法に基づき、利用者の像のみを含む撮影画像部分を抽出し、当該撮影画像部分が背景画像中に嵌め込まれるように合成する。このように生成された合成画像はフレームバッファに書き込まれることにより第1の表示・操作部72に表示される。こうして撮影および合成画像の生成が終了すると、生成された合成画像は利用者の入力操作に応じて適宜選択された後、第1の通信部75を介して、編集ユニット4に対応する第2の制御部80へ送られる。   The first control unit 70 is built in the photographing unit 3 and corresponds to a control device mainly composed of a computer including a CPU, a memory, a frame buffer, a timer, an auxiliary storage device and the like, and is stored in a predetermined memory stored in an internal memory. When the CPU executes the program, an instruction is given to each unit as described above in order to control each unit based on the operation signal or the like input as described above. A graffiti target image is generated based on the photographed image. The generated graffiti target image is written in the frame buffer and displayed on the first display / operation unit 72. Further, the first control unit 70 generates a composite image that is an image in which a predetermined background image or foreground image is drawn on the graffiti target image. As will be described in detail later, this graffiti target image has a background color that is a key color used to create a mask, and based on the well-known chroma key composition processing method, the image includes only the user's image. An image part is extracted and synthesized so that the photographed image part is inserted into the background image. The composite image generated in this way is displayed on the first display / operation unit 72 by being written in the frame buffer. When the shooting and the generation of the composite image are completed in this way, the generated composite image is appropriately selected according to the input operation of the user, and then the second corresponding to the editing unit 4 via the first communication unit 75. It is sent to the control unit 80.

上記の構成要素の他、撮影ユニット3におけるコイン投入口26に投入されたコインを検出するためのコイン検出部(不図示)が更に撮影ユニット3に設けられており、第1の制御部70は、コイン検出部での検出結果に基づき、利用者に所定時間だけ撮影や背景画像および前景画像の選択や落書き等、本遊戯用写真作成装置によるプレイを許容するように各部を制御する。このコイン検出部による検出動作やその検出結果に基づく第1の制御部70による制御動作は、従来の遊戯用写真作成装置と同様であって周知であるので、その詳しい説明を省略する。   In addition to the above-described components, the photographing unit 3 is further provided with a coin detection unit (not shown) for detecting coins inserted into the coin insertion slot 26 in the photographing unit 3, and the first control unit 70 includes Based on the detection result of the coin detection unit, each unit is controlled so as to allow the user to play with the present photo creation device, such as shooting, selection of the background image and foreground image, and graffiti for a predetermined time. Since the detection operation by the coin detection unit and the control operation by the first control unit 70 based on the detection result are the same as those of the conventional game photo creation device and are well known, detailed description thereof will be omitted.

第2の制御部80は、編集ユニット4に内蔵され、CPU、メモリ、フレームバッファ、および補助記憶装置等を含むコンピュータを中心に構成される制御装置に相当し、内部メモリに格納された所定プログラムをCPUが実行することにより、編集処理に関する全体の制御を行う。すなわち第2の制御部80は、第2の表示・操作部を制御するGUI制御手段として機能する。また、第2の制御部80は、第1の制御部70から送られてきた落書き対象画像(撮影画像を含む画像)に対する落書き処理を行うための操作信号に基づき、その落書き対象画像に所定画像を描画した画像である合成画像を生成したり、落書き操作のための操作画面を生成し制御する。この操作画面および生成された合成画像や素材画像は利用者の指示に応じて対応する第2の表示・操作部81,82に表示される。さらに、第2の制御部80は、落書き対象画像に含まれる利用者の顔領域を認識する処理を行い、認識された利用者の顔領域にフレーム画像の部分が差し掛からないように、当該フレーム画像を部分的に変更する特徴的な動作を行う。この動作については詳しく後述する。上記のような合成画像の生成が終了すると、利用者による分割レイアウトの選択指示を受け付ける。選択された分割レイアウトを示す情報および生成された合成画像は出力ユニット5に送られる。なお、印刷出力部92が別の合成画像を出力中である場合には、その旨が表示されるとともに終了を待って送られる。   The second control unit 80 is a built-in editing unit 4 and corresponds to a control device that is configured around a computer including a CPU, a memory, a frame buffer, an auxiliary storage device, and the like, and is a predetermined program stored in an internal memory. Is executed by the CPU to perform overall control related to the editing process. That is, the second control unit 80 functions as a GUI control unit that controls the second display / operation unit. In addition, the second control unit 80 adds a predetermined image to the graffiti target image based on an operation signal for performing graffiti processing on the graffiti target image (an image including a captured image) sent from the first control unit 70. A composite image, which is an image of drawing, is generated and an operation screen for graffiti operation is generated and controlled. The operation screen and the generated composite image or material image are displayed on the corresponding second display / operation units 81 and 82 in accordance with a user instruction. Further, the second control unit 80 performs a process of recognizing the user's face area included in the graffiti target image, so that the frame image portion does not reach the recognized user's face area. Performs characteristic operations that change the image partially. This operation will be described in detail later. When the generation of the composite image as described above is completed, the user receives an instruction to select a divided layout. Information indicating the selected divided layout and the generated composite image are sent to the output unit 5. If the print output unit 92 is outputting another composite image, a message to that effect is displayed and sent after waiting for completion.

第2の表示・操作部81、82は、落書きのためのGUI表示手段として機能する編集操作用タッチパネル400に相当し、タッチペンを用いた利用者の操作を受け付ける。第2の通信部83は、編集ユニット4に内蔵されるネットワークアダプタに相当し、ネットワーク6を介したデータ送受信の際のインタフェースとして機能する。   The second display / operation units 81 and 82 correspond to the editing operation touch panel 400 functioning as a graffiti GUI display means, and accept user operations using a touch pen. The second communication unit 83 corresponds to a network adapter built in the editing unit 4 and functions as an interface for data transmission / reception via the network 6.

第3の制御部90は、出力ユニット5に内蔵され、CPU、メモリ、フレームバッファ、タイマー、および補助記憶装置等を含むコンピュータを中心に構成される制御装置に相当し、内部メモリに格納された所定プログラムをCPUが実行することにより、出力処理に関する全体の制御を行う。第3の制御部90は、第2の制御部80から送られてきた合成画像を合成画像データとしてメモリに格納する。印刷出力部92は出力ユニットに内蔵されるネットワークプリンタ35に相当し、メモリに格納された合成画像データを(適宜にレイアウトした)写真シール(または写真カード)として印刷する。印刷された写真シール等は、出力ユニット5の正面下方に設けられた取出口33から取り出される。   The third control unit 90 is built in the output unit 5 and corresponds to a control device mainly composed of a computer including a CPU, a memory, a frame buffer, a timer, an auxiliary storage device, and the like, and is stored in an internal memory. When the CPU executes a predetermined program, overall control relating to output processing is performed. The third control unit 90 stores the composite image sent from the second control unit 80 in the memory as composite image data. The print output unit 92 corresponds to the network printer 35 built in the output unit, and prints the composite image data stored in the memory as a photo sticker (or photo card) (which is appropriately laid out). The printed photo sticker or the like is taken out from an outlet 33 provided at the lower front of the output unit 5.

また、第3の制御部90は、第2の制御部80から送られてきた分割レイアウト情報および合成画像に基づいて写真シール等の印刷処理を開始すると同時に、利用者の入力操作を受け付けるための後述する操作画面を第3の表示・操作部91に表示する。この第3の表示・操作部91は出力操作用タッチパネル30に相当し、入力手段として機能する。出力操作用タッチパネル30は、液晶ディスプレイまたはCRT(Cathode Ray Tube)等の表示手段として機能するモニタと、その上面に積層され、入力座標を認識することができる1人用のタッチパネルから構成される。モニタは複数の画面に分割された操作画面を表示することができ、タッチパネルは分割された複数の画面ごとに利用者のタッチペンを用いた入力操作を受け付け、受け付けた入力操作を操作信号として第3の制御部90に入力する。   Further, the third control unit 90 starts printing processing such as a photo sticker based on the divided layout information and the composite image sent from the second control unit 80, and at the same time accepts a user input operation. An operation screen to be described later is displayed on the third display / operation unit 91. The third display / operation unit 91 corresponds to the output operation touch panel 30 and functions as an input unit. The output operation touch panel 30 includes a monitor that functions as a display unit such as a liquid crystal display or a CRT (Cathode Ray Tube), and a touch panel for one person that is stacked on the upper surface and can recognize input coordinates. The monitor can display an operation screen divided into a plurality of screens, and the touch panel accepts an input operation using a user's touch pen for each of the plurality of divided screens, and the received input operation is used as an operation signal as a third signal. To the control unit 90.

第3の通信部95は、出力ユニット5に内蔵されるネットワークアダプタに相当し、ネットワーク6を介したデータ送受信の際のインタフェースとして機能する。   The third communication unit 95 corresponds to a network adapter built in the output unit 5 and functions as an interface for data transmission / reception via the network 6.

ここで、第3の制御部90は、落書きを終えてから操作を始めるまでの間、補助記憶装置に予め記憶されているデモ画像(デモンストレーション用の画像)をフレームバッファに書き込むことにより第3の表示・操作部91に表示する。また音声出力部93は、スピーカ32に相当する。音声出力部93は、第3の表示・操作部91に表示される操作画面と連動して入力操作方法を利用者に説明し、また第3の表示・操作部91にデモ画像が表示されているときにデモ画像に応じた楽曲等を流す。なお、入力操作方法の説明や楽曲等は補助記憶装置としてのハードディス装置等に予め格納されている。   Here, the third control unit 90 writes the demo image (demonstration image) stored in advance in the auxiliary storage device in the frame buffer from the end of the graffiti until the operation is started. Displayed on the display / operation unit 91. The audio output unit 93 corresponds to the speaker 32. The audio output unit 93 explains the input operation method to the user in conjunction with the operation screen displayed on the third display / operation unit 91, and the demo image is displayed on the third display / operation unit 91. When playing, play music etc. according to the demo image. The description of the input operation method, music, and the like are stored in advance in a hard disk device as an auxiliary storage device.

その後、第3の制御部90は、第3の表示・操作部91の表示や音声出力部93による音声や効果音等により合成画像の印刷が完了するまで後述するミニゲームを利用者に提供し続ける。このミニゲームの内容も同様にハードディスク装置等に予め格納されている。   Thereafter, the third control unit 90 provides the user with a mini-game to be described later until printing of the composite image is completed by the display of the third display / operation unit 91 or the voice or sound effect of the voice output unit 93. to continue. The contents of this mini game are similarly stored in advance in a hard disk device or the like.

ここで、各制御装置において実行される上記所定プログラムは、例えば、そのプログラムを記録した記録媒体であるDVD−ROMによって提供される。すなわち、上記所定プログラムの記録媒体としてのDVD−ROMが補助記憶装置として制御装置内に内蔵されたDVD−ROM駆動装置に装着され、そのDVD−ROMから所定プログラムが読み出されて補助記憶装置としてのハードディスク装置にインストールされる。また、上記所定プログラムは、DVD−ROM以外の記録媒体(CD−ROM等)や通信回線を介して提供されてもよい。そして、本遊戯用写真作成装置の起動のための操作がなされると、ハードディスク装置にインストールされた所定プログラムは、制御装置内のメモリに転送されてそこに一時的に格納され、制御装置内のCPUによって実行される。これにより、制御装置による上記各部の制御処理が実現される。   Here, the predetermined program executed in each control device is provided by, for example, a DVD-ROM which is a recording medium on which the program is recorded. That is, a DVD-ROM as a recording medium for the predetermined program is attached to a DVD-ROM driving device built in the control device as an auxiliary storage device, and the predetermined program is read from the DVD-ROM as an auxiliary storage device. Installed on the hard disk drive. The predetermined program may be provided via a recording medium (CD-ROM or the like) other than a DVD-ROM or a communication line. Then, when an operation for starting the present photo creating device is performed, the predetermined program installed in the hard disk device is transferred to the memory in the control device and temporarily stored therein, It is executed by the CPU. Thereby, the control process of each part by the control device is realized.

なお、上記第1から第3までの制御部70,80,90は、異なるユニットに内蔵される異なるコンピュータを含む装置に相当するものとして説明したが、このような構成は一例であって、上記第1から第3までの制御部70,80,90は、2つ以下または4つ以上の装置により実現されてもよい。この場合には各装置において、それぞれ実現されるべき機能に応じたプログラムが実行される。また、撮影ユニット3、編集ユニット4、および出力ユニット5についても、2つ以下または4つ以上のユニットにより構成されてもよい。   The first to third control units 70, 80, 90 have been described as corresponding to devices including different computers built in different units, but such a configuration is an example, and The first to third control units 70, 80, 90 may be realized by two or less devices or four or more devices. In this case, a program corresponding to the function to be realized is executed in each device. In addition, the photographing unit 3, the editing unit 4, and the output unit 5 may be configured by two or less units or four or more units.

<3.編集操作のための画面構成>
本実施形態に係る遊戯用写真作成装置は、撮影画像に基づいて生成された落書き対象画像(撮影画像を含む画像)に対して落書き等のための編集操作に使用する操作画面において、利用者の操作により選択されるフレーム画像に特徴を有している。以下、その操作画面を表示する編集操作用タッチパネル400における表示構成について説明する。
<3. Screen structure for editing operations>
The game photo creation device according to the present embodiment uses an operation screen used for an editing operation for graffiti on a graffiti target image (an image including a photographed image) generated based on a photographed image. The frame image selected by the operation has a feature. Hereinafter, a display configuration of the editing operation touch panel 400 that displays the operation screen will be described.

図7は、本実施形態における編集操作用タッチパネルの表示構成の一例を示す模式図である。図7に示す落書き画面400は、左操作画面400Lと、右操作画面400Rとに2分割されており、撮影画像およびそれに対する落書き画像が合成された合成画像が表示され仮想的な落書きを行うことができる領域である落書き領域401L、401Rと、各種編集指示のためのツール405L、405Rが複数表示されるパレット領域402L、402Rと、落書きの対象となるべき撮影画像を選択するための第1ないし第4のサムネイル画像表示領域431L、431R〜434L、434Rと、落書き可能な残り時間を示すタイマー表示領域450とが含まれている。   FIG. 7 is a schematic diagram showing an example of the display configuration of the editing operation touch panel in the present embodiment. The graffiti screen 400 shown in FIG. 7 is divided into a left operation screen 400L and a right operation screen 400R, and a virtual graffiti is performed by displaying a composite image obtained by combining a captured image and a graffiti image corresponding thereto. Graffiti areas 401L and 401R, which are areas that can be photographed, palette areas 402L and 402R in which a plurality of tools 405L and 405R for various editing instructions are displayed, and first to first picked-up images for selecting graffiti objects. Fourth thumbnail image display areas 431L, 431R to 434L, and 434R, and a timer display area 450 indicating the remaining time for which graffiti is possible are included.

ここで、パレット領域402L、402Rに含まれる編集指示のためのツール405L、405Rは、落書き画像を構成するスタンプやフレームなどの(典型的にはグループ化され表示されうる)編集操作の種類を選択可能に表示するものであって、利用者が各種落書きを行うためのツールすなわち(選択された)落書き対象画像に対する各種編集操作の指示のためのツールである。なお、フレーム画像や背景画像などはその画像内容を見やすく表示するためにサムネイル画像の形でパレット領域402L、402Rに含まれることが多いが、このサムネイル画像も選択可能な形で表示されるため、ここでは便宜上ツールと称する。   Here, the editing instruction tools 405L and 405R included in the palette areas 402L and 402R select the type of editing operation (typically grouped and displayed) such as a stamp and a frame constituting the graffiti image. This is a tool that can be displayed, and is a tool for the user to perform various graffiti, that is, a tool for instructing various editing operations on the (selected) graffiti target image. Note that frame images, background images, and the like are often included in the palette areas 402L and 402R in the form of thumbnail images in order to display the image contents in an easy-to-see manner, but these thumbnail images are also displayed in a selectable form. Here, it is called a tool for convenience.

また、このパレット領域402L、402Rの近傍には、落書きの種類に応じて、仮想的な落書きペンの種類を選択可能にするためのペンボタン421L、421Rと、利用者の前景となる小さな画像であるスタンプ画像の種類を選択可能にするためのスタンプボタン422L、422Rと、撮影画像の周囲近傍を装飾するフレーム画像の種類を選択可能にするためのフレームボタン423L、423Rと、利用者の背景となる背景画像の種類を選択可能にするための背景ボタン424L、424Rとが表示されている。利用者Uは、左操作画面400Lに対しては対を成す2つのタッチペン49L1、49L2のいずれかで、これらの各種操作ボタン群の1つを選択する(すなわち表示されたボタン画像上にペン先を接触させる)操作を行うことにより、パレット領域402L、402R内に対応する種類の複数の落書きのためのツールが表示される。ここでは説明の便宜のため、フレームボタン423L、423Rが選択されているものとする。   Further, in the vicinity of the palette areas 402L and 402R, there are pen buttons 421L and 421R for enabling selection of a virtual graffiti pen type according to the type of the graffiti, and a small image serving as a foreground for the user. Stamp buttons 422L and 422R for making it possible to select a type of a stamp image, frame buttons 423L and 423R for making it possible to select a type of frame image that decorates the vicinity of the captured image, and the background of the user Background buttons 424L and 424R for enabling selection of the type of background image to be displayed are displayed. The user U selects one of these various operation button groups with one of the two touch pens 49L1 and 49L2 that make a pair with respect to the left operation screen 400L (that is, the pen tip on the displayed button image). Are performed), a plurality of graffiti tools of the corresponding type are displayed in the pallet areas 402L and 402R. Here, for convenience of explanation, it is assumed that the frame buttons 423L and 423R are selected.

また、パレット領域402L、402Rの上辺近傍には選択可能な複数のタブ領域420L、420Rが設けられており、それらのいずれかを選択することにより、選択されるタブ領域に関連づけられた複数のツール405L、405Rが表示される。そして或るスタンプ画像を示すツールが選択され、その状態で落書き領域401L内の任意の位置をタッチペンで触れると、当該位置に選択中のツールに対応するフレーム画像が(合成)表示される。   Also, a plurality of selectable tab areas 420L and 420R are provided near the upper sides of the palette areas 402L and 402R, and a plurality of tools associated with the selected tab area are selected by selecting one of them. 405L and 405R are displayed. When a tool indicating a certain stamp image is selected and an arbitrary position in the graffiti area 401L is touched with the touch pen in that state, a frame image corresponding to the selected tool is (combined) displayed at the position.

ここ図7に示されるように、左操作画面400Lの落書き領域401Lには2人の利用者が写る撮影画像が落書き対象として表示され、右操作画面400Rの落書き領域401Rには3人の利用者が写る撮影画像が落書き対象として表示されている。そして、左側の利用者は、パレット領域402Lに含まれる8つのフレーム画像のうちの上段の左から三番目のフレーム画像を選択し、また右側の利用者も、パレット領域402Rに含まれる8つのフレーム画像のうちの、右側の利用者と同一のフレーム画像を選択するものとする。   As shown in FIG. 7, a graffiti area 401L of the left operation screen 400L displays a photographed image showing two users as a graffiti object, and three users are displayed in the graffiti area 401R of the right operation screen 400R. A photographed image showing is displayed as a graffiti target. The left user selects the third frame image from the upper left among the eight frame images included in the palette area 402L, and the right user also selects the eight frames included in the palette area 402R. Of the images, the same frame image as the user on the right side is selected.

図8は2人の利用者により選択される上記フレーム画像を示す図である。このフレーム画像は撮影画像に対して前景として(上書きの形で)合成されるため、落書き領域401Lに含まれる2人の利用者が写る撮影画像に対して上記フレーム画像を単純に合成すると、図9に示す合成画像となり、落書き領域401Rに含まれる3人の利用者が写る撮影画像に対して上記フレーム画像を単純に合成すると、図10に示す合成画像となる。   FIG. 8 is a diagram showing the frame image selected by two users. This frame image is synthesized as a foreground (in the form of overwriting) with the photographed image. Therefore, when the frame image is simply synthesized with the photographed image in which two users included in the graffiti area 401L are captured, FIG. When the frame image is simply combined with the captured image of the three users included in the graffiti area 401R, the combined image shown in FIG. 10 is obtained.

ここで、図9に示す合成画像では、特に違和感なく利用者の顔がはっきり見える形となっているが、図10に示す合成画像では、3人の利用者のうちの中央に写る利用者の顔の上にフレーム画像の一部が差し掛かっており、当該中央の利用者の顔の全体がはっきり見える形とはなっていない。すなわち、フレーム画像を構成する「JANUARY」という文字部分が極めて邪魔になっている。   Here, in the composite image shown in FIG. 9, the user's face is clearly visible without any sense of incongruity, but in the composite image shown in FIG. 10, the user's face shown in the center of the three users is shown. A part of the frame image is approaching the face, and the whole face of the central user is not clearly visible. That is, the character portion “JANUARY” constituting the frame image is extremely obstructive.

また、図10に示す合成画像では、3人の利用者のうちの左側および右側に写る各利用者の顔の上にフレーム画像の一部が差し掛かっており、当該両側の利用者の顔の一部がやや隠される形となっている。すなわち、フレーム画像を構成するハート型形状の画像部分が邪魔になっている。   Further, in the synthesized image shown in FIG. 10, a part of the frame image is approached on each user's face shown on the left and right sides of the three users, and one of the user's faces on both sides is shown. The part is somewhat hidden. That is, the heart-shaped image portion constituting the frame image is an obstacle.

そこで、本実施形態では、当該邪魔になっている「JANUARY」という文字部分を下方に動かして、利用者の顔がはっきりと見える形になるよう、かつ邪魔になっているハート型の画像を消去して、利用者の顔が隠されないように、フレーム画像を部分的に変更して合成する。   Therefore, in the present embodiment, the character portion “JANUARY” that is in the way is moved downward so that the face of the user can be clearly seen and the heart-shaped image that is in the way is deleted. Then, the frame image is partially changed and combined so that the user's face is not hidden.

図11は、本実施形態においてフレーム画像を変更した後に合成した結果得られる合成画像を示す図である。このように表示すれば、利用者の顔が隠されることなくはっきりと見える形でフレーム画像を撮影画像に合成することができ、撮影画像に合成されるべき付加画像が利用者の顔部分に差し掛かる状態を、利用者の操作を要することなく低減または解消することができる。このようなフレーム画像の部分的な変更は、遊戯用写真作成装置における後述する落書き編集処理の中で行われるので、以下遊戯用写真作成装置における処理手順について説明する。   FIG. 11 is a diagram showing a composite image obtained as a result of combining after changing the frame image in the present embodiment. By displaying in this way, the frame image can be combined with the captured image in a form that can be clearly seen without hiding the user's face, and the additional image to be combined with the captured image is inserted into the user's face. The applied state can be reduced or eliminated without requiring user operation. Such a partial change of the frame image is performed in a graffiti editing process to be described later in the play photo creating apparatus, and therefore the processing procedure in the play photo creating apparatus will be described below.

<4.遊戯用写真作成装置における処理手順>
上述したように、この遊戯用写真作成装置には、撮影ユニット3と編集ユニット4と出力ユニット5とが含まれている。撮影ユニット3では撮影処理が行われ、編集ユニット4では後述する落書き編集処理が行われ、出力ユニット5では出力処理が行われる。なお、或る利用者が撮影ユニット3でプレイしている時に他の利用者は編集ユニット4でプレイし、さらに他の利用者は出力ユニット5で合成画像を出力することができるように構成されている。すなわち、この遊戯用写真作成装置は、撮影処理と落書き編集処理と出力処理とを並行して行うことができる。以下に、撮影処理、落書き編集処理、および出力処理の手順の概要について説明する。
<4. Processing procedure in a photo creation device for play>
As described above, the play photo creating apparatus includes the photographing unit 3, the editing unit 4, and the output unit 5. The photographing unit 3 performs photographing processing, the editing unit 4 performs later-described graffiti editing processing, and the output unit 5 performs output processing. It should be noted that when a certain user is playing with the photographing unit 3, another user can play with the editing unit 4, and yet another user can output a composite image with the output unit 5. ing. In other words, this game photo creation device can perform shooting processing, graffiti editing processing, and output processing in parallel. Below, the outline | summary of the procedure of an imaging | photography process, a graffiti edit process, and an output process is demonstrated.

<4.1 撮影処理>
図12は、本実施形態における撮影処理の手順を示すフローチャートである。この遊戯用写真作成装置が使用されていない時(プレイが行われていない時)には、撮影操作用タッチパネル20にはデモ画像が表示されている。デモ画像の表示中に利用者がコイン投入口26にコインを投入すると、プレイが開始される(ステップS100)。
<4.1 Shooting process>
FIG. 12 is a flowchart showing the procedure of the photographing process in the present embodiment. When the play photo creation device is not used (when no play is performed), a demonstration image is displayed on the shooting operation touch panel 20. When the user inserts a coin into the coin insertion slot 26 while displaying the demo image, play is started (step S100).

プレイが開始されると、第1の制御部70は、利用者による撮影モードの選択を受け付ける(ステップS110)。ステップS110では、例えば画質(具体的にはコントラストが高いくっきりとした画質、柔らかなふんわりとした画質、または透明感のあるクールな画質のうちのいずれか)を選択し、明るさを選択し、自動で撮影するか手動で撮影するかを選択し、自動で撮影する場合には撮影用テーマの選択が行われる。この場合、第1の制御部70は、予め用意された複数の撮影用テーマの中から1つ以上の撮影用テーマを利用者に選択させるための画面を撮影操作用タッチパネル20に表示し、利用者による選択操作を受け付ける。そして、第1の制御部70は、利用者の選択操作に基づいて選択情報を取得し、選択された撮影用テーマに基づいて、撮影の際に使用するフレームと背景との組み合わせを決定する。また手動で撮影する場合は、上記フレームと背景とを利用者が自由に決定する。なおここではフレーム画像は選択されず、後述する落書き編集処理において選択されるものとして説明するが、ここでフレーム画像が選択される場合でも同様の処理を行うことができる。詳しくは後述する。その後、ステップS120に進み、撮影が行われる。この撮影により、撮影画像データが第1の制御部70のメモリに格納される。   When the play is started, the first control unit 70 accepts selection of a shooting mode by the user (step S110). In step S110, for example, image quality (specifically, one of clear image quality with high contrast, soft image quality with softness, or cool image quality with transparency) is selected, brightness is selected, Whether to shoot automatically or manually is selected. When shooting automatically, a shooting theme is selected. In this case, the first control unit 70 displays on the shooting operation touch panel 20 a screen for allowing the user to select one or more shooting themes from a plurality of shooting themes prepared in advance. The selection operation by the person is accepted. Then, the first control unit 70 acquires selection information based on a user's selection operation, and determines a combination of a frame and a background to be used for shooting based on the selected shooting theme. When shooting manually, the user can freely determine the frame and background. Here, the frame image is not selected and is described as being selected in the graffiti editing process described later, but the same process can be performed even when the frame image is selected here. Details will be described later. Then, it progresses to step S120 and imaging | photography is performed. By this shooting, the shot image data is stored in the memory of the first control unit 70.

ステップS130では、撮影画像に基づいて生成された落書き対象画像(撮影画像を含む画像)が、撮影操作用タッチパネル20に表示される。詳しくは、ステップS130の処理が行われる都度、図5に示した撮影操作用タッチパネル20の落書き対象画像表示領域203に落書き対象画像が順次追加表示される。その後、ステップS140に進み、第1の制御部70は、予め定められた枚数の撮影が終了したか否かを判定する。判定の結果、当該枚数の撮影が終了していればステップS150に進み、当該枚数の撮影が終了していなければステップS120に戻る。なお、実際には撮影のための制限時間(例えば3分)が設けられる。   In step S <b> 130, a graffiti target image (an image including a captured image) generated based on the captured image is displayed on the capturing operation touch panel 20. Specifically, each time the process of step S130 is performed, graffiti target images are additionally displayed sequentially in the graffiti target image display area 203 of the photographing operation touch panel 20 shown in FIG. Thereafter, the process proceeds to step S140, and the first control unit 70 determines whether or not a predetermined number of images have been taken. As a result of the determination, if the number of images has been shot, the process proceeds to step S150. If the number of images has not been shot, the process returns to step S120. In practice, a time limit for photographing (for example, 3 minutes) is provided.

ステップS150では、複数の落書き対象画像の中から実際の落書き対象となる画像の(利用者による)選択が行われる。具体的には、第1の制御部70は、落書きおよび印刷に使用する画像を利用者に選択させるために、落書き対象画像の一覧を撮影操作用タッチパネル20に表示し、利用者による選択操作を受け付ける。そして、第1の制御部70は、利用者によって選択された画像を実際の落書き対象画像として第2の制御部80に送る。ステップS150の終了後、ステップS160に進む。ステップS160では、案内画面の表示が行われる。具体的には、第1の制御部70は、利用者を編集ユニット4のいずれか(4aまたは4b)に導くための画面を撮影操作用タッチパネル20に表示する。これにより、撮影処理が終了する。   In step S150, an image to be actually graffitied is selected (by the user) from a plurality of graffiti subject images. Specifically, the first control unit 70 displays a list of graffiti target images on the shooting operation touch panel 20 in order to allow the user to select an image to be used for graffiti and printing, and performs a selection operation by the user. Accept. Then, the first control unit 70 sends the image selected by the user to the second control unit 80 as an actual graffiti target image. After step S150 ends, the process proceeds to step S160. In step S160, a guidance screen is displayed. Specifically, the first control unit 70 displays a screen for guiding the user to any one of the editing units 4 (4 a or 4 b) on the photographing operation touch panel 20. Thereby, the photographing process is completed.

<4.2 落書き編集処理>
図13は、本実施形態における落書き編集処理の手順を示すフローチャートである。第2の制御部80が所定のプログラムに基づき図8に示すように動作することで、この落書き編集処理が実現される。この処理では、上述した撮影処理の終了後、第2の制御部80は、ネットワーク(LAN)6を介して第1の制御部70から送られる落書き対象画像を取得する(ステップS200)。
<4.2 Graffiti editing process>
FIG. 13 is a flowchart showing the procedure of graffiti editing processing in the present embodiment. The graffiti editing process is realized by the second control unit 80 operating as shown in FIG. 8 based on a predetermined program. In this process, after the above-described shooting process is completed, the second control unit 80 acquires a graffiti target image sent from the first control unit 70 via the network (LAN) 6 (step S200).

次に、第2の制御部80は、第1の制御部70によって行われた撮影処理により取得され、利用者によって選択された複数の落書き対象画像を第1の制御部70から受け取り(ステップ200)、受け足られた複数の落書き対象画像それぞれに対して顔領域の認識処理が行われる(ステップS210)。この顔領域の認識処理は、周知の手法を採用すればよく、例えば予め記憶されたモデル画像を拡大・縮小、回転することによりテンプレート画像を生成し、このテンプレート画像を基準として顔としての特徴を有する画像が撮影画像内に含まれている場合に当該領域を顔領域として認識する手法や、テンプレートを使用しない周知の認識手法、例えば肌色領域の形状に基づき顔領域を認識したり、各種のパターン認識手法を使用した認識手法等を採用可能である。これらの周知の手法についての詳しい説明は省略する。なお、周知の顔検出用LSIチップなどのハードウェアを使用すれば、ソフトウェア処理の場合よりも顔領域の認識を高速化することができる。   Next, the second control unit 80 receives, from the first control unit 70, a plurality of graffiti target images acquired by the imaging process performed by the first control unit 70 and selected by the user (step 200). ) A face area recognition process is performed for each of the accepted graffiti target images (step S210). For the recognition process of the face area, a well-known method may be employed. For example, a template image is generated by enlarging, reducing, or rotating a model image stored in advance, and the feature as a face is determined based on the template image. When a captured image is included in a captured image, a method for recognizing the region as a face region, a well-known recognition method that does not use a template, for example, recognizing a face region based on the shape of a skin color region, and various patterns A recognition method using a recognition method can be employed. Detailed description of these known methods is omitted. If hardware such as a well-known face detection LSI chip is used, the recognition of the face area can be performed faster than in the case of software processing.

上記顔領域の認識処理(S210)が終了した後、タイマー46が所定の時間(具体的には、落書きを許可する時間)に設定され、カウントダウンが開始される(ステップS220)。   After the face area recognition process (S210) is completed, the timer 46 is set to a predetermined time (specifically, a time when graffiti is permitted), and countdown is started (step S220).

タイマー46のカウントダウン開始後、編集ユニット4を構成するユニット4a,4bのそれぞれの編集操作用タッチパネル400において、落書き編集操作画面が表示され、利用者による落書き操作(描画操作)が受け付けられる(ステップS230〜S250)。この落書き操作のうちフレーム画像を(ここでは前景として)撮影画像に対して合成する操作を行うときに、ステップS210において認識された顔領域に基づくフレーム画像の部分的な変更処理が(必要に応じて)行われる。この処理内容については、詳しく後述する。なおこの落書き編集処理時において、編集ユニット4では、撮影画像に基づく落書き対象画像に対する編集操作の他に、デコメール画像等の素材画像を作成するための編集操作が受け付けられてもよい。   After the countdown of the timer 46 starts, a doodle editing operation screen is displayed on the editing operation touch panel 400 of each of the units 4a and 4b constituting the editing unit 4, and a graffiti operation (drawing operation) by the user is accepted (step S230). ~ S250). When performing an operation of synthesizing a frame image with a captured image (in this case, as a foreground) among the graffiti operations, a partial change process of the frame image based on the face area recognized in step S210 (if necessary) Done). Details of this processing will be described later. At the time of this graffiti editing process, the editing unit 4 may accept an editing operation for creating a material image such as a decomail image in addition to an editing operation on the graffiti target image based on the photographed image.

上記処理は、具体的には編集操作画面内のボタンやツールなどの1つをタッチペンでタッチすると、その座標値が入力され(S230)、対応する落書き画面処理(S240)が行われる。その後ステップS250においてタイマー46の残り時間が0になる(または利用者が終了させる操作を行う)ことにより落書きが終了したかが判定され、終了していない場合(ステップS250においてNoの場合)にはステップS230に戻り、落書きが終了するまで処理が繰り返され、落書きが終了した場合(ステップS250においてYesの場合)には、処理はステップS260に進む。   Specifically, when one of the buttons and tools in the editing operation screen is touched with a touch pen, the coordinate value is input (S230), and the corresponding graffiti screen processing (S240) is performed. Thereafter, in step S250, the remaining time of the timer 46 becomes 0 (or the user performs an operation to end), and it is determined whether or not the graffiti has ended. If not (if No in step S250), Returning to step S230, the process is repeated until the graffiti ends. If the graffiti ends (Yes in step S250), the process proceeds to step S260.

ステップS260では、出力される写真の分割パターンの選択が行われる。具体的には、第2の制御部80は、予め用意された複数の分割パターンの中からいずれかの分割パターンを利用者に選択させるための操作画面を編集操作用タッチパネル400に表示し、利用者による選択操作を受け付ける。そして、第2の制御部80は、利用者の選択操作に基づいて、選択情報を取得する。ステップS260の処理が終了した後、ステップS270の処理に進む。   In step S260, the division pattern of the output photo is selected. Specifically, the second control unit 80 displays an operation screen on the editing operation touch panel 400 for causing the user to select one of a plurality of division patterns prepared in advance, and uses the operation screen. The selection operation by the person is accepted. And the 2nd control part 80 acquires selection information based on a user's selection operation. After the process of step S260 is completed, the process proceeds to step S270.

ステップS270では、案内画面の表示が行われる。具体的には、第2の制御部80は、利用者を出力ユニット5に導くための画面を編集操作用タッチパネル400に表示する。これにより、落書き編集処理が終了する。落書き編集処理が終了すると、出力ユニット5において、編集ユニット4から送られてきた合成画像に基づいて写真シール等の印刷処理が開始されることなどについては前述した通りである。次に、ステップS240において行われる落書き編集処理のうち、フレーム画像の部分的な変更処理について、図14を参照して詳しく説明する。   In step S270, a guidance screen is displayed. Specifically, the second control unit 80 displays a screen for guiding the user to the output unit 5 on the editing operation touch panel 400. Thereby, the graffiti editing process ends. As described above, when the graffiti editing process is completed, the output unit 5 starts a printing process such as a photo sticker based on the composite image sent from the editing unit 4. Next, in the graffiti editing process performed in step S240, a partial change process of the frame image will be described in detail with reference to FIG.

<4.3 フレーム画像の部分的変更処理>
図14は、フレーム画像の部分的な変更処理の流れを示すフローチャートである。この図14に示すステップS500では、フレーム画像を構成する複数の要素画像のうち、撮影画像に対する合成位置を変更することができるよう設定されている要素画像(以下「特定要素画像」という)の合成位置が、予め定められた位置に初期設定される。このフレーム画像の構成する要素画像と、図13に示すステップS210において前述した顔領域の認識処理により得られる顔領域との位置関係について、図15を参照して説明する。
<4.3 Partial change processing of frame image>
FIG. 14 is a flowchart showing a flow of partial frame image change processing. In step S500 shown in FIG. 14, among a plurality of element images constituting a frame image, a combination of element images (hereinafter referred to as “specific element images”) set so as to be able to change the combination position with respect to the captured image. The position is initially set to a predetermined position. The positional relationship between the element image constituting the frame image and the face area obtained by the face area recognition processing described above in step S210 shown in FIG. 13 will be described with reference to FIG.

図15は、フレーム画像の各要素画像と、利用者の顔領域との位置関係を示す図である。この図15に示される撮影画像の外周に沿って配置される多数のハート型の画像は、ここでは撮影画像に対する合成位置を変更することができない要素画像(以下「装飾要素画像」という)である。   FIG. 15 is a diagram illustrating a positional relationship between each element image of the frame image and the face area of the user. A number of heart-shaped images arranged along the outer periphery of the photographed image shown in FIG. 15 are element images (hereinafter referred to as “decorative element images”) whose composition positions with respect to the photographed image cannot be changed. .

なお、この装飾要素画像は、合成位置を変更すると撮影画像の外周に沿って多数が配置されるフレームとしてのデザインが崩れるため、合成位置の変更ができないよう設定されているが、デザインが崩れない場合であっても、構成要素間の距離が短いことから位置を変更しにくいなど、合成位置の変更ができないように設定されている理由について特に限定はない。また、特定要素画像として合成位置の変更ができるように設定される理由についても同様に限定はない。   This decoration element image is set so that the composition position cannot be changed because the design as a frame in which a large number of frames are arranged along the outer periphery of the photographed image is destroyed when the composition position is changed. Even in such a case, there is no particular limitation on the reason why the composition position is set so as not to be changed, for example, it is difficult to change the position because the distance between the constituent elements is short. Similarly, there is no limitation on the reason why the composition position is set so that the specific element image can be changed.

また図15に示される顔領域の認識処理によって得られる顔領域F1〜F3には見やすくするために斜線が付されている。この顔領域F1〜F3は、図10または図11などに示される撮影画像に含まれる3人の利用者の像の顔部分に対応している。撮像画像からこの顔領域F1〜F3を認識する方法については前述したとおりである。   In addition, the face areas F1 to F3 obtained by the face area recognition process shown in FIG. 15 are hatched for easy viewing. The face areas F1 to F3 correspond to the face portions of the images of three users included in the captured image shown in FIG. 10 or FIG. The method for recognizing the face areas F1 to F3 from the captured image is as described above.

なお、上記のように顔領域F1〜F3と実際の顔領域とは同一である必要はなく、実際の利用者の顔の像が占める領域よりも広い領域を顔領域に設定する構成であってもよい。そうすれば顔に接したまたは接近した位置に要素画像が配置されることを防止することができる。逆に、実際の利用者の顔の像が占める領域よりも狭い領域を顔領域に設定する構成であってもよい。そうすれば顔領域と若干重複する部分にも要素画像を配置することができるため、顔が大きく隠されないようにしつつ多くの装飾要素画像を配置することが可能になる。   Note that, as described above, the face areas F1 to F3 and the actual face area do not have to be the same, and an area wider than the area occupied by the actual user's face image is set as the face area. Also good. If it does so, it can prevent that an element picture is arranged in the position which touched or approached the face. Conversely, a configuration may be adopted in which an area narrower than the area occupied by the actual user's face image is set as the face area. By doing so, it is possible to arrange the element image even in a portion that slightly overlaps the face area, so that it is possible to arrange many decoration element images while preventing the face from being largely hidden.

ここで、図15を参照すれば分かるように、多数の装飾要素画像のうち、重複装飾要素画像501〜504だけが顔領域F1,F3と部分的に重なっており、またJANUARYという文字を配置してなる特定要素画像550が顔領域F2と部分的に重なっている。このように利用者の前景として合成されるフレーム画像によって利用者の顔が隠されたり、はっきりと見えない形にならないように、以下のような処理が行われる。   Here, as can be seen with reference to FIG. 15, only the overlapping decorative element images 501 to 504 of the large number of decorative element images partially overlap with the face areas F1 and F3, and the characters JANUARY are arranged. The specific element image 550 is partially overlapped with the face area F2. The following processing is performed so that the user's face is not hidden by the frame image synthesized as the user's foreground or is not clearly visible.

図14に示すステップS510では、特定要素画像と顔領域との重なり量が演算される。2つの画像の重なり量は、例えば画像を構成する各画素を2つの画像間でAND演算することにより得られる画素数によって算出されるなど周知の様々な手法が考えられ、適宜の演算手法を採用可能である。また重なり量は、重複する面積や、重なっている顔領域に対する割合など、重なりを示すどのような量で表されてもよい。ここでは例えば顔領域F3は、特定要素画像550と、その面積の20%が重なっているものとする。   In step S510 shown in FIG. 14, the overlap amount between the specific element image and the face area is calculated. The amount of overlap between two images can be calculated by, for example, the number of pixels obtained by performing an AND operation on each pixel constituting the image, and an appropriate calculation method is adopted. Is possible. Further, the overlap amount may be expressed by any amount indicating overlap, such as an overlapping area or a ratio to the overlapping face regions. Here, for example, the face region F3 is assumed to overlap the specific element image 550 with 20% of the area thereof.

続いてステップS520では、重なり量が所定値以下であるか否かが判定される。ここでこの所定値とは利用者の顔が隠されたり、はっきりと見えない形にならない程度に重なりが低減されるよう適宜の値が定められるが、重なりを一切認めない場合(重なりを完全に解消する場合)には適宜の値として0が設定される。上記判定の結果、重なり量が所定値以下である場合(ステップS520においてYesである場合)、処理はステップS550へ進み、所定値よりも大きい場合(ステップS520においてNoである場合)、処理はステップS530へ進む。 Subsequently, in step S520, it is determined whether or not the overlap amount is equal to or less than a predetermined value. Here, the predetermined value is set to an appropriate value so that the overlap is reduced to such an extent that the user's face is hidden or not clearly visible, but no overlap is allowed (the overlap is completely eliminated). In the case of elimination, 0 is set as an appropriate value. As a result of the determination, if the overlap amount is equal to or smaller than the predetermined value (Yes in step S520), the process proceeds to step S550, and if larger than the predetermined value (No in step S520), the process proceeds to step S550. Proceed to S530.

ステップS530では、特定要素画像の撮影画像に対する合成位置が所定量だけ下方となるよう変更される。具体的には、撮影画像の左上隅を原点とすると、合成位置を示すY座標をLだけ大きくする。続いて、ステップS540において、変更後の合成位置が下方限界位置であるか否かが判定される。ここで下方限界位置とは、典型的には次にLだけ下方に座標を変更すると撮影画像外となる位置であるが、フレーム画像のデザイン上の観点など適宜の制約条件に基づいて限界となるべき位置が決定されてもよい。上記判定の結果、下方限界位置である場合(ステップS540においてYesである場合)、処理はステップS550へ進み、下方限界位置でない場合(ステップS540においてNoである場合)、処理はステップS510へ戻り、その後下方限界位置となるか、または重なり量が所定値以下になるまで、上記処理が繰り返される(S540→S510→S520→…→S540)。このようにすれば特定要素画像は下方限界まで到達しない限り下方へ移動されることにより、特定要素画像と顔領域との重なりが解消されることになる。   In step S530, the composition position of the specific element image with respect to the captured image is changed to be lower by a predetermined amount. Specifically, assuming that the upper left corner of the captured image is the origin, the Y coordinate indicating the combined position is increased by L. Subsequently, in step S540, it is determined whether the combined position after the change is the lower limit position. Here, the lower limit position is typically a position outside of the captured image when the coordinates are changed downward by L next, but becomes a limit based on appropriate constraints such as a design point of the frame image. The power position may be determined. As a result of the determination, if the position is the lower limit position (Yes in step S540), the process proceeds to step S550. If the position is not the lower limit position (No in step S540), the process returns to step S510. Thereafter, the above process is repeated until the lower limit position is reached or the overlap amount becomes a predetermined value or less (S540 → S510 → S520 →... → S540). In this way, the specific element image is moved downward unless it reaches the lower limit, thereby eliminating the overlap between the specific element image and the face area.

次にステップS550では、複数の装飾要素画像のうちの1つと顔領域との重なり量を予め定められた順番で演算する。ここではハート型の装飾要素画像は28個含まれており、例えば左上隅から時計回りに順に選ばれる1つの装飾要素画像と顔領域F1〜F3との重なり量が演算される。この重なり量の演算手法については、特定要素画像において説明したとおりである。   Next, in step S550, the amount of overlap between one of the plurality of decoration element images and the face area is calculated in a predetermined order. Here, 28 heart-shaped decoration element images are included, and for example, the amount of overlap between one decoration element image selected in order from the upper left corner and the face areas F1 to F3 is calculated. The calculation method of the overlap amount is as described in the specific element image.

続いてステップS560では、ステップS550における演算により得られる重なり量が所定値より大きいか否かが判定される。ここでの所定値については、ステップS520において説明したとおりである。上記判定の結果、重なり量が所定値より大きい場合(ステップS560においてYesである場合)、当該装飾要素画像を撮影画像に対して合成されるべき対象(合成対象)から消去する(ステップS570)。消去方法としては周知の様々な手法を適用可能であって、例えば合成対象として全ての装飾要素画像を含む画像を生成し、当該装飾要素画像をその中から実際に消去してもよいし、合成対象をリスト化しておき、当該リストから一時的に消去するような構成であってもよい。その後処理はステップS580へ進む。また重なり量が所定値以下である場合(ステップS560においてNoである場合)、処理はステップS580へ進む。   Subsequently, in step S560, it is determined whether or not the overlap amount obtained by the calculation in step S550 is larger than a predetermined value. The predetermined value here is as described in step S520. As a result of the determination, if the overlap amount is larger than the predetermined value (Yes in step S560), the decoration element image is erased from the target (compositing target) to be combined with the captured image (step S570). Various known methods can be applied as the erasing method. For example, an image including all decoration element images as a composition target may be generated, and the decoration element image may be actually erased from the image, or the composition may be composed. A configuration may be used in which the objects are listed and temporarily deleted from the list. Thereafter, the process proceeds to step S580. If the overlap amount is equal to or smaller than the predetermined value (No in step S560), the process proceeds to step S580.

ステップS580では、全装飾要素画像の演算が終了したか否かが判定され、終了していない場合、処理はステップS550に戻り、全装飾要素画像の演算が終了するまで上記処理が繰り返され(S580→S550→S560→…→S580)、終了するとステップS570において消去されなかった未消去の装飾要素画像全てと、(算出された合成位置に)特定要素画像とを、撮影画像に対して合成することにより合成画像を生成し(ステップS590)、フレーム画像の部分的変更処理が終了する。   In step S580, it is determined whether or not the calculation of all decoration element images has been completed. If the calculation has not been completed, the process returns to step S550, and the above processing is repeated until the calculation of all decoration element images is completed (S580). → S550 → S560 →... → S580) Upon completion, all the unerased decoration element images that have not been deleted in step S570 and the specific element image (at the calculated combination position) are combined with the photographed image. Thus, a composite image is generated (step S590), and the partial change processing of the frame image ends.

図16は、以上のような処理の経過および結果、部分的に変更されたフレーム画像と、顔領域との位置関係を示す図である。図16に示すように、特定要素画像550の合成位置は、初期位置から下方へLだけ移動されたことにより、合成後の特定要素画像550と顔領域F3との重なりが解消されている。また、図16を図15と比較すれば分かるように、28個のハート型の装飾要素画像のうち、重複装飾要素画像501〜504だけが顔領域F1,F3と部分的に重なっていたため、消去されている。   FIG. 16 is a diagram illustrating the positional relationship between the face image and the partially changed frame image as a result of the above process. As illustrated in FIG. 16, the combination position of the specific element image 550 is moved downward by L from the initial position, so that the overlap between the specific element image 550 and the face area F3 after combination is eliminated. Further, as can be seen by comparing FIG. 16 with FIG. 15, of the 28 heart-shaped decoration element images, only the overlapping decoration element images 501 to 504 partially overlap with the face areas F1 and F3, and thus the erasure is performed. Has been.

このように、撮影画像に合成されるべき装飾要素画像のうち、利用者の顔部分に差し掛かる装飾要素画像は消去され、特定要素画像は利用者の顔部分に差し掛からないように合成位置が移動される。よって、フレーム画像の主要な画像要素であって、一連の文字や記号、模様などにより構成されているため、その一部を消去することが好ましくない画像を特定要素画像に設定すれば、装飾要素画像の場合とは異なり、その一部が消去されることなく、合成位置が移動される。よって、当該特定要素画像の示す意味や、連続性などに基づくデザインを保持する(または少なくとも大きく変えないようにする)ことが可能となる。   In this way, among the decorative element images to be combined with the photographed image, the decorative element image that approaches the user's face is erased, and the specific element image has a combined position so that it does not reach the user's face. Moved. Therefore, the main image element of the frame image, which consists of a series of characters, symbols, patterns, etc. Unlike the case of the image, the composite position is moved without erasing a part of the image. Therefore, it is possible to retain (or at least not significantly change) the design based on the meaning or continuity indicated by the specific element image.

また、フレーム画像の画像要素であって、位置を移動させることが他の画像要素との位置関係または(典型的には多数が設けられることによる全体的な)配置関係などの理由から好ましくないような画像を装飾要素画像に設定すれば、特定要素画像の場合とは異なり、その位置が移動されることなく、当該装飾要素画像が消去される。よって、当該装飾画像要素と他の画像要素との位置関係や全体的な配置関係などに基づく(典型的には全体的な)デザインを保持する(または少なくとも大きく変えないようにする)ことが可能となる。   In addition, it is an image element of a frame image, and it seems that moving the position is not preferable for reasons such as a positional relationship with other image elements or an arrangement relationship (typically an overall arrangement by providing a large number). If a simple image is set as a decoration element image, the decoration element image is deleted without moving its position, unlike the case of a specific element image. Therefore, it is possible to retain (or at least not greatly change) the design (typically overall) based on the positional relationship and overall arrangement relationship between the decorative image element and other image elements. It becomes.

<5.効果>
以上のように本実施形態によれば、撮影画像に合成されるべき特定要素画像や装飾要素画像からなる付加画像が利用者の顔部分に差し掛かる状態を、撮影画像に基づき顔部分の領域を認識し、特定要素画像を移動し、または装飾要素画像を部分的に消去することにより、利用者の操作を要することなく自動的に、またデザインを大きく変えることなく低減または解消することができる。
<5. Effect>
As described above, according to the present embodiment, the state in which the additional image composed of the specific element image and the decoration element image to be combined with the photographed image approaches the face portion of the user is determined based on the photographed image. By recognizing, moving a specific element image, or partially erasing a decoration element image, it can be reduced or eliminated automatically without requiring a user's operation and without greatly changing the design.

<6.変形例>
本実施形態では、特定要素画像の初期設定された合成位置から下方向へ移動させることにより合成位置を算出する構成であるが、上方向やその他の方向へ移動させてもよい。ただし、撮影画像に含まれる顔部分は通常撮影画像の上半分にあることが多く、また顔部分の上の空白部分(背景部分)には利用者による(ペンやスタンプなどの)落書きが含まれることが多いため、顔部分やこれらの落書き部分を避けるように下方向へ移動させることが好適である場合が多い。さらに、特定要素画像が撮影画像の上下方向に伸びる中心線に掛かりかつ上下方向とは異なる方向(典型的には左右方向)に配列される一連の文字、記号、または模様を示す複数の画像を含む場合には、当該特定要素画像が顔領域に差し掛かる可能性が高く、また当該特定要素画像を左右方向へ移動させても顔領域に差し掛かる状態が解消される可能性は低いと考えられるため、上下方向、特に上述した理由により下方向へ移動させることが好ましいと言える。
<6. Modification>
In the present embodiment, the composition position is calculated by moving the specified element image downward from the initial composition position of the specific element image. However, the specific element image may be moved upward or in other directions. However, the face part included in the photographed image is usually in the upper half of the photographed image, and the blank part (background part) above the face part contains graffiti (such as a pen or stamp) by the user In many cases, it is often preferable to move downward so as to avoid the face portion and these graffiti portions. Furthermore, a plurality of images showing a series of characters, symbols, or patterns that are arranged in a direction different from the vertical direction (typically the left-right direction), on the center line extending in the vertical direction of the captured image of the specific element image If it is included, it is highly likely that the specific element image will reach the face area, and even if the specific element image is moved in the left-right direction, it is unlikely that the state of reaching the face area will be eliminated. Therefore, it can be said that it is preferable to move in the vertical direction, particularly downward for the reasons described above.

また 本実施形態では、初期設定された合成位置から下方向へLずつ移動させる計算式に基づき、利用者の顔部分に差し掛からない移動後の合成位置を算出する構成であるが、移動量や、移動のための計算式などは、移動距離やデザイン性、計算の容易性などの観点から様々に定めることができる。典型的には、デザイン性などの観点から好適な位置に設定されることが多い初期設定された合成位置から(徐々に)離れるように計算することが好ましく、また初期設定された合成位置にできるだけ近い位置に移動後の合成位置を定めることが好ましい。また計算方法も上記のように徐々に離れるように計算するのではなく、図17に示すように一回的に移動後の合成位置を算出する手法が使用されてもよい。   Further, in the present embodiment, the composition position is calculated based on a calculation formula that moves L from the initially set composition position downward by L, but the composition position after movement that does not reach the user's face part is calculated. The calculation formulas for movement can be variously determined from the viewpoints of movement distance, designability, and ease of calculation. Typically, it is preferable to calculate so that it is (gradually) away from the default synthesis position, which is often set to a suitable position from the viewpoint of design, etc. It is preferable to determine the combined position after movement to a close position. Also, the calculation method is not to calculate gradually away as described above, but a method of calculating the combined position after the movement once as shown in FIG. 17 may be used.

図17は、移動後の特定要素画像の合成位置を一回的に算出する例を説明するための図である。図17に示す特定要素画像550は、移動後の合成位置にあって、その上辺601および下辺602の一方が顔領域F3の下端に接するように移動後の位置が定められる。すなわち、この特定要素画像550の上辺601が顔領域F3に最も下方で接する接線となるように、移動後の合成位置が算出される。このような計算は顔領域に対する所定の傾きを有する接線を計算する一般的な方程式ないし近似式に基づき、一回的に行うことができる。このような接線方程式を使用する手法のほか、周知の様々な計算手法を適用可能である。また、移動後の合成位置を計算により算出しない方法も考えられる。以下、図18を参照して説明する。   FIG. 17 is a diagram for explaining an example in which the combined position of the specific element image after movement is calculated once. The specific element image 550 shown in FIG. 17 is in the combined position after movement, and the position after movement is determined so that one of the upper side 601 and the lower side 602 is in contact with the lower end of the face area F3. That is, the combined position after movement is calculated so that the upper side 601 of the specific element image 550 is a tangent line that touches the face region F3 at the bottom. Such a calculation can be performed once based on a general equation or an approximate expression for calculating a tangent having a predetermined inclination with respect to the face region. In addition to the method using such a tangent equation, various known calculation methods can be applied. Also, a method in which the combined position after movement is not calculated by calculation can be considered. Hereinafter, a description will be given with reference to FIG.

図18は、移動後の特定要素画像の合成位置を計算により算出しない例を説明するための図である。図18には、特定要素画像の候補となる3つの候補特定要素画像551〜553が示されており、これらには図の上から順に高い優先順位が付されている。すなわち、候補特定要素画像551の優先順位は第1位であり、候補特定要素画像552の優先順位は第2位であり、候補特定要素画像553の優先順位は第3位である。   FIG. 18 is a diagram for explaining an example in which the combined position of the specific element image after movement is not calculated. FIG. 18 shows three candidate specific element images 551 to 553 that are candidates for specific element images, and these are given higher priority in order from the top of the figure. That is, the priority of the candidate specific element image 551 is first, the priority of the candidate specific element image 552 is second, and the priority of the candidate specific element image 553 is third.

ここでまず、候補特定要素画像551〜553のうち、顔領域F1〜F3のいずれかの領域(ここでは顔領域F3)と重複する部分を有しないものは、候補特定要素画像553および候補特定要素画像552であり、これらのうち優先順位が最も高いものを特定要素画像と決定する。ここでは優先順位が第2位の候補特定要素画像552が特定要素画像と決定され、撮影画像に対して合成される。このように、予め定められた(合成位置に合成されるべき)候補となる複数の特定要素画像のうち、顔領域と重ならず、かつ最も優先順位が高い候補特定要素画像を特定要素画像と定めることにより、複雑な計算を行うことなく、簡単に顔領域と重複しない位置に合成されるべき特定要素画像の合成位置を定めることができる。また、候補となる複数の特定要素画像をデザイン上好適なものに限定して設定すれば、上記のように計算で算出する場合よりも、デザイン上好適な位置に合成することができる場合が多くなると言える。また上記優先順位を顔領域から近い順に定めるのではなく、デザイン上優れた順に定める構成であってもよい。そうすれば、特定要素画像をよりデザイン上好適な位置に合成することができる。

First, among the candidate specifying element images 551 to 553 , those that do not have a portion overlapping with any one of the face areas F1 to F3 (here, the face area F3) are the candidate specifying element image 553 and the candidate specifying element. Of these, the image 552 having the highest priority is determined as the specific element image. Here, the candidate specific element image 552 having the second highest priority is determined as the specific element image and is combined with the captured image. In this way, among the plurality of specific element images that are predetermined candidates (to be combined at the combining position), the candidate specific element image that does not overlap the face area and has the highest priority is defined as the specific element image. By defining, it is possible to easily determine the synthesis position of the specific element image to be synthesized at a position that does not overlap with the face area without performing complicated calculation. In addition, if a plurality of specific element images that are candidates are limited to those that are suitable for design, it is often possible to synthesize them at positions that are suitable for design rather than the case where calculation is performed as described above. I can say. Further, the priority order may be determined in the order of superior design rather than in the order from the face area. If it does so, a specific element image can be synthesize | combined in a more suitable position on a design.

もっとも、前述したように合成位置を計算により(典型的には一回的に)算出する構成では、予め複数の候補となる合成位置の中から選択する構成よりも、さらに(典型的にはデザイン上)好適な位置を算出することができる場合もあり得ると考えられ、また候補となる合成位置では全てが顔領域と重なってしまう場合であっても、顔領域と重ならない合成位置を算出可能である点で優れていると言える。   However, as described above, the composition position calculated by calculation (typically once) is more (typically design) than the structure of selecting from a plurality of candidate composition positions in advance. Top) It is possible that a suitable position can be calculated, and it is possible to calculate a combined position that does not overlap the face area even if all of the candidate combined positions overlap the face area It can be said that it is excellent in that.

本実施形態では、フレーム画像は特定要素画像と複数の装飾要素画像とを含むように説明したが、1つ以上の特定要素画像のみを含む構成であってもよい。また、フレーム画像は前景画像である特定要素画像の他に、利用者の像に対して背景となるべき背景画像を含んでいてもよい。ここで背景画像とは、利用者の顔領域だけでなく、(前述したクロマキー処理により抽出される)利用者の像全体に対して背景となるべき画像を指す。したがって、利用者の顔領域に対してのみ背景となる(背景として見える)画像は背景画像ではなく、特殊な前景画像であると言える。フレーム画像は、特定要素画像の他に、この特殊な前景画像を含んでいてもよい。   In the present embodiment, the frame image has been described as including a specific element image and a plurality of decoration element images. However, the frame image may include only one or more specific element images. Further, the frame image may include a background image to be a background with respect to the user's image in addition to the specific element image which is the foreground image. Here, the background image refers to an image that should be the background for the entire user image (extracted by the above-described chroma key process), not just the user's face area. Therefore, it can be said that an image that becomes a background (visible as a background) only for the face area of the user is not a background image but a special foreground image. The frame image may include this special foreground image in addition to the specific element image.

図19は、特定要素画像と複数の特殊な前景画像とを含むフレーム画像と顔領域との関係を示す図である。この図19に示されるように、特定要素画像550は、上記実施形態と同様に初期設定された合成位置から下方へLだけ移動された合成位置に合成されている。また、この図19には、装飾要素画像に代えて、同様のハート型の多数の特殊な前景画像が示されている。これらの特殊な前景画像のうち、4つの特殊前景画像601〜604だけが顔領域F1,F2に部分的に隠されている(この部分だけを見れば背景となっている)。このように装飾要素画像のように顔領域に重なる装飾要素画像を消去するのではなく、あたかも背景画像のように顔領域に対して部分的に隠される構成とすれば、当該ハート型の画像が利用者の顔部分に差し掛かる状態を解消することができる。   FIG. 19 is a diagram illustrating a relationship between a frame image including a specific element image and a plurality of special foreground images and a face area. As shown in FIG. 19, the specific element image 550 is synthesized at the synthesis position moved downward by L from the initially set synthesis position as in the above embodiment. Further, FIG. 19 shows a number of similar foreground images having the same heart shape in place of the decoration element image. Of these special foreground images, only four special foreground images 601 to 604 are partially hidden in the face areas F1 and F2 (when only this part is seen, it is a background). Thus, instead of deleting the decoration element image that overlaps the face area as in the decoration element image, if the structure is partially hidden from the face area as in the background image, the heart-shaped image is The state of reaching the user's face can be eliminated.

本実施形態では、特定要素画像が1つである例で説明したが複数であってもよく、また装飾要素画像の数にも特に限定はない。なお、特定要素画像が複数設けられる場合、顔領域と重複する場合におけるそれらの移動方向や移動量、移動のための計算手法などは、それぞれにおいて適宜に定められていればよく、同一である必要はない。さらに、特定要素画像が形状を保持したまま移動されなければならないわけではなく、顔領域に重ならないように部分的に(または全体的に)変形されてもよい。この場合には変形された部分の合成位置が予め定められた合成位置から変更される構成であると言える。   In the present embodiment, an example in which there is one specific element image has been described, but there may be a plurality of elements, and the number of decoration element images is not particularly limited. When a plurality of specific element images are provided, the direction and amount of movement in the case of overlapping with the face area, the calculation method for movement, and the like need only be appropriately determined for each, and need to be the same. There is no. Further, the specific element image does not have to be moved while maintaining the shape, and may be partially (or entirely) deformed so as not to overlap the face area. In this case, it can be said that the composition position of the deformed portion is changed from a predetermined composition position.

3…撮影ユニット
4…編集ユニット
5…出力ユニット
6…ネットワーク(LAN)
10…カメラ
20…撮影操作用タッチパネル
30…出力操作用タッチパネル
35…ネットワークプリンタ
31…赤外線ポート
70…第1の制御部
72…第1の表示・操作部(撮影操作用タッチパネル)
80…第2の制御部
81,82…第2の表示・操作部(編集操作用タッチパネル)
90…第3の制御部
91…第3の表示・操作部(出力操作用タッチパネル)
92…印刷出力部(ネットワークプリンタ)
94…非接触通信部(赤外線ポート)
400…編集操作用タッチパネル
550…特定要素画像
F1〜F3…顔領域
3 ... Shooting unit 4 ... Editing unit 5 ... Output unit 6 ... Network (LAN)
DESCRIPTION OF SYMBOLS 10 ... Camera 20 ... Touch panel for imaging operation 30 ... Touch panel for output operation 35 ... Network printer 31 ... Infrared port 70 ... First control unit 72 ... First display / operation unit (touch panel for shooting operation)
80 ... second control unit 81, 82 ... second display / operation unit (touch panel for editing operation)
90 ... third control unit 91 ... third display / operation unit (touch panel for output operation)
92 ... Print output section (network printer)
94 ... Non-contact communication part (infrared port)
400 ... Touch panel for editing operation 550 ... Specific element image F1-F3 ... Face area

Claims (9)

利用者の撮影を行う撮影手段と、
前記撮影手段によって撮影された撮影画像に含まれる利用者の顔を検出するとともに、検出した顔の少なくとも一部を含む顔領域を設定する顔領域設定手段と、
前記撮影画像に対する合成位置が予め定められた第1合成位置に設定された特定要素画像を含む付加画像を前記撮影画像に対して合成する編集手段とを備え、
前記編集手段は、
前記特定要素画像を前記第1合成位置に合成した場合において前記特定要素画像が占める特定領域の範囲と、前記顔領域の範囲とが重複する場合、重複する範囲を減少または消失させるよう、前記第1合成位置とは異なる第2合成位置に前記特定要素画像を合成し、
前記特定領域の範囲と前記顔領域の範囲とが重複しない場合、前記第1合成位置に前記特定要素画像を合成する
遊戯用撮影装置。
Photographing means for photographing the user;
A face area setting means for detecting a user's face included in a photographed image photographed by the photographing means and setting a face area including at least a part of the detected face;
Editing means for synthesizing the additional image including the specific element image, in which the combined position with respect to the captured image is set to a predetermined first combined position, with the captured image;
The editing means includes
In the case where the specific element image is synthesized at the first synthesis position, the range of the specific area occupied by the specific element image and the range of the face area overlap, so that the overlapping range is reduced or eliminated. Synthesizing the specific element image at a second synthesis position different from the one synthesis position;
An imaging device for a game that synthesizes the specific element image at the first synthesis position when the range of the specific region and the range of the face region do not overlap.
前記編集手段は、前記撮影画像における予め定められた位置に合成されるべき複数の装飾要素画像のうち、前記顔領域の範囲と重複する装飾要素画像を合成しないか、または前記顔領域の範囲および前記撮影画像に含まれる利用者の像の範囲のうちの少なくとも一方の範囲に対して背景となるように合成することを特徴とする、請求項1に記載の遊戯用撮影装置。   The editing means does not synthesize a decoration element image that overlaps the range of the face area among a plurality of decoration element images to be combined at a predetermined position in the captured image, or the range of the face area and The game shooting device according to claim 1, wherein at least one of the ranges of the image of the user included in the shot image is combined to be a background. 前記編集手段は、変更後の合成位置の候補であって予め優先順位を付された複数の候補合成位置に前記特定要素画像をそれぞれ合成しようとする場合における、前記特定領域の範囲と前記顔領域の範囲とが重複する範囲を所定値以下に減少させまたは消失させることができる候補合成位置のうち、最も高い優先順位を付された候補合成位置に、前記特定要素画像を合成することを特徴とする、請求項1または請求項2に記載の遊戯用撮影装置。 The editing unit includes the range of the specific area and the face area when the specific element image is to be combined with a plurality of candidate combination positions that are candidates for the combination position after the change and have been given priority in advance. range and are among the candidate synthetic position range can be a decrease is caused or disappear below a predetermined value which overlap, the candidate combination position, labeled the highest priority, and wherein the synthesis of the specific element image The imaging device for play according to claim 1 or 2. 前記編集手段は、前記第1合成位置を起点として、当該起点から離れるように所定の計算式に基づき算出される変更後の合成位置の候補である候補合成位置に前記特定要素画像を合成しようとする場合、前記特定領域の範囲と前記顔領域の範囲とが重複する範囲を所定値以下に減少させまたは消失させることができる候補合成位置のうち、前記起点に最も近い候補合成位置に、前記特定要素画像を合成することを特徴とする、請求項1または請求項2に記載の遊戯用撮影装置。 The editing means attempts to synthesize the specific element image at a candidate composition position that is a candidate for a composition position after change calculated based on a predetermined calculation formula starting from the first composition position and away from the origin. In the case where the range of the specific region and the range of the face region overlap, among the candidate composite positions that can reduce or eliminate the range where the range of the face region overlaps below a predetermined value , The game photographing apparatus according to claim 1 or 2, wherein element images are synthesized. 前記特定要素画像は、前記特定領域が前記撮影画像の上下方向に伸びる中心線に掛かりかつ前記上下方向とは異なる方向に配列される一連の文字、記号、または模様を示す複数の画像を含むことを特徴とする、請求項1から請求項4までのいずれか1項に記載の遊戯用撮影装置。   The specific element image includes a plurality of images showing a series of characters, symbols, or patterns arranged on a center line extending in the vertical direction of the photographed image, and arranged in a direction different from the vertical direction. The game photographing apparatus according to any one of claims 1 to 4, characterized in that: 前記編集手段は、前記特定要素画像を、前記第1合成位置から下方向に定める位置に合成することを特徴とする、請求項1から請求項5までのいずれか1項に記載の遊戯用撮影装置。   The game shooting according to any one of claims 1 to 5, wherein the editing unit synthesizes the specific element image at a position determined downward from the first synthesis position. apparatus. 表示手段をさらに備え、
前記表示手段は、前記第1合成位置に前記特定要素画像を配置した付加画像を縮小表示する画面である操作画面と、前記利用者により選択された付加画像を前記撮影画像に対して合成する前記編集手段により合成された合成画像を表示する画面である編集画面とを同時に表示することを特徴とする、請求項1から請求項6までのいずれか1項に記載の遊戯用撮影装置。
A display means,
The display means synthesizes an operation screen, which is a screen for reducing and displaying an additional image in which the specific element image is arranged at the first synthesis position, and the additional image selected by the user with the captured image. The game photographing apparatus according to any one of claims 1 to 6, wherein an editing screen that is a screen for displaying a synthesized image synthesized by the editing means is displayed simultaneously .
利用者の撮影を行う撮影ステップと、
前記撮影ステップによって撮影された撮影画像に含まれる利用者の顔を検出するとともに、検出した顔の少なくとも一部を含む顔領域を設定する顔領域設定ステップと、
前記撮影画像に対する合成位置が予め定められた第1合成位置に設定された特定要素画像を含む付加画像を前記撮影画像に対して合成する編集ステップとを備え、
前記編集ステップでは、
前記特定要素画像を前記第1合成位置に合成した場合において前記特定要素画像が占める特定領域の範囲と、前記顔領域の範囲とが重複する場合、重複する範囲を減少または消失させるよう、前記第1合成位置とは異なる第2合成位置に前記特定要素画像を合成し、
前記特定領域の範囲と前記顔領域の範囲とが重複しない場合、前記第1合成位置に前記特定要素画像を合成する
遊戯用撮影方法。
A shooting step for shooting the user;
A face area setting step of detecting a user's face included in the photographed image photographed by the photographing step and setting a face area including at least a part of the detected face;
An editing step of synthesizing the additional image including the specific element image in which the synthesis position with respect to the captured image is set to a predetermined first synthesis position with respect to the captured image,
In the editing step,
In the case where the specific element image is synthesized at the first synthesis position, the range of the specific area occupied by the specific element image and the range of the face area overlap, so that the overlapping range is reduced or eliminated. Synthesizing the specific element image at a second synthesis position different from the one synthesis position;
A game shooting method for combining the specific element image at the first combining position when the range of the specific area and the range of the face area do not overlap.
コンピュータに、
利用者の撮影を行う撮影ステップと、
前記撮影ステップによって撮影された撮影画像に含まれる利用者の顔を検出するとともに、検出した顔の少なくとも一部を含む顔領域を設定する顔領域設定ステップと、
前記撮影画像に対する合成位置が予め定められた第1合成位置に設定された特定要素画像を含む付加画像を前記撮影画像に対して合成する編集ステップとを実行させるプログラムであって、
前記編集ステップでは、
前記特定要素画像を前記第1合成位置に合成した場合において前記特定要素画像が占める特定領域の範囲と、前記顔領域の範囲とが重複する場合、重複する範囲を減少または消失させるよう、前記第1合成位置とは異なる第2合成位置に前記特定要素画像を合成し、
前記特定領域の範囲と前記顔領域の範囲とが重複しない場合、前記第1合成位置に前記特定要素画像を合成する
プログラム。
On the computer,
A shooting step for shooting the user;
A face area setting step of detecting a user's face included in the photographed image photographed by the photographing step and setting a face area including at least a part of the detected face;
A program for executing an editing step for synthesizing an additional image including a specific element image set to a predetermined first synthesis position with respect to the captured image, with respect to the captured image,
In the editing step,
In the case where the specific element image is synthesized at the first synthesis position, the range of the specific area occupied by the specific element image and the range of the face area overlap, so that the overlapping range is reduced or eliminated. Synthesizing the specific element image at a second synthesis position different from the one synthesis position;
A program for synthesizing the specific element image at the first synthesis position when the range of the specific area and the range of the face area do not overlap.
JP2011062079A 2011-03-22 2011-03-22 Game shooting device, game shooting method, and program Expired - Fee Related JP5750961B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011062079A JP5750961B2 (en) 2011-03-22 2011-03-22 Game shooting device, game shooting method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011062079A JP5750961B2 (en) 2011-03-22 2011-03-22 Game shooting device, game shooting method, and program

Publications (3)

Publication Number Publication Date
JP2012199743A JP2012199743A (en) 2012-10-18
JP2012199743A5 JP2012199743A5 (en) 2014-05-22
JP5750961B2 true JP5750961B2 (en) 2015-07-22

Family

ID=47181530

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011062079A Expired - Fee Related JP5750961B2 (en) 2011-03-22 2011-03-22 Game shooting device, game shooting method, and program

Country Status (1)

Country Link
JP (1) JP5750961B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016058937A (en) * 2014-09-11 2016-04-21 辰巳電子工業株式会社 Image editing device for game, image editing method for game and computer program
JP6245530B2 (en) * 2015-07-31 2017-12-13 株式会社メイクソフトウェア Photo game machine
JP6754229B2 (en) * 2016-06-21 2020-09-09 加賀デバイス株式会社 Image processing equipment and computer programs
JP6493587B1 (en) * 2018-03-19 2019-04-03 辰巳電子工業株式会社 Imaging apparatus, image processing method, and image processing program

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004147174A (en) * 2002-10-25 2004-05-20 Make Softwear:Kk Photograph vending machine, image input method, and image input program
JP2005159850A (en) * 2003-11-27 2005-06-16 Seiko Epson Corp Combination of image and character string
JP4955255B2 (en) * 2005-11-02 2012-06-20 富士フイルム株式会社 Image processing system
JP4970302B2 (en) * 2008-02-14 2012-07-04 富士フイルム株式会社 Image processing apparatus, image processing method, and imaging apparatus

Also Published As

Publication number Publication date
JP2012199743A (en) 2012-10-18

Similar Documents

Publication Publication Date Title
JP5782873B2 (en) Game shooting device, game shooting method and program
JP2007240887A (en) Automatic photographing device and method thereof
JP5051313B2 (en) Photo sticker creation apparatus and method, and program
JP5750961B2 (en) Game shooting device, game shooting method, and program
JP5668514B2 (en) Automatic photo creation device
JP2013243466A (en) Imaging apparatus for game, imaging method for game, and program
JP3859693B1 (en) Automatic photography apparatus and method
JP6245529B2 (en) Game shooting device, game shooting method and program
JP2018029343A (en) Image processing apparatus, image processing method, and program
JP5632104B2 (en) Game shooting device, processing method and program for game shooting device
JP6614386B2 (en) Image processing apparatus, image processing method, and program
JP5527460B2 (en) Game shooting device, game shooting method and computer program
JP5895394B2 (en) Game shooting device, game shooting method, and game shooting program
JP5790034B2 (en) Automatic photo creation device
JP2012177741A (en) Automatic photograph creation device
JP6156559B2 (en) Game shooting device, game shooting method, and program
JP2012177741A5 (en)
JP6090369B2 (en) Game shooting device, game shooting method and program
JP5967275B2 (en) Photographic game machine, its control method and control computer
JP2013003412A (en) Automatic photograph creation device, automatic photograph creation method and program
JP5983717B2 (en) Imaging apparatus, imaging method, and program thereof
JP5887752B2 (en) Photography game device, photography game method, and photography game program
JP6614374B2 (en) Photography game machine, control method and program
JP5660243B2 (en) Game shooting device, game shooting method and computer program
JP5967283B2 (en) Photo shooting game machine, its control method and control program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140317

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140409

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20141215

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150120

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150306

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150421

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150504

R150 Certificate of patent or registration of utility model

Ref document number: 5750961

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees