JP2012142772A - Image processing system and image processing method - Google Patents

Image processing system and image processing method Download PDF

Info

Publication number
JP2012142772A
JP2012142772A JP2010293885A JP2010293885A JP2012142772A JP 2012142772 A JP2012142772 A JP 2012142772A JP 2010293885 A JP2010293885 A JP 2010293885A JP 2010293885 A JP2010293885 A JP 2010293885A JP 2012142772 A JP2012142772 A JP 2012142772A
Authority
JP
Japan
Prior art keywords
face
image
contour line
image processing
person
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010293885A
Other languages
Japanese (ja)
Other versions
JP5212461B2 (en
Inventor
Yutaka Ohata
裕 大畠
Daisuke Nakamura
大輔 中村
Junichi Kobayashi
潤一 小林
Koji Maekawa
浩二 前川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Furyu Corp
Original Assignee
Furyu Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Furyu Corp filed Critical Furyu Corp
Priority to JP2010293885A priority Critical patent/JP5212461B2/en
Publication of JP2012142772A publication Critical patent/JP2012142772A/en
Application granted granted Critical
Publication of JP5212461B2 publication Critical patent/JP5212461B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

PROBLEM TO BE SOLVED: To suitably correct shapes of faces of respective persons when a plurality of persons are in a photographed image.SOLUTION: It is determined whether the respective faces are matched with an overlapping condition. An image matched with the overlapping condition is not made to be an object of an image processing for deforming an outline of the face. An image which is not matched with the overlapping condition is made as the object of the image processing. An image which is matched with the overlapping condition and is not the object of the image processing is selected again. Then, determination whether the image is matched with the overlapping condition is repeated. The overlapping condition is the condition that a maximum outline which is set in a selected face crosses the outline of the other face or not. This invention can be applied to a photograph seal creation device.

Description

本発明は、画像処理装置および画像処理方法に関し、特に、撮影画像に複数の人が写っている場合において、それぞれの人の顔の形を好適に補正することができるようにした画像処理装置および画像処理方法に関する。   The present invention relates to an image processing device and an image processing method, and in particular, when a plurality of people are shown in a photographed image, an image processing device capable of suitably correcting the shape of each person's face, and The present invention relates to an image processing method.

利用者を撮影し、撮影画像に対して利用者に編集を行わせ、編集後の画像をシール紙に印刷して提供する写真シール作成装置が知られている。このような写真シール作成装置は娯楽(遊戯)施設等に設置される。   2. Description of the Related Art A photo sticker creation apparatus is known that takes a picture of a user, causes the user to edit the photographed image, and prints and provides the edited image on sticker paper. Such a photo sticker creating apparatus is installed in an entertainment facility.

写真シール作成装置によって提供される1ゲームの流れは、通常、撮影ブース内にいる利用者を被写体として撮影し、利用者を編集ブースに移動させ、編集ブース内で行われる操作に従って画像を編集し、編集後の画像である編集画像をシール紙に印刷して排出するという流れになる。撮影画像の編集は、撮影画像に対してスタンプツールを使ってスタンプ画像を付加したり、ペンツールを使って手書き文字を入力したりして、撮影画像に装飾を施すことによって行われる。   The flow of one game provided by the photo sticker creation device usually shoots a user in the shooting booth as a subject, moves the user to the editing booth, and edits the image according to the operations performed in the editing booth. Then, the edited image, which is an edited image, is printed on a sticker sheet and discharged. Editing of the photographed image is performed by adding a stamp image to the photographed image using a stamp tool or inputting handwritten characters using a pen tool to decorate the photographed image.

ところで、近年、画像処理を施すことによって見栄えのよい撮影画像を生成する機能を搭載した写真シール作成装置がある。ここでいう画像処理は、編集ブースで行われる、撮影画像に何らかの画像を付加して装飾を施す編集処理とは異なり、撮影画像に写る人物(写真シール作成装置の利用者)自体を補正する処理である。   By the way, in recent years, there is a photo sticker creating apparatus equipped with a function for generating a good-looking shot image by performing image processing. The image processing here is different from the editing processing performed at the editing booth in which some image is added to the photographed image to decorate it, and the process for correcting the person (user of the photo sticker creating apparatus) itself that appears in the photographed image It is.

撮影画像の画像処理には、ぱっちりと大きくみせるように目の大きさを変更する処理や、肌をきれいに見せるように肌色を変更する処理がある。また、小顔になるように顎のラインを変形する処理や、小顔にするために、顔ラインを取得し、そのラインを基に目を除いた部分の顔領域を変形する処理がある。   The image processing of the photographed image includes a process of changing the size of the eyes to make it look larger and a process of changing the skin color to make the skin look beautiful. In addition, there is a process of deforming the jaw line so as to be a small face, and a process of acquiring a face line and deforming a face area of a portion excluding the eyes based on the line to make a small face.

例えば、目の大きさを変更する処理と肌の色を変更する処理については特許文献1に開示されており、顎のラインを変形する処理については特許文献2に開示されている。また、目を除いた顔領域を変形する処理については特許文献3に開示されている。   For example, the process of changing the size of the eyes and the process of changing the skin color are disclosed in Patent Document 1, and the process of deforming the chin line is disclosed in Patent Document 2. Further, Patent Document 3 discloses a process for deforming a face area excluding eyes.

特開2005−175580号公報JP 2005-175580 A 特開2010−50501号公報JP 2010-50501 A 特開2010−61646号公報JP 2010-61646 A

見栄えのよい撮影画像を提供するために様々な画像処理の機能が提供されているが、例えば特許文献1に開示されている技術は、目の大きさや肌の色を対象とした処理であり、顔の輪郭を変形するものではないから、顔全体をみたときにバランスの悪い画像になってしまうことがある。また、利用者が個別に操作を行わなければならないため操作性に優れていなかった。   Various image processing functions are provided in order to provide a good-looking photographed image. For example, the technique disclosed in Patent Document 1 is processing for eye size and skin color, Since the face contour is not deformed, the image may be unbalanced when the entire face is viewed. Further, since the user has to perform individual operations, the operability is not excellent.

また、特許文献2に開示されている技術によっては、例えば利用者が複数いる場合、他の利用者の顔との関係を考慮することなく、画像処理の対象としている顔の顎ラインを変形するようになされていることから、画像処理後の全員の顔を見たときにバランスの悪い画像になってしまうことがある。さらに、撮影画像に何人の顔が含まれているかが顔検出処理によって取得され、取得された人数分だけ処理が繰り返されることから、最初に取得人数からもれてしまった人の顔は処理の対象にならず、この点において、全ての利用者にとって満足できる撮影画像を提供できているとはいえない。   Also, depending on the technique disclosed in Patent Document 2, for example, when there are a plurality of users, the jaw line of the face to be subjected to image processing is deformed without considering the relationship with the faces of other users. As a result, when the faces of all the people after image processing are viewed, the image may become unbalanced. Furthermore, how many faces are included in the captured image is acquired by the face detection process, and the process is repeated for the number of acquired persons. In this respect, it cannot be said that a captured image that is satisfactory for all users can be provided.

特許文献3に開示されている技術によっては、撮影画像に写る人の数が複数の場合、一人が写る範囲の境界線と他の人が写る範囲の境界線が所定の距離内であれば両者とも画像処理の対象にならず、また、撮影画像に写る人の数が3人以上である場合の処理が開示されていない。写真シール作成装置の使い方として3人のグループで近づいて撮影を行うといったことも多く、このような場合に仮に誰の顔も画像処理の対象にならないとすると、このことも、全ての利用者にとって満足できる撮影画像を提供できていないことになる。さらに、近づいた時は画像処理の対象にならず、離れた時は画像処理の対象になるため、同じゲーム内で生成される複数の撮影画像間で、同一人の顔に違いが生じてしまい、見栄えの悪い画像を提供したり、利用者に不快感を与えたりすることがあった。   Depending on the technique disclosed in Patent Document 3, when there are a plurality of people appearing in a photographed image, both of which are within a predetermined distance between the boundary line of a range where one person is captured and the boundary line of a range where another person is captured Neither is subject to image processing, and no processing is disclosed when the number of people in the captured image is three or more. There are many cases in which a group of three people approach each other to shoot a photo sticker creation device. In such a case, assuming that no one's face is subject to image processing, this is also important for all users. This means that a satisfactory photographed image cannot be provided. Furthermore, since it is not subject to image processing when approaching, it is subject to image processing when leaving, so there is a difference in the face of the same person between multiple captured images generated in the same game. , It may provide images that look bad, or may make the user uncomfortable.

本発明はこのような状況に鑑みてなされたものであり、撮影画像に複数の人が写っている場合において、それぞれの人の顔の形を好適に補正することができるようにするものである。   The present invention has been made in view of such a situation, and in the case where a plurality of people are shown in a photographed image, the shape of each person's face can be suitably corrected. .

本発明の一側面の画像処理装置は、撮影画像に写る人物の顔を検出する顔検出手段と、前記撮影画像から検出された人物の顔に、変形可能な最大の輪郭の大きさを表す線である最大輪郭ラインを設定する設定手段と、前記顔検出手段で検出された人物の顔が複数あった場合に、前記複数の人物の顔のうちの所定の人物の顔に設定された前記最大輪郭ラインが他の人物の顔の輪郭のラインと交わるか否かを判定し、交わらないと判定した場合、前記所定の人物の顔を対象として、前記最大輪郭ラインにより表される大きさの範囲内で所定の大きさになるように輪郭を変形する画像処理を行い、交わると判定した場合、前記画像処理を行わない顔変形処理手段と、前記顔変形処理手段で、前記所定の人物の顔を対象として前記画像処理を行う毎に、他の人物の顔を前記顔変形処理手段の処理対象とする前記所定の人物の顔として選択する選択手段とを有することを特徴とする。   An image processing apparatus according to an aspect of the present invention includes a face detection unit that detects a person's face in a photographed image, and a line that represents a maximum contour size that can be deformed on the person's face detected from the photographed image. When there are a plurality of human faces detected by the face detecting means and a setting means for setting a maximum contour line, the maximum contour line set to a predetermined person's face among the faces of the plurality of persons If it is determined whether or not the contour line intersects with the contour line of the face of another person, and if it does not intersect, the range of the size represented by the maximum contour line for the face of the predetermined person If the image processing for deforming the contour is performed so as to have a predetermined size within the image, and the face deformation processing unit does not perform the image processing and the face deformation processing unit does not perform the image processing, the face of the predetermined person Every time the image processing is performed It characterized by having a selection means for selecting a face of another person as the face of the predetermined person to be processed in the face deformation processing means.

前記顔検出手段には、前記撮影画像に写る人物の顔を検出させるとともに、人物の顔として検出したオブジェクトに対して人物の顔である確率を計算させ、前記選択手段には、前記顔検出手段により求められた前記確率の高い順に処理対象とする前記所定の人物の顔を選択させることができる。   The face detecting means detects the face of a person in the photographed image, calculates the probability that the object detected as the person's face is a person's face, and the selecting means includes the face detecting means The face of the predetermined person to be processed can be selected in descending order of the probability obtained by the above.

前記選択手段には、前記画像処理の対象とした顔を除いて、前記複数の人物の全員の顔に設定された前記最大輪郭ラインが前記他の人物の顔の輪郭のラインと交わると判定するまで、処理対象とする前記所定の人物の顔の選択を繰り返させることができる。   The selection means determines that the maximum contour line set for the faces of all of the plurality of persons intersects with the contour line of the face of the other person except for the face to be subjected to the image processing. Up to this point, the selection of the face of the predetermined person to be processed can be repeated.

本発明の一側面の画像処理方法は、撮影画像に写る人物の顔を検出し、前記撮影画像から検出された人物の顔に、変形可能な最大の輪郭の大きさを表す線である最大輪郭ラインを設定し、検出した人物の顔が複数あった場合に、前記複数の人物の顔のうちの所定の人物の顔に設定された前記最大輪郭ラインが他の人物の顔の輪郭のラインと交わるか否かを判定し、交わらないと判定した場合、前記所定の人物の顔を対象として、前記最大輪郭ラインにより表される大きさの範囲内で所定の大きさになるように輪郭を変形する画像処理を行い、交わると判定した場合、前記画像処理を行わず、前記所定の人物の顔を対象として前記画像処理を行う毎に、他の人物の顔を処理対象とする前記所定の人物の顔として選択するステップを含む。   An image processing method according to an aspect of the present invention detects a person's face in a photographed image, and a maximum contour that is a line representing a maximum contour size that can be deformed on the person's face detected from the photographed image. When a line is set and there are a plurality of detected human faces, the maximum contour line set for the face of the predetermined person among the faces of the plurality of persons is the contour line of the face of another person. Determining whether or not to intersect, if it is determined not to intersect, the contour is deformed so that the face of the predetermined person becomes a predetermined size within the size range represented by the maximum contour line When the image processing is performed and the image processing is performed, and the image processing is performed on the face of the predetermined person, the predetermined person whose face is another person's face is processed each time the image processing is performed. Selecting as a face.

本発明の一側面においては、撮影画像に写る人物の顔が検出され、前記撮影画像から検出された人物の顔に、変形可能な最大の輪郭の大きさを表す線である最大輪郭ラインが設定される。また、検出された人物の顔が複数あった場合に、前記複数の人物の顔のうちの所定の人物の顔に設定された前記最大輪郭ラインが他の人物の顔の輪郭のラインと交わるか否かが判定され、交わらないと判定された場合、前記所定の人物の顔を対象として、前記最大輪郭ラインにより表される大きさの範囲内で所定の大きさになるように輪郭を変形する画像処理が行われ、交わると判定された場合、前記画像処理が行われない。前記所定の人物の顔を対象として前記画像処理が行われる毎に、他の人物の顔が処理対象とする前記所定の人物の顔として選択される。   In one aspect of the present invention, the face of a person appearing in a photographed image is detected, and a maximum contour line that is a line representing the maximum deformable contour size is set on the face of the person detected from the photographed image. Is done. In addition, when there are a plurality of detected human faces, the maximum contour line set for the face of the predetermined person among the plurality of human faces intersects with the contour lines of the faces of other persons. If it is determined whether or not to intersect, the contour of the predetermined person's face is deformed so as to have a predetermined size within the range of the size represented by the maximum contour line. When it is determined that the image processing is performed and the image processing is performed, the image processing is not performed. Each time the image processing is performed on the face of the predetermined person, the face of another person is selected as the face of the predetermined person to be processed.

本発明によれば、撮影画像に複数の人が写っている場合において、それぞれの人の顔の形を好適に補正することができる。   According to the present invention, when a plurality of people are shown in a photographed image, the shape of each person's face can be suitably corrected.

写真シール作成装置の構成例を示す斜視図である。It is a perspective view which shows the structural example of a photograph sticker production apparatus. 写真シール作成装置を他の角度からみた斜視図である。It is the perspective view which looked at the photograph sticker production apparatus from another angle. 利用者の移動について説明する図である。It is a figure explaining a user's movement. 撮影ユニットの前方ユニットの正面の構成例を示す図である。It is a figure which shows the structural example of the front of the front unit of an imaging | photography unit. 編集ユニットの側面の構成例を示す図である。It is a figure which shows the structural example of the side surface of an edit unit. 編集ユニットの他の側面の構成例を示す図である。It is a figure which shows the structural example of the other side of an edit unit. 写真シール作成装置の内部の構成例を示すブロック図である。It is a block diagram which shows the example of an internal structure of a photograph sticker production apparatus. 図7の制御部の機能構成例を示すブロック図である。It is a block diagram which shows the function structural example of the control part of FIG. 図8の撮影処理部の機能構成例を示すブロック図である。It is a block diagram which shows the function structural example of the imaging | photography process part of FIG. 撮影画像の例を示す図である。It is a figure which shows the example of a picked-up image. 撮影画像の他の例を示す図である。It is a figure which shows the other example of a picked-up image. 撮影画像のさらに他の例を示す図である。It is a figure which shows the further another example of a picked-up image. 撮影画像の例を示す図である。It is a figure which shows the example of a picked-up image. 撮影画像に写る顔の位置の例を示す図である。It is a figure which shows the example of the position of the face reflected in a picked-up image. 撮影画像に写る顔の位置の他の例を示す図である。It is a figure which shows the other example of the position of the face reflected in a picked-up image. 撮影画像に写る顔の位置のさらに他の例を示す図である。It is a figure which shows the further another example of the position of the face reflected in a picked-up image. 撮影画像に写る顔の位置の例を示す図である。It is a figure which shows the example of the position of the face reflected in a picked-up image. 撮影画像に写る顔の位置の他の例を示す図である。It is a figure which shows the other example of the position of the face reflected in a picked-up image. 撮影画像に写る顔の位置のさらに他の例を示す図である。It is a figure which shows the further another example of the position of the face reflected in a picked-up image. 写真シール作成装置の写真シール作成ゲーム処理について説明するフローチャートである。It is a flowchart explaining the photograph sticker creation game process of a photograph sticker creation apparatus. 図20のステップS3において行われる撮影処理について説明するフローチャートである。It is a flowchart explaining the imaging | photography process performed in step S3 of FIG. 図21のステップS16において行われる顔変形処理について説明するフローチャートである。It is a flowchart explaining the face deformation process performed in step S16 of FIG. 画像処理の具体例を示す図である。It is a figure which shows the specific example of an image process. 画像処理の具体例を示す他の図である。It is another figure which shows the specific example of an image process. 画像処理の具体例を示すさらに他の図である。It is another figure which shows the specific example of an image process. 画像処理の効果について説明する図である。It is a figure explaining the effect of image processing. 画像処理の効果について説明する他の図である。It is another figure explaining the effect of image processing.

[写真シール作成装置の構成]
図1は、写真シール作成装置1の構成例を示す斜視図である。
[Configuration of photo sticker creation device]
FIG. 1 is a perspective view showing a configuration example of a photographic sticker creating apparatus 1.

写真シール作成装置1は、撮影や編集等の作業を利用者にゲームとして行わせ、撮影画像や編集済み画像を提供する代わりに利用者より代金を受け取るゲーム機(画像処理装置)である。写真シール作成装置1はゲームセンタなどの店舗に設置される。利用者は1人であることもあるし、複数人であることもある。   The photo sticker creating apparatus 1 is a game machine (image processing apparatus) that allows a user to perform operations such as shooting and editing as a game and receives a price from the user instead of providing a shot image or an edited image. The photo sticker creating apparatus 1 is installed in a store such as a game center. There may be one user or a plurality of users.

写真シール作成装置1が提供する写真シール作成ゲームにおいて、利用者は、代金を投入し、自身が被写体となって撮影を行い、撮影によって得られた撮影画像の中から編集対象画像を選択し、編集対象画像に対して、背景や前景となるフレーム画像、手書きの線画やスタンプ画像を合成する編集機能を用いて編集を行うことにより、撮影画像を彩り豊かな画像にする。ゲーム終了後、利用者は、編集済み画像が印刷されたシール紙を受け取ることになる。   In the photo sticker creation game provided by the photo sticker creation device 1, the user enters a price, takes a picture of himself as a subject, selects an image to be edited from the shot images obtained by the shooting, By editing the image to be edited using an editing function for synthesizing a frame image as a background or foreground, a handwritten line drawing, or a stamp image, the photographed image becomes a colorful image. After the game, the user receives a sticker sheet on which the edited image is printed.

図1に示すように、写真シール作成装置1の筐体10は、主に、撮影ユニット12、編集ユニット13、天井ストロボユニット14、および背景カーテンユニット15から構成される。   As shown in FIG. 1, the housing 10 of the photo sticker creating apparatus 1 mainly includes a photographing unit 12, an editing unit 13, a ceiling strobe unit 14, and a background curtain unit 15.

撮影ユニット12は、利用者を被写体として撮影する機能を有するユニットである。撮影ユニット12の内部の撮影空間において撮影が行われる。撮影ユニット12は、大きく前方ユニット12Aと後方ユニット12Bに分けられる。   The photographing unit 12 is a unit having a function of photographing a user as a subject. Photographing is performed in a photographing space inside the photographing unit 12. The photographing unit 12 is roughly divided into a front unit 12A and a rear unit 12B.

前方ユニット12Aは、撮影空間の前方側となるユニットであり、撮影に関する処理を行ったり、利用者による操作を受け付けたりする。前方ユニット12Aの側面には、外付けモニタ16、スピーカ17、タッチペン18a,18bが設けられる。外付けモニタ16の下方には硬貨投入口55が設けられる。後方ユニット12Bは撮影空間の後方側となる壁状のユニットである。   The front unit 12A is a unit on the front side of the shooting space, and performs processing related to shooting and receives operations by the user. An external monitor 16, a speaker 17, and touch pens 18a and 18b are provided on the side surface of the front unit 12A. A coin slot 55 is provided below the external monitor 16. The rear unit 12B is a wall-like unit on the rear side of the photographing space.

編集ユニット13は、利用者が撮影画像に対して編集等を行うための構成が設けられるユニットである。2組の利用者が同時に編集作業を行うことができるように、編集等を行うための構成が編集ユニット13の2つの面のそれぞれに設けられる。写真シール作成装置1は、ある利用者に写真シール作成ゲームを行わせることと、他の利用者に写真シール作成ゲームを行わせることを並列的に実行することができる。   The editing unit 13 is a unit provided with a configuration for a user to edit a captured image. A configuration for performing editing or the like is provided on each of the two surfaces of the editing unit 13 so that two sets of users can perform editing work simultaneously. The photo sticker creating apparatus 1 can execute a photo sticker creating game for a certain user and a photo sticker creating game for another user in parallel.

撮影空間の上方に設けられる天井ストロボユニット14は、撮影タイミングに合わせて撮影空間内に向けてフラッシュを発光するストロボを内蔵する。天井ストロボユニット14の内部には蛍光灯が配置されており、撮影空間の照明としても機能する。   The ceiling strobe unit 14 provided above the photographing space incorporates a strobe that emits a flash toward the photographing space in accordance with the photographing timing. A fluorescent lamp is arranged inside the ceiling strobe unit 14 and also functions as illumination of the photographing space.

後方ユニット12Bの上部には、背景に利用する可動式のカーテン(背景カーテン)が収納された背景カーテンユニット15が設けられている。背景カーテンユニット15には、色または柄の異なる巻き取り式のカーテンが複数収納されている。背景カーテンユニット15は、前方ユニット12Aに設けられたカメラやストロボ等の撮影機能と連動して動作し、撮影の際に、例えば利用者により選択された色のカーテンを下ろし、その他のカーテンを巻き取る。背景カーテンについて、複数のカーテンを1枚のクロマキー用のカーテンとして昇降式カーテンとしてもよく、また、クロマキー用のカーテンを予め撮影空間の背面に張り付けるとともに、合成用の背景画像を複数種類用意し、編集処理において利用者が所望する背景画像をカーテンの部分に合成することができるようにしてもよい。   On the upper part of the rear unit 12B, a background curtain unit 15 in which a movable curtain (background curtain) used for the background is stored is provided. The background curtain unit 15 stores a plurality of winding curtains having different colors or patterns. The background curtain unit 15 operates in conjunction with a photographing function such as a camera or a strobe provided in the front unit 12A. At the time of photographing, for example, the curtain of the color selected by the user is lowered and the other curtains are wound. take. As for the background curtain, a plurality of curtains may be used as an elevating curtain as a single chroma key curtain, and a chroma key curtain is pasted on the back of the shooting space in advance, and a plurality of background images for synthesis are prepared. In the editing process, a background image desired by the user may be combined with the curtain portion.

前方ユニット12Aの側面に設けられる外付けモニタ16は、撮影空間で撮影が行われている場合に、次に撮影空間を利用するために撮影空間の外で待機している利用者や、写真シール作成装置1の傍を通りかかった人に対して、ゲームの進行状況を示す映像を表示したり、ゲームの流れや遊び方等を案内する映像(デモンストレーション)を表示したり、写真シール作成装置1が設置されている店舗や地域の広告等を表示したりする。外付けモニタ16はタブレット内蔵モニタであり、事前接客処理に関する画面を表示し、利用者による選択操作を受け付ける。   The external monitor 16 provided on the side surface of the front unit 12A is used for a user who is waiting outside the shooting space to use the shooting space next time when shooting is performed in the shooting space, or a photo sticker. For those who pass by the creation device 1, a video showing the progress of the game is displayed, a video (demonstration) that guides the flow of the game, how to play, etc. is displayed, and the photo sticker creation device 1 is installed Display advertisements for the stores and areas that are used. The external monitor 16 is a tablet built-in monitor, displays a screen related to pre-service processing, and accepts a selection operation by the user.

スピーカ17は、外付けモニタ16の表示に合わせた音声を出力する。   The speaker 17 outputs sound that matches the display on the external monitor 16.

タッチペン18a,18bは事前接客作業を行う利用者により用いられる。利用者は、タッチペン18(タッチペン18a,18b)によって外付けモニタ16をタップしたり、外付けモニタ16上を移動させたりすることにより、各種の項目を選択することができる。タッチペンを2本用意しておくことにより、事前接客作業における選択操作を2人の利用者が同時に行うことが可能になる。   The touch pens 18a and 18b are used by a user who performs pre-service work. The user can select various items by tapping the external monitor 16 with the touch pen 18 (touch pens 18a, 18b) or moving the external monitor 16 on the external monitor 16. By preparing two touch pens, it becomes possible for two users to simultaneously perform a selection operation in the pre-service operation.

図2は、写真シール作成装置1を別の角度から見た斜視図である。   FIG. 2 is a perspective view of the photo sticker creating apparatus 1 as seen from another angle.

編集ユニット13は、前方ユニット12Aの、後方ユニット12B側の面(撮影空間側の面)と反対の面に隣接して設置される。編集ユニット13の2つの側面には、利用者が撮影画像に対する編集等を行うための第1編集インタフェース13Aと第2編集インタフェース13Bがそれぞれ設けられる。   The editing unit 13 is installed adjacent to the surface of the front unit 12A opposite to the surface on the rear unit 12B side (surface on the imaging space side). On the two side surfaces of the editing unit 13, a first editing interface 13A and a second editing interface 13B are provided for the user to edit the captured image.

ここで、写真シール作成ゲームの流れと、それに伴う利用者の移動について図3を参照して説明する。図3は、写真シール作成装置1を上から見た平面図である。   Here, the flow of the photo sticker creation game and the accompanying movement of the user will be described with reference to FIG. FIG. 3 is a plan view of the photo sticker creating apparatus 1 as viewed from above.

外付けモニタ16の前方の空間である事前接客空間31において硬貨投入口55に代金を投入した利用者(利用者A)は、タッチペン18を用いて、外付けモニタ16に表示される画面に従って各種の設定を行う。事前接客空間31においては、例えば、画像をサーバに送信する機能である携帯送信の機能を利用するか否かの選択が事前接客作業として行われる。   A user (user A) who has paid for the coin insertion slot 55 in the pre-service space 31 in front of the external monitor 16 uses the touch pen 18 according to the screen displayed on the external monitor 16. Set up. In the prior customer service space 31, for example, selection as to whether or not to use a mobile transmission function that is a function of transmitting an image to a server is performed as a prior customer service.

事前接客作業を終えた利用者は、前方ユニット12Aと後方ユニット12Bの間に形成された撮影空間32に入り、前方ユニット12Aに設けられたカメラやモニタを利用して撮影作業を行う(利用者B)。   The user who has completed the customer service operation enters the imaging space 32 formed between the front unit 12A and the rear unit 12B, and performs the imaging operation using a camera or a monitor provided in the front unit 12A (user B).

撮影作業を終えた利用者は、撮影画像の中から編集対象画像を選択し、選択した後に例えば前方ユニット12Aのモニタに表示される移動案内に従って、撮影空間32から、編集作業を行う編集空間に移動する。   The user who has finished the shooting work selects an image to be edited from the shot images, and after selecting the image, for example, according to the movement guide displayed on the monitor of the front unit 12A, from the shooting space 32 to the editing space where the editing work is performed. Moving.

編集ユニット13の、前方ユニット12Aから見て右側(第1編集インタフェース13Aの前方)に第1編集空間33Aが形成され、左側(第2編集インタフェース13Bの前方)に第2編集空間33Bが形成される。以下、適宜、第1編集空間33Aと第2編集空間33Bを区別する必要が無い場合、まとめて編集空間33という。   A first editing space 33A is formed on the right side (in front of the first editing interface 13A) of the editing unit 13 as viewed from the front unit 12A, and a second editing space 33B is formed on the left side (in front of the second editing interface 13B). The Hereinafter, when it is not necessary to distinguish the first editing space 33A and the second editing space 33B as appropriate, they are collectively referred to as an editing space 33.

撮影空間32の利用者(利用者B)は、撮影作業を終えたとき、2つの編集空間のうち、空いている方に案内される。第1編集空間33Aまたは第2編集空間33Bに移動した利用者は、編集作業を開始する。第1編集空間33Aの利用者である利用者Cと、第2編集空間33Bの利用者である利用者C'は同時に編集作業を行うことができる。   The user (user B) of the shooting space 32 is guided to the free one of the two editing spaces when the shooting operation is finished. The user who has moved to the first editing space 33A or the second editing space 33B starts editing work. A user C who is a user of the first editing space 33A and a user C ′ who is a user of the second editing space 33B can simultaneously perform editing work.

編集作業を終えた利用者は、次に、分割数の設定などの印刷設定作業を編集空間33において行う。印刷設定作業が終了した後、印刷が開始される。画像の印刷中、利用者は、携帯送信の機能を利用することを事前接客作業時に選択している場合、サーバに保存しておく画像を編集済み画像の中から選択したり、ミニゲームを行ったりする。印刷が終了した場合、利用者は印刷物受取領域34に移動してシール紙を受け取り、一連の写真シール作成ゲームを終える。   The user who has finished the editing work next performs a print setting work such as setting the number of divisions in the editing space 33. After the print setting work is completed, printing is started. During image printing, if the user has selected to use the mobile transmission function during customer service, the user can select an image to be stored on the server from among the edited images or play a mini game. Or When printing is completed, the user moves to the printed material receiving area 34 to receive the sticker paper, and finishes a series of photo sticker creation games.

次に、各ユニットの構成について説明する。   Next, the configuration of each unit will be described.

図4は、前方ユニット12Aの構成例を示す図である。図4の正面12A−1は、撮影空間32で撮影作業を行う利用者にとって前方に位置する面である。   FIG. 4 is a diagram illustrating a configuration example of the front unit 12A. A front surface 12 </ b> A- 1 in FIG. 4 is a surface that is positioned forward for a user who performs a photographing operation in the photographing space 32.

正面12A−1のほぼ中央には、撮影空間32内の被写体を撮影するカメラ51が設けられており、カメラ51の下にタッチパネルモニタ52が設けられている。   A camera 51 that captures a subject in the imaging space 32 is provided in the approximate center of the front surface 12 </ b> A- 1, and a touch panel monitor 52 is provided below the camera 51.

正面12A−1には、カメラ51による撮影タイミングに合わせて発光する照明装置53−1乃至53−8が設置されている他、撮影作業を行っている利用者が手荷物等を置くための荷物置き場54−1および54−2が、タッチパネルモニタ52の下にある照明装置53−7を挟んで左右に設けられている。正面12A−1の例えば天井付近には、写真シール作成ゲームの撮影作業における案内音声、BGM(Back Ground Music)、効果音等の音声を出力するスピーカも設けられる。   The front surface 12A-1 is provided with lighting devices 53-1 to 53-8 that emit light in accordance with the shooting timing of the camera 51, and a baggage storage area for a user who is shooting to put baggage or the like. 54-1 and 54-2 are provided on the left and right with the illumination device 53-7 under the touch panel monitor 52 interposed therebetween. For example, near the ceiling of the front surface 12 </ b> A- 1, a speaker that outputs sound such as guidance sound, BGM (Back Ground Music), and sound effects in the shooting work of the photo sticker creation game is also provided.

カメラ51は、CCD(Charge Coupled Device)などの撮像素子により構成され、撮影空間32にいる利用者を撮影する。カメラ51により取り込まれた取り込み画像は、一部が切り出されたり、背景等の画像が合成されたりして、タッチパネルモニタ52にリアルタイムで表示される。利用者により撮影が指示されたときなどの所定のタイミングでカメラ51により取り込まれた画像は撮影画像(静止画像)として保存される。   The camera 51 is configured by an image sensor such as a CCD (Charge Coupled Device), and photographs the user in the photographing space 32. A part of the captured image captured by the camera 51 is cut out or an image such as a background is synthesized and displayed on the touch panel monitor 52 in real time. An image captured by the camera 51 at a predetermined timing such as when a user gives an instruction to shoot is saved as a photographic image (still image).

タッチパネルモニタ52は、LCD(Liquid Crystal Display)などのライブビューモニタと、それに積層されたタッチパネルにより構成される。タッチパネルモニタ52は、カメラ51により取り込まれた取り込み画像に背景や前景等の画像を合成した合成画像(動画像)を表示するライブビューモニタとしての機能と、各種のGUI(Graphical User Interface)画像を表示するとともに、画面上に重畳されたタッチパネルにより利用者の選択操作を受け付ける機能とを備えている。   The touch panel monitor 52 includes a live view monitor such as an LCD (Liquid Crystal Display) and a touch panel laminated thereon. The touch panel monitor 52 has a function as a live view monitor that displays a composite image (moving image) obtained by combining an image such as a background or foreground with a captured image captured by the camera 51, and various GUI (Graphical User Interface) images. And a function of accepting a user's selection operation by a touch panel superimposed on the screen.

図5は、編集ユニット13の、撮影ユニット12側から見て右側面の構成例(第1編集空間33A側の構成例)を示す図である。   FIG. 5 is a diagram showing a configuration example of the editing unit 13 on the right side when viewed from the photographing unit 12 side (configuration example on the first editing space 33A side).

第1編集インタフェース13Aには、タブレット内蔵モニタ62、タッチペン63−1,63−2、およびスピーカ64が設けられる。これらの上方には照明装置61も設けられる。   The first editing interface 13A is provided with a tablet built-in monitor 62, touch pens 63-1, 63-2, and a speaker 64. A lighting device 61 is also provided above them.

タブレット内蔵モニタ62は、タッチペン63−1または63−2を用いて操作入力が可能なタブレットがLCDなどの表示デバイス上に重畳されることによって構成される。タブレット内蔵モニタ62には、例えば、編集対象画像の編集に用いられる画面である編集画面が表示される。2人で同時に編集作業を行う場合、タッチペン63−1は一方の利用者により用いられ、タッチペン63−2は他方の利用者により用いられる。以下、適宜、タッチペン63−1とタッチペン63−2をまとめてタッチペン63という。   The tablet built-in monitor 62 is configured by superimposing a tablet capable of operation input using the touch pen 63-1 or 63-2 on a display device such as an LCD. On the tablet built-in monitor 62, for example, an edit screen that is a screen used for editing the image to be edited is displayed. When two people perform editing work simultaneously, the touch pen 63-1 is used by one user, and the touch pen 63-2 is used by the other user. Hereinafter, the touch pen 63-1 and the touch pen 63-2 are collectively referred to as a touch pen 63, as appropriate.

スピーカ64は、案内音声、効果音、BGMなどの編集作業に関する音声を出力する。なお、第2編集空間33B側の編集ユニット13の構成も、図5に示す第1編集空間33A側の構成と基本的に同様の構成である。   The speaker 64 outputs voices related to editing work such as guidance voices, sound effects, and BGM. The configuration of the editing unit 13 on the second editing space 33B side is basically the same as the configuration on the first editing space 33A side shown in FIG.

図6は、編集ユニット13の、写真シール排出部13Cの構成例を示す図である。   FIG. 6 is a diagram illustrating a configuration example of the photo sticker discharge unit 13 </ b> C of the editing unit 13.

写真シール排出部13Cには写真シール排出口71が設けられる。写真シール排出口71には、第1編集空間33Aの利用者が編集作業を行って得られた画像が印刷されたシール紙と、第2編集空間33Bの利用者が編集作業を行って得られた画像が印刷されたシール紙が排出される。編集ユニット13の内部にはプリンタが設けられており、編集作業により得られた画像の印刷がそのプリンタにより行われる。   A photographic sticker discharge port 71 is provided in the photographic sticker discharge portion 13C. The photo sticker discharge port 71 is obtained by a sticker on which an image obtained by editing by the user of the first editing space 33A is printed and by a user of the second editing space 33B. The sticker paper on which the printed image is printed is discharged. A printer is provided inside the editing unit 13, and an image obtained by editing work is printed by the printer.

次に、写真シール作成装置1の内部構成について説明する。図7は、写真シール作成装置1の内部の構成例を示すブロック図である。上述した構成と同じ構成には同じ符号を付してある。重複する説明については適宜省略する。   Next, the internal configuration of the photo sticker creating apparatus 1 will be described. FIG. 7 is a block diagram illustrating an internal configuration example of the photo sticker creating apparatus 1. The same code | symbol is attached | subjected to the same structure as the structure mentioned above. The overlapping description will be omitted as appropriate.

制御部101は、写真シール作成装置1の全体の動作を制御する。制御部101には、記憶部102、通信部103、ドライブ104、ROM(Read Only Memory)106、RAM(Random Access Memory)107、事前接客部111、撮影部112、編集部113、プリンタ114が接続される。   The control unit 101 controls the overall operation of the photo sticker creating apparatus 1. Connected to the control unit 101 are a storage unit 102, a communication unit 103, a drive 104, a ROM (Read Only Memory) 106, a RAM (Random Access Memory) 107, a pre-service unit 111, a photographing unit 112, an editing unit 113, and a printer 114. Is done.

記憶部102は、ハードディスクやフラッシュメモリなどの不揮発性の記憶媒体からなり、制御部101から供給された各種の設定情報を記憶する。記憶部102に記憶されている情報は制御部101により適宜読み出される。   The storage unit 102 includes a non-volatile storage medium such as a hard disk or a flash memory, and stores various setting information supplied from the control unit 101. Information stored in the storage unit 102 is appropriately read out by the control unit 101.

通信部103はインターネットなどのネットワークのインタフェースであり、制御部101による制御に従って外部の装置と通信を行う。   A communication unit 103 is an interface of a network such as the Internet, and communicates with an external device according to control by the control unit 101.

ドライブ104には、光ディスク(CD-ROM(Compact Disc-Read Only Memory)、DVD(Digital Versatile Disc)を含む)や半導体メモリなどよりなるリムーバブルメディア105が適宜装着される。ドライブ104によりリムーバブルメディア105から読み出されたコンピュータプログラムやデータは、制御部101に供給され、記憶部102に記憶されたり、インストールされたりする。   A removable medium 105 made of an optical disk (including a CD-ROM (Compact Disc-Read Only Memory) and a DVD (Digital Versatile Disc)), a semiconductor memory, and the like is appropriately attached to the drive 104. The computer program and data read from the removable medium 105 by the drive 104 are supplied to the control unit 101 and stored in the storage unit 102 or installed.

ROM106には、制御部101において実行されるプログラムやデータが記憶されている。RAM107は、制御部101が処理するデータやプログラムを一時的に記憶する。   The ROM 106 stores programs and data executed by the control unit 101. The RAM 107 temporarily stores data and programs processed by the control unit 101.

事前接客部111は、事前接客作業を利用者に行わせるための処理である事前接客処理を行うブロックであり、外付けモニタ16、スピーカ17、タッチペン18、および硬貨処理部121から構成される。   The pre-service section 111 is a block that performs pre-service processing, which is processing for causing the user to perform pre-service work, and includes an external monitor 16, a speaker 17, a touch pen 18, and a coin processing section 121.

外付けモニタ16は、制御部101による制御に従って、写真シール作成ゲームの流れや遊び方等を案内する映像などを表示する。また、外付けモニタ16は、代金が投入された後、携帯送信の機能を利用するか否かの選択画面などを表示する。外付けモニタ16に対して入力された利用者の操作の内容を表す信号は制御部101に供給される。   The external monitor 16 displays an image that guides the flow of the photo sticker creation game, how to play, and the like according to control by the control unit 101. In addition, the external monitor 16 displays a selection screen for determining whether or not to use the mobile transmission function after the price is inserted. A signal representing the content of the user's operation input to the external monitor 16 is supplied to the control unit 101.

硬貨処理部121は、硬貨投入口に対する硬貨の投入を検出する。硬貨処理部121は、硬貨が投入されたことを検出した場合、そのことを表す起動信号を制御部101に出力する。   The coin processing unit 121 detects the insertion of coins into the coin insertion slot. When the coin processing unit 121 detects that a coin has been inserted, the coin processing unit 121 outputs an activation signal indicating that to the control unit 101.

撮影部112は、撮影作業を利用者に行わせるための処理である撮影処理を行うブロックであり、背景カーテンユニット15、照明制御部122、カメラ51、タッチパネルモニタ52、およびスピーカ124から構成される。   The photographing unit 112 is a block that performs photographing processing, which is processing for causing a user to perform photographing work, and includes a background curtain unit 15, an illumination control unit 122, a camera 51, a touch panel monitor 52, and a speaker 124. .

背景カーテンユニット15は、制御部101より供給される背景制御信号に基づいて背景カーテンの上げ下ろしを行う。背景の選択は利用者が手動で行うようにしてもよい。   The background curtain unit 15 raises and lowers the background curtain based on the background control signal supplied from the control unit 101. The background may be selected manually by the user.

照明制御部122は、制御部101より供給される照明制御信号に基づいて、照明装置53−1乃至53−8を点灯したり、消灯したりする。   The illumination control unit 122 turns on or off the illumination devices 53-1 to 53-8 based on the illumination control signal supplied from the control unit 101.

カメラ51は、制御部101による制御に従って撮影を行い、撮影によって得られた画像データを制御部101に出力する。撮影処理においては、撮影が複数回行われ、複数の撮影画像の中から選択された所定の数の画像が編集対象画像として記憶部102に保存される。   The camera 51 shoots according to the control by the control unit 101 and outputs image data obtained by the shooting to the control unit 101. In the photographing process, photographing is performed a plurality of times, and a predetermined number of images selected from the plurality of photographed images are stored in the storage unit 102 as editing target images.

編集部113は、編集作業を利用者に行わせるための処理である編集処理を行うブロックであり、第1編集インタフェース13Aに対応する第1編集部113Aと、第2編集インタフェース13Bに対応する第2編集部113Bよりなる。ここでは第1編集部113Aの構成について説明するが、第2編集部113Bも第1編集部113Aと同一の構成を有する。   The editing unit 113 is a block that performs an editing process that is a process for causing the user to perform an editing operation. The editing unit 113 includes a first editing unit 113A corresponding to the first editing interface 13A and a second editing interface corresponding to the second editing interface 13B. 2 editing section 113B. Although the configuration of the first editing unit 113A will be described here, the second editing unit 113B also has the same configuration as the first editing unit 113A.

第1編集部113Aは、タブレット内蔵モニタ62、タッチペン63−1,63−2、およびスピーカ64から構成される。   The first editing unit 113A includes a tablet built-in monitor 62, touch pens 63-1, 63-2, and a speaker 64.

タブレット内蔵モニタ62は編集用モニタ141とタブレット142により構成され、制御部101による制御に従って編集画面を表示し、編集画面に対する利用者の操作を検出する。利用者の操作の内容を表す信号は制御部101に供給され、編集対象画像の編集が行われる。編集画面には、記憶部102に保存されていた編集対象画像のサムネイル画像が表示され、サムネイル画像をタップすることによって選択された編集対象画像がサムネイル画像より大きなサイズで表示される。利用者は、拡大して表示させる編集対象画像を適宜切り替え、拡大表示された編集対象画像に対して、編集画面に表示されるペンツールを使って手書きの文字を入力したり、スタンプツールを使ってハート柄などの画像を入力したりすることができる。   The tablet built-in monitor 62 includes an editing monitor 141 and a tablet 142, displays an editing screen according to control by the control unit 101, and detects a user operation on the editing screen. A signal representing the content of the user's operation is supplied to the control unit 101, and the editing target image is edited. On the editing screen, the thumbnail image of the image to be edited stored in the storage unit 102 is displayed, and the image to be edited selected by tapping the thumbnail image is displayed in a larger size than the thumbnail image. The user switches the image to be edited to be displayed as appropriate, and inputs handwritten characters using the pen tool displayed on the editing screen or the stamp tool for the enlarged image to be edited. You can enter an image such as a heart pattern.

プリンタ114は、編集処理によって得られた編集済み画像をシール紙162に印刷し、写真シール排出口71に排出する。   The printer 114 prints the edited image obtained by the editing process on the sticker sheet 162 and discharges it to the photo sticker discharge port 71.

図8は、制御部101の機能構成例を示すブロック図である。図8に示す構成は、制御部101が所定のプログラムを実行することによって実現される。制御部101においては、事前接客処理部201、撮影処理部202、編集処理部203、印刷処理部204、および事後接客処理部205が実現される。   FIG. 8 is a block diagram illustrating a functional configuration example of the control unit 101. The configuration shown in FIG. 8 is realized by the control unit 101 executing a predetermined program. In the control unit 101, a pre-service processing unit 201, a photographing processing unit 202, an editing processing unit 203, a print processing unit 204, and a post-service service processing unit 205 are realized.

事前接客処理部201は、写真シール作成ゲームを開始する際に投入される代金(硬貨)に関する処理や、撮影前設定などに関する処理である事前接客処理を行う。撮影処理部202は、利用者を撮影する処理である撮影処理を行う。編集処理部203は、撮影画像に対する編集等の編集処理を行う。印刷処理部204は、編集処理によって得られた画像をシール紙に印刷する印刷処理を行う。事後接客処理部205は、編集作業を終えて印刷が終わるのを待っている利用者に対してミニゲームなどを提供する事後接客処理を行う。   The pre-service processing unit 201 performs pre-service processing, which is processing related to a price (coin) input when starting the photo sticker creation game, processing related to setting before photographing, and the like. The photographing processing unit 202 performs photographing processing that is processing for photographing the user. The editing processing unit 203 performs editing processing such as editing on the captured image. The print processing unit 204 performs a printing process for printing an image obtained by the editing process on a sticker sheet. The post-service processing unit 205 performs post-service processing that provides a mini game or the like to a user who has finished editing work and is waiting for printing.

[顔変形処理について]
以上のような構成を有する写真シール作成装置1においては、撮影画像を対象として、撮影画像に写る人物の顔を変形する処理である顔変形処理が行われる。顔変形処理は、例えば、撮影が終了した後であって、編集が開始される前に行われる。すなわち、編集処理においては、顔変形処理後の画像が編集対象画像として用いられる。顔変形処理は、利用者の指示に応じて行われるようにしてもよいし、写真シール作成装置1により自動的に行われるようにしてもよい。撮影して得られた画像を元画像として顔変形処理を施し、さらに、縦長形状、横長形状、正方形形状の画像を切り出し、その切り出した画像が編集用画像となる。
[About face deformation processing]
In the photo sticker creating apparatus 1 having the above-described configuration, face deformation processing, which is processing for deforming the face of a person appearing in a captured image, is performed on the captured image. The face deformation process is performed, for example, after shooting is finished and before editing is started. That is, in the editing process, the image after the face deformation process is used as an editing target image. The face deformation process may be performed according to a user instruction, or may be automatically performed by the photo sticker creating apparatus 1. A face deformation process is performed using an image obtained by photographing as an original image, and further, a vertically long shape, a horizontally long shape, and a square shape image are cut out, and the cut out image becomes an editing image.

図9は、撮影処理部202の機能構成例を示すブロック図である。撮影処理部202は、撮影制御部211、顔認識部212、最大輪郭ライン設定部213、および画像処理部214から構成される。   FIG. 9 is a block diagram illustrating a functional configuration example of the imaging processing unit 202. The imaging processing unit 202 includes an imaging control unit 211, a face recognition unit 212, a maximum contour line setting unit 213, and an image processing unit 214.

撮影制御部211は、撮影空間32にいる利用者を複数回撮影し、編集対象画像として選択された撮影画像を出力する。撮影制御部211から出力された撮影画像は、顔認識部212、最大輪郭ライン設定部213、および画像処理部214にそれぞれ供給される。   The imaging control unit 211 captures a user in the imaging space 32 a plurality of times and outputs a captured image selected as an editing target image. The captured image output from the imaging control unit 211 is supplied to the face recognition unit 212, the maximum contour line setting unit 213, and the image processing unit 214, respectively.

顔認識部212は、撮影制御部211から供給された撮影画像に写る顔を認識する。顔認識部212は、例えば撮影画像を解析することによって、撮影画像に写るオブジェクトの各位置における特徴を抽出し、抽出した特徴と、予め用意されている人物の顔の各位置における特徴とをマッチングすることによって顔認識を行う。顔認識部212は、撮影画像に写るオブジェクトのうち、マッチング結果を表すスコアの高いものを人物の顔であるとして認識する。   The face recognition unit 212 recognizes a face that appears in the captured image supplied from the imaging control unit 211. The face recognition unit 212 extracts, for example, a feature at each position of the object shown in the photographed image by analyzing the photographed image, and matches the extracted feature with a feature at each position of the human face prepared in advance. Face recognition. The face recognizing unit 212 recognizes an object having a high score representing a matching result among objects appearing in a captured image as a human face.

図10は、撮影画像の例を示す図である。図10の例においては、二人の人物が写っており、フレームF1,F2で囲んで示すようにそれぞれの人物の顔が認識されている。以下、適宜、フレームF1で囲んで示す左側の人物の顔を顔1、フレームF2で囲んで示す右側の人物の顔を顔2として説明する。   FIG. 10 is a diagram illustrating an example of a captured image. In the example of FIG. 10, two persons are shown, and the faces of the persons are recognized as shown surrounded by frames F1 and F2. Hereinafter, the face of the left person shown surrounded by the frame F1 will be described as face 1, and the face of the right person shown surrounded by the frame F2 will be described as face 2.

顔認識部212は、認識したそれぞれの顔の位置を表す情報と、顔の輪郭、目、鼻、口などの顔の各部分の位置を表す情報を最大輪郭ライン設定部213に出力する。また、顔認識部212は、マッチングにより求めたスコアを画像処理部214に出力する。画像処理部214に出力されるスコア(信頼度)は、顔であるとして認識したオブジェクトが実際に顔である確率を表す。   The face recognition unit 212 outputs information representing the position of each recognized face and information representing the position of each part of the face such as the face outline, eyes, nose, and mouth to the maximum contour line setting unit 213. Further, the face recognition unit 212 outputs the score obtained by matching to the image processing unit 214. The score (reliability) output to the image processing unit 214 represents the probability that the object recognized as a face is actually a face.

最大輪郭ライン設定部213は、顔認識部212から供給された情報に基づいて撮影画像に写る顔の輪郭を特定し、それぞれの顔に、変形して拡大することが可能な最大の輪郭の範囲を表すラインである最大輪郭ラインを設定する。   The maximum contour line setting unit 213 specifies the contour of the face that appears in the captured image based on the information supplied from the face recognition unit 212, and the maximum contour range that can be deformed and enlarged to each face. The maximum contour line, which is a line representing, is set.

図11に示すように、顔1の輪郭が輪郭ラインL1で表され、顔2の輪郭が輪郭ラインL2で表される場合について説明する。この場合、最大輪郭ライン設定部213は、図12に示すように、輪郭ラインL1の外側に、顔1の輪郭を変形して拡大することが可能な最大の輪郭の範囲を表す最大輪郭ラインL1maxを設定し、輪郭ラインL2の外側に、顔2の輪郭を変形して拡大することが可能な最大の輪郭の範囲を表す最大輪郭ラインL2maxを設定する。   As shown in FIG. 11, the case where the contour of the face 1 is represented by the contour line L1 and the contour of the face 2 is represented by the contour line L2 will be described. In this case, as shown in FIG. 12, the maximum contour line setting unit 213 has a maximum contour line L1max that represents the range of the maximum contour that can be deformed and expanded outside the contour line L1. Is set outside the contour line L2, and the maximum contour line L2max representing the maximum contour range in which the contour of the face 2 can be deformed and enlarged is set.

例えば、最大輪郭ラインは、目、鼻、口などの顔の各部分より求められる顔の中心を基準位置として、基準位置から、輪郭上の各位置までの距離を、顔の外側に所定の割合だけ広げることによって設定される。基準位置から輪郭上の各位置までの距離を同じ割合で広げるのではなく、変形後の顔がより小顔に見えるように、横方向に広げる割合より縦方向に広げる割合の方が大きくなるようにしてもよい。最大輪郭ライン設定部213は、撮影画像の各顔に設定した最大輪郭ラインの情報を画像処理部214に出力する。   For example, the maximum contour line uses the center of the face obtained from each part of the face such as eyes, nose, and mouth as the reference position, and the distance from the reference position to each position on the contour is a predetermined ratio outside the face. Only set by spreading. Instead of expanding the distance from the reference position to each position on the contour at the same rate, the rate of spreading in the vertical direction is larger than the rate of spreading in the horizontal direction so that the deformed face looks smaller. It may be. The maximum contour line setting unit 213 outputs information on the maximum contour line set for each face of the captured image to the image processing unit 214.

なお、最大輪郭ラインだけでなく、図13において破線で示すように、基準位置から輪郭上の各位置までの距離を、顔の内側に所定の割合だけ狭めることによって最小輪郭ラインが設定されるようにしてもよい。この場合、画像処理によって、顔の輪郭を最大輪郭ラインの範囲まで拡大するだけでなく、最小輪郭ラインの範囲まで縮小することが可能とされる。場合によっては、部分的に顔輪郭ラインより内側となる部分や外側となる部分が混在したような最大(最小)変形ラインとなりうるような見栄えのよい画像になるようなラインに設定してもよい。例えば、面長になるように、頬より上は輪郭ラインより少し外側で、唇より下は輪郭ラインより少し内側になるようなラインになるように設定してもよい。   Not only the maximum contour line but also the minimum contour line is set by narrowing the distance from the reference position to each position on the contour by a predetermined ratio inside the face, as indicated by a broken line in FIG. It may be. In this case, the face contour can be reduced not only to the maximum contour line range but also to the minimum contour line range by image processing. In some cases, it may be set to a line that gives a good-looking image that can be a maximum (minimum) deformation line in which a part that is partially inside and outside the face contour line is mixed. . For example, the line length may be set to be slightly outside the contour line above the cheek and below the lip to be slightly inside the contour line so as to be the surface length.

また、一点鎖線で示すように、輪郭ラインと最大輪郭ラインの間に、双方のラインとほぼ平行なラインが設定され、このラインに沿って、輪郭ラインの範囲を拡大することができるようにしてもよい。   Also, as shown by the alternate long and short dash line, a line substantially parallel to both lines is set between the contour line and the maximum contour line, and the range of the contour line can be expanded along this line. Also good.

画像処理部214は、顔認識部212から供給された信頼度に基づいて、人物の顔である確率の最も高い顔を選択し、選択している顔が、重なり条件に合致するか否かを判定する。   Based on the reliability supplied from the face recognition unit 212, the image processing unit 214 selects the face with the highest probability of being a human face, and determines whether the selected face meets the overlapping condition. judge.

重なり条件は、選択している顔に設定された最大輪郭ラインが、他の顔の輪郭ラインと交わるか否かの条件である。画像処理部214は、選択している顔の最大輪郭ラインが、他の顔の輪郭ラインと交わる場合、重なり条件に合致すると判定し、選択している顔の最大輪郭ラインが、他の顔の輪郭ラインと交わらない場合、重なり条件に合致しないと判定する。   The overlapping condition is a condition as to whether or not the maximum contour line set for the selected face intersects with the contour line of another face. When the maximum contour line of the selected face intersects with the contour line of the other face, the image processing unit 214 determines that the overlapping condition is satisfied, and the maximum contour line of the selected face is If it does not intersect with the contour line, it is determined that the overlapping condition is not met.

画像処理部214は、選択している顔が重なり条件に合致する場合、その顔を、輪郭を変形する画像処理の対象とはせずに、次に信頼度の高い顔を選択し、重なり条件に合致するか否かを判定する。すなわち、顔の輪郭を拡大するように変形したときに、変形前より、他の人物の顔に近づく、または、他の人物の顔との重なり部分が大きくなるような顔については、画像処理の対象とはしないで、他の顔を対象として処理が進められる。   When the selected face matches the overlapping condition, the image processing unit 214 selects the face with the next highest reliability without setting the face as the target of image processing for deforming the contour, and sets the overlapping condition. It is determined whether or not it matches. In other words, when a face is deformed to enlarge its face, a face that is closer to another person's face or has a larger overlap with another person's face than before the deformation is subjected to image processing. The process proceeds with another face as the target, not the target.

ここで、撮影画像に写る顔の位置の各パターンについて、それぞれの顔が画像処理の対象となるか否かについて説明する。撮影画像に写る顔が2つである場合について説明するが、3つ以上である場合も同様である。   Here, for each pattern of the position of the face appearing in the photographed image, it will be described whether each face is an image processing target. Although the case where there are two faces in the captured image will be described, the same applies to the case where there are three or more faces.

例えば、図14に示すように、顔1と顔2の関係が、最大輪郭ライン同士が交わらないほど離れている関係にある場合、画像処理部214は、顔1と顔2のいずれの顔をも対象として画像処理を行う。図14の例においては、最大輪郭ラインL1maxが輪郭ラインL2と交わらず、顔1は重なり条件に合致しない。また、最大輪郭ラインL2maxが輪郭ラインL1と交わらず、顔2も重なり条件に合致しない。   For example, as illustrated in FIG. 14, when the relationship between the face 1 and the face 2 is so far away that the maximum contour lines do not intersect, the image processing unit 214 selects either the face 1 or the face 2. Image processing is also performed on the target. In the example of FIG. 14, the maximum contour line L1max does not intersect with the contour line L2, and the face 1 does not meet the overlapping condition. Further, the maximum contour line L2max does not intersect with the contour line L1, and the face 2 does not meet the overlapping condition.

図15に示すように、顔1と顔2の関係が、最大輪郭ライン同士は交わるが、一方の最大輪郭ラインが他方の輪郭ラインに交わらないほど離れている関係にある場合も同様に、画像処理部214は、顔1と顔2のいずれの顔をも対象として画像処理を行う。図15の例においては、最大輪郭ラインL1maxが輪郭ラインL2とは交わらず、顔1は重なり条件に合致しない。また、最大輪郭ラインL2maxが輪郭ラインL1と交わらず、顔2も重なり条件に合致しない。   As shown in FIG. 15, the relationship between the face 1 and the face 2 is such that the maximum contour lines intersect with each other, but the maximum contour line is so far away that it does not intersect with the other contour line. The processing unit 214 performs image processing on both the face 1 and the face 2. In the example of FIG. 15, the maximum contour line L1max does not intersect with the contour line L2, and the face 1 does not meet the overlapping condition. Further, the maximum contour line L2max does not intersect with the contour line L1, and the face 2 does not meet the overlapping condition.

図16に示すように、顔1と顔2の関係が、横に並ぶのではなく縦にずれていることによって、最大輪郭ラインL1maxが輪郭ラインL2と交わるが、最大輪郭ラインL2maxが輪郭ラインL1と交わらない関係にある場合、画像処理部214は、顔1を対象とはしないで、顔2を対象として画像処理を行う。顔1は重なり条件に合致し、顔2は重なり条件に合致しない。   As shown in FIG. 16, the maximum contour line L1max intersects with the contour line L2 because the relationship between the face 1 and the face 2 is not vertically aligned but shifted vertically, but the maximum contour line L2max is the contour line L1. The image processing unit 214 performs image processing on the face 2 without setting the face 1 as a target. Face 1 meets the overlap condition, and face 2 does not meet the overlap condition.

例えば、図16の顔2を対象とした画像処理によって、図17に示すように顔2の輪郭を小さくした場合、画像処理部214は、再度、顔1を選択し、顔1が重なり条件に合致するか否かを判定する。図17の例においては、最大輪郭ラインL1maxが変形後の顔2に設定された輪郭ラインL2と交わり、顔1は重なり条件に合致するから、このとき、処理は終了する。   For example, when the contour of the face 2 is reduced as shown in FIG. 17 by the image processing for the face 2 in FIG. 16, the image processing unit 214 selects the face 1 again, and the face 1 is set as the overlapping condition. It is determined whether or not they match. In the example of FIG. 17, the maximum contour line L1max intersects with the contour line L2 set on the deformed face 2, and the face 1 meets the overlapping condition.

図18に示すように、顔1と顔2の関係が、最大輪郭ラインL1maxが輪郭ラインL2と交わるが、最大輪郭ラインL2maxが輪郭ラインL1と交わらない関係にある場合、画像処理部214は、顔1を対象とはしないで、顔2を対象として画像処理を行う。図18の例においては、顔1は重なり条件に合致し、顔2は重なり条件に合致しない。   As shown in FIG. 18, when the relationship between the face 1 and the face 2 is such that the maximum contour line L1max intersects with the contour line L2, but the maximum contour line L2max does not intersect with the contour line L1, the image processing unit 214 Image processing is performed on the face 2 without using the face 1 as a target. In the example of FIG. 18, face 1 matches the overlap condition, and face 2 does not match the overlap condition.

例えば、図18の顔2を対象とした画像処理によって、図19に示すように顔2の輪郭を小さくした場合、画像処理部214は、再度、顔1を選択し、顔1が重なり条件に合致するか否かを判定する。図19の例においては、最大輪郭ラインL1maxが変形後の顔2の輪郭ラインL2と交わらず、顔1は重なり条件に合致しないから、画像処理部214は、次に、顔1を対象とした画像処理を行う。   For example, when the image processing on the face 2 in FIG. 18 reduces the contour of the face 2 as shown in FIG. 19, the image processing unit 214 selects the face 1 again, and the face 1 is set as the overlapping condition. It is determined whether or not they match. In the example of FIG. 19, since the maximum contour line L1max does not intersect with the contour line L2 of the deformed face 2 and the face 1 does not meet the overlapping condition, the image processing unit 214 next targets the face 1 as an object. Perform image processing.

一方の顔が重なり条件に合致するものであったとしても、他方の顔の輪郭の大きさを変えることによって重なり条件に合致しなくなる場合もあり、この場合、重なり条件に合致すると先に判定されていた顔の方も、画像処理の対象になることになる。   Even if one face meets the overlap condition, it may not meet the overlap condition by changing the size of the other face's outline. In this case, it is determined first that the overlap condition is met. The face that has been used is also subject to image processing.

図9の説明に戻り、画像処理部214は、以上のようにして画像処理の対象を選択し、顔の輪郭を変形した撮影画像を出力する。画像処理部214から出力された撮影画像は編集処理部203に出力され、編集対象画像として用いられる。   Returning to the description of FIG. 9, the image processing unit 214 selects an image processing target as described above, and outputs a captured image in which the contour of the face is deformed. The captured image output from the image processing unit 214 is output to the editing processing unit 203 and used as an editing target image.

全ての撮影画像を対象として画像処理部214により画像処理が行われるのではなく、複数の撮影画像の中から選択された撮影画像のみを対象として画像処理が行われるようにしてもよい。この場合、撮影制御部211による撮影処理の終了後、選択画面がタッチパネルモニタ52に表示され、画像処理の対象とする撮影画像が利用者により選択されることになる。   Image processing may not be performed by the image processing unit 214 for all captured images, but may be performed only for captured images selected from a plurality of captured images. In this case, after the photographing process by the photographing control unit 211 is completed, a selection screen is displayed on the touch panel monitor 52, and a photographed image to be subjected to image processing is selected by the user.

[写真シール作成装置の動作]
ここで、図20のフローチャートを参照して、写真シール作成ゲームを提供する写真シール作成装置1の処理について説明する。
[Operation of photo sticker creation device]
Here, with reference to the flowchart of FIG. 20, the process of the photo sticker creation apparatus 1 that provides a photo sticker creation game will be described.

ステップS1において、写真シール作成装置1の硬貨処理部121は、硬貨が投入されたか否かを判定し、投入されたと判定するまで待機する。   In step S1, the coin processing unit 121 of the photo sticker creating apparatus 1 determines whether or not a coin has been inserted, and waits until it is determined that the coin has been inserted.

硬貨が投入されたとステップS1において判定された場合、ステップ2において、事前接客処理部201は事前接客処理を行う。例えば事前接客処理により、携帯送信の機能を利用するか否かが選択され、利用することが選択された場合、利用者の携帯電話機のメールアドレスの入力画面が外付けモニタ16に表示される。利用者は自身の携帯電話機のメールアドレスを入力することになる。   If it is determined in step S1 that a coin has been inserted, in step 2, the pre-service processing unit 201 performs pre-service processing. For example, whether or not to use the mobile transmission function is selected by the pre-service process, and when the use is selected, an input screen for the mail address of the user's mobile phone is displayed on the external monitor 16. The user enters the mail address of his / her mobile phone.

ステップS3において、撮影処理部202は撮影処理を行う。撮影処理によって得られた撮影画像はタッチパネルモニタ52に表示され、その中から選択された編集対象画像が編集処理部203に供給される。   In step S3, the imaging processing unit 202 performs imaging processing. The photographed image obtained by the photographing process is displayed on the touch panel monitor 52, and the editing target image selected from the photographed image is supplied to the editing processing unit 203.

ステップS4において、編集処理部203は、編集画面を表示し、利用者の操作に応じて編集処理を行う。編集処理により、上述したように、編集対象画像に対して、手書きの文字や模様、あらかじめ用意されているハート柄などの画像が入力される。   In step S4, the edit processing unit 203 displays an edit screen and performs an edit process in accordance with a user operation. By the editing process, as described above, an image such as a handwritten character or pattern or a heart pattern prepared in advance is input to the image to be edited.

ステップS5において、事後接客処理部205は事後接客処理を行う。携帯送信の機能を利用することが事前接客処理時に選択されている場合、事後接客処理部205は、編集対象画像をタブレット内蔵モニタ62に表示し、その中から、所定の数の画像を携帯送信用画像として利用者に選択させる。   In step S5, the post-service processing unit 205 performs post-service processing. When the use of the mobile transmission function is selected during the pre-service processing, the post-service processing unit 205 displays the image to be edited on the tablet-incorporated monitor 62, and a predetermined number of images are transmitted from the mobile phone. Let the user select it as a trusted image.

携帯送信用画像として選択された画像は、利用者により入力されたメールアドレスとともに写真シール作成装置1からサーバに送信され、サーバが有する記憶媒体に保存される。保存先を表すURLを含む電子メールがサーバから利用者の携帯電話機に送信される。利用者が携帯電話機を操作して電子メールに含まれるURLに対するアクセスを指示したとき、サーバに対するアクセスが行われ、携帯送信用画像が携帯電話機のディスプレイに表示される。   The image selected as the portable transmission image is transmitted from the photo sticker creating apparatus 1 to the server together with the mail address input by the user, and is stored in a storage medium included in the server. An e-mail including a URL indicating the storage destination is transmitted from the server to the user's mobile phone. When the user operates the mobile phone to instruct access to the URL included in the e-mail, the server is accessed and the mobile transmission image is displayed on the display of the mobile phone.

ステップS6において、印刷処理部204は、プリンタ114を制御し、編集処理により得られた編集済みの画像をシール紙162に印刷する印刷処理を行う。   In step S <b> 6, the print processing unit 204 controls the printer 114 to perform a printing process for printing the edited image obtained by the editing process on the sticker sheet 162.

ステップS7において、印刷処理部204は、所定の画面をタブレット内蔵モニタ62に表示するなどして、写真シール排出口71の前への移動を案内する。   In step S <b> 7, the print processing unit 204 guides the movement forward of the photo sticker discharge port 71 by displaying a predetermined screen on the tablet built-in monitor 62.

印刷が終了したとき、ステップS8において、印刷処理部204は、編集済みの画像が印刷されたシール紙162を写真シール排出口71に排出し、処理を終了させる。   When printing is completed, in step S8, the print processing unit 204 discharges the sticker sheet 162 on which the edited image is printed to the photo sticker discharge port 71, and ends the process.

次に、図21のフローチャートを参照して、図20のステップS3において行われる撮影処理について説明する。   Next, with reference to the flowchart of FIG. 21, the imaging process performed in step S3 of FIG. 20 will be described.

撮影処理の開始時、タッチパネルモニタ52には、カメラ51により取り込まれたライブビュー画像が表示され、所定の位置に、撮影の開始を指示するときに操作されるスタートボタンが表示される。ステップS11において、撮影処理部202は、撮影開始までの所定の時間が経過したか否かを判定し、経過していないと判定した場合、ステップS12において、スタートボタンが押下されたか否かを判定する。   At the start of the shooting process, the live view image captured by the camera 51 is displayed on the touch panel monitor 52, and a start button operated when instructing the start of shooting is displayed at a predetermined position. In step S11, the imaging processing unit 202 determines whether or not a predetermined time until the start of imaging has elapsed. If it is determined that it has not elapsed, in step S12, the imaging processing unit 202 determines whether or not the start button has been pressed. To do.

スタートボタンが押下されていないとステップS12において判定した場合、撮影処理部202は、ステップS11に戻り、以上の処理を繰り返す。一方、スタートボタンが押下されたとステップS12において判定した場合、ステップS13において、撮影処理部202は、タッチパネルモニタ52にカウントダウンインジケータを表示させ、撮影を行う。   If it is determined in step S12 that the start button has not been pressed, the imaging processing unit 202 returns to step S11 and repeats the above processing. On the other hand, if it is determined in step S12 that the start button has been pressed, in step S13, the imaging processing unit 202 displays a countdown indicator on the touch panel monitor 52 and performs imaging.

ステップS14において、撮影処理部202は、予め定められた所定の回数だけ撮影を行ったか否かを判定し、撮影を行っていないと判定した場合、ステップS13に戻り、撮影を繰り返す。   In step S14, the shooting processing unit 202 determines whether or not shooting has been performed a predetermined number of times. If it is determined that shooting has not been performed, the shooting processing unit 202 returns to step S13 and repeats shooting.

一方、予め定められた所定の回数だけ撮影を行ったとステップS14において判定した場合、ステップS15において、撮影処理部202は、選択画面をタッチパネルモニタ52に表示し、編集対象画像を利用者に選択させる。編集対象画像の選択画面には、繰り返し撮影を行うことによって得られた撮影画像が表示される。   On the other hand, if it is determined in step S14 that shooting has been performed a predetermined number of times in advance, in step S15, the shooting processing unit 202 displays a selection screen on the touch panel monitor 52 and allows the user to select an image to be edited. . On the selection screen for the image to be edited, a photographed image obtained by repeatedly photographing is displayed.

編集対象とする撮影画像が選択されたとき、ステップS16において、撮影画像に写る顔の輪郭を画像処理によって変形する顔変形処理が行われる。顔変形処理については図22のフローチャートを参照して後述する。   When a captured image to be edited is selected, a face deformation process is performed in step S16 to deform the outline of the face shown in the captured image by image processing. The face deformation process will be described later with reference to the flowchart of FIG.

ステップS17において、撮影処理部202は、編集空間33への移動を案内する画面である誘導画面を表示する。例えば、第1編集空間33Aまたは第2編集空間33Bのうち、いずれが使用可能であるかが判断され、他の利用者が使用してない(空いている)方の編集空間への移動が案内される。その後、図20のステップS3に戻り、それ以降の処理が行われる。   In step S <b> 17, the imaging processing unit 202 displays a guidance screen that is a screen for guiding the movement to the editing space 33. For example, it is determined which one of the first editing space 33A and the second editing space 33B can be used, and the movement to the editing space that is not used (vacant) by other users is guided. Is done. Thereafter, the process returns to step S3 in FIG. 20, and the subsequent processing is performed.

次に、図22のフローチャートを参照して、図21のステップS16において行われる顔変形処理について説明する。   Next, the face deformation process performed in step S16 in FIG. 21 will be described with reference to the flowchart in FIG.

ステップS21において、顔認識部212は、撮影画像を対象として顔認識を行う。顔認識により、撮影画像に写る顔が検出されるとともに、それぞれの顔が実際に人物の顔である確率を表す信頼度が求められる。   In step S21, the face recognition unit 212 performs face recognition on the captured image. Face recognition detects faces in the captured image, and a degree of reliability representing the probability that each face is actually a human face is obtained.

ステップS22において、最大輪郭ライン設定部213は、顔認識部212により認識された顔の輪郭を特定し、それぞれの顔に最大輪郭ラインを設定する。   In step S22, the maximum contour line setting unit 213 identifies the contour of the face recognized by the face recognition unit 212, and sets the maximum contour line for each face.

ステップS23において、画像処理部214は、顔認識部212により求められた信頼度に基づいて、顔である確率の最も高い1つの顔を選択する。ここでの顔の選択においては、輪郭の変形を既に行った顔は除かれる。   In step S <b> 23, the image processing unit 214 selects one face having the highest probability of being a face based on the reliability obtained by the face recognition unit 212. In the face selection here, the faces that have already undergone contour transformation are excluded.

ステップS24において、画像処理部214は、選択している顔が重なり条件に合致するか否かを判定する。   In step S24, the image processing unit 214 determines whether or not the selected face matches the overlapping condition.

最大輪郭ラインが他の顔の輪郭ラインと交わらないことから、選択している顔が重なり条件に合致しないとステップS24において判定した場合、ステップS25において、画像処理部214は、画像処理を行うことによって、選択している顔の輪郭を、目標とする大きさになるように変形する。目標とする大きさが利用者により選択されるようにしてもよいし、画像処理部214により自動的に選択されるようにしてもよい。最大輪郭ラインが目標とする大きさとして選択された場合、輪郭ラインが最大輪郭ラインと重なるまで輪郭が拡大され、最小輪郭ラインが目標とする大きさとして選択された場合、輪郭ラインが最小輪郭ラインと重なるまで輪郭が縮小される。   Since it is determined in step S24 that the selected face does not meet the overlapping condition because the maximum contour line does not intersect with the contour line of another face, the image processing unit 214 performs image processing in step S25. Thus, the contour of the selected face is deformed to a target size. The target size may be selected by the user, or may be automatically selected by the image processing unit 214. When the maximum contour line is selected as the target size, the contour is expanded until the contour line overlaps the maximum contour line, and when the minimum contour line is selected as the target size, the contour line is the minimum contour line. The outline is reduced until it overlaps.

例えば、輪郭ラインが最大輪郭ラインと重なるまで輪郭を拡大する場合、その画像処理は、輪郭ラインより内側にある画素を用いて、輪郭ラインから最大輪郭ラインまでの範囲を補間するとともに、輪郭ラインが拡大することに伴って、輪郭ラインより外側にある画素を外側に移動させるようにして行われる。また、輪郭ラインが最小輪郭ラインと重なるまで輪郭を縮小する場合、その画像処理は、輪郭ラインを縮小させることに伴って、輪郭ラインより外側にある画素を用いて、輪郭ラインから最小輪郭ラインまでの範囲を補間するようにして行われる。   For example, when enlarging the contour until the contour line overlaps the maximum contour line, the image processing interpolates the range from the contour line to the maximum contour line using pixels inside the contour line, and the contour line is Along with the enlargement, the pixel outside the contour line is moved outward. When the contour is reduced until the contour line overlaps with the minimum contour line, the image processing is performed from the contour line to the minimum contour line by using pixels outside the contour line as the contour line is reduced. The range is interpolated.

選択している顔の画像処理が終了した場合、画像処理部214は、ステップS23に戻り、次に信頼度の高い顔を選択し、以降の処理を繰り返す。例えば、信頼度の最も高い顔の画像処理が行われた場合、2番目に信頼度の高い顔が選択され、処理が繰り返される。また、2番目以降に信頼度の高い顔の画像処理が行われた場合、輪郭の変形を既に行った顔を除いて、信頼度の最も高い顔から順に選択され、処理が繰り返される。   When the image processing of the selected face is completed, the image processing unit 214 returns to step S23, selects the next highly reliable face, and repeats the subsequent processing. For example, when image processing of the face with the highest reliability is performed, the face with the second highest reliability is selected and the process is repeated. In addition, when the image processing of the face with the highest reliability is performed for the second and subsequent times, the face with the highest reliability is selected in order, except for the face whose contour has already been deformed, and the process is repeated.

一方、ステップS24において、最大輪郭ラインが他の顔の輪郭ラインと交わることから、選択している顔が重なり条件に合致すると判定した場合、ステップS26において、画像処理部214は、全ての顔を選択したか否かを判定する。   On the other hand, in step S24, when it is determined that the selected face matches the overlapping condition because the maximum contour line intersects with the contour line of another face, in step S26, the image processing unit 214 detects all the faces. It is determined whether or not it has been selected.

全ての顔を選択していないとステップS26において判定した場合、ステップS23に戻り、次に信頼度の高い顔を選択し、以降の処理を繰り返す。全ての顔を選択したとステップS26において判定された場合、図21のステップS16に戻り、それ以降の処理が行われる。   If it is determined in step S26 that all the faces have not been selected, the process returns to step S23, the face with the next highest reliability is selected, and the subsequent processing is repeated. If it is determined in step S26 that all faces have been selected, the process returns to step S16 in FIG. 21, and the subsequent processing is performed.

図23は、画像処理の具体例を示す図である。   FIG. 23 is a diagram illustrating a specific example of image processing.

図23の左側に示すように、3人の顔が写っている撮影画像P1を対象として画像処理を行う場合について説明する。撮影画像P1においては、3人の顔のうち、中央の顔が左右の顔より若干小さく写っている。信頼度の高い順に、右側の人物の顔がID1の顔として認識され、左側の人物の顔がID2の顔として認識され、中央の人物の顔がID3の顔として認識されているものとする。この場合、右側のID1の顔が最初に選択される。   As shown on the left side of FIG. 23, a case will be described in which image processing is performed on a captured image P1 in which three faces are shown. In the captured image P1, among the three faces, the center face is slightly smaller than the left and right faces. Assume that the face of the right person is recognized as the face of ID1, the face of the left person is recognized as the face of ID2, and the face of the central person is recognized as the face of ID3 in descending order of reliability. In this case, the face with ID1 on the right side is selected first.

撮影画像P1においては、ID1の顔の最大輪郭ラインL1maxの左端部分が中央のID3の顔の輪郭ラインL3と交わっているから、ID1の顔は重なり条件に合致し、画像処理の対象とはならない。   In the photographed image P1, since the left end portion of the maximum contour line L1max of the face with ID1 intersects with the contour line L3 of the face with ID3 in the center, the face with ID1 meets the overlapping condition and is not subject to image processing. .

次に、左側のID2の顔が選択される。撮影画像P1においては、ID2の顔の最大輪郭ラインL2maxの右端部分が中央のID3の顔の輪郭ラインL3と交わっているから、ID2の顔は重なり条件に合致し、画像処理の対象とはならない。   Next, the face with ID2 on the left is selected. In the photographed image P1, since the right end portion of the maximum contour line L2max of the face with ID2 intersects with the contour line L3 of the face with ID3 in the center, the face with ID2 meets the overlapping condition and is not subject to image processing. .

次に、中央のID3の顔が選択される。撮影画像P1においては、ID3の顔の最大輪郭ラインL3maxが、ID1の顔の輪郭ラインL1、ID2の顔の輪郭ラインL2の双方と交わらないから、ID3の顔は重なり条件に合致せず、矢印#1の先に示すように、ID3の顔を対象として画像処理が行われる。矢印#1の先に示す撮影画像においてID3の顔にのみ最大輪郭ラインなどを示していることは、ID3の顔を対象として画像処理が行われることを表す。   Next, the center face with ID3 is selected. In the photographed image P1, the maximum contour line L3max of the face of ID3 does not intersect with both the contour line L1 of the face of ID1 and the contour line L2 of the face of ID2, so the face of ID3 does not meet the overlapping condition, and the arrow As shown before # 1, image processing is performed on the face of ID3. In the photographed image indicated by the tip of arrow # 1, the maximum contour line or the like only on the face of ID3 indicates that image processing is performed on the face of ID3.

ここでは、最大輪郭ラインL1maxの左端部分が輪郭ラインL3と交わらず、かつ、最大輪郭ラインL2maxの右端部分が輪郭ラインL3と交わらない程度に、ID3の顔が縮小されたものとする。   Here, it is assumed that the face of ID3 is reduced to such an extent that the left end portion of the maximum contour line L1max does not intersect the contour line L3 and the right end portion of the maximum contour line L2max does not intersect the contour line L3.

図24の左側に示す撮影画像P2は、ID3の顔を縮小して得られた、画像処理後の撮影画像である。   A photographed image P2 shown on the left side of FIG. 24 is a photographed image after image processing obtained by reducing the face of ID3.

ID3の顔の画像処理が行われているから、この場合、右側のID1の顔が再度選択される。撮影画像P2においては、ID1の顔の最大輪郭ラインL1maxがID3の顔の輪郭ラインL3と交わらないから、ID1の顔は重なり条件に合致せず、ID1の顔を対象として画像処理が行われる。   Since the face ID3 is being processed, in this case, the right face ID1 is selected again. In the photographed image P2, since the maximum contour line L1max of the face with ID1 does not intersect with the contour line L3 of the face with ID3, the face with ID1 does not meet the overlapping condition, and image processing is performed on the face with ID1.

ID1の顔を対象として画像処理が行われた後、次に、左側のID2の顔が選択される。撮影画像P2においては、ID2の顔の最大輪郭ラインL2maxがID3の顔の輪郭ラインL3と交わらないから、ID2の顔は重なり条件に合致せず、矢印#2の先に示すように、ID2の顔を対象として画像処理が行われる。   After image processing is performed on the face with ID1, the face with ID2 on the left side is selected next. In the photographed image P2, since the maximum contour line L2max of the face of ID2 does not intersect with the contour line L3 of the face of ID3, the face of ID2 does not meet the overlapping condition, and as shown by the tip of arrow # 2, the ID2 Image processing is performed on the face.

図25は、以上の一連の流れによって、ID1,ID2,ID3のそれぞれの顔を対象として画像処理を行って得られた撮影画像を示す図である。以上のように、それぞれの顔が重なり条件に合致するか否かを判定し、重なり条件に合致する画像については画像処理の対象とせず、重なり条件に合致しない画像については画像処理の対象とした上で、再度、重なり条件に合致し、かつ画像処理の対象としていない画像を選択して、反復的に、重なり条件に合致するか否かを判定することを繰り返すことによって、他の顔との関係を考慮した上で、全ての顔を対象として画像処理を行うことが可能になる。   FIG. 25 is a diagram illustrating a captured image obtained by performing image processing on each face of ID1, ID2, and ID3 by the above-described series of flows. As described above, it is determined whether or not each face meets the overlap condition. Images that match the overlap condition are not subject to image processing, and images that do not meet the overlap condition are subject to image processing. In the above, by selecting again an image that matches the overlap condition and is not subject to image processing, and repeatedly determining whether or not the overlap condition is met, it is possible to check It is possible to perform image processing on all faces in consideration of the relationship.

図26は、重なり条件に合致しない画像から画像処理の対象とすることの効果について説明する図である。ここでは、ID1の顔とID3の顔を用いて説明する。   FIG. 26 is a diagram for explaining the effect of selecting an image processing target from an image that does not meet the overlap condition. Here, description will be made using the face of ID1 and the face of ID3.

図26の左側に示すID1の顔とID3の顔の関係は、ID1の顔の最大輪郭ラインL1maxがID3の顔の輪郭ラインL3と交わるが、ID3の顔の最大輪郭ラインL3maxはID1の顔の輪郭ラインL1と交わらない関係にある。   26, the maximum contour line L1max of the face of ID1 intersects the contour line L3 of the face of ID3, but the maximum contour line L3max of the face of ID3 is the ID1 face. There is a relationship that does not intersect the contour line L1.

この場合、上述したように、輪郭を縮小する処理は、輪郭ラインを縮小させることに伴って、輪郭ラインより外側にある画素を用いて、輪郭ラインから最小輪郭ラインまでの範囲を補間するようにして行われるから、仮に、ID1の顔を先に縮小させた場合、矢印#11の先に示すように、ID3の顔の一部(最大輪郭ラインL1maxが入り込んでいる付近)がID1の顔の方に引っ張られるような形で広がり、ID3の顔が凸型に歪んでしまうことがある。   In this case, as described above, in the process of reducing the contour, the range from the contour line to the minimum contour line is interpolated using the pixels outside the contour line as the contour line is reduced. Therefore, if the face of ID1 is reduced first, a part of the face of ID3 (near the maximum contour line L1max) is the face of ID1 as indicated by the tip of arrow # 11. The face of ID3 may be distorted into a convex shape.

反対に、輪郭を拡大する処理は、輪郭ラインより内側にある画素を用いて、輪郭ラインから最大輪郭ラインまでの範囲を補間するとともに、輪郭ラインが拡大することに伴って、輪郭ラインより外側にある画素を外側に移動させるようにして行われるから、仮に、ID1の顔を先に拡大させた場合、矢印#12の先に示すように、ID3の顔の一部が最大輪郭ラインL1maxに沿うような形で狭まり、ID3の顔が凹型に歪んでしまうことがある。以上のようにして画像処理の対象を選択することにより、ID3の顔が歪んでしまうことを防ぐことが可能になる。   On the contrary, the process of enlarging the contour interpolates the range from the contour line to the maximum contour line using the pixels inside the contour line, and the outer side of the contour line as the contour line expands. Since a certain pixel is moved to the outside, if the face of ID1 is enlarged first, a part of the face of ID3 extends along the maximum contour line L1max as indicated by the tip of arrow # 12. The face of ID3 may be distorted into a concave shape. By selecting the image processing target as described above, it is possible to prevent the face of ID3 from being distorted.

[変形例]
以上においては、画像処理によって顔の輪郭を変形する場合について説明したが、顔の輪郭の変形に伴って、目、鼻、口などの顔の各部分の位置や大きさについても補正されるようにしてもよい。
[Modification]
In the above, the case where the contour of the face is deformed by image processing has been described, but the position and size of each part of the face such as the eyes, nose, mouth, etc. are also corrected along with the deformation of the face contour. It may be.

また、以上においては、顔変形処理が、撮影画像の中から選択された編集対象画像に写る顔を対象として対して行われるものとしたが、他の画像に写る顔を対象として行われるようにしてもよい。例えば、取り込み画像に写る顔を対象としてリアルタイムで行われるようにしたり、編集済み画像に写る顔を対象として行われるようにしたりすることも可能である。   In the above description, the face deformation process is performed for a face appearing in an image to be edited selected from the captured images. However, the face deformation process is performed for a face appearing in another image. May be. For example, it may be performed in real time for a face appearing in a captured image, or may be performed for a face appearing in an edited image.

図27に示すように、撮影画像の範囲内に最大輪郭ラインが収まらない顔については、画像処理の対象から外すようにしてもよい。図27の例においては、ID1の顔の最大輪郭ラインL1maxは、その一部が撮影画像からはみ出ている。この場合であっても、ID3の顔を対象とした重なり条件の判定は、ID3の顔の最大輪郭ラインL3maxと、ID1の顔の輪郭ラインL1とが重なるか否かを判定するようにして行われる。ここでは、ID1の顔の最大輪郭ラインL1maxが撮影画像からはみ出る場合、画像処理の対象から外すようにしたが、撮影画像の方を拡大し、対象から外すことなく、ID1の顔が画像処理の対象となるようにしてもよい。撮影画像の拡大は、最大輪郭ラインL1maxが収まるようになるまで、例えば撮影画像の端にある画素をコピーして広げる(ひきのばす)ことによって行われる。   As shown in FIG. 27, a face whose maximum contour line does not fit within the range of the captured image may be excluded from the target of image processing. In the example of FIG. 27, a part of the maximum contour line L1max of the face with ID1 protrudes from the captured image. Even in this case, the determination of the overlap condition for the face of ID3 is performed by determining whether or not the maximum contour line L3max of the face of ID3 and the contour line L1 of the face of ID1 overlap. Is called. Here, when the maximum contour line L1max of the face of ID1 protrudes from the captured image, it is excluded from the target of image processing. However, the face of ID1 is subjected to image processing without enlarging the target image and removing it from the target. You may make it become object. The captured image is enlarged by, for example, copying and enlarging (extracting) pixels at the end of the captured image until the maximum contour line L1max is accommodated.

以上においては、重なり条件を判定する順序が信頼度の高い順であるものとしたが、顔の大きい順、または小さい順といったように、顔の大きさで決まるようにしてもよい。また、予め用意されているテンプレートと輪郭の形状を比較することによって丸顔の順、細顔の順といったように、顔の形で決まるようにしてもよい。   In the above description, it is assumed that the order of determining the overlapping condition is in the order of high reliability. Further, the shape of the face may be determined such as the order of a round face and the order of a fine face by comparing the shape of a template with a contour prepared in advance.

本発明の実施の形態は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。例えば、以上においては重なり条件の判定がラインが交わるか否かに基づいて行われるものとしたが、面が重なるか否かに基づいて行われるようにしてもよい。   The embodiments of the present invention are not limited to the above-described embodiments, and various modifications can be made without departing from the scope of the present invention. For example, in the above, the determination of the overlapping condition is performed based on whether or not the lines intersect, but it may be performed based on whether or not the surfaces overlap.

1 写真シール作成装置, 2 携帯端末, 3 管理サーバ, 12 撮影ユニット, 13 編集ユニット, 101 制御部, 111 事前接客部, 112 撮影部, 113 編集部, 201 事前接客処理部, 202 撮影処理部, 203 編集処理部, 204 印刷処理部, 205 事後接客処理部, 211 撮影制御部, 212 顔認識部, 213 最大輪郭ライン設定部, 214 画像処理部   DESCRIPTION OF SYMBOLS 1 Photo sticker production apparatus, 2 Mobile terminal, 3 Management server, 12 Shooting unit, 13 Editing unit, 101 Control part, 111 Advance customer service part, 112 Shooting part, 113 Edit part, 201 Advance customer service part, 202 Shooting process part, 203 editing processing unit, 204 printing processing unit, 205 post-service processing unit, 211 photographing control unit, 212 face recognition unit, 213 maximum contour line setting unit, 214 image processing unit

Claims (4)

撮影画像に写る人物の顔を検出する顔検出手段と、
前記撮影画像から検出された人物の顔に、変形可能な最大の輪郭の大きさを表す線である最大輪郭ラインを設定する設定手段と、
前記顔検出手段で検出された人物の顔が複数あった場合に、前記複数の人物の顔のうちの所定の人物の顔に設定された前記最大輪郭ラインが他の人物の顔の輪郭のラインと交わるか否かを判定し、交わらないと判定した場合、前記所定の人物の顔を対象として、前記最大輪郭ラインにより表される大きさの範囲内で所定の大きさになるように輪郭を変形する画像処理を行い、交わると判定した場合、前記画像処理を行わない顔変形処理手段と、
前記顔変形処理手段で、前記所定の人物の顔を対象として前記画像処理を行う毎に、他の人物の顔を前記顔変形処理手段の処理対象とする前記所定の人物の顔として選択する選択手段と
を有することを特徴とする画像処理装置。
Face detection means for detecting the face of a person in a captured image;
Setting means for setting a maximum contour line, which is a line representing the size of the maximum contour that can be deformed, on the face of the person detected from the captured image;
When there are a plurality of faces of a person detected by the face detection means, the maximum contour line set for a face of a predetermined person among the faces of the plurality of persons is a contour line of the face of another person If it is determined that it does not intersect, the contour of the predetermined person's face is set to a predetermined size within the range of the size represented by the maximum contour line. If it is determined that the image processing to be deformed and intersect, face deformation processing means that does not perform the image processing;
Each time the image processing is performed on the face of the predetermined person by the face deformation processing means, selection of selecting the face of another person as the face of the predetermined person to be processed by the face deformation processing means And an image processing apparatus.
前記顔検出手段は、前記撮影画像に写る人物の顔を検出するとともに、人物の顔として検出したオブジェクトに対して人物の顔である確率を計算し、
前記選択手段は、前記顔検出手段により求められた前記確率の高い順に処理対象とする前記所定の人物の顔を選択する
ことを特徴とする請求項1に記載の画像処理装置。
The face detection means detects the face of a person in the captured image, calculates the probability of being a person's face with respect to an object detected as the person's face,
The image processing apparatus according to claim 1, wherein the selection unit selects the face of the predetermined person to be processed in descending order of the probability obtained by the face detection unit.
前記選択手段は、前記画像処理の対象とした顔を除いて、前記複数の人物の全員の顔に設定された前記最大輪郭ラインが前記他の人物の顔の輪郭のラインと交わると前記顔変形処理手段が判定するまで、処理対象とする前記所定の人物の顔の選択を繰り返す
ことを特徴とする請求項2に記載の画像処理装置。
When the maximum contour line set for the faces of all of the plurality of persons intersects with the contour line of the face of the other person, except for the face that is the target of the image processing, the selection unit is configured to deform the face. The image processing apparatus according to claim 2, wherein the selection of the face of the predetermined person to be processed is repeated until the processing means determines.
撮影画像に写る人物の顔を検出し、
前記撮影画像から検出された人物の顔に、変形可能な最大の輪郭の大きさを表す線である最大輪郭ラインを設定し、
検出した人物の顔が複数あった場合に、前記複数の人物の顔のうちの所定の人物の顔に設定された前記最大輪郭ラインが他の人物の顔の輪郭のラインと交わるか否かを判定し、交わらないと判定した場合、前記所定の人物の顔を対象として、前記最大輪郭ラインにより表される大きさの範囲内で所定の大きさになるように輪郭を変形する画像処理を行い、交わると判定した場合、前記画像処理を行わず、
前記所定の人物の顔を対象として前記画像処理を行う毎に、他の人物の顔を処理対象とする前記所定の人物の顔として選択する
ステップを含むことを特徴とする画像処理方法。
Detect the face of a person in the shot image,
A maximum contour line, which is a line representing the maximum contour size that can be deformed, is set on the face of the person detected from the captured image;
If there are a plurality of detected human faces, whether or not the maximum contour line set for the face of a predetermined person among the faces of the plurality of people intersects with a contour line of the face of another person If it is determined that it does not intersect, image processing is performed for deforming the contour so that the face of the predetermined person becomes a predetermined size within the range of the size represented by the maximum contour line. , If it is determined to cross, the image processing is not performed,
Each time the image processing is performed on the face of the predetermined person, the image processing method includes a step of selecting a face of another person as the face of the predetermined person to be processed.
JP2010293885A 2010-12-28 2010-12-28 Image processing apparatus and image processing method Active JP5212461B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010293885A JP5212461B2 (en) 2010-12-28 2010-12-28 Image processing apparatus and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010293885A JP5212461B2 (en) 2010-12-28 2010-12-28 Image processing apparatus and image processing method

Publications (2)

Publication Number Publication Date
JP2012142772A true JP2012142772A (en) 2012-07-26
JP5212461B2 JP5212461B2 (en) 2013-06-19

Family

ID=46678613

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010293885A Active JP5212461B2 (en) 2010-12-28 2010-12-28 Image processing apparatus and image processing method

Country Status (1)

Country Link
JP (1) JP5212461B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160030360A (en) 2014-09-09 2016-03-17 가시오게산키 가부시키가이샤 Image correcting apparatus, image correcting method and computer program stored in recording medium
WO2018123413A1 (en) * 2016-12-27 2018-07-05 シャープ株式会社 Image processing device, image printing device, imaging device, and image processing program
US11100615B2 (en) 2018-06-15 2021-08-24 Casio Computer Co., Ltd. Image processing device, image processing method, and image processing program

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005318515A (en) * 2004-03-31 2005-11-10 Fuji Photo Film Co Ltd Digital still camera, image reproducing apparatus, face image display apparatus, and methods of controlling same
JP2009060299A (en) * 2007-08-30 2009-03-19 Seiko Epson Corp Image processing device, image processing method, and image processing program
JP2010061646A (en) * 2008-08-08 2010-03-18 Make Softwear:Kk Image processing apparatus, image output device, image processing method, and computer program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005318515A (en) * 2004-03-31 2005-11-10 Fuji Photo Film Co Ltd Digital still camera, image reproducing apparatus, face image display apparatus, and methods of controlling same
JP2009060299A (en) * 2007-08-30 2009-03-19 Seiko Epson Corp Image processing device, image processing method, and image processing program
JP2010061646A (en) * 2008-08-08 2010-03-18 Make Softwear:Kk Image processing apparatus, image output device, image processing method, and computer program

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160030360A (en) 2014-09-09 2016-03-17 가시오게산키 가부시키가이샤 Image correcting apparatus, image correcting method and computer program stored in recording medium
US9652822B2 (en) 2014-09-09 2017-05-16 Casio Computer Co., Ltd Image correcting apparatus, image correcting method and computer readable recording medium recording program thereon
WO2018123413A1 (en) * 2016-12-27 2018-07-05 シャープ株式会社 Image processing device, image printing device, imaging device, and image processing program
CN110140145A (en) * 2016-12-27 2019-08-16 夏普株式会社 Image processing apparatus, image printer, filming apparatus and image processing program
JPWO2018123413A1 (en) * 2016-12-27 2019-10-31 シャープ株式会社 Image processing apparatus, image printing apparatus, imaging apparatus, and image processing program
US11042724B2 (en) 2016-12-27 2021-06-22 Sharp Kabushiki Kaisha Image processing device, image printing device, imaging device, and non-transitory medium
US11100615B2 (en) 2018-06-15 2021-08-24 Casio Computer Co., Ltd. Image processing device, image processing method, and image processing program

Also Published As

Publication number Publication date
JP5212461B2 (en) 2013-06-19

Similar Documents

Publication Publication Date Title
JP5447276B2 (en) Image editing apparatus and method, and program
JP5445420B2 (en) Photo sticker creation apparatus, photo sticker creation method, and program
JP5447183B2 (en) Photo sticker creation apparatus and method, and program
JP2019013013A (en) Photo sticker generation apparatus, photo sticker generation method, and program
JP5472767B2 (en) Image processing apparatus and image processing method
JP5115528B2 (en) Photo sticker creation apparatus, photo sticker creation method, and program
JP5212461B2 (en) Image processing apparatus and image processing method
JP2013243466A (en) Imaging apparatus for game, imaging method for game, and program
JP5041246B2 (en) Photo sticker creating apparatus and method, and program
JP5482830B2 (en) Photo sticker creation apparatus, photo sticker creation method, and program
JP5076911B2 (en) Image photographing and editing apparatus and method, and program
JP5505751B2 (en) Image editing apparatus and method, and program
JP5632104B2 (en) Game shooting device, processing method and program for game shooting device
JP6201397B2 (en) Photo sticker creation apparatus and method, and program
JP7074994B2 (en) Photographing game console and image processing method
JP2021182104A (en) Photograph creation game machine, editing method and program
JP6156559B2 (en) Game shooting device, game shooting method, and program
JP5967275B2 (en) Photographic game machine, its control method and control computer
JP6090369B2 (en) Game shooting device, game shooting method and program
JP2019203996A (en) Photograph creation game machine, display control method, and program
JP2009164904A (en) Photographic sticker forming device and method, and program
JP6414276B2 (en) Photo sticker creation apparatus and method, and program
JP5967283B2 (en) Photo shooting game machine, its control method and control program
JP6041024B1 (en) Photo sticker creation apparatus and display method
JP2015163924A (en) Photographic seal creation device and photographic seal creation method

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130129

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130211

R150 Certificate of patent or registration of utility model

Ref document number: 5212461

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160308

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250