JP2013137406A - Image processing system, image processing method, and program - Google Patents

Image processing system, image processing method, and program Download PDF

Info

Publication number
JP2013137406A
JP2013137406A JP2011288018A JP2011288018A JP2013137406A JP 2013137406 A JP2013137406 A JP 2013137406A JP 2011288018 A JP2011288018 A JP 2011288018A JP 2011288018 A JP2011288018 A JP 2011288018A JP 2013137406 A JP2013137406 A JP 2013137406A
Authority
JP
Japan
Prior art keywords
image
unit
user
editing
face
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011288018A
Other languages
Japanese (ja)
Other versions
JP5748651B2 (en
Inventor
Junichi Kobayashi
潤一 小林
Yutaka Ohata
裕 大畠
Takuma Suzuki
卓麻 鈴木
真吾 ▲浜▼口
Shingo Hamaguchi
Nanako Yamazaki
奈々子 山▲崎▼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Furyu Corp
Original Assignee
Furyu Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Furyu Corp filed Critical Furyu Corp
Priority to JP2011288018A priority Critical patent/JP5748651B2/en
Publication of JP2013137406A publication Critical patent/JP2013137406A/en
Application granted granted Critical
Publication of JP5748651B2 publication Critical patent/JP5748651B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Cameras Adapted For Combination With Other Photographic Or Optical Apparatuses (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image processing system which provides an image that looks good.SOLUTION: In an image processing system, a face is detected from an image photographed by a photographic seal creating device. Further, a region such as cheeks, a jaw, and a forehead is extracted from the detected face. Color and brightness of skin within each of these extracted regions are corrected to become suitable color and brightness for each region. Since the correction is performed for each face or each region within the face, an image that looks good is created for each face. Further, corrections such as enlarging a mouth or eyes or adjusting positions thereof are also performed. With such corrections performed for each face, the image that looks good can be provided to a user. The technology can be applied to the photographic seal creating device.

Description

本技術は、画像処理装置、画像処理方法、並びにプログラムに関する。詳しくは、複数の人物が撮影されたときに、人物毎に最適な写りとなるように補正する画像処理装置、画像処理方法、並びにプログラムに関する。   The present technology relates to an image processing apparatus, an image processing method, and a program. Specifically, the present invention relates to an image processing apparatus, an image processing method, and a program for correcting an image so that an optimum image is obtained for each person when a plurality of persons are photographed.

利用者を撮影し、撮影画像に対して利用者に編集を行わせ、編集後の画像をシール紙に印刷して提供する写真シール作成装置が知られている。このような写真シール作成装置は娯楽(遊戯)施設等に設置される。写真シール作成装置によって提供される1ゲームの流れは、通常、撮影空間内にいる利用者を被写体として撮影し、利用者を編集空間に移動させ、編集空間内で行われる操作に従って画像を編集し、編集後の画像である編集画像をシール紙に印刷して排出するという流れになる。   2. Description of the Related Art A photo sticker creation apparatus is known that takes a picture of a user, causes the user to edit the photographed image, and prints and provides the edited image on sticker paper. Such a photo sticker creating apparatus is installed in an entertainment facility. The flow of one game provided by the photo sticker creating apparatus usually shoots a user in the shooting space as a subject, moves the user to the editing space, and edits the image according to operations performed in the editing space. Then, the edited image, which is an edited image, is printed on a sticker sheet and discharged.

このような写真シール作成装置においては、利用者が満足する写真シールを提供するために、撮影された利用者の画像に処理を施す場合がある。例えば、特許文献1においては、被写体の顔上の複数のノードを結線した線分領域から、第1マスク画像、被写体の輪郭を抽出した第2マスク画像、および写真画像のぼかし画像が生成され、第1及び第2マスク画像によりカバーされる領域についての写真画像と、第1及び第2マスク画像によりカバーされる領域以外についてのぼかし画像とを重ね合わせて画像処理を施すことが提案されている。   In such a photo sticker creating apparatus, in order to provide a photo sticker that satisfies the user, the photographed user image may be processed. For example, in Patent Document 1, a first mask image, a second mask image obtained by extracting a contour of a subject, and a blurred image of a photographic image are generated from a line segment region connecting a plurality of nodes on the face of the subject. It has been proposed to perform image processing by superimposing a photographic image of the region covered by the first and second mask images and a blurred image of the region other than the region covered by the first and second mask images. .

また、写真シール作成装置ではないが、撮影された利用者の画像に対する画像処理として、被写体の顔状の鼻を跨ぐ部分に定義された領域内の画素値の平均値を基準として、肌色認識して肌領域を示すマスク画像を生成することが提案されている(特許文献2参照)。   In addition, although it is not a photo sticker creation device, skin color recognition is performed on the basis of an average value of pixel values in an area defined in a portion straddling the face-like nose of a subject as image processing for a captured user image. It has been proposed to generate a mask image showing a skin area (see Patent Document 2).

特開2006−031195号公報JP 2006-031195 A 特開2005−276182号公報JP 2005-276182 A

複数の利用者が同時に写真シール作成装置を利用することが想定される。そのような写真シール作成装置において、画像毎に所定値になるように画像処理をしてしまうと、1画像に複数人が撮影されたとき、複数人が一律の値になるように画像処理されてしまう。このことにより、人によって地肌の色が異なるため、一方の人物が明るすぎる(地肌が明るい人がさらに明るくなる)場合があり、のっぺりとした印象の撮影画像になってしまう可能性があった。   It is assumed that a plurality of users use the photo sticker creating apparatus at the same time. In such a photo sticker creation apparatus, if image processing is performed so that each image has a predetermined value, when a plurality of people are photographed in one image, the images are processed so that the plurality of people have a uniform value. End up. As a result, since the color of the background varies from person to person, one person may be too bright (a person with a bright background will become brighter), which may result in a photographic image with a soft impression.

また、特許文献1の場合、目鼻立ちや輪郭以外である被写体の顔肌部分にぼかし処理を行うことで、目鼻立ちや輪郭のシャープさを保ちつつ肌合いが滑らかで美しい写りの写真画像を提供できるが、被写体の顔肌部分全体にぼかし処理を行うので、表情が乏しくのっぺりとした印象の写真画像になってしまう可能性があった。   In addition, in the case of Patent Document 1, by performing blurring processing on the face skin portion of the subject other than the eyes and nose standing and contours, it is possible to provide a photographic image with a smooth and beautiful texture while maintaining the sharpness of the eyes and nose standing and contours. Since blur processing is performed on the entire face skin portion of the subject, there is a possibility that a photographic image with a poor expression and a soft impression will be formed.

また、特許文献2の場合、多種多様な人物画像から肌領域を抽出できるので、被写体の肌領域に画像処理を施すことができるが、被写体の肌領域全体の画像処理を行うことになるため、特許文献1などと同じく、表情が乏しくのっぺりとした印象の撮影画像になってしまう可能性があった。   In addition, in the case of Patent Document 2, since a skin region can be extracted from a wide variety of human images, image processing can be performed on the subject skin region, but image processing of the entire subject skin region is performed. As in Patent Document 1, there is a possibility that the photographed image has a poor impression and a soft impression.

本技術は、このような状況に鑑みてなされたものであり、撮影された人物毎に、最適な写りとなるような処理が施された画像を利用者に提供することができるようにするものである。   The present technology has been made in view of such a situation, and can provide a user with an image that has been processed so as to obtain an optimal image for each photographed person. It is.

本技術の一側面の画像処理装置は、被写体を撮影した撮影画像を取得し、前記撮影画像から、前記被写体の人数を検出する検出部と、前記検出部により2以上の被写体が検出された場合、検出された前記被写体毎に画像処理を行う処理部とを備え、前記処理部は、前記撮影画像から、複数の被写体毎の所定の顔領域を抽出する抽出部と、前記抽出部により抽出された複数の所定の顔領域毎に、領域内の色または明るさの少なくともいずれかの色味が、前記所定の顔領域毎に設定されている色味になるように補正する補正部とを備える。   An image processing apparatus according to an aspect of the present technology acquires a captured image obtained by capturing a subject, and detects, from the captured image, a detection unit that detects the number of subjects, and two or more subjects are detected by the detection unit. A processing unit that performs image processing for each detected subject, and the processing unit is extracted by the extraction unit that extracts a predetermined face area for each of a plurality of subjects from the captured image, and the extraction unit. And a correction unit that corrects at least one of the color and brightness in the region so as to be a color set for each of the predetermined face regions. .

前記抽出部は、前記所定の顔領域として、目、鼻、口の領域を除いた、額、頬、および顎の領域のうちのいずれかを含む領域を抽出するようにすることができる。   The extraction unit may extract a region including any of a forehead, a cheek, and a chin region excluding the eye, nose, and mouth regions as the predetermined face region.

前記補正部は、抽出された前記顔領域内の輝度値の平均値を算出し、その平均値が、前記設定されている色味に関する輝度値に近い値となるように、前記顔領域内の色味を補正するようにすることができる。   The correction unit calculates an average value of the luminance values in the extracted face area, and the average value in the face area is set to a value close to the luminance value related to the set color. It is possible to correct the color.

前記抽出部は、前記撮影画像から、前記所定の顔領域として目、鼻、口の領域のうちの少なくとも1つの領域を抽出し、前記補正部は、抽出された前記目、鼻、口の領域の少なくとも1つに対して、色、位置、大きさのうちの少なくとも1つをさらに補正するようにすることができる。   The extraction unit extracts at least one of the eye, nose, and mouth regions as the predetermined face region from the photographed image, and the correction unit extracts the extracted eye, nose, and mouth regions. For at least one of the above, at least one of color, position, and size may be further corrected.

利用者を前記被写体とする撮影作業を行わせる撮影部と、前記撮影作業により得られた前記利用者の画像に対して編集情報を入力する編集作業を行わせる編集部と、得られた編集済みの前記利用者の画像を所定のシール紙に印刷し、印刷された前記シール紙を排出し、写真シールとして前記利用者に提供する出力部とをさらに備え、前記検出部は、前記撮影部の撮影作業により得られた前記利用者の画像を前記撮影画像として取得し、前記処理部により処理された前記撮影画像が、前記編集部による編集作業の対象となる画像とされるようにすることができる。   An imaging unit that performs a shooting operation for the user as the subject, an editing unit that performs an editing operation for inputting editing information on the user's image obtained by the shooting operation, and the obtained edited The image of the user is printed on a predetermined sticker paper, the printed sticker paper is ejected, and an output unit is provided to the user as a photo sticker. The user's image obtained by photographing work is acquired as the photographed image, and the photographed image processed by the processing unit is set as an image to be edited by the editing unit. it can.

本技術の一側面の画像処理方法は、被写体を撮影した撮影画像を取得し、前記撮影画像から、前記被写体の人数を検出し、2以上の被写体が検出された場合、検出された前記被写体毎に画像処理を行うステップを含み、前記画像処理を行うステップは、前記撮影画像から、複数の被写体毎の所定の顔領域を抽出し、抽出された複数の所定の顔領域毎に、領域内の色または明るさの少なくともいずれかの色味が、前記所定の顔領域毎に設定されている色味になるように補正するステップを含む。   An image processing method according to an aspect of the present technology acquires a captured image obtained by capturing a subject, detects the number of subjects from the captured image, and detects two or more subjects for each detected subject. The step of performing image processing includes extracting a predetermined face area for each of a plurality of subjects from the photographed image, and for each of the extracted predetermined face areas, And a step of correcting so that at least one of color and brightness is set to a color set for each predetermined face area.

本技術の一側面のプログラムは、被写体を撮影した撮影画像を取得し、前記撮影画像から、前記被写体の人数を検出し、2以上の被写体が検出された場合、検出された前記被写体毎に画像処理を行うステップを含み、前記画像処理を行うステップは、前記撮影画像から、複数の被写体毎の所定の顔領域を抽出し、抽出された複数の所定の顔領域毎に、領域内の色または明るさの少なくともいずれかの色味が、前記所定の顔領域毎に設定されている色味になるように補正するステップを含む処理をコンピュータに実行させる。   A program according to an aspect of the present technology acquires a photographed image obtained by photographing a subject, detects the number of subjects from the photographed image, and detects two or more subjects, and detects an image for each detected subject. A step of performing processing, wherein the step of performing image processing includes extracting a predetermined face area for each of a plurality of subjects from the captured image, and for each of the plurality of extracted face areas extracted, A computer is caused to execute a process including a step of correcting so that at least one of the colors of brightness becomes a color set for each of the predetermined face areas.

本技術の一側面の画像処理装置、画像処理方法、およびプログラムにおいては、被写体を撮影した撮影画像から、被写体の人数が検出され、2以上の被写体が検出された場合、検出された被写体毎に画像処理が行われる。画像処理は、撮影画像から、複数の被写体毎の所定の顔領域が抽出され、抽出された複数の所定の顔領域毎に、領域内の色または明るさの少なくともいずれかの色味が、所定の顔領域毎に設定されている色味になるように補正されることで行われる。   In the image processing device, the image processing method, and the program according to one aspect of the present technology, the number of subjects is detected from a captured image obtained by photographing the subject, and when two or more subjects are detected, each detected subject is detected. Image processing is performed. In the image processing, a predetermined face area for each of a plurality of subjects is extracted from the photographed image, and at least one of the colors in the area and the brightness of each of the extracted predetermined face areas has a predetermined color. This is performed by correcting the color to be set for each face area.

本技術の一側面によれば、撮影された人物毎に、最適な写りとなるような処理を行うことができる。そして、そのような処理が施された画像を利用者に提供することができるようになり、利用者の満足度を高めることが可能となる。   According to one aspect of the present technology, it is possible to perform a process for obtaining an optimum image for each photographed person. Then, an image subjected to such processing can be provided to the user, and the satisfaction of the user can be increased.

写真シール作成装置の外観の構成例を示す斜視図である。It is a perspective view which shows the structural example of the external appearance of a photograph sticker production apparatus. 写真シール作成装置の外観を他の角度からみた斜視図である。It is the perspective view which looked at the external appearance of the photograph sticker production apparatus from another angle. 利用者の移動について説明する図である。It is a figure explaining a user's movement. 撮影部の構成例を示す図である。It is a figure which shows the structural example of an imaging | photography part. 背景部の構成例を示す図である。It is a figure which shows the structural example of a background part. 編集部の構成例を示す図である。It is a figure which shows the structural example of an edit part. 事後接客部の構成例を示す図である。It is a figure which shows the structural example of a customer service part after the fact. 写真シール作成装置の内部の構成例を示すブロック図である。It is a block diagram which shows the example of an internal structure of a photograph sticker production apparatus. 図8の制御部の詳細な構成例を示す機能ブロック図である。It is a functional block diagram which shows the detailed structural example of the control part of FIG. 写真シール作成ゲームを提供する処理について説明するフローチャートである。It is a flowchart explaining the process which provides a photograph sticker creation game. 編集処理について説明するフローチャートである。It is a flowchart explaining an edit process. 画像処理について説明するためのフローチャートである。It is a flowchart for demonstrating image processing. 画像処理について説明するための図である。It is a figure for demonstrating image processing. 画像処理について説明するための図である。It is a figure for demonstrating image processing.

以下に、本技術の実施の形態について図面を参照して説明する。   Hereinafter, embodiments of the present technology will be described with reference to the drawings.

[写真シール作成装置の構成例]
図1は、本発明の一実施形態に係る写真シール作成装置1の外観の構成例を示す斜視図である。
[Configuration example of photo sticker creation device]
FIG. 1 is a perspective view showing a configuration example of the appearance of a photo sticker creating apparatus 1 according to an embodiment of the present invention.

写真シール作成装置1は、撮影や編集等の作業を利用者にゲームとして行わせ、撮影画像や編集済み画像を提供する代わりに利用者より代金を受け取るゲーム機である。写真シール作成装置1はゲームセンタなどの店舗に設置される。利用者は1人であることもあるし、複数人であることもある。   The photo sticker creating apparatus 1 is a game machine that allows a user to perform operations such as shooting and editing as a game and receives a price from the user instead of providing a shot image or an edited image. The photo sticker creating apparatus 1 is installed in a store such as a game center. There may be one user or a plurality of users.

写真シール作成装置1が提供するゲームで遊ぶ利用者は、代金を投入し、自身が被写体となって撮影を行い、撮影によって得られた撮影画像の中から選択した編集対象の画像に対して、手書きの線画やスタンプ画像を合成する編集機能を用いて編集を行うことにより、撮影画像を彩り豊かな画像にする。利用者は、編集済みの画像が印刷されたシール紙を受け取って一連のゲームを終了させることになる。   A user who plays in the game provided by the photo sticker creating apparatus 1 pays the price, takes a picture of himself as a subject, and selects an image to be edited selected from the shot images obtained by shooting. Editing is performed using an editing function for synthesizing handwritten line drawings and stamp images, thereby making the photographed image rich and colorful. The user receives the sticker sheet on which the edited image is printed and ends the series of games.

写真シール作成装置1は、主に、後述する撮影空間内に設けられた撮影ユニット11、編集部12、および事後接客部13から構成される。撮影ユニット11と編集部12が接した状態で設置され、編集部12と事後接客部13が接した状態で設置される。   The photo sticker creating apparatus 1 mainly includes a photographing unit 11, an editing unit 12, and a subsequent customer service unit 13 provided in a photographing space described later. The photographing unit 11 and the editing unit 12 are installed in contact with each other, and the editing unit 12 and the subsequent customer service unit 13 are installed in contact with each other.

撮影ユニット11は、撮影部21と背景部22から構成される。撮影部21と背景部22は所定の距離だけ離れて設置され、撮影部21と背景部22の間に形成される空間である撮影空間において撮影処理が行われる。   The photographing unit 11 includes a photographing unit 21 and a background unit 22. The photographing unit 21 and the background unit 22 are installed with a predetermined distance apart, and photographing processing is performed in a photographing space that is a space formed between the photographing unit 21 and the background unit 22.

撮影部21は撮影処理を利用者に行わせる装置である。撮影部21は、撮影空間に入り、撮影処理を行っている利用者の正面に位置する。撮影空間を正面に望む面を構成する撮影部21の正面パネル41には、撮影処理時に利用者により用いられるタッチパネルモニタなどが設けられる。撮影空間にいる利用者から見て左側の面を左側面、右側の面を右側面とすると、撮影部21の左側面が側面パネル42Aにより構成され、右側面が側面パネル42Bにより構成される。   The photographing unit 21 is a device that allows a user to perform photographing processing. The photographing unit 21 enters the photographing space and is located in front of the user who is performing the photographing process. The front panel 41 of the photographing unit 21 that constitutes a surface in which the photographing space is desired in front is provided with a touch panel monitor used by the user during photographing processing. When the left side is the left side and the right side is the right side as viewed from the user in the imaging space, the left side of the imaging unit 21 is configured by the side panel 42A, and the right side is configured by the side panel 42B.

なお、利用者の操作入力を受け付けるタッチパネルモニタとは別に、利用者のライブビュー(動画像)を表示するライブビューモニタが設けられるようにしてもよい。   A live view monitor that displays the user's live view (moving image) may be provided separately from the touch panel monitor that accepts the user's operation input.

背景部22は、正面を向いて撮影処理を行っている利用者の背面側に位置する板状の部材である背面パネル51、背面パネル51の左端に取り付けられ、側面パネル42Aより横幅の狭い板状の部材である側面パネル52A、および、背面パネル51の右端に取り付けられ、側面パネル42Bより横幅の狭い板状の部材である側面パネル52Bから構成される。   The background unit 22 is attached to the left end of the rear panel 51 and the rear panel 51, which are plate-like members positioned on the rear side of the user who is performing the photographing process facing the front, and is a plate having a narrower width than the side panel 42A. The side panel 52A is a plate-like member, and the side panel 52B is a plate-like member that is attached to the right end of the back panel 51 and has a narrower width than the side panel 42B.

撮影部21の左側面を構成する側面パネル42Aと背景部22の側面パネル52Aは、ほぼ同一平面に設けられ、それぞれの上部が板状の部材である連結部23Aによって連結される。また、撮影部21の右側面を構成する側面パネル42Bと背景部22の側面パネル52Bは、ほぼ同一平面に設けられ、それぞれの上部が板状の部材である連結部23Bによって連結される。   The side panel 42A constituting the left side surface of the photographing unit 21 and the side panel 52A of the background unit 22 are provided on substantially the same plane, and their upper portions are connected by a connecting part 23A that is a plate-like member. Further, the side panel 42B constituting the right side surface of the photographing unit 21 and the side panel 52B of the background portion 22 are provided on substantially the same plane, and their upper portions are connected by a connecting portion 23B which is a plate-like member.

撮影部21の側面パネル42A、連結部23A、および背景部22の側面パネル52Aに囲まれることによって形成される開口が撮影空間の出入り口G1となる。出入り口G1の反対側に位置し、撮影部21の側面パネル42B、連結部23B、および背景部22の側面パネル52Bに囲まれることによって形成される開口も撮影空間の出入り口G2となる。   An opening formed by being surrounded by the side panel 42 </ b> A of the photographing unit 21, the connecting part 23 </ b> A, and the side panel 52 </ b> A of the background part 22 becomes an entrance G <b> 1 of the photographing space. An opening that is located on the opposite side of the entrance / exit G1 and is surrounded by the side panel 42B of the photographing unit 21, the connecting part 23B, and the side panel 52B of the background 22 is also the entrance / exit G2 of the photographing space.

背景部22の上部には、背面パネル51、側面パネル52A、および側面パネル52Aの反対側に位置する側面パネル52Bによって支持される形で背景カーテンユニット25が設けられる。背景カーテンユニット25には、色または柄の異なる、背景に利用する巻き取り式の背景カーテンが複数収納される。背景カーテンユニット25は、撮影部21に設けられたカメラ等による撮影と連動して動作し、撮影の際に、例えば利用者により選択された色のカーテンを下ろし、その他のカーテンを巻き取る。   The background curtain unit 25 is provided on the upper portion of the background portion 22 so as to be supported by the rear panel 51, the side panel 52A, and the side panel 52B located on the opposite side of the side panel 52A. The background curtain unit 25 stores a plurality of roll-up type background curtains having different colors or patterns and used for the background. The background curtain unit 25 operates in conjunction with photographing by a camera or the like provided in the photographing unit 21. At the time of photographing, for example, the curtain of the color selected by the user is lowered and the other curtains are wound up.

なお、背景カーテンユニット25に収納される背景カーテンとしては、複数枚のカーテンを1枚のクロマキ用のカーテンとして使用する昇降式カーテンを用意してもよい。また、クロマキ用のカーテンを予め撮影空間の背面となる背面パネル51に張り付けるとともに、合成用の背景画像を複数種類用意し、後述する編集処理において、利用者が所望する背景画像をカーテンの部分に合成することができるようにしてもよい。   In addition, as a background curtain accommodated in the background curtain unit 25, you may prepare the raising / lowering curtain which uses several curtains as one curtain for curtains. In addition, a black curtain is pasted on the rear panel 51 which is the back of the shooting space, and a plurality of background images for synthesis are prepared. In an editing process described later, a background image desired by the user is displayed on the curtain portion. It may be possible to synthesize.

撮影空間の上方には、撮影部21の正面パネル41、連結部23A、連結部23B、および背景カーテンユニット25に囲まれる開口が形成され、その開口の一部を覆うように天井ストロボユニット24が設けられる。天井ストロボユニット24の一端が連結部23Aに固定され、他端が連結部23Bに固定される。天井ストロボユニット24は、撮影に合わせて撮影空間内に向けて発光するストロボを内蔵する。天井ストロボユニット24を構成するストロボの内部には蛍光灯が設けられており、撮影空間の照明としても機能する。   An opening surrounded by the front panel 41 of the photographing unit 21, the connecting part 23A, the connecting part 23B, and the background curtain unit 25 is formed above the photographing space, and the ceiling strobe unit 24 covers the part of the opening. Provided. One end of the ceiling strobe unit 24 is fixed to the connecting portion 23A, and the other end is fixed to the connecting portion 23B. The ceiling strobe unit 24 has a built-in strobe that emits light toward the photographing space in accordance with photographing. A fluorescent lamp is provided inside the strobe constituting the ceiling strobe unit 24, and also functions as illumination of the photographing space.

編集部12は、撮影処理によって得られた画像を編集する処理である編集処理を利用者に行わせる装置である。編集部12は、一方の側面が撮影部21の正面パネル41の背面に接するように撮影ユニット11に連結して設けられる。編集部12には、編集処理時に利用者により用いられるタブレット内蔵モニタなどの構成が設けられる。   The editing unit 12 is a device that allows a user to perform editing processing, which is processing for editing an image obtained by shooting processing. The editing unit 12 is provided so as to be connected to the photographing unit 11 so that one side surface thereof is in contact with the back surface of the front panel 41 of the photographing unit 21. The editing unit 12 is provided with a configuration such as a tablet built-in monitor used by the user during editing processing.

図1に示す編集部12の構成を正面側の構成とすると、2組の利用者が同時に編集処理を行うことができるように、編集部12の正面側と背面側には編集処理に用いられる構成がそれぞれ設けられる。   If the configuration of the editing unit 12 shown in FIG. 1 is a front-side configuration, the editing unit 12 is used for editing processing on the front side and the back side so that two sets of users can perform editing processing simultaneously. Each configuration is provided.

編集部12の正面側は、床面に対して垂直な面であり、側面パネル42Aとほぼ平行な面である面71と、面71の上方に形成された斜面72から構成され、編集処理に用いられる構成が斜面72に設けられる。斜面72の左側には、柱状の形状を有し、照明装置74の一端を支持する支持部73Aが設けられる。支持部73Aの上面にはカーテンレール26を支持する支持部75が設けられる。斜面72の右側にも、照明装置74の他端を支持する支持部73Bが設けられる。   The front side of the editing unit 12 is a surface perpendicular to the floor surface, and is composed of a surface 71 that is substantially parallel to the side panel 42A, and a slope 72 formed above the surface 71. The configuration used is provided on the slope 72. On the left side of the slope 72, a support portion 73A that has a columnar shape and supports one end of the lighting device 74 is provided. A support portion 75 that supports the curtain rail 26 is provided on the upper surface of the support portion 73A. A support portion 73 </ b> B that supports the other end of the lighting device 74 is also provided on the right side of the slope 72.

編集部12の上方にはカーテンレール26が取り付けられる。カーテンレール26は、上から見たときの形状がコの字状となるように3本のレール26A乃至26Cを組み合わせて構成される。平行に設けられるレール26Aと26Bの一端は、連結部23Aと連結部23Bにそれぞれ固定され、他端に残りの一本のレール26Cの両端が接合される。   A curtain rail 26 is attached above the editing unit 12. The curtain rail 26 is configured by combining three rails 26A to 26C so that the shape when viewed from above is a U-shape. One end of the rails 26A and 26B provided in parallel is fixed to the connecting portion 23A and the connecting portion 23B, respectively, and both ends of the remaining one rail 26C are joined to the other end.

カーテンレール26には、編集部12の正面前方の空間と背面前方の空間の内部が外から見えないようにカーテンが取り付けられる。カーテンレール26に取り付けられたカーテンにより囲まれる編集部12の正面前方の空間と背面前方の空間が、利用者が編集処理を行う編集空間となる。   A curtain is attached to the curtain rail 26 so that the inside of the space in front of the editing unit 12 and the space in front of the back cannot be seen from the outside. The space in front of the editing unit 12 and the space in front of the back of the editing unit 12 surrounded by the curtain attached to the curtain rail 26 are editing spaces in which the user performs editing processing.

図2は、写真シール作成装置1を別の角度から見た斜視図である。   FIG. 2 is a perspective view of the photo sticker creating apparatus 1 as seen from another angle.

事後接客部13は事後接客処理を利用者に行わせる装置である。事後接客処理には、撮影画像や編集済みの画像を携帯電話機などの携帯端末に送信する処理、ミニゲームを利用者に行わせる処理、アンケートに答えさせる処理などが含まれる。   The subsequent customer service unit 13 is a device that allows the user to perform the subsequent customer service process. Subsequent customer service processing includes processing for transmitting a photographed image or edited image to a mobile terminal such as a mobile phone, processing for allowing a user to play a mini game, processing for answering a questionnaire, and the like.

図2に示すように、事後接客部13は、所定の厚さを有する板状の筐体を有しており、その背面が編集部12の左側面に接するように編集部12に連結して設けられる。事後接客部13の正面には、事後接客処理時に利用者により用いられるタブレット内蔵モニタや、撮影画像や編集済みの画像が印刷されたシール紙が排出される排出口などが設けられる。事後接客部13の正面前方の空間が、シール紙への印刷が終わるのを待っている利用者が事後接客処理を行う事後接客空間となる。   As shown in FIG. 2, the post-service customer unit 13 has a plate-like housing having a predetermined thickness, and is connected to the editing unit 12 so that the back surface thereof is in contact with the left side surface of the editing unit 12. Provided. On the front side of the post-service unit 13, there are provided a tablet built-in monitor used by the user at the time of post-service processing, a discharge port through which sticker paper on which a photographed image or an edited image is printed is discharged. The space in front of the front-end customer service unit 13 becomes a rear-end customer service space where a user waiting for printing on the sticker paper to perform post-service processing.

ここで、写真シール作成ゲームの流れと、それに伴う利用者の移動について図3を参照して説明する。図3は、写真シール作成装置1を上から見た平面図である。   Here, the flow of the photo sticker creation game and the accompanying movement of the user will be described with reference to FIG. FIG. 3 is a plan view of the photo sticker creating apparatus 1 as viewed from above.

写真シール作成装置1の利用者は、白抜き矢印#1で示すように出入り口G1から、または白抜き矢印#2で示すように出入り口G2から、撮影部21と背景部22の間に形成された撮影空間A1に入り、撮影部21に設けられたカメラやタッチパネルモニタなど利用して撮影処理を行う。   The user of the photo sticker creating apparatus 1 is formed between the photographing part 21 and the background part 22 from the entrance G1 as indicated by the white arrow # 1 or from the entrance G2 as indicated by the white arrow # 2. The photographing space A1 is entered, and photographing processing is performed using a camera or a touch panel monitor provided in the photographing unit 21.

撮影処理を終えた利用者は、白抜き矢印#3で示すように出入り口G1を使って撮影空間A1から出て編集空間A2−1に移動するか、白抜き矢印#4で示すように出入り口G2を使って撮影空間A1から出て編集空間A2−2に移動する。   The user who has finished the shooting process exits the shooting space A1 and moves to the editing space A2-1 using the doorway G1 as indicated by the white arrow # 3, or moves to the editing space A2-1 as indicated by the white arrow # 4. To leave the shooting space A1 and move to the editing space A2-2.

編集空間A2−1は、編集部12の正面側の編集空間であり、編集空間A2−2は、編集部12の背面側の編集空間である。編集空間A2−1と編集空間A2−2のいずれの空間に移動するのかが、撮影部21のタッチパネルモニタの画面表示などによって案内される。例えば2つの編集空間のうちの空いている方の空間が移動先として案内される。編集空間A2−1または編集空間A2−2に移動した利用者は編集処理を開始する。編集空間A2−1の利用者と、編集空間A2−2の利用者は同時に編集処理を行うことができる。   The editing space A2-1 is an editing space on the front side of the editing unit 12, and the editing space A2-2 is an editing space on the back side of the editing unit 12. Which of the editing space A2-1 and the editing space A2-2 is moved is guided by the screen display of the touch panel monitor of the photographing unit 21 or the like. For example, the empty space of the two editing spaces is guided as the destination. The user who has moved to the editing space A2-1 or the editing space A2-2 starts editing processing. The user of the editing space A2-1 and the user of the editing space A2-2 can perform editing processing at the same time.

編集処理が終了した後、撮影画像や編集済みの画像の中から選択された画像の印刷が開始される。画像の印刷中、編集処理を終えた利用者は、編集空間A2−1で編集処理を行っていた場合には白抜き矢印#5で示すように編集空間A2−1から事後接客空間A3に移動して事後接客処理を行う。また、編集処理を終えた利用者は、編集空間A2−2で編集処理を行っていた場合には白抜き矢印#6で示すように編集空間A2−2から事後接客空間A3に移動し、事後接客空間A3において事後接客処理を行う。   After the editing process is finished, printing of an image selected from the photographed image and the edited image is started. During printing of the image, the user who has finished the editing process moves from the editing space A2-1 to the subsequent customer service space A3 as indicated by the white arrow # 5 if the editing process has been performed in the editing space A2-1. Then, the customer service is processed after the fact. In addition, when the editing process is completed in the editing space A2-2, the user who has finished the editing process moves from the editing space A2-2 to the post-service area A3 as indicated by the white arrow # 6. Post service processing is performed in the customer service space A3.

画像の印刷が終了したとき、利用者は、事後接客部13に設けられた排出口からシール紙を受け取り、一連の写真シール作成ゲームを終えることになる。   When the printing of the image is finished, the user receives the sticker paper from the outlet provided in the post-service section 13 and finishes a series of photo sticker creation games.

次に、装置の各部の構成について説明する。   Next, the configuration of each part of the apparatus will be described.

図4は、撮影部21の正面の構成例を示す図である。撮影部21は、正面パネル41、側面パネル42A、および側面パネル42Bが、箱状の形状を有するベース部43に取り付けられることによって構成される。   FIG. 4 is a diagram illustrating a configuration example of the front of the photographing unit 21. The photographing unit 21 is configured by attaching a front panel 41, a side panel 42A, and a side panel 42B to a base unit 43 having a box shape.

正面パネル41は撮影空間A1で撮影処理を行う利用者の正面に位置し、側面パネル42Aと側面パネル42Bは、それぞれ、撮影空間A1で撮影処理を行う利用者の左側、右側に位置する。側面パネル42Aの上方には連結部23Aが固定され、側面パネル42Bの上方には連結部23Bが固定される。   The front panel 41 is positioned in front of the user who performs the shooting process in the shooting space A1, and the side panel 42A and the side panel 42B are positioned on the left side and the right side of the user who performs the shooting process in the shooting space A1, respectively. The connecting portion 23A is fixed above the side panel 42A, and the connecting portion 23B is fixed above the side panel 42B.

正面パネル41のほぼ中央には撮影・表示ユニット81が設けられる。撮影・表示ユニット81は、カメラ91、正面ストロボ92、およびタッチパネルモニタ93から構成される。   An imaging / display unit 81 is provided in the approximate center of the front panel 41. The photographing / display unit 81 includes a camera 91, a front strobe 92, and a touch panel monitor 93.

カメラ91は、CCD (Charge Coupled Device)などの撮像素子により構成され、撮影空間A1にいる利用者を撮影する。カメラ91により取り込まれた動画像は、タッチパネルモニタ93にリアルタイムで表示される。利用者により撮影が指示されたときなどの所定のタイミングでカメラ91により取り込まれた画像は撮影画像(静止画像)として保存される。   The camera 91 is configured by an image sensor such as a CCD (Charge Coupled Device), and photographs a user in the photographing space A1. The moving image captured by the camera 91 is displayed on the touch panel monitor 93 in real time. An image captured by the camera 91 at a predetermined timing such as when a user gives an instruction to shoot is saved as a photographic image (still image).

カメラ91を囲むように発光面が設けられた正面ストロボ92は、他のストロボと同様にカメラ91による撮影に合わせて発光し、被写体としての利用者の顔の付近を正面から照射する。   A front strobe 92 provided with a light emitting surface so as to surround the camera 91 emits light in accordance with photographing by the camera 91 like other strobes, and irradiates the vicinity of the user's face as a subject from the front.

カメラ91の下側に設けられたタッチパネルモニタ93は、LCD(Liquid Crystal Display)などのモニタと、それに積層されたタッチパネルにより構成される。タッチパネルモニタ93は、カメラ91により取り込まれた動画像を表示するライブビューモニタとしての機能と、各種のGUI(Graphical User Interface)画像を表示し、利用者の選択操作をタッチパネルにより受け付ける機能とを備えている。タッチパネルモニタ93には、適宜、背景等の画像が合成された後の動画像が表示される。   The touch panel monitor 93 provided on the lower side of the camera 91 includes a monitor such as an LCD (Liquid Crystal Display) and a touch panel laminated thereon. The touch panel monitor 93 has a function as a live view monitor that displays a moving image captured by the camera 91 and a function that displays various GUI (Graphical User Interface) images and accepts a user's selection operation through the touch panel. ing. On the touch panel monitor 93, a moving image after an image such as a background is appropriately displayed is displayed.

正面パネル41には、撮影・表示ユニット81の位置を基準として、上方に上ストロボ82が設置される。また、左方に左ストロボ83が設置され、右方に右ストロボ84が設置される。撮影・表示ユニット81の下方の位置には、ベース部43の上面が一部突出する形で下ストロボ85が設けられる。   On the front panel 41, an upper strobe 82 is installed on the upper side with respect to the position of the photographing / display unit 81. A left strobe 83 is installed on the left side and a right strobe 84 is installed on the right side. A lower strobe 85 is provided at a position below the photographing / display unit 81 such that a part of the upper surface of the base portion 43 protrudes.

上ストロボ82は、利用者を上前方から照射する。左ストロボ83は、利用者を左前方から照射し、右ストロボ84は、利用者を右前方から照射する。下ストロボ85は、利用者を下前方から照射する。   The upper strobe 82 irradiates the user from the upper front. The left strobe 83 irradiates the user from the left front, and the right strobe 84 irradiates the user from the right front. The lower strobe 85 irradiates the user from the lower front.

ベース部43には利用者の足元を照射する足元ストロボ86も設けられる。上ストロボ82、左ストロボ83、右ストロボ84、下ストロボ85、および足元ストロボ86の内部には蛍光灯が設けられており、天井ストロボユニット24を構成するストロボの内部の蛍光灯と合わせて、撮影空間A1内の照明として用いられる。足元ストロボ86の右側には、利用者がお金を投入する硬貨投入返却口87が設けられる。   The base unit 43 is also provided with a foot strobe 86 that irradiates the user's foot. Fluorescent lamps are provided inside the upper strobe 82, left strobe 83, right strobe 84, lower strobe 85, and foot strobe 86, and together with the fluorescent lights inside the strobe constituting the ceiling strobe unit 24, photographing is performed. Used as illumination in the space A1. On the right side of the foot strobe 86, a coin insertion / return port 87 through which a user inserts money is provided.

下ストロボ85を挟んでベース部43の上面の左右に形成されるスペース43Aおよび43Bは、撮影処理を行う利用者が手荷物等を置くための荷物置き場として用いられる。正面パネル41の例えば天井付近には、撮影処理の案内音声、BGM(Back Ground Music)、効果音等の音を出力するスピーカも設けられる。   Spaces 43A and 43B formed on the left and right sides of the upper surface of the base portion 43 with the lower strobe 85 interposed therebetween are used as a luggage storage place for a user who performs photographing processing to place baggage and the like. For example, near the ceiling of the front panel 41, a speaker for outputting sound such as guidance sound for photographing processing, BGM (Back Ground Music), and sound effects is also provided.

図5は、背景部22の撮影空間A1側の構成例を示す図である。   FIG. 5 is a diagram illustrating a configuration example of the background portion 22 on the photographing space A1 side.

上述したように、背面パネル51の上方には背景カーテンユニット25が設けられる。背景カーテンユニット25のほぼ中央には、撮影空間A1内で撮影処理を行っている利用者を後方中央から照射する背面中央ストロボ101−1および背面中央ストロボ101−2が取り付けられる。   As described above, the background curtain unit 25 is provided above the back panel 51. Near the center of the background curtain unit 25, a back center strobe 101-1 and a back center strobe 101-2 for irradiating a user who is performing a photographing process in the photographing space A1 from the rear center are attached.

背面パネル51の上方であって、出入り口G1側の位置には、撮影空間A1内で撮影処理を行っている利用者を左後方から照射する背面左ストロボ102が取り付けられる。また、背面パネル51の上方であって、出入り口G2側の位置には、撮影空間A1内で撮影処理を行っている利用者を右後方から照射する背面右ストロボ103が取り付けられる。   A rear left strobe 102 that irradiates a user who is performing a photographing process in the photographing space A1 from the left rear is provided above the rear panel 51 and on the doorway G1 side. Further, a rear right strobe 103 that irradiates a user who is performing a photographing process in the photographing space A1 from the right rear is provided above the rear panel 51 and on the entrance / exit G2 side.

図6は、編集部12の正面側(編集空間A2−1側)の構成例を示す図である。   FIG. 6 is a diagram illustrating a configuration example of the editing unit 12 on the front side (editing space A2-1 side).

斜面72のほぼ中央には、タブレット内蔵モニタ131が設けられる。タブレット内蔵モニタ131を挟んで左側にタッチペン132Aが設けられ、右側にタッチペン132Bが設けられる。   A tablet built-in monitor 131 is provided at substantially the center of the slope 72. A touch pen 132A is provided on the left side of the tablet built-in monitor 131, and a touch pen 132B is provided on the right side.

タブレット内蔵モニタ131は、タッチペン132Aまたは132Bを用いて操作入力が可能なタブレットがLCDなどのモニタに重畳して設けられることによって構成される。タブレット内蔵モニタ131には、例えば、編集対象画像として選択された撮影画像の編集に用いられる画面である編集画面が表示される。2人で同時に編集作業を行う場合、タッチペン132Aは一方の利用者により用いられ、タッチペン132Bは他方の利用者により用いられる。   The tablet built-in monitor 131 is configured by superimposing a tablet capable of operation input using the touch pen 132A or 132B on a monitor such as an LCD. On the tablet built-in monitor 131, for example, an editing screen that is a screen used for editing a captured image selected as an image to be edited is displayed. When two people perform editing work simultaneously, the touch pen 132A is used by one user, and the touch pen 132B is used by the other user.

編集部12の左側には事後接客部13が設けられる。   On the left side of the editing unit 12, a post-service unit 13 is provided.

図7は、事後接客部13の正面側の構成例を示す図である。   FIG. 7 is a diagram illustrating a configuration example of the front side of the post-service unit 13.

事後接客部13の上方中央にはタブレット内蔵モニタ161が設けられる。タブレット内蔵モニタ161を挟んで左側にタッチペン162Aが設けられ、右側にタッチペン162Bが設けられる。タブレット内蔵モニタ161もタブレット内蔵モニタ131と同様に、タッチペン162Aまたは162Bを用いて操作入力が可能なタブレットがLCDなどのモニタに重畳して設けられることによって構成される。タブレット内蔵モニタ161には、ミニゲームなどの事後接客処理に用いられる画面が表示される。   A monitor 161 with a built-in tablet is provided at the upper center of the post-service section 13. A touch pen 162A is provided on the left side of the tablet built-in monitor 161, and a touch pen 162B is provided on the right side. Similarly to the tablet built-in monitor 131, the tablet built-in monitor 161 is configured by superimposing a tablet capable of performing an operation input using the touch pen 162A or 162B on a monitor such as an LCD. On the tablet built-in monitor 161, a screen used for post-service processing such as a mini game is displayed.

タブレット内蔵モニタ161の下には非接触型ICリーダ/ライタ163が設けられ、非接触型ICリーダ/ライタ163の下にはシール紙排出口164が設けられる。シール紙排出口164の下にはスピーカ165が設けられる。   A non-contact type IC reader / writer 163 is provided under the tablet built-in monitor 161, and a sticker paper discharge port 164 is provided under the non-contact type IC reader / writer 163. A speaker 165 is provided below the sticker paper discharge port 164.

非接触型ICリーダ/ライタ163は、近接された非接触型ICと通信を行い、非接触型ICからのデータの読み出しや非接触型ICに対するデータの書き込みを行う。   The non-contact type IC reader / writer 163 communicates with an adjacent non-contact type IC, reads data from the non-contact type IC, and writes data to the non-contact type IC.

シール紙排出口164には、編集空間A2−1の利用者が編集処理を行うことによって作成した画像が印刷されたシール紙、または、編集空間A2−2の利用者が編集処理を行うことによって作成した画像が印刷されたシール紙が排出される。編集部12の内部にはプリンタが設けられており、画像の印刷がそのプリンタにより行われる。   In the sticker paper discharge port 164, sticker paper on which an image created by the user of the editing space A2-1 is edited, or the user of the editing space A2-2 performs the editing process. The sticker paper on which the created image is printed is discharged. A printer is provided inside the editing unit 12, and printing of images is performed by the printer.

スピーカ165は、事後接客処理の案内音声、BGM、効果音等の音を出力する。   The speaker 165 outputs sound such as guidance voice, BGM, and sound effects for the post-service processing.

次に、写真シール作成装置1の内部構成について説明する。図8は、写真シール作成装置1の内部の構成例を示すブロック図である。上述した構成と同じ構成には同じ符号を付してある。重複する説明については適宜省略する。   Next, the internal configuration of the photo sticker creating apparatus 1 will be described. FIG. 8 is a block diagram illustrating an internal configuration example of the photo sticker creating apparatus 1. The same code | symbol is attached | subjected to the same structure as the structure mentioned above. The overlapping description will be omitted as appropriate.

制御部201はCPU (Central Processing Unit)などよりなり、ROM(Read Only Memory)206や記憶部202に記憶されているプログラムを実行し、写真シール作成装置1の全体の動作を制御する。制御部201には、記憶部202、通信部203、ドライブ204、ROM206、RAM (Random Access Memory)207が接続される。制御部201には、撮影部21、編集部12、事後接客部13、および印刷部211の各構成も接続される。   The control unit 201 includes a CPU (Central Processing Unit) and the like, executes a program stored in a ROM (Read Only Memory) 206 and a storage unit 202, and controls the overall operation of the photo sticker creating apparatus 1. A storage unit 202, a communication unit 203, a drive 204, a ROM 206, and a RAM (Random Access Memory) 207 are connected to the control unit 201. The control unit 201 is also connected with the components of the photographing unit 21, the editing unit 12, the post-service unit 13, and the printing unit 211.

記憶部202は、ハードディスクやフラッシュメモリなどの不揮発性の記憶媒体からなり、制御部201から供給された各種の設定情報を記憶する。記憶部202に記憶されている情報は制御部201により適宜読み出される。   The storage unit 202 includes a non-volatile storage medium such as a hard disk or a flash memory, and stores various setting information supplied from the control unit 201. Information stored in the storage unit 202 is appropriately read out by the control unit 201.

通信部203はインターネットなどのネットワークのインタフェースであり、制御部201による制御に従って外部の装置と通信を行う。   A communication unit 203 is an interface of a network such as the Internet, and communicates with an external device according to control by the control unit 201.

ドライブ204には、光ディスクや半導体メモリなどよりなるリムーバブルメディア205が適宜装着される。ドライブ204によりリムーバブルメディア205から読み出されたコンピュータプログラムやデータは、制御部201に供給され、記憶部202に記憶されたり、インストールされたりする。   A removable medium 205 made of an optical disk, a semiconductor memory, or the like is appropriately attached to the drive 204. Computer programs and data read from the removable medium 205 by the drive 204 are supplied to the control unit 201 and stored in the storage unit 202 or installed.

ROM206には、制御部201において実行されるプログラムやデータが記憶されている。RAM207は、制御部201が処理するデータやプログラムを一時的に記憶する。   The ROM 206 stores programs and data executed by the control unit 201. The RAM 207 temporarily stores data and programs processed by the control unit 201.

撮影部21は、撮影空間A1における撮影処理を行う構成である硬貨処理部221、背景制御部222、照明制御部223、カメラ91、タッチパネルモニタ93、およびスピーカ224から構成される。   The imaging unit 21 includes a coin processing unit 221, a background control unit 222, an illumination control unit 223, a camera 91, a touch panel monitor 93, and a speaker 224 that are configured to perform imaging processing in the imaging space A1.

硬貨処理部221は、硬貨投入返却口87に対する硬貨の投入を検出する。硬貨処理部221は、300円などの所定の金額分の硬貨が投入されたことを検出した場合、そのことを表す起動信号を制御部201に出力する。   The coin processing unit 221 detects the insertion of coins into the coin insertion / return port 87. When the coin processing unit 221 detects that a predetermined amount of coins such as 300 yen has been inserted, the coin processing unit 221 outputs an activation signal indicating that to the control unit 201.

背景制御部222は、制御部201より供給される背景制御信号に従って背景カーテンユニット25に収納されている背景カーテンの上げ下ろしを行う。背景カーテンの選択が利用者により手動で行われるようにしてもよい。   The background control unit 222 raises and lowers the background curtain stored in the background curtain unit 25 according to the background control signal supplied from the control unit 201. The background curtain may be manually selected by the user.

照明制御部223は、制御部201より供給される照明制御信号に従って、撮影空間A1内の各ストロボの発光を制御する。上述したように、撮影空間A1には、天井ストロボユニット24のストロボの他に、撮影部21に設けられる上ストロボ82、左ストロボ83、右ストロボ84、下ストロボ85、足元ストロボ86と、背景部22に設けられる背面中央ストロボ101−1、背面中央ストロボ101−2、背面左ストロボ102,背面右ストロボ103が設けられる。各ストロボの内部には蛍光灯も設けられる。   The illumination control unit 223 controls the light emission of each strobe in the imaging space A1 according to the illumination control signal supplied from the control unit 201. As described above, in the photographing space A1, in addition to the strobe of the ceiling strobe unit 24, an upper strobe 82, a left strobe 83, a right strobe 84, a lower strobe 85, a foot strobe 86, and a background portion provided in the photographing unit 21 are provided. 22 is provided with a back center strobe 101-1, a back center strobe 101-2, a back left strobe 102, and a back right strobe 103. A fluorescent lamp is also provided inside each strobe.

また、照明制御部223は、各ストロボの内部に設けられる蛍光灯の発光量を調整することによって、または、発光させる蛍光灯の数を調整することによって、利用者が行っている撮影処理の段階に応じて撮影空間A1内の明るさを調整する。   In addition, the illumination control unit 223 adjusts the light emission amount of the fluorescent lamp provided inside each strobe, or adjusts the number of fluorescent lamps to emit light, thereby performing a shooting process performed by the user. The brightness in the shooting space A1 is adjusted according to the above.

カメラ91は、制御部201による制御に従って撮影を行い、撮影によって得られた画像を制御部201に出力する。   The camera 91 shoots according to the control by the control unit 201 and outputs an image obtained by the shooting to the control unit 201.

編集部12Aは、編集空間A2−1における編集処理を行う構成として編集部12の正面側に設けられるタブレット内蔵モニタ131、タッチペン132A,132B、およびスピーカ231から構成される。編集部12Bも編集部12Aと同一の構成を有しており、編集空間A2−2における編集処理を行う。   The editing unit 12A includes a tablet built-in monitor 131, touch pens 132A and 132B, and a speaker 231 provided on the front side of the editing unit 12 as a configuration for performing editing processing in the editing space A2-1. The editing unit 12B has the same configuration as the editing unit 12A, and performs editing processing in the editing space A2-2.

タブレット内蔵モニタ131は、制御部201による制御に従って編集画面を表示し、編集画面に対する利用者の操作を検出する。利用者の操作の内容を表す信号は制御部201に供給され、編集対象の撮影画像の編集が行われる。   The tablet built-in monitor 131 displays an editing screen according to control by the control unit 201, and detects a user operation on the editing screen. A signal representing the content of the user's operation is supplied to the control unit 201, and the captured image to be edited is edited.

事後接客部13は、事後接客空間A3における事後接客処理を行う構成であるタブレット内蔵モニタ161、タッチペン162A,162B、非接触型ICリーダ/ライタ163、およびスピーカ165から構成される。   The subsequent customer service unit 13 includes a tablet built-in monitor 161, touch pens 162A and 162B, a non-contact type IC reader / writer 163, and a speaker 165 that are configured to perform subsequent customer service in the subsequent customer service space A3.

印刷部211は、印刷処理を行う構成であるプリンタ241、およびシール紙ユニット242から構成される。プリンタ241は、撮影画像、または編集処理によって得られた編集済みの画像を、プリンタ241に装着されたシール紙ユニット242に収納されているシール紙に印刷し、シール紙排出口164に排出する。一点鎖線で囲んで示す事後接客部13と印刷部211が、事後接客空間A3にいる利用者を相手とした処理を行う構成となる。   The printing unit 211 includes a printer 241 and a sticker sheet unit 242 that are configured to perform printing processing. The printer 241 prints the photographed image or the edited image obtained by the editing process on the sticker paper stored in the sticker paper unit 242 attached to the printer 241 and discharges it to the sticker paper discharge port 164. The subsequent customer service unit 13 and the printing unit 211 shown surrounded by the one-dot chain line are configured to perform processing for the user in the subsequent customer service space A3.

なお、写真シール作成ゲームにおいて作成された画像の用途は、シール紙に印刷されるのみに限られない。例えば、通信部203、非接触型ICリーダ/ライタ163などを介して写真シール作成ゲームにおいて作成された画像の画像データが利用者の携帯端末などに送信され、携帯端末においてそれらの画像を表示させることも可能である。例えば、利用者は、写真シール作成ゲームにおいて作成された画像を、携帯電話機の待受け画面の画像として利用することもできる。   Note that the use of the image created in the photo sticker creation game is not limited to printing on sticker paper. For example, the image data of the image created in the photo sticker creation game is transmitted to the user's portable terminal via the communication unit 203, the non-contact type IC reader / writer 163, etc., and the images are displayed on the portable terminal. It is also possible. For example, a user can also use an image created in a photo sticker creation game as an image on a standby screen of a mobile phone.

次に、制御部201について説明する。図9は、制御部201がROM206などに格納されているプログラムを実行することにより実現される機能ブロックの構成例を示している。   Next, the control unit 201 will be described. FIG. 9 shows an example of the functional block configuration realized by the control unit 201 executing a program stored in the ROM 206 or the like.

制御部201は、写真シール作成ゲームを開始する際に投入される代金に関する処理や利用者グループを撮影する等の写真シール作成ゲームの撮影作業の工程に関する処理を行う撮影処理部282、撮影画像に対する落書き編集等の写真シール作成ゲームの編集作業の工程に関する処理を行う編集処理部283、シール紙の印刷等の写真シール作成ゲームの印刷の工程に関する処理を行う印刷処理部284、および、編集作業を終了した利用者グループを接客する写真シール作成ゲームの事後接客の工程に関する処理を行う事後接客処理部285を有する。   The control unit 201 performs a process relating to a process of taking a photo sticker creation game, such as a process related to a price input when starting the photo sticker creation game and a photograph of a user group. An editing processing unit 283 that performs processing related to the editing work process of the photo sticker creation game such as graffiti editing, a printing processing unit 284 that performs processing related to the printing process of the photo sticker creation game such as printing of sticker paper, and editing work. A post-service processing unit 285 is provided for performing a process related to the post-service process of the photo sticker creation game for serving the completed user group.

すなわち制御部201は、写真シール作成ゲームの各工程に関する処理の制御を行う。   That is, the control unit 201 controls processing related to each process of the photo sticker creation game.

次に、図10のフローチャートを参照して、写真シール作成ゲームを提供する写真シール作成装置1の処理について説明する。   Next, processing of the photo sticker creating apparatus 1 that provides a photo sticker creating game will be described with reference to the flowchart of FIG.

ステップS11において、写真シール作成装置1の制御部201の撮影処理部282は、所定の金額分の硬貨が投入されたか否かを硬貨処理部221から供給される信号に基づいて判定し、投入されたと判定するまで待機する。   In step S11, the photographing processing unit 282 of the control unit 201 of the photo sticker creating apparatus 1 determines whether or not a predetermined amount of coins has been inserted based on a signal supplied from the coin processing unit 221 and is inserted. Wait until it is determined.

硬貨が投入されたとステップS11において判定した場合、ステップS12において、撮影処理部282は、撮影部208を制御し、撮影処理を実行する。このとき、例えば、カメラ91に取り込まれた被写体の動画像をタッチパネルモニタ93にライブビュー表示させ、撮影空間A1にいる利用者を被写体として撮影する撮影処理が行われる。   If it is determined in step S11 that a coin has been inserted, in step S12, the imaging processing unit 282 controls the imaging unit 208 and executes imaging processing. At this time, for example, a shooting process is performed in which the moving image of the subject captured by the camera 91 is displayed in live view on the touch panel monitor 93 and the user in the shooting space A1 is taken as a subject.

ステップS13において、撮影処理部282は、撮影空間A1にいる利用者に対して、編集空間A2−1または編集空間A2−2への移動を案内する。編集空間A2−1または編集空間A2−2への移動の案内は、撮影部208のタッチパネルモニタ93に画面を表示させることによって、または音声をスピーカ224から出力させることによって行われる。   In step S13, the photographing processing unit 282 guides the user in the photographing space A1 to move to the editing space A2-1 or the editing space A2-2. The guidance for movement to the editing space A2-1 or the editing space A2-2 is performed by displaying a screen on the touch panel monitor 93 of the photographing unit 208 or by outputting sound from the speaker 224.

ステップS14において、編集処理部283は、編集空間A2−1と編集空間A2−2のうち、撮影処理を終えた利用者の移動先とした方の編集空間に対応する編集部209を制御し、編集処理および印刷前設定処理を行う。具体的には、編集処理部283は、編集対象画像として選択された撮影画像に合成する合成用画像を利用者に選択させ、選択された合成用画像を撮影画像に合成させ、得られた合成画像に対して、利用者による編集操作に従って編集を行う。   In step S14, the editing processing unit 283 controls the editing unit 209 corresponding to the editing space of the editing space A2-1 and the editing space A2-2 that is the destination of the user who has finished the shooting process, Edit processing and pre-print setting processing are performed. Specifically, the editing processing unit 283 causes the user to select a synthesis image to be synthesized with the photographed image selected as the editing target image, and synthesizes the selected composition image with the photographed image. The image is edited according to the editing operation by the user.

なお、編集処理および印刷前設定処理の詳細については、図11を参照して後述する。   Details of the editing process and the pre-print setting process will be described later with reference to FIG.

ステップS15において、編集処理部283は、編集空間A2−1または編集空間A2−2で編集処理を終えた利用者に対して事後接客空間A3への移動を案内する。事後接客空間A3への移動の案内は、タブレット内蔵モニタ131に画面を表示させることによって、または音声をスピーカ231から出力させることによって行われる。   In step S15, the editing processing unit 283 guides the user who has finished the editing process in the editing space A2-1 or the editing space A2-2 to move to the subsequent customer service space A3. The guidance of the movement to the post-service space A3 is performed by displaying a screen on the tablet built-in monitor 131 or by outputting sound from the speaker 231.

ステップS16において、印刷処理部284は、利用者により選択された画像をプリンタ241に出力してシール紙に印刷させる印刷処理を行う。   In step S <b> 16, the print processing unit 284 performs print processing for outputting the image selected by the user to the printer 241 and printing it on the sticker sheet.

ステップS17において、事後接客処理部285は、事後接客部210を制御し、印刷終了待機中の利用者に対する事後接客処理を行う。具体的には、事後接客処理部285は、例えば、撮影画像や編集済みの画像を携帯端末に送信する携帯送信ゲーム処理を事後接客処理として行い、携帯端末の電子メールアドレスの入力画面や、送信する画像の選択画面をタブレット内蔵モニタ161に表示させ、利用者による操作に応じて画像を送信する。   In step S <b> 17, the post-service processing unit 285 controls the post-service unit 210 to perform post-service processing for a user who is waiting for completion of printing. Specifically, the post-service processing unit 285 performs, for example, a mobile transmission game process in which a captured image or an edited image is transmitted to the mobile terminal as the post-service processing, and an e-mail address input screen of the mobile terminal or transmission A screen for selecting an image to be displayed is displayed on the tablet built-in monitor 161, and the image is transmitted according to an operation by the user.

印刷が終了すると、ステップS18において、事後接客処理部285は、印刷が終了した旨をタブレット内蔵モニタ161に表示させ、プリンタ241は、画像が印刷されたシール紙をシール紙排出口164に排出し、処理を終了させる。   When printing is completed, in step S18, the customer service processing unit 285 displays that the printing is completed on the tablet built-in monitor 161, and the printer 241 discharges the sticker paper on which the image is printed to the sticker paper discharge port 164. The process is terminated.

次に、図11のフローチャートを参照して、図10のステップS14の編集処理および印刷前設定処理の詳細な例について説明する。   Next, a detailed example of the editing process and the pre-print setting process in step S14 in FIG. 10 will be described with reference to the flowchart in FIG.

ステップS51において、編集処理部283は、編集空間A2−1と編集空間A2−2のうち、撮影処理を終えた利用者の移動先とした方の編集空間のタブレット内蔵モニタ131に編集対象画像の選択画面を表示させ、利用者による選択を受け付ける。編集対象画像の選択画面には、例えば、撮影処理によって得られた撮影画像が一覧表示される。   In step S51, the editing processing unit 283 displays the editing target image on the tablet built-in monitor 131 in the editing space of the editing space A2-1 and the editing space A2-2, which is the moving destination of the user who has finished the photographing process. A selection screen is displayed and selection by the user is accepted. For example, a list of the captured images obtained by the imaging process is displayed on the selection screen for the editing target image.

ステップS52において、合成用画像の選択が行われる。例えば、撮影画像に合成される合成用画像を選択するのに用いられる合成用画像の選択画面が表示され、利用者が好みの合成用画像を選択することで行われる。   In step S52, an image for synthesis is selected. For example, a selection screen for a composition image used for selecting a composition image to be combined with the photographed image is displayed, and the user selects a desired composition image.

ステップS53において、編集処理部283は、撮影画像に対する画像処理を実行する。これにより、被写体の画像に合成される背景や前景などの画像(合成用画像)の選択等が行われ、その合成用画像が被写体の画像に合成される。また、被写体の画像は、被写体毎に最適な写りとなるように処理が施されるが、その処理もステップS53において実行される。ステップS53における処理、特に、被写体毎に最適な写りとなるような処理については、後述する。   In step S53, the editing processing unit 283 performs image processing on the captured image. As a result, an image (compositing image) such as a background or foreground to be combined with the subject image is selected, and the combining image is combined with the subject image. Further, the subject image is processed so as to obtain an optimum image for each subject, and the processing is also executed in step S53. The process in step S53, particularly the process that provides the optimum image for each subject will be described later.

ステップS54において、編集処理部283は、利用者の名前の入力を受け付ける。ここで入力される利用者の名前は、例えば、「お名前スタンプ」と称される編集ツールに用いられる。「お名前スタンプ」は、例えば、写真シールとして印刷される画像に利用者の名前をスタンプするためのツールとされる。   In step S54, the edit processing unit 283 accepts input of the user's name. The user name input here is used for an editing tool called “name stamp”, for example. The “name stamp” is, for example, a tool for stamping a user's name on an image printed as a photo sticker.

ステップS55において、編集処理部283は、編集対象画像として選択された撮影画像であって、ステップS53の処理が施された画像をタブレット内蔵モニタ131に表示し、利用者による編集入力を受け付ける。これにより、タッチペン132A、タッチペン132Bを用いた、いわゆる落書き編集が行われる。このとき、利用者は、スタンプツールやペンツールなどの編集ツールを用いて編集対象画像に落書きする。   In step S55, the editing processing unit 283 displays the image that has been selected as the image to be edited and has been subjected to the processing in step S53 on the tablet built-in monitor 131, and accepts editing input by the user. Thereby, so-called graffiti editing using the touch pen 132A and the touch pen 132B is performed. At this time, the user doodles the image to be edited using an editing tool such as a stamp tool or a pen tool.

ステップS56において、編集処理部283は、所定の時間(制限時間)が経過したか、または、終了ボタンが操作されたか否かを判定し、制限時間にも達しておらず、終了ボタンも操作されていないと判定した場合、編集処理部283は、処理をステップS55に戻し、それ以降の処理を繰り返す。   In step S56, the edit processing unit 283 determines whether a predetermined time (time limit) has elapsed or the end button has been operated, and the time limit has not been reached, and the end button is also operated. If it is determined that it is not, the editing processing unit 283 returns the process to step S55 and repeats the subsequent processes.

ステップS56において、所定の時間が経過した、または、終了ボタンが操作されたと判定した場合、編集処理部283は、処理をステップS57に進める。ステップS57において、編集処理部283は、コラージュ画像を生成する。コラージュ画像は、複数の被写体の画像を組み合わせたものを1枚のシールの画像としてシール紙に印刷するための画像とされる。すなわち、コラージュ画像は、撮影された撮影画像から所定の領域がトリミングされるなどした画像を含む画像が複数組み合わせられて得られた1枚の画像とされる。   If it is determined in step S56 that a predetermined time has elapsed or the end button has been operated, the editing processing unit 283 advances the process to step S57. In step S57, the edit processing unit 283 generates a collage image. The collage image is an image for printing on a sticker paper a combination of a plurality of subject images as a sticker image. That is, the collage image is a single image obtained by combining a plurality of images including an image obtained by trimming a predetermined area from a captured image.

このコラージュ画像は、利用者がコラージュ画像を生成するための画像の撮影などを行う必要はなく、撮影された撮影画像に基づいて、自動的にコラージュ画像が生成されるようになされている。また、予め定められたデザインパターンに基づいて、複数のコラージュ画像が生成されるようにしても良い。例えば、デザインパターンAとデザインパターンBに対応するコラージュ画像が生成される。デザインパターンによって、例えば、コラージュ画像を構成する各画像の配置位置などが定められるようにしても良い。   The collage image does not require the user to take an image for generating the collage image, and the collage image is automatically generated based on the taken image. A plurality of collage images may be generated based on a predetermined design pattern. For example, collage images corresponding to design pattern A and design pattern B are generated. Depending on the design pattern, for example, the arrangement position of each image constituting the collage image may be determined.

ステップS58において、編集処理部283は、利用者にコラージュ画像を選択させる。このとき、例えば、タブレット内蔵モニタ131に、複数のデザインパターンに対応するコラージュ画像がそれぞれ表示される。そして、利用者により、複数のデザインパターンのコラージュ画像うちのいずれかが選択される。   In step S58, the edit processing unit 283 causes the user to select a collage image. At this time, for example, collage images corresponding to a plurality of design patterns are displayed on the tablet built-in monitor 131, respectively. Then, one of the collage images of a plurality of design patterns is selected by the user.

ステップS59において、編集処理部283は、利用者に写真シールの分割数を選択させる。このとき、例えば、タブレット内蔵モニタ131に、複数の分割パターンが表示される。そして、利用者により、複数の分割パターンのうちのいずれかが選択される。   In step S59, the editing processing unit 283 causes the user to select the number of divisions of the photo sticker. At this time, for example, a plurality of division patterns are displayed on the tablet built-in monitor 131. Then, one of the plurality of division patterns is selected by the user.

このようにして、編集処理が実行される。   In this way, the editing process is executed.

[画像処理について]
画像処理について説明する。画像処理は、ここでは、ステップS53(図11)において行われるとして説明するが、他のタイミングで行われるようにしても勿論良い。ここで説明する画像処理は、例えば、撮影された利用者の顔の頬の部分の色を適切な色に変換する処理であり、そのような処理が施された画像が提供されるタイミングは、どのようなタイミングでも良い。
[Image processing]
Image processing will be described. Although the image processing is described here as being performed in step S53 (FIG. 11), it may of course be performed at another timing. The image processing described here is, for example, processing for converting the color of the cheek portion of the photographed user's face into an appropriate color, and the timing at which an image subjected to such processing is provided is Any timing is acceptable.

例えば、ステップS12(図10)において、撮影処理が行われるが、撮影処理が行われるとき、カメラ91に取り込まれた被写体の動画像をタッチパネルモニタ93にライブビュー表示される。このライブビュー表示される画像は、画像処理後の画像であるようにしても良い。このようにした場合、ステップS12の処理に、以下に説明する画像処理が含まれる。またステップS12以降の処理において、利用者に提示される画像は、画像処理が施された画像とされる。   For example, in step S12 (FIG. 10), the shooting process is performed. When the shooting process is performed, the moving image of the subject captured by the camera 91 is displayed on the touch panel monitor 93 as a live view. The image displayed in live view may be an image after image processing. In such a case, the image processing described below is included in the processing in step S12. In the processing after step S12, the image presented to the user is an image that has been subjected to image processing.

または、ライブビューに表示される画像には、画像処理を施さず、撮影結果の表示である撮影画像を、画像処理後の画像であるようにしてもよい。   Alternatively, the image displayed in the live view may not be subjected to image processing, and the captured image that is a display of the captured result may be an image after image processing.

また例えば、ステップS14(図10)において、編集処理が行われるが、この編集処理が行われるとき、編集空間のタブレット内蔵モニタ131に編集対象画像の選択画面が表示される。この編集対象画像として選択対象とされている複数の画像と、選択され編集対象とされた画像の少なくとも一方の画像は、画像処理後の画像であるようにしても良い。このようにした場合、ステップS14の処理に、以下に説明する画像処理が含まれる。またステップS14以降の処理において、利用者に提示される画像は、画像処理が施された画像とされる。ここでは、このような場合を例にあげて説明を続ける。   Further, for example, in step S14 (FIG. 10), an editing process is performed. When this editing process is performed, a screen for selecting an image to be edited is displayed on the tablet built-in monitor 131 in the editing space. At least one of the plurality of images selected as the editing target image and the selected image to be edited may be an image after image processing. In such a case, the image processing described below is included in the processing in step S14. In the processing after step S14, the image presented to the user is an image that has been subjected to image processing. Here, description will be continued by taking such a case as an example.

また例えば、ステップS16(図10)において、印刷処理が行われるが、この印刷処理が行われるとき、画像処理が行われ、画像処理が施された画像が印刷されるようにしてもよい。このようにした場合、ステップS16の処理に、以下に説明する画像処理が含まれる。   Further, for example, in step S16 (FIG. 10), the printing process is performed. When this printing process is performed, the image process may be performed and the image subjected to the image process may be printed. In such a case, the image processing described below is included in the processing in step S16.

またここでは図示していないが、例えば携帯電話機などの携帯端末に、撮影され、編集が施された画像が、写真シール作成装置1から提供されるように構成した場合、提供されるときに、画像処理が行われるようにしてもよい。   Further, although not shown here, for example, when configured to be provided from the photo sticker creating apparatus 1, an image that has been shot and edited on a mobile terminal such as a mobile phone is provided, Image processing may be performed.

図12は、画像処理に係わる処理について説明するためのフローチャートである。ステップS101において、撮影画像から顔が検出され、その顔の数により撮影人数が判定される。画像から顔を検出する技術は、既存の技術を適用することができる。ここでは、顔が検出されるだけでなく、さらに顔のパーツ(の領域)も検出されるとして説明する。顔のパーツとは、人の顔を構成するまゆげ、目、鼻、口、耳などの器官のことである。   FIG. 12 is a flowchart for explaining processing related to image processing. In step S101, a face is detected from the photographed image, and the number of photographers is determined based on the number of faces. As a technique for detecting a face from an image, an existing technique can be applied. Here, it is assumed that not only a face is detected but also a part (area) of the face is detected. Facial parts are organs such as eyebrows, eyes, nose, mouth, and ears that make up a person's face.

ステップS102において、撮影画像から検出された顔数に応じて人数を検出し、2人以上であるか否かが判断される。ステップS102において2人以上であると判断された場合、ステップS103に処理が進められる。ステップS103において、検出された顔の所定の領域、例えば、目の位置や顔の輪郭から領域が抽出される。そして、ステップS104において、抽出された領域内に対して所定の補正が行われる。   In step S102, the number of persons is detected according to the number of faces detected from the captured image, and it is determined whether or not there are two or more persons. If it is determined in step S102 that there are two or more people, the process proceeds to step S103. In step S103, a predetermined region of the detected face, for example, a region is extracted from the eye position or the face outline. In step S104, a predetermined correction is performed on the extracted area.

抽出される顔の所定の領域とは、例えば、頬、顎、額などの領域であり、これらの領域が抽出された場合、その領域内の肌の色味が、美しいとされる肌の色味に近い色味に変換されたり、適切とされる明度に補正されたりする。また、顔のパーツ(の領域)も検出されているので、それらのパーツも、美しいとされる形に補正される。これらの処理については、図13以降を参照して説明するとし、先にフローチャートの説明を行う。   The extracted predetermined areas of the face are, for example, areas such as cheeks, jaws, and foreheads, and when these areas are extracted, the skin color in which the skin tone in the area is considered to be beautiful It is converted to a color close to the taste or corrected to an appropriate brightness. In addition, since face parts (regions) are also detected, these parts are also corrected to be considered beautiful. These processes will be described with reference to FIG. 13 and thereafter, and the flowchart will be described first.

なお補正は、明るさ、色の濃淡、色相、彩度、明度、コントラストのいずれかが少なくとも変換される補正である。また、以下の説明においては、これらのうちのいずれかの変換が行われることを、色味を変換すると適宜記述する。   The correction is a correction in which at least one of brightness, color shading, hue, saturation, brightness, and contrast is converted. Further, in the following description, the fact that any one of these conversions is performed will be described as appropriate when the color is converted.

ステップS104において、抽出した領域内の補正が行われると、ステップS105において、未処理の顔があるか否かが判断される。ステップS105において、未処理の顔があると判断された場合、ステップS103に処理が戻され、未処理の顔と判断された顔に対して、ステップS103以降の処理が繰り返される。一方、ステップS105において、未処理の顔はないと判断された場合、画像処理の処理は終了される。   When correction in the extracted area is performed in step S104, it is determined in step S105 whether or not there is an unprocessed face. If it is determined in step S105 that there is an unprocessed face, the process returns to step S103, and the processes in and after step S103 are repeated for the face determined to be an unprocessed face. On the other hand, if it is determined in step S105 that there is no unprocessed face, the image processing is terminated.

一方、ステップS102において、撮影画像から検出された顔は、2人以上ではないと判断された場合、換言すれば、1人であると判断された場合、ステップS106に処理が進められる。ステップS106において、検出された1人の顔の所定の領域が抽出され、ステップS107において、抽出された領域内が補正される。このステップS106とステップS103の処理は、基本的に、ステップS103とステップS104の処理と同様である。   On the other hand, if it is determined in step S102 that the number of faces detected from the captured image is not two or more, in other words, if it is determined that there is only one person, the process proceeds to step S106. In step S106, a predetermined area of the detected face of one person is extracted, and in step S107, the extracted area is corrected. The processing of step S106 and step S103 is basically the same as the processing of step S103 and step S104.

このように、本実施の形態においては、ステップS103乃至S105の処理が繰り返されることで、人物毎(顔毎)に補正が行われる。例えば、撮影画像から2人以上の顔が検出された場合、検出された顔毎、換言すれば、人物毎に補正が行われる。さらに換言するに、本実施の形態においては、画像毎に補正を行うのではなく、画像内の人物毎に補正が行われる。よって、人物毎に適した補正を行うことができる。   As described above, in the present embodiment, correction is performed for each person (for each face) by repeating the processes of steps S103 to S105. For example, when two or more faces are detected from the captured image, correction is performed for each detected face, in other words, for each person. In other words, in the present embodiment, correction is not performed for each image but for each person in the image. Therefore, correction suitable for each person can be performed.

例えば、2人の人物が撮影された撮影画像を補正することを考える。このとき、画像単位で明度を変換する補正を行った場合、換言すれば、撮影画像全体に、明度を変換する同一の補正を一律に行った場合、一方の人物は適切な明るさに補正されたとしても、他方の人物は明るすぎるといった補正が行われてしまう可能性がある。これは、人により地肌の色が異なるため、同じ明度の補正を施すと、地肌が明るい人はさらに明るく補正されてしまうからである。このような、画像単位で補正を行う場合、画像自体がのっぺりとした画像となってしまう可能性がある。   For example, consider correcting a captured image in which two persons are captured. At this time, when the correction for converting the brightness in image units is performed, in other words, when the same correction for converting the brightness is uniformly performed on the entire captured image, one person is corrected to an appropriate brightness. Even so, there is a possibility that the correction is made such that the other person is too bright. This is because, since the color of the background varies from person to person, if the same brightness correction is performed, a person with a bright background will be corrected more brightly. When such correction is performed in units of images, there is a possibility that the image itself becomes a flat image.

しかしながら、本実施の形態のように、画像内の人物単位で明度を変換する補正を行った場合、例えば、地肌が明るい一方の人は明度を変換せず、地肌が明るくない他方の人は明度を変換するといった補正を行うことができるようになる。よってそれぞれの人物を、適切な明るさに補正することが可能となる。このような補正を行うことで、人物毎に最適な写りとなり、表情が豊かで立体感のあるより良い画像とすることが可能となる。   However, as in the present embodiment, when correction is performed to convert the brightness in units of persons in the image, for example, one person with a bright background does not convert the brightness, and the other person with a bright background does not convert the brightness. It is possible to make corrections such as converting. Therefore, each person can be corrected to an appropriate brightness. By performing such correction, it is possible to obtain an optimal image for each person, and to obtain a better image with a rich expression and a three-dimensional effect.

また、本実施の形態においては、顔毎に、かつ、顔から検出された領域毎に補正が行われる。例えば、顔の中でも明るい部分と明るくない部分があったり、明るくしないほうが美しく見える部分があったりと、さまざまである。よって、仮に、1つの顔に同一の補正、例えば、明るくする補正を行った場合、顔の中で、明るさが適切な部分と明るすぎる部分があるような顔に補正されてしまう可能性がある。   Further, in the present embodiment, correction is performed for each face and for each area detected from the face. For example, there are various parts of the face, such as bright and non-bright parts, and parts that look beautiful when not bright. Therefore, if the same correction is performed on one face, for example, a brightening correction, there is a possibility that the face is corrected to a face having an appropriate brightness portion and an excessively bright portion. is there.

しかしながら、本実施の形態においては、顔内の所定の領域毎に、その領域内の肌の色として適切な色となるように補正が行われるため、明るさが適切な部分と明るすぎる部分があるような顔に補正されてしまうようなことはなく、顔全体が適切な明るさとなるような補正を行うことが可能となる。   However, in the present embodiment, correction is performed for each predetermined region in the face so as to be an appropriate color as the skin color in that region, so that there are portions where the brightness is appropriate and portions that are too bright The face is not corrected to a certain face, and the entire face can be corrected to have an appropriate brightness.

なお、ステップS102において検出された顔が1人であると判断された場合、ステップS106、ステップS107の処理を省略し、画像処理を終了しても良い。1人の場合、画像内の他の人物と比較して、明るいとか、色味が変であるとかいう判断が、利用者側で行われないため、仮に、補正をしなくても、違和感などの満足度を低下させるようなことは少ないと考えられる。よって、1人の場合には、画像処理の処理を省略するようにしても良い。   If it is determined in step S102 that there is only one face, the processing in steps S106 and S107 may be omitted and the image processing may be terminated. In the case of one person, the user does not make a judgment as to whether the color is bright or the color is strange compared to other persons in the image. It seems that there is little that lowers satisfaction. Therefore, in the case of one person, the image processing process may be omitted.

[領域の抽出と補正について]
次に、顔の検出、顔内から所定の領域の抽出、抽出された領域内の補正について説明する。ここでは、図13に示すように、2人の人物が撮影された場合を例にあげて説明する。図13に示したような画像が処理対象とされた場合、ステップS101の処理において、顔321と顔322の2人の顔が検出される。そして、ステップS102において、2個の顔が検出されたことから、撮影人数は2人であると判断され、処理はステップS103に進められる。
[Region extraction and correction]
Next, face detection, extraction of a predetermined area from the face, and correction in the extracted area will be described. Here, as shown in FIG. 13, a case where two persons are photographed will be described as an example. When an image as illustrated in FIG. 13 is a processing target, two faces of the face 321 and the face 322 are detected in the process of step S101. In step S102, since two faces are detected, it is determined that the number of photographers is two, and the process proceeds to step S103.

顔が検出される際、目、鼻、口のそれぞれが検出される。顔の検出や目、鼻、口などの顔のパーツの検出には、既存の技術を適用することができる。   When a face is detected, each of eyes, nose, and mouth is detected. Existing techniques can be applied to face detection and detection of facial parts such as eyes, nose and mouth.

図13に示したように、顔321と顔322が撮影されたときに、ステップS101において、顔検出処理が実行され、顔321、顔322の順に検出された場合、この検出順に、処理対象とされる。よってこの場合、顔321が先に処理対象とされ、その後、顔322が処理対象とされる。   As shown in FIG. 13, when face 321 and face 322 are photographed, face detection processing is executed in step S101, and when face 321 and face 322 are detected in this order, processing targets are set in this detection order. Is done. Therefore, in this case, the face 321 is the processing target first, and then the face 322 is the processing target.

すなわち、この場合、まず、顔321に対して、ステップS103、ステップS104の処理が実行される。そして、ステップS105において、未処理の顔があるかとの判断が実行されたとき、未処理の顔として、顔322があると判断され、その顔322に対して、再度ステップS103とステップS104の処理が繰り返される。このように、顔毎に処理が施される。   That is, in this case, first, the processes of steps S103 and S104 are performed on the face 321. Then, when it is determined in step S105 that there is an unprocessed face, it is determined that there is a face 322 as an unprocessed face, and the process in steps S103 and S104 is performed again on the face 322. Is repeated. In this way, processing is performed for each face.

顔321と顔322に対する処理は、基本的に同様であるので、ここでは、顔321を例にあげて説明を続ける。顔321が処理対象とされた場合、ステップS103の処理として、図14に示すように、顔321の所定の領域が抽出される。例えば、頬の部分を含む所定の領域として領域341が抽出され、顎の部分を含む所定の領域として領域342が抽出される。   Since the processes for the face 321 and the face 322 are basically the same, the description is continued here taking the face 321 as an example. When the face 321 is set as a processing target, a predetermined region of the face 321 is extracted as shown in FIG. For example, the region 341 is extracted as a predetermined region including the cheek portion, and the region 342 is extracted as the predetermined region including the chin portion.

頬の部分を含む領域341は、例えば、既に検出されている目の位置と口の位置を用いて設定することができる。例えば、目の下側から口の上側の間の領域とし、所定の形状、図14では四角形で囲まれる領域を、頬を含む領域341として設定する。所定の形状として、頬の形状を考慮し、四角形の各辺は、半円形状などの曲線であっても良い。   The region 341 including the cheek portion can be set using, for example, the already detected eye position and mouth position. For example, a region between the lower side of the eye and the upper side of the mouth, and a predetermined shape, that is, a region surrounded by a rectangle in FIG. 14, is set as the region 341 including the cheek. Considering the shape of the cheek as the predetermined shape, each side of the square may be a curve such as a semicircular shape.

また、頬の部分をさらに抽出するようにした場合、領域341から鼻の領域を取り除くことで、頬の部分を残すことができる。このようにして、頬の部分(領域341)が抽出された場合、その領域341内の肌に対して補正が行われる。ステップS104における補正内容の1つとしては、頬の部分が明るくなるような補正がある。頬を明るくすることで、自然な笑顔の優しい雰囲気の写りの顔画像とすることが可能である。   Further, when the cheek portion is further extracted, the cheek portion can be left by removing the nose region from the region 341. When the cheek portion (region 341) is extracted in this manner, the skin in the region 341 is corrected. One of the correction contents in step S104 is correction that brightens the cheek portion. By brightening the cheeks, it is possible to obtain a face image that reflects a gentle atmosphere with a natural smile.

どの程度明るくするかは、例えば、輝度値を用いて決定することができる。領域内の輝度値の平均値を算出し、その輝度値の平均値(平均輝度値と記述する)が、予め設定されている輝度値(設定輝度値と記述する)に近くなるように補正が行われるように構成することができる。設定輝度値は、美しいとされる頬の明るさから導き出された輝度値とされる。   The degree of brightness can be determined using, for example, a luminance value. An average value of luminance values in the area is calculated, and correction is performed so that the average value of the luminance values (described as average luminance value) is close to a preset luminance value (described as set luminance value). It can be configured to be done. The set luminance value is a luminance value derived from the brightness of the cheek that is considered beautiful.

予め設定されている輝度値に一致させるのではなく、近い輝度値に平均輝度値が補正される。例えば、肌の色が明るい、または肌の色が暗い場合など、平均輝度値と設定輝度値に開きがあるようなときに、平均輝度値が設定輝度値になるように補正してしまうと、本来の利用者の肌の色と異なる色になってしまい、利用者が違和感など不快な感情を持つ可能性がある。そこで、設定輝度値は、1つではなく、複数設けておき、平均輝度値に応じて設定輝度値が選択的に用いられ、その設定輝度値に近い値に平均輝度値がなるように補正されるようにしても良い。   The average brightness value is corrected to a near brightness value instead of matching with a preset brightness value. For example, when there is a gap between the average brightness value and the set brightness value, such as when the skin color is bright or the skin color is dark, if the average brightness value is corrected to the set brightness value, The color may be different from the original user's skin color, and the user may have an unpleasant feeling such as discomfort. Therefore, a plurality of set brightness values are provided instead of one, and the set brightness value is selectively used according to the average brightness value, and the average brightness value is corrected to a value close to the set brightness value. You may make it.

また、領域341内の輝度値が、全て設定輝度値になるように補正するのではなく、領域内の位置により、例えば、頬の中央部分が最も明るく、中央から徐々に暗くなるように補正される。設定輝度値には、幅があり、その幅内に領域内の輝度値が収まるように補正されるように構成することも可能である。   Further, the luminance values in the area 341 are not corrected so as to be all set luminance values, but are corrected so that, for example, the central part of the cheek is brightest and gradually becomes darker from the center depending on the position in the area. The The set brightness value has a width, and the brightness value can be corrected so that the brightness value in the region falls within the width.

また、ステップS104における補正内容の1つとして、頬の補正の場合、チーク(頬紅)の色を反映するような補正が行われるようにすることも可能である。チークの色を反映するとは、利用者がチークを塗っている場合、そのチークの色がより美しく見える明るさ、色に補正することを意味する。また、利用者がチークを塗っていない場合、利用者の頬の色を、上述したように輝度値を基に補正するとともに、輝度値に応じ、頬の血色などがより美しく見えるように、頬の所定の部分に色を付けるなどの補正が行われるようにしても良い。すなわち、利用者がチークを塗っていない場合、チークを塗ったような頬に画像処理がされるようにしても良い。   In addition, as one of the correction contents in step S104, in the case of cheek correction, correction that reflects the color of cheek (blusher) can be performed. Reflecting the color of the cheek means that when the user is applying a cheek, the cheek color is corrected to a brightness and color that makes the cheek color appear more beautiful. In addition, when the user is not cheeked, the cheek color of the user is corrected based on the luminance value as described above, and the cheek's blood color etc. looks more beautiful according to the luminance value. Corrections such as adding a color to a predetermined portion of the image may be performed. That is, when the user does not apply cheeks, image processing may be performed on the cheeks that are applied with cheeks.

頬の場合と同じく、ステップS104における補正内容の1つとして、顎を含む領域342は、口の下側から顎の先端までの所定の形状の領域として設定することができる。そして、顎を含む領域342内の肌に対して、上記した頬の場合と同じく、明るくするなどの補正が行われる。顎の部分を明るくすることで、顎がすっきりとした写りの画像を提供することが可能となる。   As in the case of the cheek, as one of the correction contents in step S104, the region 342 including the chin can be set as a region having a predetermined shape from the lower side of the mouth to the tip of the chin. Then, as in the case of the cheek described above, correction such as brightening is performed on the skin in the region 342 including the jaw. By brightening the chin part, it is possible to provide an image with a clear chin.

なお、顔の輪郭まで、ある程度の精度で検出できるような技術を用いた場合、領域341や領域342の形状は、その一部が輪郭と一致する形状となるようにしても良い。輪郭と一致する形状とすることで、より細かい部分まで補正することが可能となる。   Note that when a technique that can detect the contour of the face with a certain degree of accuracy is used, the shape of the region 341 or the region 342 may be a shape that partially matches the contour. By making the shape coincident with the contour, it is possible to correct even a finer portion.

また領域内を補正することで、領域内と領域外で明るさや色が異なり、その違いが利用者に認識されてしまう可能性がある。よって、領域の境界付近は、明るさや色が徐々に変化し、補正した箇所と補正していない箇所とが区別が付かないように処理されることが好ましく、上記補正には、そのような画像処理も含まれる。   Further, by correcting the inside of the area, there is a possibility that the brightness and color are different between the inside and outside of the area, and the difference is recognized by the user. Therefore, it is preferable to process the vicinity of the boundary of the region so that the brightness and color gradually change so that the corrected portion and the uncorrected portion cannot be distinguished from each other. Processing is also included.

図14には、図示していないが、額、鼻筋、鼻の下などもそれぞれ抽出され、補正されるようにしても良い。額は、眉毛の上側から髪の毛の間の矩形領域を検出し、その領域を額の部分であるとして処理することができる。額の場合、額が明るいと額が目立ちすぎてしまい写りとして好ましくない画像となる可能性がある。よって、額は、少し暗めに補正することで、全体としてより写りのより画像を提供できるようになる。   Although not shown in FIG. 14, forehead, nasal muscles, under the nose, and the like may be extracted and corrected. As for the forehead, a rectangular region between the hairs from the upper side of the eyebrows can be detected, and the region can be processed as a portion of the forehead. In the case of a forehead, if the forehead is bright, the amount of the forehead is too conspicuous, which may result in an undesirable image. Therefore, by correcting the forehead a little darker, it is possible to provide an image with more reflection as a whole.

このように、顔を補正するとき、顔の部位に適した明るさや色合いに補正される。本実施の形態おいては、顔の部位をそれぞれ検出し、それぞれ異なる補正を行うため、このような、顔の部位毎に適した補正を行うことが可能となる。   In this way, when correcting the face, the brightness and color tone suitable for the part of the face are corrected. In the present embodiment, each part of the face is detected and different corrections are performed, so that such correction suitable for each part of the face can be performed.

顔の検出の際、鼻の位置も検出されている場合、鼻筋を検出し、ステップS104における補正内容の1つとして、その鼻筋を補正するようにしても良い。鼻として検出された中央部分を補正する領域に設定し、その領域内の肌の色が明るくなるように補正が行われる。鼻筋を明るくする(ハイライトを入れる)ことで、鼻筋の通った顔となり、写りの良い画像を提供することが可能となる。   When detecting the face, if the position of the nose is also detected, the nose is detected, and the nose may be corrected as one of the correction contents in step S104. The center portion detected as the nose is set as an area to be corrected, and correction is performed so that the skin color in the area becomes brighter. By brightening the nose (with highlights), it is possible to provide a face with a nose and a good image.

また、鼻が検出された場合、鼻と口の間の部分を補正領域として検出し、補正するようにしても良い。鼻と口の間の部分に、例えば、影があると、口髭のように見えてしまう可能性がある。このようなことが無いように、鼻と口の間の部分を明るく補正することで、より写りの良い画像を提供することが可能となる。   When a nose is detected, a portion between the nose and the mouth may be detected as a correction area and corrected. If there is a shadow between the nose and the mouth, for example, it may look like a mustache. It is possible to provide a better image by correcting the portion between the nose and the mouth so as to prevent this from happening.

このような補正は、撮影画像内の人物毎に行われる。すなわち、図13に示した撮影画像の場合、2人が写っているので、顔321に対して補正が行われ、その後、顔322に対して補正が行われる。なお、順次補正が行われるのではなく、顔321と顔322に対する補正が、並行して処理されるようにしても良い。   Such correction is performed for each person in the captured image. That is, in the case of the captured image shown in FIG. 13, since two people are captured, the face 321 is corrected, and then the face 322 is corrected. Note that the correction for the face 321 and the face 322 may be processed in parallel, instead of sequentially performing the correction.

またここでは、人物毎(顔毎)に明るさや色味が補正されるとして説明した。この補正は、個々の顔が、設定輝度値に近い明るさになるような補正である。さらに、画像内の複数の顔の1つを基準の顔とし、その顔との相対で、個々の顔の明るさや色味が補正されるようにしても良い。例えば、画像内から3人の顔が検出された場合、そのうちの1人の顔の色味を基準とし、その基準とされた顔より暗い顔の人は明るく補正し、その基準とされた顔より明るい顔は暗く補正するといった補正が行われるようにしても良い。このような補正が行われることで、画像内の顔の明るさを揃えることができ、画像全体としてもより良い写りの画像を提供することができる。   In addition, here, it has been described that brightness and color are corrected for each person (for each face). This correction is such that each face has a brightness close to the set luminance value. Furthermore, one of a plurality of faces in the image may be used as a reference face, and the brightness and color of each face may be corrected relative to the face. For example, when three faces are detected in the image, the color of one of the faces is used as a reference, and a person whose face is darker than the reference face is corrected to be brighter. Corrections such as correcting a darker face for a brighter face may be performed. By performing such correction, the brightness of the face in the image can be made uniform, and a better image can be provided for the entire image.

また、被写体の性別により設定輝度値が変更されるように構成することも可能である。例えば、撮影時に、ライブビューに性別毎の枠を表示し、その性別毎の枠内に利用者が収まるような撮影を、利用者に行わせることで、利用者の性別が判別されるようにしても良い。性別が判別されるようにした場合、性別毎に設定輝度値が設けられ、その性別毎に設けられた設定輝度値に、それぞれの利用者の画像から算出された平均輝度値が近づくように補正される。   It is also possible to change the set luminance value according to the sex of the subject. For example, when shooting, a frame for each gender is displayed in the live view, and the user's gender is taken so that the user fits within the frame for each gender so that the gender of the user can be determined. May be. When gender is determined, a set luminance value is provided for each gender, and the set luminance value provided for each gender is corrected so that the average luminance value calculated from each user's image approaches. Is done.

または、顔検出の際、性別まで検出するように構成しても良い。性別まで検出するようにした場合、男性の顔画像から抽出された特徴量と女性の顔画像から抽出された特徴量が保持され、その特徴量と、被写体の顔画像から抽出された特徴量とがマッチングされることで性別が判定される。特徴量は、例えば、眉毛、目、鼻、口、耳といった顔を構成するパーツ間の距離や、各パーツの大きさなどから算出される値である。このような特徴量は、複数の男性のサンプル画像と、複数の女性のサンプル画像がそれぞれ処理されることで、男性の場合の特徴量と女性の場合の特徴量とが算出される。   Or you may comprise so that it may detect to sex at the time of face detection. When the gender is detected, the feature amount extracted from the male face image and the feature amount extracted from the female face image are retained, and the feature amount and the feature amount extracted from the subject face image The gender is determined by matching. The feature amount is a value calculated from, for example, the distance between parts constituting the face such as eyebrows, eyes, nose, mouth, and ears, and the size of each part. Such a feature amount is calculated by processing a plurality of male sample images and a plurality of female sample images, respectively, so that a feature amount for men and a feature amount for women are calculated.

このような特徴量を用いたマッチング処理を行うことで、性別を検出し、性別毎に設けられた設定輝度値に、それぞれの利用者の画像から算出された平均輝度値が近づくように補正されるようにしても良い。   By performing matching processing using such feature amounts, gender is detected, and correction is made so that the average luminance value calculated from each user's image approaches the set luminance value provided for each gender. You may make it.

また、サンプル画像を、年齢(年齢層)別にして、それぞれの年齢毎に特徴量を算出するようにすれば、同じように、特徴量のマッチングにより、年齢を判定することができる。よって、年齢別に設定輝度値を設け、利用者の年齢に合った補正が行われるようにすることも可能である。   Further, if the sample images are classified by age (age group) and the feature amount is calculated for each age, the age can be determined by matching the feature amounts in the same manner. Therefore, it is possible to provide a set luminance value for each age so that correction according to the age of the user is performed.

以上のように、人物毎に適した色や明るさなどに補正することに加え、目や口の位置や形をステップS104における補正内容の1つとして補正するようにしても良い。目を補正する場合、目全体を拡大したり、目尻や目頭の位置を調整したり、黒目の部分を拡大したりする補正が行われる。このような目の補正が行われることで、自然な笑顔の優しい雰囲気の写りの画像を提供することができる。   As described above, in addition to correcting the color and brightness suitable for each person, the position and shape of the eyes and mouth may be corrected as one of the correction contents in step S104. When correcting the eyes, correction is performed to enlarge the entire eye, adjust the positions of the corners of the eyes and the eyes, and enlarge the black eye portion. By performing such eye correction, it is possible to provide an image of a natural smile with a gentle atmosphere.

また口の位置を補正する場合、笑顔になるように口や口角の位置が補正される。笑顔になるように行われる補正としては、口は口角の位置を上に移動させるなどの補正がある。また唇の厚さも補正されるようにしても良い。また唇に赤みを付けるなど色の補正も行われるようにしても良い。このように口や口角の位置を補正することで、自然な笑顔の優しい雰囲気の写りの画像を提供することができる。   When correcting the position of the mouth, the positions of the mouth and the mouth corner are corrected so as to make a smile. As correction performed so as to make a smile, there is correction such as moving the mouth corner position upward. Also, the thickness of the lips may be corrected. Further, color correction such as redness on the lips may be performed. In this way, by correcting the positions of the mouth and the corner of the mouth, it is possible to provide an image of a natural smile with a gentle atmosphere.

このような目や口の補正も行うことで、より写りのより画像を利用者に提供することができ、利用者の満足度を高めることが可能となる。   By performing such eye and mouth correction as well, it is possible to provide the user with a more realistic image and to increase the satisfaction of the user.

このような抽出や補正は撮影人数が1人のときにも、ステップS106、ステップS107の処理として行われるため、仮に1人で撮影したとしても、写りのより画像を利用者に提供することができ、利用者の満足度を高めることが可能となる。   Such extraction and correction are performed as processing in steps S106 and S107 even when the number of photographers is one. Therefore, even if one person shoots, an image can be provided to the user based on the image. It is possible to increase the user satisfaction.

図11のフローチャートを参照して説明したように、ステップS52において合成用画像の選択が行われ、その後のステップS53において画像処理が行われることで、編集以降には、画像処理後の画像が表示されるようにすることができる。よって、利用者に画像処理が行われたことを意識させることなく、写真シール作成装置1における編集(落書き)などの行為を楽しませることができる。   As described with reference to the flowchart of FIG. 11, a composite image is selected in step S52, and image processing is performed in subsequent step S53. Can be done. Therefore, it is possible to entertain an action such as editing (graffiti) in the photo sticker creating apparatus 1 without making the user aware of the fact that image processing has been performed.

合成用画像の選択が行われた後に、上述した色味、明度、位置調整といった補正を行う画像処理が行われる場合、選択された合成用画像を考慮した色味、明度、位置調整といった補正が行われるようにしても良い。例えば、選択された合成用画像が、比較的明るい色の画像であった場合、その明るさに適した色味や明度に、各顔が補正されるようにしても良い。   When the image processing for correcting the color, brightness, and position adjustment described above is performed after the synthesis image is selected, correction such as color, brightness, and position adjustment in consideration of the selected image for synthesis is performed. It may be performed. For example, if the selected composition image is a relatively bright image, each face may be corrected to a color and brightness suitable for the brightness.

このように、撮影された撮影画像内の人物毎に、頬などの顔の所定の領域が抽出され、色味や明度の補正が行われ、人物毎に顔のパーツの位置調整などの補正が行われる。よって人物毎に適した補正を施すことが可能となり、人物毎に最適な写りとなっている画像を利用者に提供することができる。また、表情が豊かで立体感のあるより良い写りの画像を提供することが可能となる。   In this way, for each person in the captured image, a predetermined area of the face such as the cheek is extracted, color and lightness correction is performed, and correction such as position adjustment of the facial parts is performed for each person. Done. Therefore, correction suitable for each person can be performed, and an image that is optimal for each person can be provided to the user. In addition, it is possible to provide a better image with a rich expression and a three-dimensional appearance.

なお、撮影時のライブビューや撮影結果である画像の全てに画像処理を施すことで、撮影時からより良い写りの画像を提供でき、利用者がいずれの画像を編集対象画像として選択しても、より良い写りの画像を提供することができる。また、編集対象画像の選択後に、編集対象画像として選択された画像に対して画像処理を施すと、利用者が気に入った画像、かつ、編集したい画像にのみ画像処理を施すことができるようになり、利用者の意図する撮影画像に対して、より良い写りの撮影画像を提供することができる。   By applying image processing to all images that are live view and shooting results at the time of shooting, a better image can be provided from the time of shooting, and any image can be selected as the image to be edited by the user. It is possible to provide a better image. In addition, if image processing is performed on an image selected as an image to be edited after selection of the image to be edited, image processing can be performed only on an image that the user likes and wants to edit. Therefore, it is possible to provide a better captured image with respect to the captured image intended by the user.

また上記した補正の仕方では、領域や器官ごとに目的に応じた補正をする規則、例えば、上述のように笑顔にする補正規則があり、その規則に応じて補正される。このような補正に関する規則は、別途管理され、規則内容の追加や削除が可能に構成することも可能である。例えば、笑顔にする補正規則の他に、悲しい顔にする補正規則や、怒っている顔に補正規則などを追加、削除しても良い。   In the correction method described above, there is a rule for correcting according to the purpose for each region or organ, for example, a correction rule for making a smile as described above, and correction is performed according to the rule. Such correction rules can be separately managed, and can be configured such that rule contents can be added or deleted. For example, in addition to the correction rule for smiling, a correction rule for making a sad face or a correction rule for an angry face may be added or deleted.

なお、上述した実施の形態においては顔を検出し、顔を補正するとしたが、顔以外の部分も検出するようにし、顔以外の部分も補正するようにしても良い。例えば、服の部分を検出し、その服の色にあった補正、例えば柄物の服であった場合、その柄が綺麗に写るような色味に補正されるようにしても良い。   In the embodiment described above, the face is detected and the face is corrected. However, a part other than the face may be detected, and a part other than the face may be corrected. For example, a portion of clothes may be detected, and correction according to the color of the clothes, for example, if the clothes are patterned, may be corrected to a color that makes the pattern appear beautiful.

[記録媒体について]
上述した一連の処理は、ハードウェアにより実行させることもできるし、ソフトウェアにより実行させることもできる。上述した一連の処理をソフトウェアにより実行させる場合には、そのソフウェアを構成するプログラムが、ネットワークや記録媒体からインストールされる。
[About recording media]
The series of processes described above can be executed by hardware or can be executed by software. When the above-described series of processing is executed by software, a program constituting the software is installed from a network or a recording medium.

この記録媒体は、例えば、図8に示されるように、装置本体とは別に、写真シール作成装置1の管理者にプログラムを配信するために配布される、プログラムが記録されている磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROMおよびDVDを含む)、光磁気ディスク(MDを含む)、もしくは半導体メモリなどよりなるリムーバブルメディア205により構成されるだけでなく、装置本体に予め組み込まれた状態で管理者に配信される、プログラムが記録されているROM206や、記憶部202に含まれるハードディスクなどで構成される。   For example, as shown in FIG. 8, the recording medium is distributed to distribute the program to the administrator of the photo sticker creating apparatus 1 separately from the apparatus main body, and is a magnetic disk (flexible disk) on which the program is recorded. Disk), optical disk (including CD-ROM and DVD), magneto-optical disk (including MD), or removable media 205 made of semiconductor memory, etc., but also pre-installed in the main unit The ROM 206 that stores the program and the hard disk included in the storage unit 202 are distributed to the administrator.

なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。   In the present specification, the step of describing the program recorded on the recording medium is not limited to the processing performed in chronological order according to the described order, but is not necessarily performed in chronological order. It also includes processes that are executed individually.

また、本明細書において、システムとは、複数の装置により構成される装置全体を表すものである。   Further, in this specification, the system represents the entire apparatus constituted by a plurality of apparatuses.

なお、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。   The embodiments of the present technology are not limited to the above-described embodiments, and various modifications can be made without departing from the gist of the present technology.

1 写真シール作成装置, 11 撮影ユニット, 12 編集部, 201 制御部, 202 記憶部, 282 撮影処理部, 283 編集処理部, 284 印刷処理部, 285 事後接客処理部   DESCRIPTION OF SYMBOLS 1 Photo sticker production apparatus, 11 Image pick-up unit, 12 Editing part, 201 Control part, 202 Storage part, 282 Image pick-up processing part, 283 Edit processing part, 284 Print processing part, 285 Subsequent customer service part

Claims (7)

被写体を撮影した撮影画像を取得し、前記撮影画像から、前記被写体の人数を検出する検出部と、
前記検出部により2以上の被写体が検出された場合、検出された前記被写体毎に画像処理を行う処理部と
を備え、
前記処理部は、
前記撮影画像から、複数の被写体毎の所定の顔領域を抽出する抽出部と、
前記抽出部により抽出された複数の所定の顔領域毎に、領域内の色または明るさの少なくともいずれかの色味が、前記所定の顔領域毎に設定されている色味になるように補正する補正部と
を備える画像処理装置。
A detection unit that acquires a captured image of a subject and detects the number of subjects from the captured image;
A processing unit that performs image processing for each detected subject when two or more subjects are detected by the detection unit;
The processor is
An extraction unit for extracting a predetermined face area for each of a plurality of subjects from the captured image;
For each of a plurality of predetermined face areas extracted by the extraction unit, correction is performed so that at least one of the colors or brightness in the area becomes a color set for each of the predetermined face areas. An image processing apparatus comprising:
前記抽出部は、前記所定の顔領域として、目、鼻、口の領域を除いた、額、頬、および顎の領域のうちのいずれかを含む領域を抽出する
請求項1に記載の画像処理装置。
The image processing according to claim 1, wherein the extraction unit extracts an area including any of a forehead, a cheek, and a chin area excluding an eye, nose, and mouth area as the predetermined face area. apparatus.
前記補正部は、抽出された前記顔領域内の輝度値の平均値を算出し、その平均値が、前記設定されている色味に関する輝度値に近い値となるように、前記顔領域内の色味を補正する
請求項1または2に記載の画像処理装置。
The correction unit calculates an average value of the luminance values in the extracted face area, and the average value in the face area is set to a value close to the luminance value related to the set color. The image processing apparatus according to claim 1, wherein the color is corrected.
前記抽出部は、前記撮影画像から、前記所定の顔領域として目、鼻、口の領域のうちの少なくとも1つの領域を抽出し、
前記補正部は、抽出された前記目、鼻、口の領域の少なくとも1つに対して、色、位置、大きさのうちの少なくとも1つをさらに補正する
請求項1乃至3のいずれかに記載の画像処理装置。
The extraction unit extracts at least one of eye, nose, and mouth regions as the predetermined face region from the captured image,
The correction unit further corrects at least one of a color, a position, and a size with respect to at least one of the extracted eye, nose, and mouth regions. Image processing apparatus.
利用者を前記被写体とする撮影作業を行わせる撮影部と、
前記撮影作業により得られた前記利用者の画像に対して編集情報を入力する編集作業を行わせる編集部と、
得られた編集済みの前記利用者の画像を所定のシール紙に印刷し、印刷された前記シール紙を排出し、写真シールとして前記利用者に提供する出力部と
をさらに備え、
前記検出部は、前記撮影部の撮影作業により得られた前記利用者の画像を前記撮影画像として取得し、
前記処理部により処理された前記撮影画像が、前記編集部による編集作業の対象となる画像とされる
請求項1乃至4のいずれかに記載の画像処理装置。
A shooting unit for performing a shooting operation with the user as the subject;
An editing unit for performing editing work for inputting editing information on the image of the user obtained by the shooting work;
An output unit for printing the obtained image of the edited user on a predetermined sticker sheet, discharging the printed sticker sheet, and providing the user as a photo sticker;
The detection unit acquires the image of the user obtained by the shooting operation of the shooting unit as the shot image,
The image processing apparatus according to claim 1, wherein the captured image processed by the processing unit is an image to be edited by the editing unit.
被写体を撮影した撮影画像を取得し、前記撮影画像から、前記被写体の人数を検出し、
2以上の被写体が検出された場合、検出された前記被写体毎に画像処理を行う
ステップを含み、
前記画像処理を行うステップは、
前記撮影画像から、複数の被写体毎の所定の顔領域を抽出し、
抽出された複数の所定の顔領域毎に、領域内の色または明るさの少なくともいずれかの色味が、前記所定の顔領域毎に設定されている色味になるように補正する
ステップを含む画像処理方法。
Obtain a photographed image of the subject, detect the number of subjects from the photographed image,
A step of performing image processing for each detected subject when two or more subjects are detected;
The step of performing the image processing includes:
Extracting a predetermined face area for each of a plurality of subjects from the captured image,
Correcting for each of a plurality of extracted predetermined face areas so that at least one of the colors or brightness in the area becomes a color set for each of the predetermined face areas Image processing method.
被写体を撮影した撮影画像を取得し、前記撮影画像から、前記被写体の人数を検出し、
2以上の被写体が検出された場合、検出された前記被写体毎に画像処理を行う
ステップを含み、
前記画像処理を行うステップは、
前記撮影画像から、複数の被写体毎の所定の顔領域を抽出し、
抽出された複数の所定の顔領域毎に、領域内の色または明るさの少なくともいずれかの色味が、前記所定の顔領域毎に設定されている色味になるように補正する
ステップを含む処理をコンピュータに実行させるためのプログラム。
Obtain a photographed image of the subject, detect the number of subjects from the photographed image,
A step of performing image processing for each detected subject when two or more subjects are detected;
The step of performing the image processing includes:
Extracting a predetermined face area for each of a plurality of subjects from the captured image,
Correcting for each of a plurality of extracted predetermined face areas so that at least one of the colors or brightness in the area becomes a color set for each of the predetermined face areas A program that causes a computer to execute processing.
JP2011288018A 2011-12-28 2011-12-28 Image processing apparatus, image processing method, and program Active JP5748651B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011288018A JP5748651B2 (en) 2011-12-28 2011-12-28 Image processing apparatus, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011288018A JP5748651B2 (en) 2011-12-28 2011-12-28 Image processing apparatus, image processing method, and program

Publications (2)

Publication Number Publication Date
JP2013137406A true JP2013137406A (en) 2013-07-11
JP5748651B2 JP5748651B2 (en) 2015-07-15

Family

ID=48913191

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011288018A Active JP5748651B2 (en) 2011-12-28 2011-12-28 Image processing apparatus, image processing method, and program

Country Status (1)

Country Link
JP (1) JP5748651B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015180016A (en) * 2014-03-20 2015-10-08 フリュー株式会社 Management server, photographic seal creation device, image management system, image management method, image transmission method, program, and recording medium
JP2016118812A (en) * 2014-12-15 2016-06-30 フリュー株式会社 Image processing apparatus and image processing method
JP2016148933A (en) * 2015-02-10 2016-08-18 キヤノン株式会社 Image processing system and image processing method
JP2020086532A (en) * 2018-11-15 2020-06-04 フリュー株式会社 Imaging apparatus, control method of imaging apparatus, and program
JP2020188507A (en) * 2020-08-04 2020-11-19 辰巳電子工業株式会社 Game image capturing system and image processing system
WO2021111736A1 (en) * 2019-12-06 2021-06-10 パナソニックIpマネジメント株式会社 Photography method and photography device

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006228036A (en) * 2005-02-18 2006-08-31 Hitachi Software Eng Co Ltd Photograph seal creating device and its image processing method
JP2007188126A (en) * 2006-01-11 2007-07-26 Fujifilm Corp Image brightness calculation device, method, and program
JP2010211497A (en) * 2009-03-10 2010-09-24 Nikon Corp Digital camera and image processing program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006228036A (en) * 2005-02-18 2006-08-31 Hitachi Software Eng Co Ltd Photograph seal creating device and its image processing method
JP2007188126A (en) * 2006-01-11 2007-07-26 Fujifilm Corp Image brightness calculation device, method, and program
JP2010211497A (en) * 2009-03-10 2010-09-24 Nikon Corp Digital camera and image processing program

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015180016A (en) * 2014-03-20 2015-10-08 フリュー株式会社 Management server, photographic seal creation device, image management system, image management method, image transmission method, program, and recording medium
JP2016118812A (en) * 2014-12-15 2016-06-30 フリュー株式会社 Image processing apparatus and image processing method
JP2016148933A (en) * 2015-02-10 2016-08-18 キヤノン株式会社 Image processing system and image processing method
JP2020086532A (en) * 2018-11-15 2020-06-04 フリュー株式会社 Imaging apparatus, control method of imaging apparatus, and program
JP7260737B2 (en) 2018-11-15 2023-04-19 フリュー株式会社 Image capturing device, control method for image capturing device, and program
WO2021111736A1 (en) * 2019-12-06 2021-06-10 パナソニックIpマネジメント株式会社 Photography method and photography device
JPWO2021111736A1 (en) * 2019-12-06 2021-06-10
JP7241293B2 (en) 2019-12-06 2023-03-17 パナソニックIpマネジメント株式会社 Shooting method and shooting device
JP2020188507A (en) * 2020-08-04 2020-11-19 辰巳電子工業株式会社 Game image capturing system and image processing system

Also Published As

Publication number Publication date
JP5748651B2 (en) 2015-07-15

Similar Documents

Publication Publication Date Title
JP5748651B2 (en) Image processing apparatus, image processing method, and program
JP5582171B2 (en) Image processing apparatus and method, and program
JP2019013013A (en) Photo sticker generation apparatus, photo sticker generation method, and program
JP5472767B2 (en) Image processing apparatus and image processing method
JP2017121044A (en) Photo seal producing apparatus and image processing method
JP5541545B1 (en) Photo sticker creation apparatus and method, and program
JP5825542B1 (en) Photo sticker creation apparatus and display method
JP6213791B2 (en) Image processing apparatus and image processing method
JP6262643B2 (en) Image processing apparatus and image processing method
JP7140962B2 (en) Image processing device, control method, and program
JP6201397B2 (en) Photo sticker creation apparatus and method, and program
JP6646202B2 (en) Photo sticker making device and display method
JP2021043797A (en) Image processing device, image processing method, and image processing program
JP7339515B2 (en) Image processing device, image processing method, and program
JP5924544B2 (en) Image processing apparatus, image processing method, and program
JP5545507B2 (en) Image processing apparatus, image processing method, and program
JP2018106678A (en) Sticker making game machine and image processing method
JP6414276B2 (en) Photo sticker creation apparatus and method, and program
JP7121256B2 (en) PHOTO-CREATION GAME MACHINE, IMAGE PROCESSING METHOD, AND PROGRAM
JP5975190B1 (en) Image processing apparatus and image processing method
JP5578381B1 (en) Photo sticker creation apparatus and method, and program
JP6982230B2 (en) Photographing game console and image processing method
JP6041024B1 (en) Photo sticker creation apparatus and display method
JP5382255B1 (en) Image processing apparatus, image processing method, and program
JP2021039654A (en) Image processing device, image processing method, and program

Legal Events

Date Code Title Description
A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20130726

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20130830

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130903

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131029

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20140114

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140409

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20140421

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20140516

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150512

R150 Certificate of patent or registration of utility model

Ref document number: 5748651

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250