JP2017121044A - Photo seal producing apparatus and image processing method - Google Patents

Photo seal producing apparatus and image processing method Download PDF

Info

Publication number
JP2017121044A
JP2017121044A JP2016239068A JP2016239068A JP2017121044A JP 2017121044 A JP2017121044 A JP 2017121044A JP 2016239068 A JP2016239068 A JP 2016239068A JP 2016239068 A JP2016239068 A JP 2016239068A JP 2017121044 A JP2017121044 A JP 2017121044A
Authority
JP
Japan
Prior art keywords
image
face
editing
user
person
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016239068A
Other languages
Japanese (ja)
Other versions
JP6829380B2 (en
Inventor
志保 北東
Shiho Hokuto
志保 北東
優希 太治
Yuki Taji
優希 太治
紗綾香 山田
Sayaka Yamada
紗綾香 山田
麻未 筒井
Asami Tsutsui
麻未 筒井
仁志 飛田
Hitoshi Hida
仁志 飛田
貴代 神野
Takayo Jinno
貴代 神野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Furyu Corp
Original Assignee
Furyu Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Furyu Corp filed Critical Furyu Corp
Publication of JP2017121044A publication Critical patent/JP2017121044A/en
Application granted granted Critical
Publication of JP6829380B2 publication Critical patent/JP6829380B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Cameras Adapted For Combination With Other Photographic Or Optical Apparatuses (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image with a sense of depth.SOLUTION: A face detection unit detects a face of a person in a photographed image generated by photographing a user as a subject. A parameter adjustment unit adjusts parameters of image processing to be performed on the photographed image on the basis of the size of the face detected by the face detection unit. An image processing unit applies the image processing with the parameters adjusted by the parameter adjustment unit to an area other than a person of the photographed image. The present technology can be applied to, for example, a photo seal producing apparatus.SELECTED DRAWING: Figure 17

Description

本技術は、写真シール作成装置および画像処理方法に関し、特に、奥行き感のある画像を提供することができるようにする写真シール作成装置および画像処理方法に関する。   The present technology relates to a photographic sticker creating apparatus and an image processing method, and more particularly, to a photographic sticker creating apparatus and an image processing method capable of providing an image having a sense of depth.

従来、アミューズメント施設等に設置される写真シール機が知られている。写真シール機は、利用者を撮影し、利用者の操作に応じて撮影画像に対して編集を施す。写真シール機は、編集が施された撮影画像をシール紙に印刷する。   Conventionally, a photo sticker installed in an amusement facility or the like is known. The photo sticker machine photographs a user and edits the photographed image according to the user's operation. The photo sticker prints the edited photographed image on sticker paper.

近年、写真シール機においては、より良い仕上がりの画像を提供するために、画像に対して様々な画像処理が施される。例えば、特許文献1には、被写体の肌の部分を自動で認識し、認識された肌の部分における肌荒れ部分をぼかす処理を行う写真シール作成装置が記載されている。   In recent years, in a photo sticker, various image processing is performed on an image in order to provide a better finished image. For example, Patent Document 1 describes a photo sticker creating apparatus that automatically recognizes a skin portion of a subject and performs a process of blurring a rough skin portion in the recognized skin portion.

一方、カメラの分野において、例えば特許文献2には、画像が拡大された際に、被写体の肌のあらが目立つことを避けるために、所定の拡大率以上になった場合に画像をぼかすことで、被写体の肌のあらが目立たないようにすることが記載されている。   On the other hand, in the field of cameras, for example, Patent Document 2 discloses that when an image is enlarged, the image is blurred when a predetermined enlargement ratio is exceeded in order to prevent the skin of the subject from being noticeable. It is described that the skin of the subject is not noticeable.

また、特許文献3には、撮影画像から顔を検出し、検出された顔の位置や大きさ、向きに応じて絞りを調整することにより被写界深度を制御することが記載されている。これにより、撮影者は、その意図に沿った撮影を行うことができる。   Patent Document 3 describes that a face is detected from a captured image, and the depth of field is controlled by adjusting a diaphragm according to the position, size, and orientation of the detected face. Thereby, the photographer can perform photographing according to the intention.

特開2006−228036号公報JP 2006-228036 A 特開2009−169036号公報JP 2009-169036 A 特許第4916355号公報Japanese Patent No. 4916355

ところで、撮影画像において被写体の背景をぼかすことで、その撮影画像に奥行き感をもたせることができる。これは、特許文献3の技術を用いて、被写体にピントを合わせ、背景をぼかすよう、被写界深度を浅くすることで実現される。   By the way, by blurring the background of the subject in the photographed image, the sensed depth can be given to the photographed image. This is achieved by using the technique of Patent Document 3 to reduce the depth of field so that the subject is in focus and the background is blurred.

一方、従来の写真シール機においては、被写体となる利用者が撮影空間内のどこに立ってもピントが合うよう、被写界深度が深く設定されている。そのため、従来の写真シール機においては、被写体だけでなく、背景にもピントが合ってしまっていた。   On the other hand, in a conventional photo sticker, the depth of field is set deep so that a user who is a subject is in focus anywhere in the shooting space. For this reason, conventional photo stickers focus on the background as well as the subject.

その結果、従来の写真シール機においては、背景の中に人物が埋没したような平面的な画像が得られることになる。   As a result, in a conventional photo sticker, a flat image in which a person is buried in the background can be obtained.

本技術は、このような状況に鑑みてなされたものであり、奥行き感のある画像を提供することができるようにするものである。   The present technology has been made in view of such a situation, and makes it possible to provide an image with a sense of depth.

本技術の一側面の写真シール作成装置は、利用者を被写体として撮影することで撮影画像を生成する撮影処理部と、前記撮影画像において人物の顔を検出する顔検出部と、検出された前記顔の大きさに基づいて、前記撮影画像に施される画像処理のパラメータを調整するパラメータ調整部と、調整された前記パラメータでの前記画像処理を、前記撮影画像の前記人物以外の領域に施す画像処理部とを備える。   A photo sticker creating apparatus according to an aspect of the present technology includes a shooting processing unit that generates a shot image by shooting a user as a subject, a face detection unit that detects a human face in the shot image, and the detected Based on the size of the face, a parameter adjustment unit that adjusts parameters of image processing to be performed on the captured image, and the image processing with the adjusted parameters is performed on an area other than the person in the captured image An image processing unit.

本技術の一側面の画像処理方法は、利用者を被写体として撮影することで撮影画像を生成し、前記撮影画像において人物の顔を検出し、検出された前記顔の大きさに基づいて、前記撮影画像に施される画像処理のパラメータを調整し、調整された前記パラメータでの前記画像処理を、前記撮影画像の前記人物以外の領域に施すステップを含む。   An image processing method according to one aspect of the present technology generates a captured image by capturing a user as a subject, detects a human face in the captured image, and based on the detected size of the face, Adjusting a parameter of image processing applied to the photographed image, and performing the image processing with the adjusted parameter on a region other than the person of the photographed image.

本技術の一側面においては、利用者を被写体として撮影することで撮影画像が生成され、撮影画像において人物の顔が検出され、検出された顔の大きさに基づいて、撮影画像に施される画像処理のパラメータが調整され、調整されたパラメータでの画像処理が、撮影画像の人物以外の領域に施される。   In one aspect of the present technology, a photographed image is generated by photographing a user as a subject, a human face is detected in the photographed image, and the photographed image is applied based on the detected face size. Image processing parameters are adjusted, and image processing with the adjusted parameters is performed on areas other than the person in the captured image.

本技術によれば、奥行き感のある画像を提供することが可能となる。   According to the present technology, it is possible to provide an image with a sense of depth.

本技術の写真シール作成装置の外観の構成例を示す斜視図である。It is a perspective view which shows the structural example of the external appearance of the photo sticker production apparatus of this technique. 利用者の移動について説明する図である。It is a figure explaining a user's movement. 撮影部の構成例を示す斜視図である。It is a perspective view which shows the structural example of an imaging | photography part. 撮影部の構成例を示す正面図である。It is a front view which shows the structural example of an imaging | photography part. 背景部の構成例を示す図である。It is a figure which shows the structural example of a background part. 編集ユニットの構成例を示す図である。It is a figure which shows the structural example of an edit unit. 編集ユニットの右側面の構成例を示す図である。It is a figure which shows the structural example of the right side surface of an edit unit. シール紙の例を示す図である。It is a figure which shows the example of a sticker paper. 編集画像のレイヤ構造の例を示す図である。It is a figure which shows the example of the layer structure of an edit image. 写真シール作成装置の内部の構成例を示すブロック図である。It is a block diagram which shows the example of an internal structure of a photograph sticker production apparatus. 図10の制御部の機能構成例を示すブロック図である。It is a block diagram which shows the function structural example of the control part of FIG. 図11の編集処理部の構成例を示すブロック図である。It is a block diagram which shows the structural example of the edit process part of FIG. 写真シール作成ゲーム処理について説明するフローチャートである。It is a flowchart explaining a photograph sticker creation game process. 編集処理について説明するフローチャートである。It is a flowchart explaining an edit process. 編集画面の例を示す図である。It is a figure which shows the example of an edit screen. ぼかし処理について説明するフローチャートである。It is a flowchart explaining a blurring process. 顔の大きさと背景のぼかし量について説明する図である。It is a figure explaining the size of a face, and the blurring amount of a background. 顔の大きさと前景のぼかし量について説明する図である。It is a figure explaining the size of a face, and the blurring amount of a foreground. 顔の大きさと背景の明るさについて説明する図である。It is a figure explaining the size of a face, and the brightness of a background. 顔の大きさと合成用画像の大きさについて説明する図である。It is a figure explaining the size of the face and the size of the image for composition. 撮影画像上の位置とぼかし量について説明する図である。It is a figure explaining the position on a picked-up image, and the blurring amount. 編集画面の他の例を示す図である。It is a figure which shows the other example of an edit screen. 編集画面のさらに他の例を示す図である。It is a figure which shows the further another example of an edit screen. 編集画面のさらに他の例を示す図である。It is a figure which shows the further another example of an edit screen. テクスチャ変更処理について説明するフローチャートである。It is a flowchart explaining a texture change process. テクスチャの変更の流れを示す図である。It is a figure which shows the flow of a change of a texture.

<写真シール作成装置の外観構成>
図1は、写真シール作成装置1の外観の構成例を示す斜視図である。
<External structure of photo sticker creation device>
FIG. 1 is a perspective view showing a configuration example of the appearance of the photographic sticker creating apparatus 1.

写真シール作成装置1は、撮影画像や編集済みの画像を提供するゲーム機である。写真シール作成装置1は、画像をシール紙に印刷したり、利用者の携帯端末上で画像を閲覧可能にするためにその画像をサーバに送信したりすることで、利用者に画像を提供する。   The photo sticker creating apparatus 1 is a game machine that provides a photographed image or an edited image. The photo sticker creating apparatus 1 provides an image to the user by printing the image on a sticker sheet or transmitting the image to a server so that the image can be viewed on the user's mobile terminal. .

写真シール作成装置1は、アミューズメント施設や店舗に設置される。写真シール作成装置1の利用者は、主に女子高校生や女子大学生などの若い女性が中心とされる。写真シール作成装置1において、1組あたり主に2人や3人などの複数人の利用者がゲームを楽しむことができる。もちろん、1人の利用者がゲームを楽しむこともできる。   The photo sticker creating apparatus 1 is installed in an amusement facility or store. The users of the photo sticker creating apparatus 1 are mainly young women such as high school girls and female university students. In the photo sticker creating apparatus 1, a plurality of users such as two or three people can mainly enjoy the game per group. Of course, one user can enjoy the game.

写真シール作成装置1において、利用者は、自身が被写体となって撮影作業を行う。利用者は、編集作業を行うことによって、撮影によって得られた撮影画像に対して、背景画像や前景画像(手書きの文字やスタンプ画像など)である合成用画像を合成させる。これにより、撮影画像が彩り豊かな画像に編集される。利用者は、編集済みの画像である編集画像が印刷されたシール紙を受け取って一連のゲームを終了させる。   In the photo sticker creating apparatus 1, the user performs photographing work with himself / herself as a subject. The user performs an editing operation to synthesize a synthesis image that is a background image or a foreground image (such as a handwritten character or a stamp image) with a photographed image obtained by photographing. As a result, the captured image is edited into a rich image. The user receives a sticker sheet on which an edited image that is an edited image is printed, and ends a series of games.

写真シール作成装置1は、撮影ユニット11と編集ユニット12が接した状態で設置されることによって構成される。撮影ユニット11と編集ユニット12は電気的に接続される。撮影ユニット11は、人が中に入ることができる程度の大きさを有する箱形状の筐体を有する。   The photo sticker creating apparatus 1 is configured by being installed in a state where the photographing unit 11 and the editing unit 12 are in contact with each other. The photographing unit 11 and the editing unit 12 are electrically connected. The photographing unit 11 has a box-shaped housing having a size that allows a person to enter inside.

撮影ユニット11は、撮影部21と背景部22から構成される。撮影部21と背景部22は離して設置される。撮影部21と背景部22の間に設けられる空間が、利用者が撮影作業を行う撮影空間となる。   The photographing unit 11 includes a photographing unit 21 and a background unit 22. The imaging unit 21 and the background unit 22 are installed separately. A space provided between the imaging unit 21 and the background unit 22 is an imaging space in which a user performs an imaging operation.

撮影部21は、利用者を被写体として撮影する装置である。撮影空間に臨む撮影部21の正面にはカメラなどが設けられる。撮影部21の、編集ユニット12と接する面には正面パネル41が設けられる。撮影空間にいる利用者から見て右側の面を右側面、左側の面を左側面とすると、撮影部21の右側面が側面パネル42Aにより構成され、左側面が側面パネル42B(図2)により構成される。   The photographing unit 21 is a device that photographs a user as a subject. A camera or the like is provided in front of the photographing unit 21 facing the photographing space. A front panel 41 is provided on the surface of the imaging unit 21 that contacts the editing unit 12. When the right side when viewed from the user in the imaging space is the right side and the left side is the left side, the right side of the imaging unit 21 is constituted by the side panel 42A, and the left side is constituted by the side panel 42B (FIG. 2). Composed.

背景部22は、それぞれ板状の部材である背面パネル51、側面パネル52A、および側面パネル52B(図2)から構成される。背面パネル51は、正面を向いている利用者の背面側に位置する。側面パネル52Aは、背面パネル51の右端に取り付けられ、側面パネル52Bは、背面パネル51の左端に取り付けられる。   The background portion 22 includes a back panel 51, a side panel 52A, and a side panel 52B (FIG. 2), which are plate-like members. The back panel 51 is located on the back side of the user facing the front. The side panel 52A is attached to the right end of the back panel 51, and the side panel 52B is attached to the left end of the back panel 51.

側面パネル42Aと側面パネル52Aは、所定の間隔をあけてほぼ同一平面に設けられる。側面パネル42Aと側面パネル52Aの上部は、板状の部材である連結部31Aによって連結される。また、側面パネル42Aと側面パネル52Aの下部は、床面に設けられた例えば金属製の部材である連結部34によって連結される。   The side panel 42A and the side panel 52A are provided on substantially the same plane with a predetermined interval. The upper portions of the side panel 42A and the side panel 52A are connected by a connecting portion 31A that is a plate-like member. Further, the lower portions of the side panel 42A and the side panel 52A are connected by a connecting portion 34 that is a metal member provided on the floor surface.

側面パネル42Bと側面パネル52Bも同様にほぼ同一平面に設けられる。側面パネル42Bと側面パネル52Bの上部は連結部31Bによって連結される。側面パネル42Bと側面パネル52Bの下部は、床面に設けられた金属製の部材である連結部(図示せず)によって連結される。   Similarly, the side panel 42B and the side panel 52B are provided on substantially the same plane. The upper portions of the side panel 42B and the side panel 52B are connected by a connecting portion 31B. The lower portions of the side panel 42B and the side panel 52B are connected by a connecting portion (not shown) that is a metal member provided on the floor surface.

側面パネル42A、連結部31A、および側面パネル52Aに囲まれることによって形成される開口が、撮影空間の出入り口となる。また、側面パネル42B、連結部31B、および側面パネル52Bに囲まれることによって形成される開口も、撮影空間の出入り口となる。   An opening formed by being surrounded by the side panel 42A, the connecting portion 31A, and the side panel 52A serves as an entrance / exit of the imaging space. An opening formed by being surrounded by the side panel 42B, the connecting portion 31B, and the side panel 52B also serves as an entrance / exit of the imaging space.

撮影空間の上方には、撮影部21の正面パネル41、連結部31A、連結部31B、および背景部22の背面パネル51に囲まれる開口が形成される。その開口の一部を覆うように天井照明ユニット32が設けられる。天井照明ユニット32の一端は連結部31Aに固定され、他端は連結部31Bに固定される。   An opening surrounded by the front panel 41 of the photographing unit 21, the connecting part 31A, the connecting part 31B, and the back panel 51 of the background part 22 is formed above the photographing space. A ceiling lighting unit 32 is provided so as to cover a part of the opening. One end of the ceiling lighting unit 32 is fixed to the connecting portion 31A, and the other end is fixed to the connecting portion 31B.

天井照明ユニット32の内部には蛍光灯が設けられる。天井照明ユニット32は、撮影空間の照明として機能するとともに、撮影を行っている利用者に対してストロボ光を照射する。   A fluorescent lamp is provided inside the ceiling lighting unit 32. The ceiling lighting unit 32 functions as illumination of the shooting space and irradiates the user who is shooting with strobe light.

編集ユニット12は、撮影画像に編集を施すための装置である。編集ユニット12は、一方の側面が撮影部21の正面パネル41に接するようにして、撮影ユニット11に連結している。   The editing unit 12 is a device for editing a captured image. The editing unit 12 is connected to the photographing unit 11 such that one side surface is in contact with the front panel 41 of the photographing unit 21.

図1に示される編集ユニット12の構成を正面側の構成とすると、編集ユニット12の正面側と背面側のそれぞれに、編集作業で用いられる構成が設けられる。この構成により、2組の利用者が同時に編集を行うことができる。   If the configuration of the editing unit 12 shown in FIG. 1 is a front side configuration, a configuration used for editing work is provided on each of the front side and the back side of the editing unit 12. With this configuration, two sets of users can edit simultaneously.

編集ユニット12の正面側は、床面に対して垂直な面である面12Aと、面12Aの上方に形成された斜面12Bから構成される。斜面12Bには、編集作業に用いられる構成として、タブレット内蔵モニタやタッチペンが設けられる。   The front side of the editing unit 12 includes a surface 12A that is a surface perpendicular to the floor surface, and a slope 12B formed above the surface 12A. The slope 12B is provided with a tablet built-in monitor and a touch pen as a configuration used for editing work.

斜面12Bの上方右側には、照明装置73の一端を支持する柱状の支持部71A(図6)が設けられる。斜面12Bの左側には、照明装置73の他端を支持する柱状の支持部71Bが設けられる。支持部71Aの右側には板状のパネル72が設けられる。パネル72の上面にはカーテンレール75を支持する支持部74が設けられる。   A columnar support 71A (FIG. 6) that supports one end of the lighting device 73 is provided on the upper right side of the slope 12B. A columnar support 71B that supports the other end of the lighting device 73 is provided on the left side of the inclined surface 12B. A plate-like panel 72 is provided on the right side of the support portion 71A. A support portion 74 that supports the curtain rail 75 is provided on the upper surface of the panel 72.

編集ユニット12の上方にはカーテンレール75が取り付けられる。カーテンレール75は、3本のレール75A乃至75Cが組み合わされて構成される。3本のレール75A乃至75Cは、上から見たときの形状がコの字状となるように組み合わされる。平行に設けられるレール75Aとレール75Bの一端は、連結部31Aと連結部31Bにそれぞれ固定され、レール75Aとレール75Bの他端は、レール75Cの両端にそれぞれ接合される。   A curtain rail 75 is attached above the editing unit 12. The curtain rail 75 is configured by combining three rails 75A to 75C. The three rails 75A to 75C are combined so that the shape when viewed from above becomes a U-shape. One end of the rail 75A and the rail 75B provided in parallel is fixed to the connecting portion 31A and the connecting portion 31B, respectively, and the other end of the rail 75A and the rail 75B is joined to both ends of the rail 75C.

カーテンレール75には、編集ユニット12の正面前方の空間と背面前方の空間が外から見えないようにカーテンが取り付けられる。そのカーテンにより囲まれる編集ユニット12の正面前方の空間と背面後方の空間が、利用者が編集作業を行う編集空間となる。   A curtain is attached to the curtain rail 75 so that the space in front of the editing unit 12 and the space in front of the back are not visible from the outside. A space in front of the editing unit 12 surrounded by the curtain and a space in the rear rear of the editing unit 12 are editing spaces in which the user performs editing operations.

後述するように、編集ユニット12の右側面には、印刷済みのシール紙が排出される排出口が設けられる。編集ユニット12の右側面前方の空間が、印刷が終了するのを利用者が待つ印刷待ち空間となる。   As will be described later, the right side surface of the editing unit 12 is provided with a discharge port through which printed sticker paper is discharged. The space in front of the right side surface of the editing unit 12 is a print waiting space where the user waits for the printing to end.

<利用者の移動について>
ここで、写真シール作成ゲームの流れと、それに伴う利用者の移動について説明する。
<About user movement>
Here, the flow of the photo sticker creation game and the accompanying movement of the user will be described.

図2は、写真シール作成装置1を上から見た平面図である。   FIG. 2 is a plan view of the photo sticker creating apparatus 1 as viewed from above.

まず、利用者は、白抜き矢印#1で示されるように出入り口G1から、または白抜き矢印#2で示されるように出入り口G2から、撮影部21と背景部22の間に形成された撮影空間A1に入る。出入り口G1は側面パネル42Aと側面パネル52Aの間の開口であり、出入り口G2は側面パネル42Bと側面パネル52Bの間の開口である。利用者は、撮影空間A1において、撮影部21に設けられたカメラやタッチパネルモニタなどを利用して撮影作業を行う。   First, the user takes a photographing space formed between the photographing part 21 and the background part 22 from the entrance / exit G1 as indicated by the white arrow # 1 or from the entrance / exit G2 as indicated by the white arrow # 2. Enter A1. The doorway G1 is an opening between the side panel 42A and the side panel 52A, and the doorway G2 is an opening between the side panel 42B and the side panel 52B. The user performs a shooting operation using a camera or a touch panel monitor provided in the shooting unit 21 in the shooting space A1.

撮影作業を終えた利用者は、白抜き矢印#3で示されるように出入り口G1から撮影空間A1を出て編集空間A2−1に移動するか、白抜き矢印#4で示されるように出入り口G2から撮影空間A1を出て編集空間A2−2に移動する。   The user who has finished the shooting work exits the shooting space A1 from the doorway G1 as indicated by the white arrow # 3 and moves to the editing space A2-1, or the doorway G2 as indicated by the white arrow # 4. Exits the shooting space A1 and moves to the editing space A2-2.

編集空間A2−1は、編集ユニット12の正面側の編集空間である。一方、編集空間A2−2は、編集ユニット12の背面側の編集空間である。利用者が編集空間A2−1と編集空間A2−2のいずれの空間に移動するのかは、撮影部21のタッチパネルモニタの画面表示などによって案内される。例えば2つの編集空間のうちの空いている方が移動先として案内される。   The editing space A2-1 is an editing space on the front side of the editing unit 12. On the other hand, the editing space A2-2 is an editing space on the back side of the editing unit 12. Whether the user moves to the editing space A2-1 or the editing space A2-2 is guided by the screen display of the touch panel monitor of the photographing unit 21 or the like. For example, the free one of the two editing spaces is guided as the destination.

編集空間A2−1または編集空間A2−2に移動した利用者は、編集作業を開始する。編集空間A2−1の利用者と編集空間A2−2の利用者は同時に編集作業を行うことができる。   The user who has moved to the editing space A2-1 or the editing space A2-2 starts editing work. The user of the editing space A2-1 and the user of the editing space A2-2 can perform editing work at the same time.

編集作業が終了した後、編集画像の印刷が開始される。印刷が開始されると、編集空間A2−1での編集作業を終えた利用者は、白抜き矢印#5で示されるように編集空間A2−1から印刷待ち空間A3に移動する。また、編集空間A2−2での編集作業を終えた利用者は、白抜き矢印#6で示されるように編集空間A2−2から印刷待ち空間A3に移動する。印刷待ち空間A3に移動した利用者は、印刷が終了するのを待つ。   After the editing operation is finished, printing of the edited image is started. When printing is started, the user who has finished the editing work in the editing space A2-1 moves from the editing space A2-1 to the print waiting space A3 as indicated by a white arrow # 5. Further, the user who has finished the editing work in the editing space A2-2 moves from the editing space A2-2 to the print waiting space A3 as indicated by the white arrow # 6. The user who has moved to the print waiting space A3 waits for the printing to end.

印刷が終了すると、利用者は、編集ユニット12の右側面に設けられた排出口から排出されたシール紙を受け取り、一連の写真シール作成ゲームを終える。   When printing is completed, the user receives the sticker paper discharged from the discharge port provided on the right side of the editing unit 12 and finishes a series of photo sticker creation games.

次に、各部の構成について説明する。   Next, the configuration of each unit will be described.

<撮影部の構成>
図3は、撮影部21の構成例を示す斜視図であり、図4は、撮影部21の構成例を示す正面図である。
<Configuration of the shooting unit>
FIG. 3 is a perspective view illustrating a configuration example of the imaging unit 21, and FIG. 4 is a front view illustrating a configuration example of the imaging unit 21.

撮影部21の外枠は、複数のキャスターが取り付けられたベース部43に、正面パネル41、側面パネル42A、および側面パネル42Bが立設して構成される。   The outer frame of the imaging unit 21 is configured by standing a front panel 41, a side panel 42A, and a side panel 42B on a base unit 43 to which a plurality of casters are attached.

正面パネル41の略中央には、略箱形状の撮影・表示ユニット101が設けられる。撮影・表示ユニット101の正面側には、上から順に、前下がりの斜面101A、垂直に対して僅かに前傾した斜面101B、および、斜面101Aより急な斜面101Cが形成される。   A substantially box-shaped photographing / display unit 101 is provided in the approximate center of the front panel 41. On the front side of the photographing / display unit 101, a slope 101A that is forwardly lowered, a slope 101B that is slightly inclined forward with respect to the vertical, and a slope 101C that is steeper than the slope 101A are formed in order from the top.

斜面101Bの略中央には円形の開口部が形成され、開口部には、撮影空間A1にいる利用者を撮影するカメラ111のレンズが設けられる。撮影・表示ユニット101の内部には、例えば一眼レフカメラであるカメラ111がチルト可能に取り付けられている。   A circular opening is formed in the approximate center of the inclined surface 101B, and a lens of the camera 111 that photographs a user in the photographing space A1 is provided in the opening. A camera 111, which is a single-lens reflex camera, for example, is attached to the inside of the photographing / display unit 101 so as to be tiltable.

斜面101Cにはタッチパネルモニタ112が設けられる。タッチパネルモニタ112は、LCD(Liquid Crystal Display)などのモニタと、それに積層されたタッチパネルにより構成される。   A touch panel monitor 112 is provided on the slope 101C. The touch panel monitor 112 includes a monitor such as an LCD (Liquid Crystal Display) and a touch panel laminated thereon.

タッチパネルモニタ112は、カメラ111により取り込まれた動画像(以下、ライブビュー画像ともいう)を表示するライブビューモニタとしての機能と、各種のGUI(Graphical User Interface)を表示して利用者の操作を受け付ける機能とを備える。タッチパネルモニタ112には、カメラ111により取り込まれたライブビュー画像や撮影画像が表示される。撮影画像は、所定のタイミングでカメラ111により取り込まれた静止画像である。   The touch panel monitor 112 displays a moving image (hereinafter also referred to as a live view image) captured by the camera 111, and displays various GUIs (Graphical User Interfaces) for user operations. It has a function to accept. On the touch panel monitor 112, live view images and captured images captured by the camera 111 are displayed. The captured image is a still image captured by the camera 111 at a predetermined timing.

後に詳述するように、利用者は、自身の全身が写る画像である全身画像と、顔部分を中心として、自身の略胸から上の範囲が大きく写る画像であるアップ画像を撮影することができる。   As will be described in detail later, the user can shoot a full-body image that is an image of the entire body of the user and an up image that is an image in which the range above the approximate chest is large with the face portion at the center. it can.

正面パネル41には、撮影・表示ユニット101を挟んで対称に発光部102Lと発光部102Rが形成される。発光部102Lと発光部102Rは、例えば正面パネル41に形成された細幅の溝に、透光性を有するカバーが嵌め込まれることによって構成される。正面パネル41に形成された細幅の溝にはLEDなどの発光体が設けられる。   On the front panel 41, a light emitting portion 102L and a light emitting portion 102R are formed symmetrically with the photographing / display unit 101 in between. The light emitting unit 102L and the light emitting unit 102R are configured, for example, by fitting a light-transmitting cover into a narrow groove formed in the front panel 41. A light emitting body such as an LED is provided in the narrow groove formed in the front panel 41.

図4に示すように、撮影・表示ユニット101の左側の発光部102Lは、細幅の直線状部102L−1乃至102L−3から構成される。直線状部102L−2は、その長さを撮影・表示ユニット101の縦方向の長さと略同じ長さにするように垂直方向に形成される。直線状部102L−1は、直線状部102L−2の上端から右斜め上方に向けて形成され、直線状部102L−3は、直線状部102L−1の下端から右斜め下方に向けて形成される。   As shown in FIG. 4, the left light emitting unit 102L of the photographing / display unit 101 includes narrow linear portions 102L-1 to 102L-3. The linear portion 102L-2 is formed in the vertical direction so that its length is substantially the same as the length in the vertical direction of the photographing / display unit 101. The linear portion 102L-1 is formed obliquely upward and to the right from the upper end of the linear portion 102L-2, and the linear portion 102L-3 is formed obliquely and downward to the right from the lower end of the linear portion 102L-1. Is done.

一方、撮影・表示ユニット101の右側の発光部102Rは、細幅の直線状部102R−1乃至102R−3から構成される。直線状部102R−2は、その長さを撮影・表示ユニット101の縦方向の長さと略同じ長さにするように垂直方向に形成される。直線状部102R−1は、直線状部102R−2の上端から左斜め上方に向けて形成され、直線状部102R−3は、直線状部102R−2の下端から左斜め下方に向けて形成される。   On the other hand, the light emitting unit 102R on the right side of the photographing / display unit 101 includes narrow linear portions 102R-1 to 102R-3. The linear portion 102R-2 is formed in the vertical direction so that its length is substantially the same as the length in the vertical direction of the photographing / display unit 101. The linear portion 102R-1 is formed from the upper end of the linear portion 102R-2 toward the upper left diagonal direction, and the linear portion 102R-3 is formed from the lower end of the linear portion 102R-2 toward the lower left diagonal direction. Is done.

図4に示されるように、発光部102Lと発光部102Rを合わせた形状は略六角形になる。発光部102Lと発光部102Rが発光することにより、撮影空間A1の印象としてシャープな印象を演出することができる。   As shown in FIG. 4, the combined shape of the light emitting part 102L and the light emitting part 102R is a substantially hexagonal shape. By emitting light from the light emitting unit 102L and the light emitting unit 102R, it is possible to produce a sharp impression as an impression of the shooting space A1.

撮影・表示ユニット101の上方には、曲面のカバーを利用者に向けた上ストロボユニット103が設置される。上ストロボユニット103は、所定の取り付け部材を用いて、正面パネル41などに固定される。上ストロボユニット103は、正面上方から、利用者の顔付近にストロボ光を照射する。   Above the photographing / display unit 101, an upper strobe unit 103 with a curved cover facing the user is installed. The upper strobe unit 103 is fixed to the front panel 41 or the like using a predetermined mounting member. The upper strobe unit 103 irradiates strobe light near the user's face from the front upper side.

撮影・表示ユニット101の下方には、カメラ111による撮影に合わせて利用者の下半身にストロボ光を照射する足元ストロボユニット104が設けられる。足元ストロボユニット104の正面は垂直面を形成する板状部材121により構成され、上面は緩やかな斜面を形成する板状部材122により構成される。板状部材121と板状部材122は、乳白色のアクリル板などの透光性を有する板状部材である。   Below the photographing / display unit 101, a foot strobe unit 104 that irradiates the lower body of the user with strobe light in accordance with photographing by the camera 111 is provided. The front surface of the foot strobe unit 104 is constituted by a plate-like member 121 that forms a vertical surface, and the upper surface is constituted by a plate-like member 122 that forms a gentle slope. The plate-like member 121 and the plate-like member 122 are plate-like members having translucency such as milky white acrylic plates.

足元ストロボユニット104の板状部材121の左右には、垂直面を構成する板状部材123Lと板状部材123Rがそれぞれ設けられる。板状部材123Rには、利用者が硬貨を投入する硬貨投入口が設けられる。   On the left and right of the plate-like member 121 of the foot strobe unit 104, a plate-like member 123L and a plate-like member 123R that constitute a vertical surface are provided. The plate-like member 123R is provided with a coin insertion slot through which a user inserts coins.

足元ストロボユニット104の板状部材122の左右には、板状部材122と同様の緩やかな斜面を形成する板状部材124Lと板状部材124Rがそれぞれ設けられる。板状部材124Lと板状部材124Rにより形成される斜面は、利用者が手荷物を置くためなどに用いられる。   On the left and right sides of the plate-like member 122 of the foot strobe unit 104, a plate-like member 124L and a plate-like member 124R that form a gentle slope similar to the plate-like member 122 are provided. The slope formed by the plate-like member 124L and the plate-like member 124R is used for a user to put baggage.

図示はしないが、正面パネル41の例えば天井付近にはスピーカが設けられる。そのスピーカは、撮影作業に関する案内音声、BGM、効果音などを出力する。   Although not illustrated, a speaker is provided near the ceiling of the front panel 41, for example. The speaker outputs guidance voice, BGM, sound effects, etc. regarding the shooting work.

<背景部の構成>
図5は、背景部22の撮影空間A1側の構成例を示す図である。
<Configuration of background part>
FIG. 5 is a diagram illustrating a configuration example of the background portion 22 on the photographing space A1 side.

背面パネル51の上方中央には背面上ストロボ131が設けられる。また、背面パネル51の上方右側(図中、左側)には背面右ストロボ132が設けられ、背面パネル51の上方左側(図中、右側)には背面左ストロボ133が設けられる。   A rear upper strobe 131 is provided at the upper center of the rear panel 51. A rear right strobe 132 is provided on the upper right side (left side in the figure) of the rear panel 51, and a rear left strobe 133 is provided on the upper left side (right side in the figure) of the rear panel 51.

背面上ストロボ131は、後方上側から利用者にストロボ光を照射する。背面右ストロボ132は、後方右側から利用者にストロボ光を照射する。背面左ストロボ133は、後方左側から利用者にストロボ光を照射する。   The rear upper strobe 131 irradiates the user with strobe light from the upper rear side. The rear right strobe 132 irradiates the user with strobe light from the rear right side. The rear left strobe 133 irradiates the user with strobe light from the rear left side.

背面パネル51の撮影空間A1側(図中、手前側)の面は例えば緑色の面となる。また、図示はしないが、側面パネル52A,52Bそれぞれの撮影空間A1側の面も例えば緑色の面である。   The surface on the imaging space A1 side (the front side in the drawing) of the back panel 51 is, for example, a green surface. Although not shown, the surfaces on the photographing space A1 side of the side panels 52A and 52B are also green surfaces, for example.

これらの面の緑色は、クロマキ処理によって利用者の領域を抽出するための色である。これにより、撮影画像に対してクロマキ処理を施し、利用者が所望する背景画像を、撮影画像の背景部分に合成することができる。なお、これらの面の色は、クロマキ処理を行うことができる色であればよく、青色などの他の色であってもよい。   The green color of these surfaces is a color for extracting the user's area by chroma processing. Thereby, chroma processing is performed on the captured image, and a background image desired by the user can be combined with the background portion of the captured image. In addition, the color of these surfaces should just be a color which can perform a chroma process, and other colors, such as blue, may be sufficient as it.

<編集ユニットの構成>
図6は、編集ユニット12の正面側(編集空間A2−1側)の構成例を示す図である。
<Configuration of editing unit>
FIG. 6 is a diagram illustrating a configuration example of the editing unit 12 on the front side (editing space A2-1 side).

斜面12Bのほぼ中央には、タブレット内蔵モニタ141が設けられる。タブレット内蔵モニタ141の左右にはタッチペン142Aとタッチペン142Bが設けられる。   A tablet built-in monitor 141 is provided substantially at the center of the slope 12B. A touch pen 142A and a touch pen 142B are provided on the left and right of the tablet built-in monitor 141.

タブレット内蔵モニタ141は、タッチペン142A,142Bを用いた操作入力を受け付ける。タブレット内蔵モニタ141には、編集作業に用いられる編集画面などが表示される。例えば、タッチペン142Aはタブレット内蔵モニタ141に向かって左側に立つ利用者により用いられ、タッチペン142Bはタブレット内蔵モニタ141に向かって右側に立つ利用者により用いられる。以下、適宜、タッチペン142Aとタッチペン142Bを区別する必要がない場合、タッチペン142という。   The tablet built-in monitor 141 accepts an operation input using the touch pens 142A and 142B. The tablet built-in monitor 141 displays an editing screen used for editing work. For example, the touch pen 142A is used by a user standing on the left side toward the tablet built-in monitor 141, and the touch pen 142B is used by a user standing on the right side toward the tablet built-in monitor 141. Hereinafter, when it is not necessary to distinguish between the touch pen 142A and the touch pen 142B as appropriate, it is referred to as a touch pen 142.

図7は、編集ユニット12の右側面の構成例を示す図である。   FIG. 7 is a diagram illustrating a configuration example of the right side surface of the editing unit 12.

編集ユニット12の右側面の下部にはシール紙排出口151が設けられる。編集ユニット12の内部にはプリンタが設けられる。そのプリンタにより、編集空間A2−1の利用者が編集を行った画像、または、編集空間A2−2の利用者が編集を行った画像が所定のレイアウトでシール紙に印刷され、シール紙排出口151から排出される。   A seal paper discharge port 151 is provided at the lower part of the right side surface of the editing unit 12. A printer is provided inside the editing unit 12. An image edited by the user of the editing space A2-1 or an image edited by the user of the editing space A2-2 is printed on the sticker paper with a predetermined layout by the printer, and the sticker paper discharge port 151 is discharged.

<シール紙の例>
図8は、以上のような外観構成を有する写真シール作成装置1により作成されるシール紙の例を示す図である。
<Example of sticker paper>
FIG. 8 is a diagram showing an example of a sticker sheet created by the photographic sticker creator 1 having the above-described external configuration.

図8に示す横長のシール紙には、5枚の編集画像である編集画像161−1乃至161−5が横に並べて印刷されている。   On the horizontally long sticker sheet shown in FIG. 8, five edited images 161-1 to 161-5 are printed side by side.

編集画像161−1乃至161−5のうち、編集画像161−1乃至161−3は、アップ画像に対して編集が施されることによって生成された画像であり、編集画像161−4と編集画像161−5は、全身画像に対して編集が施されることによって生成された画像である。   Of the edited images 161-1 to 161-5, the edited images 161-1 to 161-3 are images generated by editing the up image, and the edited image 161-4 and the edited image 161-5 is an image generated by editing the whole body image.

アップ画像と全身画像は縦横比が異なる。例えば、アップ画像の横方向の長さと縦方向の長さの比は1:1.2であり、全身画像の横方向の長さと縦方向の長さの比は3:4である。図8の例においては、アップ画像と全身画像が、横方向の長さを同じ長さとして印刷されている。なお、実際には、利用者の背景には、所定の色や柄の画像である背景画像が、前景には、手書きの文字やスタンプ画像などの前景画像が、それぞれ合成用画像として合成される。   The up image and the whole body image have different aspect ratios. For example, the ratio between the horizontal length and the vertical length of the up image is 1: 1.2, and the ratio between the horizontal length and the vertical length of the whole-body image is 3: 4. In the example of FIG. 8, the up image and the whole body image are printed with the same length in the horizontal direction. In practice, a background image, which is an image of a predetermined color or pattern, is synthesized on the background of the user, and a foreground image such as a handwritten character or a stamp image is synthesized on the foreground, respectively. .

シール紙の縁の余白には、機種名(LOVERY)と撮影日の他に、メールアドレス、IDなどが印刷される。余白領域に印刷されたメールアドレスとIDは、写真シール作成装置1からサーバに送信された画像を携帯電話機などの携帯端末で閲覧するときに利用される。   In addition to the model name (LOVERY) and shooting date, an e-mail address, ID, etc. are printed in the margin of the sticker paper. The mail address and ID printed in the blank area are used when viewing an image transmitted from the photo sticker creating apparatus 1 to the server on a portable terminal such as a cellular phone.

図9は、編集画像のレイヤ構造の例を示す図である。   FIG. 9 is a diagram illustrating an example of a layer structure of an edited image.

左端の編集画像P1が編集によって生成される画像である。編集画像P1は、背景画像P11、撮影画像P12、前景画像P13の各レイヤの画像から構成される。   The leftmost edited image P1 is an image generated by editing. The edited image P1 is composed of images of each layer of a background image P11, a captured image P12, and a foreground image P13.

図9の例において、背景画像P11は、レンガを重ねた壁面の柄の画像である。前景画像P13は、「Love my friend」の手書き文字の画像とハート型の画像を含む画像である。「Love my friend」の手書き文字の画像は、撮影画像P12の中央下方の位置にペンツールを用いて利用者によって入力されたペン画像である。また、ハート型の画像は、撮影画像P12の左上の位置にスタンプツールを用いて利用者によって入力されたスタンプ画像である。   In the example of FIG. 9, the background image P <b> 11 is an image of a wall pattern on which bricks are stacked. The foreground image P13 is an image including a handwritten character image of “Love my friend” and a heart-shaped image. The handwritten character image of “Love my friend” is a pen image input by the user using a pen tool at a position below the center of the captured image P12. The heart-shaped image is a stamp image input by the user using a stamp tool at the upper left position of the captured image P12.

このように、編集画像P1は、クロマキ処理によって抽出した撮影画像P12の被写体の領域を背景画像P11に重ね、その上に前景画像P13を重ねることによって生成される。ペン画像やスタンプ画像を背景画像P11上に入力し、被写体の背景に表示させるようにすることも可能とされる。   In this way, the edited image P1 is generated by superimposing the subject area of the photographed image P12 extracted by the chroma process on the background image P11 and superimposing the foreground image P13 thereon. It is also possible to input a pen image or a stamp image on the background image P11 and display it on the background of the subject.

<写真シール作成装置の内部構成>
図10は、写真シール作成装置1の内部の構成例を示すブロック図である。上述した構成と同じ構成には同じ符号を付してある。重複する説明については適宜省略する。
<Internal configuration of photo sticker creation device>
FIG. 10 is a block diagram illustrating an internal configuration example of the photo sticker creating apparatus 1. The same code | symbol is attached | subjected to the same structure as the structure mentioned above. The overlapping description will be omitted as appropriate.

制御部201は、CPU(Central Processing Unit)などにより構成される。制御部201は、ROM(Read Only Memory)206や記憶部202に記憶されているプログラムを実行し、写真シール作成装置1の全体の動作を制御する。制御部201には、記憶部202、通信部203、ドライブ204、ROM206、RAM(Random Access Memory)207が接続される。制御部201には、撮影部208の各構成、編集部209A,209Bの各構成、およびプリンタ241も接続される。   The control unit 201 is configured by a CPU (Central Processing Unit) or the like. The control unit 201 executes a program stored in a ROM (Read Only Memory) 206 or a storage unit 202 and controls the overall operation of the photo sticker creating apparatus 1. A storage unit 202, a communication unit 203, a drive 204, a ROM 206, and a RAM (Random Access Memory) 207 are connected to the control unit 201. Also connected to the control unit 201 are each configuration of the photographing unit 208, each configuration of the editing units 209A and 209B, and a printer 241.

記憶部202は、ハードディスクやフラッシュメモリなどの不揮発性の記憶媒体である。記憶部202は、制御部201から供給された各種の設定情報などを記憶する。記憶部202に記憶されている情報は制御部201により適宜読み出される。   The storage unit 202 is a non-volatile storage medium such as a hard disk or a flash memory. The storage unit 202 stores various setting information supplied from the control unit 201. Information stored in the storage unit 202 is appropriately read out by the control unit 201.

通信部203は、インターネットなどのネットワークのインタフェースである。通信部203は、制御部201による制御に従って外部の装置と通信を行う。通信部203は、例えば、利用者により選択された撮影画像をサーバに送信する。通信部203から送信された画像は、サーバにおいて所定の記憶領域が割り当てられて保存され、サーバにアクセスしてきた携帯端末に表示されたり、ダウンロードされたりする。   The communication unit 203 is a network interface such as the Internet. The communication unit 203 communicates with an external device according to control by the control unit 201. For example, the communication unit 203 transmits the captured image selected by the user to the server. The image transmitted from the communication unit 203 is allocated and stored in a predetermined storage area in the server, and is displayed or downloaded on a mobile terminal that has accessed the server.

ドライブ204には、光ディスクや半導体メモリなどよりなるリムーバブルメディア205が適宜装着される。ドライブ204によりリムーバブルメディア205から読み出されたプログラムやデータは、制御部201に供給され、記憶部202に記憶されたり、インストールされたりする。   A removable medium 205 made of an optical disk, a semiconductor memory, or the like is appropriately attached to the drive 204. The programs and data read from the removable medium 205 by the drive 204 are supplied to the control unit 201 and stored in the storage unit 202 or installed.

ROM206は、制御部201において実行されるプログラムやデータを記憶する。RAM207は、制御部201が処理するデータやプログラムを一時的に記憶する。   The ROM 206 stores programs and data executed by the control unit 201. The RAM 207 temporarily stores data and programs processed by the control unit 201.

撮影部208は、撮影空間A1にいる利用者を対象とした撮影処理を実現する。撮影部208は、硬貨処理部221、照明装置222、カメラ111、タッチパネルモニタ112、およびスピーカ223から構成される。   The photographing unit 208 realizes photographing processing for a user in the photographing space A1. The imaging unit 208 includes a coin processing unit 221, an illumination device 222, a camera 111, a touch panel monitor 112, and a speaker 223.

硬貨処理部221は、硬貨投入口への硬貨の投入を検出する。硬貨処理部221は、例えば400円などの所定の金額分の硬貨が投入されたことを検出した場合、ゲームの開始を指示する起動信号を制御部201に出力する。   The coin processing unit 221 detects the insertion of coins into the coin insertion slot. When the coin processing unit 221 detects that a predetermined amount of coins such as 400 yen has been inserted, the coin processing unit 221 outputs an activation signal instructing the start of the game to the control unit 201.

照明装置222は、上ストロボユニット103、足元ストロボユニット104などの、撮影空間A1内に設けられる各照明装置である。照明装置222のそれぞれは、制御部201から供給される照明制御信号に従って発光する。   The illumination device 222 is each illumination device provided in the imaging space A1, such as the upper strobe unit 103 and the foot strobe unit 104. Each of the illumination devices 222 emits light according to an illumination control signal supplied from the control unit 201.

カメラ111は、制御部201によるシャッタ制御に従って撮影を行い、撮影によって得られた撮影画像のデータを制御部201に出力する。   The camera 111 shoots according to the shutter control by the control unit 201, and outputs captured image data obtained by the shooting to the control unit 201.

編集部209Aは、編集空間A2−1にいる利用者を対象とした編集処理を実現する。編集部209Aは、タブレット内蔵モニタ141、タッチペン142A,142B、およびスピーカ231から構成される。編集部209Bは、編集部209Aと同一の構成を有し、編集空間A2−2にいる利用者を対象とした編集処理を実現する。   The editing unit 209A realizes editing processing for a user in the editing space A2-1. The editing unit 209A includes a tablet built-in monitor 141, touch pens 142A and 142B, and a speaker 231. The editing unit 209B has the same configuration as the editing unit 209A, and realizes editing processing for a user in the editing space A2-2.

タブレット内蔵モニタ141は、制御部201による制御に従って各種の画面を表示し、表示した画面に対する利用者の操作を受け付ける。利用者の操作の内容を表す入力信号は制御部201に供給される。   The tablet built-in monitor 141 displays various screens under the control of the control unit 201 and accepts user operations on the displayed screens. An input signal representing the content of the user's operation is supplied to the control unit 201.

プリンタ241は、制御部201から供給された印刷データに基づいて、シール紙ユニット242に収納されているシール紙に編集画像を印刷する。プリンタ241は、編集画像を所定のレイアウトで印刷したシール紙をシール紙排出口151に排出する。   The printer 241 prints the edited image on the sticker paper stored in the sticker paper unit 242 based on the print data supplied from the control unit 201. The printer 241 discharges the sticker paper on which the edited image is printed with a predetermined layout to the sticker paper discharge port 151.

<制御部の構成>
図11は、制御部201の機能構成例を示すブロック図である。図11に示す機能部のうちの少なくとも一部は、制御部201内のCPUにより所定のプログラムが実行されることによって実現される。
<Configuration of control unit>
FIG. 11 is a block diagram illustrating a functional configuration example of the control unit 201. At least a part of the functional units shown in FIG. 11 is realized by a predetermined program being executed by the CPU in the control unit 201.

制御部201は、撮影処理部301、編集処理部302、および印刷処理部303から構成される。   The control unit 201 includes an imaging processing unit 301, an editing processing unit 302, and a print processing unit 303.

撮影処理部301は、撮影部208の各部を制御して撮影処理を行う。編集処理部302は、編集部209A,209Bの各部を制御して編集処理を行う。印刷処理部303は、プリンタ241を制御して編集画像をシール紙に印刷する。   The imaging processing unit 301 controls each part of the imaging unit 208 to perform imaging processing. The editing processing unit 302 performs editing processing by controlling each of the editing units 209A and 209B. The print processing unit 303 controls the printer 241 to print the edited image on a sticker sheet.

図12は、編集処理部302の構成例を示すブロック図である。   FIG. 12 is a block diagram illustrating a configuration example of the editing processing unit 302.

編集処理部302は、顔検出部311、パラメータ調整部312、合成部313、画像処理部314、および表示制御部315から構成される。   The edit processing unit 302 includes a face detection unit 311, a parameter adjustment unit 312, a synthesis unit 313, an image processing unit 314, and a display control unit 315.

撮影処理によって得られた撮影画像は、顔検出部311および合成部313に供給される。撮影処理部301からは、5枚などの複数の撮影画像が供給される。合成部313に対しては、合成用画像(背景画像、および、ペン画像やスタンプ画像などの前景画像)のデータ、タッチペン142を用いて利用者により入力された操作の内容を表す情報なども入力される。   The photographed image obtained by the photographing process is supplied to the face detection unit 311 and the composition unit 313. A plurality of captured images such as five images are supplied from the imaging processing unit 301. Data for the composition image (background image and foreground image such as a pen image or stamp image), information representing the content of the operation input by the user using the touch pen 142, and the like are also input to the composition unit 313. Is done.

顔検出部311は、撮影画像において人物の顔を検出する。   The face detection unit 311 detects a human face in the captured image.

パラメータ調整部312は、顔検出部311によって検出された顔の大きさに基づいて、画像処理部314によって撮影画像に施される画像処理のパラメータを調整する。調整されたパラメータは、画像処理部314に供給される。   The parameter adjustment unit 312 adjusts parameters of image processing performed on the photographed image by the image processing unit 314 based on the face size detected by the face detection unit 311. The adjusted parameters are supplied to the image processing unit 314.

合成部313は、利用者の操作に基づいて、撮影画像に合成用画像を合成する。具体的には、合成部313は、ペンツールやスタンプツールなどの各種の編集ツールを用いて行われる利用者の操作に従って撮影画像の編集を行う。また、合成部313は、撮影画像に対してクロマキ処理を施し、利用者により選択された背景画像を、撮影画像に写る利用者の背景に合成することで、撮影画像の編集を行う。編集後の撮影画像は、編集が行われる毎に画像処理部314に供給される。   The synthesizing unit 313 synthesizes an image for synthesis with the captured image based on a user operation. Specifically, the composition unit 313 edits a captured image in accordance with a user operation performed using various editing tools such as a pen tool and a stamp tool. The synthesizing unit 313 performs chroma processing on the captured image, and synthesizes the background image selected by the user with the background of the user that appears in the captured image, thereby editing the captured image. The edited captured image is supplied to the image processing unit 314 every time editing is performed.

画像処理部314は、パラメータ調整部312から供給されたパラメータでの画像処理を、合成部313から供給された撮影画像の人物以外の領域に施す。画像処理部314は、撮影画像に対して顔認識を行うことで、その画像処理を撮影画像の人物以外の領域に施すようにしてもよいし、撮影画像における人物の領域をマスク画像として抽出することで、その画像処理を撮影画像の人物以外の領域に施すようにしてもよい。画像処理が施された撮影画像は、表示制御部315に供給される。また、編集処理の終了後、編集済みの撮影画像である編集画像は、印刷処理部303に出力される。   The image processing unit 314 performs image processing with the parameters supplied from the parameter adjustment unit 312 on regions other than the person in the captured image supplied from the synthesis unit 313. The image processing unit 314 may perform face recognition on the captured image to perform image processing on an area other than the person in the captured image, or extract the person area in the captured image as a mask image. Thus, the image processing may be performed on a region other than the person in the captured image. The captured image that has been subjected to image processing is supplied to the display control unit 315. Further, after the editing process is finished, an edited image that is an edited photographed image is output to the print processing unit 303.

表示制御部315は、タブレット内蔵モニタ141の画面の表示を制御する。例えば、表示制御部315は、編集画面をタブレット内蔵モニタ141に表示させ、編集画面の表示を利用者の操作に従って切り替える。   The display control unit 315 controls display of the screen of the tablet built-in monitor 141. For example, the display control unit 315 causes the editing screen to be displayed on the tablet built-in monitor 141, and switches the display of the editing screen according to the user's operation.

また、表示制御部315は、画像処理部314から供給された、編集後の撮影画像を編集画面に表示させる。表示制御部315は、編集処理の終了後、レイアウトの選択画面、印刷待ち空間A3への移動を案内する画面などの各種の画面を、タブレット内蔵モニタ141に表示させる。   In addition, the display control unit 315 displays the edited captured image supplied from the image processing unit 314 on the editing screen. After the editing process is completed, the display control unit 315 displays various screens such as a layout selection screen and a screen for guiding the movement to the print waiting space A3 on the tablet built-in monitor 141.

<写真シール作成装置の動作>
ここで、図13のフローチャートを参照して、写真シール作成ゲームを提供する写真シール作成装置1の動作について説明する。図13の処理は、所定の金額分の硬貨が硬貨投入口に投入されたときに開始される。
<Operation of photo sticker creation device>
Here, with reference to the flowchart of FIG. 13, operation | movement of the photo sticker production apparatus 1 which provides a photo sticker production game is demonstrated. The process of FIG. 13 is started when a predetermined amount of coins is inserted into the coin slot.

ステップS1において、撮影処理部301は、撮影部208を制御して撮影処理を行う。   In step S1, the imaging processing unit 301 controls the imaging unit 208 to perform imaging processing.

撮影処理において、撮影処理部301は、人数や撮影コースの選択画面をタッチパネルモニタ112に表示させ、それらの選択を行わせる。例えば、撮影コースに応じて、異なる写りの撮影画像が生成される。   In the shooting process, the shooting processing unit 301 displays a selection screen for selecting the number of persons and a shooting course on the touch panel monitor 112 and makes the selection. For example, a shot image with a different image is generated according to the shooting course.

被写体の写りは、撮影画像に施す画像処理の種類などによって変わる。例えば、被写体の写りは、撮影画像における人物領域の彩度、明度、シャープネス、コントラストなどの少なくともいずれかを調整することで決定される。撮影画像に対しては、彩度、明度、シャープネス、コントラストなどの各種のパラメータを調整する画像処理が施される。被写体の写りを、撮影空間A1内の各ストロボの発光量や発光タイミングなどを制御することで変えるようにしてもよい。   The appearance of the subject varies depending on the type of image processing applied to the captured image. For example, the image of the subject is determined by adjusting at least one of the saturation, brightness, sharpness, and contrast of the person area in the captured image. The captured image is subjected to image processing for adjusting various parameters such as saturation, brightness, sharpness, and contrast. The image of the subject may be changed by controlling the light emission amount and the light emission timing of each strobe in the photographing space A1.

人数や撮影コースが選択されたとき、撮影処理部301は、カメラ111を制御して動画像の取り込みを開始する。撮影処理部301は、取り込まれた動画像をライブビュー画像としてタッチパネルモニタ112に表示させる。利用者は、ライブビュー画像を見ることで自分たちの写り方を確認することができる。   When the number of people or the shooting course is selected, the shooting processing unit 301 controls the camera 111 to start capturing a moving image. The imaging processing unit 301 displays the captured moving image on the touch panel monitor 112 as a live view image. Users can check how they are captured by looking at the live view image.

ライブビュー画像が所定の時間表示された後、撮影前のカウントダウンが開始される。撮影のタイミングになったとき、撮影処理部301は1回目の撮影を行う。その後、撮影処理部301は、所定の回数分の撮影を繰り返し行う。   After the live view image is displayed for a predetermined time, a countdown before shooting is started. When it is time for shooting, the shooting processing unit 301 performs the first shooting. Thereafter, the imaging processing unit 301 repeatedly performs imaging for a predetermined number of times.

例えば5回の撮影のうち1回目から3回目までの撮影がアップ画像の撮影であり、4回目と5回目の撮影が全身画像の撮影である場合、撮影処理部301は、それぞれの撮影画像の種類に応じて、カメラ111の画角を調整する等の処理を行う。   For example, when the first to third shootings out of five shootings are shooting up images, and when the fourth and fifth shootings are shooting whole body images, the shooting processing unit 301 sets the shooting images of the respective shooting images. Depending on the type, processing such as adjusting the angle of view of the camera 111 is performed.

なお、全身画像として、斜め上から見た利用者の全身が写る画像と、正面から見た利用者の全身が写る画像が生成されるようにしてもよい。   In addition, as a whole body image, you may make it produce | generate the image which shows the user's whole body seen from diagonally upward, and the image which shows the user's whole body seen from the front.

この場合、例えば、カメラ111の角度を調整することが可能とされる。利用者は、アングル(撮影方向)が異なる全身画像を撮影することができる。   In this case, for example, the angle of the camera 111 can be adjusted. The user can capture whole body images with different angles (imaging directions).

また、撮影処理において、撮影処理部301は、被写界深度が深くなるよう光学系(カメラ111)の絞りを固定して、被写体としての利用者を撮影する。これにより、得られる撮影画像は、被写体となる利用者が撮影空間内のどこに立ってもピントが合った画像となる。   In the shooting process, the shooting processing unit 301 shoots a user as a subject by fixing the aperture of the optical system (camera 111) so that the depth of field becomes deep. As a result, the obtained photographed image is an image that is in focus no matter where the user as the subject stands in the photographing space.

5回などの所定の回数の撮影が行われた後、撮影処理部301は、撮影を終えた利用者に対して、編集空間A2−1または編集空間A2−2への移動を案内する。編集空間への移動の案内は、タッチパネルモニタ112に案内画面を表示させることによって、または音声をスピーカ223から出力させることによって行われる。   After shooting a predetermined number of times such as five times, the shooting processing unit 301 guides the user who has finished shooting to move to the editing space A2-1 or the editing space A2-2. The guidance for moving to the editing space is performed by displaying a guidance screen on the touch panel monitor 112 or by outputting sound from the speaker 223.

図13のステップS2において、編集処理部302は編集処理を行い、編集画像を生成する。編集処理においては、編集画面がタブレット内蔵モニタ141に表示され、撮影画像の編集が行われる。編集画面が表示されるタブレット内蔵モニタ141は、撮影処理を終えた利用者の移動先とした方の編集空間に設けられているモニタである。   In step S <b> 2 of FIG. 13, the editing processing unit 302 performs editing processing and generates an edited image. In the editing process, an editing screen is displayed on the tablet built-in monitor 141, and the captured image is edited. The tablet built-in monitor 141 on which the editing screen is displayed is a monitor provided in the editing space that is the destination of the user who has finished the photographing process.

編集画面を用いた撮影画像の編集は、予め設定された制限時間が経過するか、編集画面に表示された終了ボタンが操作されたときに終了される。撮影画像の編集が終了したとき、レイアウトの選択、携帯専用画像の選択などが行われ、その後、印刷待ち空間A3への移動が案内される。編集処理の詳細については図14のフローチャートを参照して後述する。   Editing of the captured image using the edit screen is ended when a preset time limit elapses or when an end button displayed on the edit screen is operated. When the editing of the photographed image is completed, the selection of the layout, the selection of the portable-only image, and the like are performed, and then the movement to the print waiting space A3 is guided. Details of the editing process will be described later with reference to the flowchart of FIG.

ステップS3において、印刷処理部303は、プリンタ241を制御し、編集処理によって得られた編集画像をシール紙に印刷する。なお、撮影処理により得られた撮影画像に対して編集が施されていない場合、撮影画像がそのままシール紙に印刷される。   In step S3, the print processing unit 303 controls the printer 241 to print the edited image obtained by the editing process on sticker paper. Note that, when editing is not performed on the captured image obtained by the capturing process, the captured image is printed as it is on the sticker sheet.

ステップS4において、プリンタ241は、編集画像が印刷されたシール紙をシール紙排出口151に排出し、処理を終了させる。   In step S4, the printer 241 discharges the sticker sheet on which the edited image is printed to the sticker paper discharge port 151, and ends the process.

<編集処理>
次に、図14のフローチャートを参照して、図13のステップS2において行われる編集処理について説明する。
<Edit processing>
Next, the editing process performed in step S2 of FIG. 13 will be described with reference to the flowchart of FIG.

ステップS11において、編集処理部302は、写りに関する選択画面をタブレット内蔵モニタ141に表示させる。ここでは、例えば、目や顔の大きさ、肌の明るさ等の選択が行われる。   In step S <b> 11, the editing processing unit 302 displays a selection screen related to reflection on the tablet built-in monitor 141. Here, for example, the size of eyes and face, the brightness of skin, and the like are selected.

編集処理部302は、撮影処理部301から取得した5枚の撮影画像のそれぞれに対して、利用者の選択内容に応じた画像処理を行い、目や顔の大きさと肌の明るさを調整する。編集対象となる撮影画像は、撮影画像に写る利用者の目と顔の大きさ、および、肌の明るさが調整された画像となる。   The editing processing unit 302 performs image processing corresponding to the selection content of the user on each of the five captured images acquired from the imaging processing unit 301, and adjusts the size of eyes and face and the brightness of the skin. . The captured image to be edited is an image in which the size of the user's eyes and face and the brightness of the skin appearing in the captured image are adjusted.

ステップS12において、編集処理部302は、名前入力画面をタブレット内蔵モニタ141に表示させる。名前入力画面に入力された利用者の名前に応じて、編集時に利用可能な編集ツールが変化する。例えば、利用者の名前を手書き風の文字で表すスタンプ画像などが編集ツールとして用意される。   In step S <b> 12, the editing processing unit 302 displays a name input screen on the tablet built-in monitor 141. Depending on the name of the user entered on the name input screen, the editing tools that can be used during editing change. For example, a stamp image representing the user's name with handwritten characters is prepared as an editing tool.

ステップS13において、編集処理部302は、編集画面をタブレット内蔵モニタ141に表示させる。背景画像の選択は、編集画面を用いて、撮影画像の編集に割り当てられた時間内で行われる。   In step S <b> 13, the editing processing unit 302 displays an editing screen on the tablet built-in monitor 141. The selection of the background image is performed within the time allotted for editing the photographed image using the editing screen.

編集処理部302は、撮影画像を対象としてクロマキ処理を行うことによって利用者の領域を抽出し、編集画面のボタンを用いて選択された背景画像を撮影画像に合成する。また、編集処理部302は、背景画像を合成した撮影画像に対して、スタンプ画像、ペン画像等の合成用画像を利用者の操作に応じて合成し、編集画像を生成する。   The edit processing unit 302 extracts the user's area by performing chroma processing on the captured image, and synthesizes the background image selected using the buttons on the edit screen with the captured image. Further, the editing processing unit 302 synthesizes an image for synthesis such as a stamp image and a pen image with the captured image obtained by synthesizing the background image in accordance with a user operation, and generates an edited image.

撮影画像の編集が終了したとき、ステップS15において、編集処理部302は、分割数選択画面をタブレット内蔵モニタ141に表示させる。分割数選択画面は、シール紙に印刷する編集画像のレイアウトの選択に用いられる画面である。   When the editing of the photographed image is finished, in step S15, the editing processing unit 302 displays a division number selection screen on the tablet built-in monitor 141. The division number selection screen is a screen used for selecting the layout of the edited image to be printed on the sticker sheet.

所定のレイアウトが選択されたとき、ステップS16において、編集処理部302は、携帯専用画像の選択画面をタブレット内蔵モニタ141に表示させる。携帯専用画像は、例えば撮影画像の中から選択された画像である。   When a predetermined layout is selected, in step S <b> 16, the editing processing unit 302 displays a selection screen for a portable-only image on the tablet built-in monitor 141. The portable-only image is, for example, an image selected from the photographed images.

携帯専用画像として送信する撮影画像を選択した後、タブレット内蔵モニタ141には、例えば利用者の携帯端末のメールアドレスの入力画面が表示される。利用者は、メールアドレスを入力して、サーバから送信される電子メールを受信できる状態にする。   After selecting a captured image to be transmitted as a mobile-only image, the tablet built-in monitor 141 displays, for example, an input screen for a user's mobile terminal email address. The user enters a mail address to make it possible to receive an electronic mail transmitted from the server.

ステップS17において、編集処理部302は、通信部203を制御し、利用者により選択された携帯専用画像をサーバに送信する。利用者は、自身の携帯端末を操作してサーバにアクセスし、シール紙の縁に印刷されたIDを入力することにより、携帯専用画像を携帯端末に取り込むことができる。   In step S <b> 17, the edit processing unit 302 controls the communication unit 203 to transmit the portable-only image selected by the user to the server. The user operates the mobile terminal of his / herself to access the server, and can input the mobile-only image into the mobile terminal by inputting the ID printed on the edge of the sticker paper.

ステップS18において、編集処理部302は、撮影画像の編集を終えた利用者に対して印刷待ち空間A3への移動を案内する。印刷待ち空間A3への移動の案内は、タブレット内蔵モニタ141に案内画面を表示させることによって、またはスピーカ231から音声を出力させることによって行われる。   In step S18, the editing processing unit 302 guides the user who has finished editing the captured image to move to the print waiting space A3. The guidance for movement to the print waiting space A3 is performed by displaying a guidance screen on the tablet built-in monitor 141 or by outputting sound from the speaker 231.

その後、図13のステップS2に戻り、それ以降の処理が行われる。印刷が終了したとき、利用者は、編集画像が印刷されたシール紙を受け取って写真シール作成装置1の利用を終える。   Thereafter, the process returns to step S2 in FIG. 13, and the subsequent processing is performed. When the printing is finished, the user receives the sticker sheet on which the edited image is printed and finishes using the photo sticker creating apparatus 1.

<編集画面の構成>
ここで、上述した編集処理のステップS13において表示される編集画面の構成について説明する。
<Configuration of edit screen>
Here, the configuration of the editing screen displayed in step S13 of the editing process described above will be described.

図15は、タブレット内蔵モニタ141に表示される編集画面の例を示す図である。   FIG. 15 is a diagram showing an example of an edit screen displayed on the tablet built-in monitor 141.

編集画面は、基本的に、縦長四角形の領域である背景選択領域401を挟んで、領域403Lと領域403Rが左右に形成されることによって構成される。背景選択領域401の下には、背景選択領域401と同じ幅の小さな領域である領域402が形成される。背景選択領域401の上には、編集作業に割り当てられた制限時間の残り時間などが表示される。   The edit screen is basically configured by forming a region 403L and a region 403R on the left and right sides of the background selection region 401 that is a vertically long rectangular region. A region 402 that is a small region having the same width as the background selection region 401 is formed under the background selection region 401. On the background selection area 401, the remaining time of the time limit assigned to the editing work is displayed.

背景選択領域401は、背景画像の選択に用いられるボタンなどの表示領域である。背景選択領域401は、編集画面が表示されている間、常時表示される。利用者は、編集画面を用いて編集を行っている間、背景画像の選択をいつでも行うことができる。すなわち、利用者は、編集作業において背景画像を選択することができるので、編集対象となる撮影画像に写る自身の表情やポーズなどに最適な背景画像を見つけ出すことができる。   The background selection area 401 is a display area such as a button used for selecting a background image. The background selection area 401 is always displayed while the editing screen is displayed. The user can select a background image at any time while editing using the editing screen. That is, since the user can select a background image in the editing operation, the user can find an optimal background image for his / her facial expression or pose in the captured image to be edited.

領域402は、編集に関するガイダンスなどの音量の調整に用いられる領域である。背景選択領域401と領域402は、タブレット内蔵モニタ141に向かって左側にいる利用者と右側にいる利用者が共有して用いる領域である。   An area 402 is an area used for volume adjustment such as guidance related to editing. The background selection area 401 and the area 402 are areas that are shared and used by the user on the left side and the user on the right side toward the tablet built-in monitor 141.

これに対して、領域403Lは、タブレット内蔵モニタ141に向かって左側にいる利用者により用いられる領域であり、領域403Rは、タブレット内蔵モニタ141に向かって右側にいる利用者により用いられる領域である。   On the other hand, the area 403L is an area used by the user on the left side toward the tablet built-in monitor 141, and the area 403R is an area used by the user on the right side toward the tablet built-in monitor 141. .

すなわち、背景選択領域401と領域402の表示に対しては、タッチペン142A、タッチペン142Bのいずれのタッチペンを用いた操作も受け付けられるが、領域403Lの表示に対しては、タッチペン142Aを用いた操作のみが受け付けられ、領域403Rの表示に対しては、タッチペン142Bを用いた操作のみが受け付けられる。   That is, for the display of the background selection area 401 and the area 402, an operation using either the touch pen 142A or the touch pen 142B is accepted, but for the display of the area 403L, only the operation using the touch pen 142A is accepted. And only the operation using the touch pen 142B is accepted for the display of the area 403R.

タブレット内蔵モニタ141に向かって左側にいる利用者がタッチペン142Aを用いて背景選択領域401のボタンを押下し、背景画像を選択した場合、その操作は、領域403Lの表示を用いて行っている編集に反映される。   When the user on the left side facing the monitor 141 with the tablet presses the button in the background selection area 401 using the touch pen 142A and selects a background image, the operation is performed using the display in the area 403L. It is reflected in.

一方、右側にいる利用者がタッチペン142Bを用いて背景選択領域401のボタンを押下し、背景画像を選択した場合、その操作は、領域403Rの表示を用いて行っている編集に反映される。   On the other hand, when the user on the right side presses the button in the background selection area 401 using the touch pen 142B and selects a background image, the operation is reflected in the editing performed using the display in the area 403R.

このように、制御部201においては、編集画面の各領域に対する操作が、タッチペン142Aを用いて行われた操作であるのか、タッチペン142Bを用いて行われた操作であるのかが識別される。   As described above, the control unit 201 identifies whether the operation on each area of the editing screen is an operation performed using the touch pen 142A or an operation performed using the touch pen 142B.

領域403Lと領域403Rには、主な構成が左右対称に設けられる。なお、図15の各領域を囲む破線は画面に実際に表示されるものではない。   The main structures are provided symmetrically in the regions 403L and 403R. Note that the broken lines surrounding each area in FIG. 15 are not actually displayed on the screen.

領域403Lの中央上方のサムネイル表示領域411Lは、撮影画像を表すサムネイル画像の表示領域である。サムネイル画像は、例えば撮影画像をそれぞれ縮小することによって生成される。利用者(タブレット内蔵モニタ141に向かって左側にいる利用者)は、サムネイル表示領域411Lに表示されているサムネイル画像を選択することによって、編集対象とする撮影画像を選択する。   A thumbnail display area 411L above the center of the area 403L is a display area for thumbnail images representing captured images. The thumbnail image is generated, for example, by reducing each captured image. A user (a user on the left side of the tablet built-in monitor 141) selects a captured image to be edited by selecting a thumbnail image displayed in the thumbnail display area 411L.

図15の例においては、5枚の撮影画像を表すサムネイル画像P21乃至P25がサムネイル表示領域411Lに並べて表示されている。また、左端のサムネイル画像P21が選択されることによって、1枚目の撮影画像が編集対象とされている。サムネイル画像P21にはカーソルC1が表示されている。   In the example of FIG. 15, thumbnail images P21 to P25 representing five captured images are displayed side by side in the thumbnail display area 411L. Further, by selecting the leftmost thumbnail image P21, the first photographed image is to be edited. A cursor C1 is displayed on the thumbnail image P21.

なお、サムネイル画像P21乃至P23はアップ画像のサムネイル画像であり、サムネイル画像P24,P25は全身画像のサムネイル画像である。   The thumbnail images P21 to P23 are thumbnail images of up images, and the thumbnail images P24 and P25 are thumbnail images of whole body images.

領域403Lの略中央に大きく形成された編集領域412Lは、編集対象として選択された撮影画像の表示領域である。利用者は、タッチペン142Aを用いて編集ツールを選択し、編集領域412Lに表示された撮影画像の編集を行うことができる。   An editing area 412L formed large in the approximate center of the area 403L is a display area for a captured image selected as an editing target. The user can select an editing tool using the touch pen 142A and edit the captured image displayed in the editing area 412L.

編集領域412Lの左側には、編集の見本を表示するときに操作されるボタン413Lと、携帯専用画像を作成するときに操作されるボタン414Lが表示される。   On the left side of the editing area 412L, a button 413L that is operated when displaying a sample for editing and a button 414L that is operated when creating a portable-only image are displayed.

編集領域412Lの下には、横長長方形の領域である編集パレット415Lが表示される。編集パレット415Lは、ペンツール、スタンプツールなどの各種の編集ツール(コンテンツ)の選択に用いられるボタンなどが表示される領域である。   An editing palette 415L, which is a horizontally long rectangular area, is displayed below the editing area 412L. The edit palette 415L is an area in which buttons used for selecting various editing tools (contents) such as a pen tool and a stamp tool are displayed.

編集パレット415Lの上には6種類のタブ431Lが表示され、編集パレット415Lの右には6種類のタブ432Lが表示される。利用者は、編集パレット415Lに表示させる編集ツールの種類とカテゴリを、タブ431Lとタブ432Lを用いて切り替えることができる。   Six types of tabs 431L are displayed on the editing palette 415L, and six types of tabs 432L are displayed on the right side of the editing palette 415L. The user can switch the type and category of the editing tool displayed on the editing palette 415L using the tab 431L and the tab 432L.

タブ431Lは、「HIKARI」、「シンプル」、「手描き」、「かっちり」、「コラージュ」、「実写」の各タブから構成される。これらのタブは、編集ツールのカテゴリの選択に用いられる。   The tab 431L includes “HIKARI”, “simple”, “hand-drawn”, “click”, “collage”, and “live action” tabs. These tabs are used to select categories of editing tools.

タブ432Lは、「PEN」、「STAMP1」、「STAMP2」、「MOJI」、「変身」、「質感」の各タブから構成される。これらのタブは、編集ツールの種類の選択に用いられる。   The tab 432L includes tabs “PEN”, “STAMP1”, “STAMP2”, “MOJI”, “transformation”, and “texture”. These tabs are used to select the type of editing tool.

例えば「PEN」の名前が付されたタブはペンツールを選択するときに操作されるタブである。ペンツールは、それを選択した後、編集領域412Lにタッチペン142Aを押し当てた状態で動かすことによって、その軌跡に沿って所定のペン画像を入力することができる編集ツールである。   For example, a tab named “PEN” is a tab operated when a pen tool is selected. The pen tool is an editing tool that can input a predetermined pen image along the locus by selecting the pen tool and moving it while the touch pen 142A is pressed against the editing area 412L.

また、「STAMP1」、「STAMP2」の名前が付されたタブはスタンプツールを選択するときに操作されるタブである。スタンプツールは、それを選択した後、編集領域412Lにタッチペン142Aを押し当てることによって、タッチペン142Aを押し当てた位置に所定のスタンプ画像を入力することができる編集ツールである。   The tabs named “STAMP1” and “STAMP2” are tabs that are operated when the stamp tool is selected. The stamp tool is an editing tool that can input a predetermined stamp image at a position where the touch pen 142A is pressed by pressing the touch pen 142A against the editing area 412L after selecting the stamp tool.

例えばペンツールが選択された状態でタブ431Lが切り替えられる毎に、異なるカテゴリに属するペンツールを選択するときに操作されるボタンが編集パレット415Lに並べて表示される。各編集ツールにはカテゴリが設定されている。   For example, each time the tab 431L is switched while the pen tool is selected, buttons operated when selecting a pen tool belonging to a different category are displayed side by side on the editing palette 415L. Each editing tool has a category.

編集領域412Lの右側には修正ツール選択領域416Lが形成される。修正ツール選択領域416Lは、消しゴムツールの選択に用いられるボタン、1つ前または1つ後の作業に戻るときに操作される「進む」、「戻る」ボタン、既に入力済みの編集を全てキャンセルし、編集前の状態に戻すときに操作される「最初から」ボタンなどが縦に並べて表示される領域である。消しゴムツールは、入力した編集を消すときに用いられるツールである。修正ツール選択領域416Lには「1set戻る」ボタンも表示される。「1set戻る」ボタンを押すことにより、所定の時間の間に入力された編集をまとめて取り消すことができる。   A correction tool selection area 416L is formed on the right side of the editing area 412L. The correction tool selection area 416L cancels all of the buttons used for selecting the eraser tool, the “forward” and “return” buttons operated when returning to the previous, next, or subsequent work, and the already input edits. This is an area in which “from the start” button, etc., which are operated when returning to the state before editing, are displayed side by side. The eraser tool is a tool used when erasing input editing. A “return 1 set” button is also displayed in the correction tool selection area 416L. By pressing the “return 1 set” button, edits input during a predetermined time can be canceled together.

修正ツール選択領域416Lの上には、編集処理を終了するときに操作される終了ボタン417Lが表示される。   On the correction tool selection area 416L, an end button 417L that is operated when the editing process is ended is displayed.

タブレット内蔵モニタ141に向かって右側にいる利用者が使う領域403Rには、以上のような領域403Lの構成と同じ構成が位置を対称にして配置される。図15の例においては、サムネイル表示領域411Rからサムネイル画像P22を選択することによって、2枚目の撮影画像が編集対象とされている。サムネイル画像P22にはカーソルC2が表示されている。カーソルC1とカーソルC2は例えば異なる色で表示される。   In the area 403R used by the user on the right side of the tablet built-in monitor 141, the same configuration as that of the area 403L as described above is arranged symmetrically. In the example of FIG. 15, by selecting the thumbnail image P22 from the thumbnail display area 411R, the second photographed image is the editing target. A cursor C2 is displayed on the thumbnail image P22. The cursor C1 and the cursor C2 are displayed in different colors, for example.

一方の利用者が編集対象として選択中の撮影画像については、他方の利用者は編集対象として選択することができない。あるタイミングでは、領域403Lと領域403Rにおいてそれぞれ異なる撮影画像が編集対象として設定される。   For a captured image selected by one user as an editing target, the other user cannot select it as an editing target. At a certain timing, different captured images are set as edit targets in the regions 403L and 403R.

一方の利用者が編集対象の撮影画像を切り替えた場合、他方の利用者は、その一方の利用者が編集対象として選択していた撮影画像を、編集対象として新たに選択することができる。この場合、一方の利用者が行っていた編集の内容は、そのまま維持される。他方の利用者は、一方の利用者により編集が行われた撮影画像に対して、さらに編集を行うことになる。   When one user switches the captured image to be edited, the other user can newly select the captured image selected by the one user as the editing target. In this case, the contents of the editing performed by one user are maintained as they are. The other user further edits the photographed image edited by one user.

編集処理においては、このような編集画面が左右の利用者により用いられ、撮影画像に対して編集が施される。編集画面には、背景選択領域401を中央にして、サムネイル表示領域411L、編集領域412L、編集パレット415Lが主に配置された領域403Lと、サムネイル表示領域411R、編集領域412R、編集パレット415Rが主に配置された領域403Rとが、同時に表示されることになる。   In the editing process, such an editing screen is used by the right and left users to edit the captured image. In the editing screen, the background selection area 401 is the center, the thumbnail display area 411L, the editing area 412L, the area 403L in which the editing palette 415L is mainly arranged, the thumbnail display area 411R, the editing area 412R, and the editing palette 415R are the main. The area 403R arranged at the same time is displayed at the same time.

さて、編集画面に表示される、編集対象として選択された撮影画像には、上述したような編集が施される(合成用画像が合成される)他、撮影画像に写る顔の大きさに応じた画像処理として、ぼかし処理が施される。   The captured image selected as the editing target displayed on the editing screen is subjected to the above-described editing (compositing image is combined), and depending on the size of the face appearing in the captured image. As the image processing, blurring processing is performed.

<ぼかし処理>
ここで、図16のフローチャートを参照して、編集対象として選択された撮影画像に対するぼかし処理について説明する。図16の処理は、編集対象となる撮影画像としてアップ画像が選択され、そのアップ画像に対して背景画像が合成される度に実行されるが、編集対象となる撮影画像として全身画像が選択された場合には実行されない。
<Blur processing>
Here, with reference to the flowchart of FIG. 16, the blurring process for the captured image selected as the editing target will be described. The process in FIG. 16 is executed whenever an up image is selected as a captured image to be edited and a background image is combined with the up image, but a whole-body image is selected as a captured image to be edited. It will not be executed if

ステップS31において、顔検出部311は、編集対象として選択された撮影画像において、人物の顔を検出する。   In step S31, the face detection unit 311 detects a person's face in the captured image selected as the editing target.

一般的に、写真シール機において、撮影画像は、撮影により得られた原画像が所定の縦横比でトリミングされることで生成される。そこで、顔検出部311は、編集対象として選択された撮影画像の原画像において、人物の顔を検出するようにする。撮影画像においては、トリミングの結果、人物の顔が見切れてしまうおそれがある。そこで、撮影画像より撮影範囲が広い原画像に対して顔検出を行うことで、より確実に人物の顔を検出することができる。なお、顔検出を行った後でトリミングした後の撮影画像において人物の顔が見切れないような場合には、トリミング後の撮影画像に対して顔検出が行われるようにしてもよい。   Generally, in a photographic sticker, a photographed image is generated by trimming an original image obtained by photographing at a predetermined aspect ratio. Therefore, the face detection unit 311 detects a person's face in the original image of the captured image selected as the editing target. In a photographed image, there is a possibility that a person's face may be completely cut out as a result of trimming. Thus, by performing face detection on an original image having a wider shooting range than the shot image, it is possible to detect a human face more reliably. In addition, when the face of a person cannot be seen in the captured image after trimming after performing face detection, face detection may be performed on the captured image after trimming.

ステップS32において、パラメータ調整部312は、顔検出部311によって検出された顔の大きさに基づいて、ぼかし処理のぼかし具合を表すパラメータを調整する。具体的には、検出された顔の大きさが大きい程、ぼかし具合が大きくなるようなパラメータが設定され、検出された顔の大きさが小さい程、ぼかし具合が小さくなるようなパラメータが設定される。   In step S <b> 32, the parameter adjustment unit 312 adjusts a parameter representing the degree of blurring of the blurring process based on the face size detected by the face detection unit 311. Specifically, a parameter is set such that the greater the detected face size is, the greater the blur condition is. The smaller the detected face size is, the smaller the parameter is set so that the blur condition is decreased. The

なお、検出された顔の大きさが、所定の上限値を上回る場合、ぼかし具合が最大となるパラメータが設定される。検出された顔の大きさが、所定の下限値を下回る場合、ぼかし具合が最小(またはぼかし無し)となるパラメータが設定される。   When the detected face size exceeds a predetermined upper limit value, a parameter that maximizes the degree of blurring is set. When the size of the detected face is below a predetermined lower limit value, a parameter that minimizes the degree of blurring (or no blurring) is set.

また、被写体となる利用者が複数人の場合、検出された複数の顔のうち、最も小さい顔の大きさに基づいて、パラメータが調整されるようにする。これにより、必要以上にぼかし具合が大きくなるようなパラメータが設定され、ぼかし処理が施される背景画像のデザインが確認しにくくなることを防ぐことができる。なお、背景画像のデザインが細かな絵柄を含まないような場合などには、検出された複数の顔のうち、最も大きい顔の大きさや、複数の顔の平均の大きさに基づいて、パラメータが調整されるようにしてもよい。   When there are a plurality of users as subjects, the parameter is adjusted based on the size of the smallest face among the detected faces. Accordingly, it is possible to prevent a parameter that increases the blurring condition from being necessary more than necessary and make it difficult to confirm the design of the background image on which the blurring process is performed. Note that when the background image design does not include a fine pattern, the parameter is determined based on the largest face size of the detected faces or the average face size. It may be adjusted.

なお、必要以上にぼかし具合が大きくなってしまうと、背景が過度にぼけてしまい、人物と背景との間が不自然に離れたように見えてしまう。すなわち、人物が背景よりも極めて前に立っているような、バランスの悪い画像が得られることになる。そこで、利用者の人数にかかわらず、必要以上にぼかし具合が大きくなるようなパラメータが設定されないようにすることもできる。   Note that if the degree of blur becomes larger than necessary, the background will be excessively blurred, and the person and the background will appear to be unnaturally separated. That is, an unbalanced image in which a person is standing in front of the background is obtained. Therefore, regardless of the number of users, it is possible not to set a parameter that increases the degree of blurring more than necessary.

また、検出された顔ではなく、検出された顔に含まれる器官(目、鼻など)の大きさに基づいて、パラメータが調整されるようにしてもよい。さらに、検出された顔の大きさではなく、撮影画像における肌色領域の大きさに基づいて、パラメータが調整されるようにしてもよい。   Further, the parameter may be adjusted based on the size of an organ (eyes, nose, etc.) included in the detected face instead of the detected face. Furthermore, the parameter may be adjusted based on the size of the skin color area in the captured image, not the size of the detected face.

ステップS33において、画像処理部314は、パラメータ調整部312によって調整されたパラメータで表されるぼかし具合のぼかし処理を、編集対象として選択された撮影画像に合成された背景画像に施す。具体的には、画像処理部314は、パラメータ調整部312からのパラメータに応じて、背景画像のシャープネスを調整する。   In step S <b> 33, the image processing unit 314 performs the blurring process with the blurring degree represented by the parameter adjusted by the parameter adjusting unit 312 on the background image combined with the captured image selected as the editing target. Specifically, the image processing unit 314 adjusts the sharpness of the background image in accordance with the parameter from the parameter adjustment unit 312.

すなわち、ぼかし具合が大きくなるようなパラメータが設定された場合には、ぼかし具合が大きくなるよう背景画像のシャープネスが調整され、ぼかし具合が小さくなるようなパラメータが設定された場合には、ぼかし具合が小さくなるよう背景画像のシャープネスが調整される。   In other words, when a parameter that increases the degree of blurring is set, the sharpness of the background image is adjusted so that the degree of blurring increases, and when a parameter that decreases the degree of blurring is set, The sharpness of the background image is adjusted so as to reduce.

なお、ぼかし具合が最大となるパラメータが設定された場合、ぼかし具合が最大となるよう背景画像のシャープネスが調整され、ぼかし具合が最小(またはぼかし無し)となるパラメータが設定された場合、背景画像のシャープネスは調整されない。   When the parameter that maximizes the blur condition is set, the sharpness of the background image is adjusted to maximize the blur condition, and when the parameter that minimizes the blur condition (or no blur) is set, the background image The sharpness is not adjusted.

ここで、図17を参照して、撮影画像における人物の顔の大きさと背景のぼかし量について説明する。   Here, with reference to FIG. 17, the size of a person's face and the amount of background blur in a captured image will be described.

図17には、3種類の撮影画像511,512,513が示されている。撮影画像511,512,513それぞれには、背景画像521a,521b,521cが合成されている。背景画像521a,521b,521cは、いずれも同じ背景画像であり、異なるぼかし具合のぼかし処理が施されている。   FIG. 17 shows three types of captured images 511, 512, and 513. Background images 521a, 521b, and 521c are combined with the captured images 511, 512, and 513, respectively. The background images 521a, 521b, and 521c are all the same background image, and are subjected to a blurring process with different blurring conditions.

また、撮影画像511,512,513の下には、それぞれの撮影画像についての、撮影空間A1における利用者の立ち位置、撮影画像それぞれにおける人物(利用者)の顔の大きさ、そして、背景画像に施されるぼかし処理のぼかし量(ぼかし具合)が示されている。   Below the captured images 511, 512, and 513, for each captured image, the user's standing position in the capturing space A1, the size of the face of the person (user) in each captured image, and the background image The blurring amount (blurring degree) of the blurring process applied to is shown.

撮影画像511においては、利用者の立ち位置が後ろ(カメラ111から遠い位置)であるので、利用者の顔の大きさは小さくなる。したがって、背景画像521aには、ぼかし量を小さくするぼかし処理が施される。   In the captured image 511, since the user's standing position is behind (a position far from the camera 111), the size of the user's face becomes small. Therefore, the background image 521a is subjected to a blurring process for reducing the blurring amount.

撮影画像512においては、利用者の立ち位置が中ほど(カメラ111と背面パネル51の略中間となる位置)であるので、利用者の顔の大きさも中程度となる。したがって、背景画像521bには、ぼかし量を中程度とするぼかし処理が施される。   In the photographed image 512, since the user's standing position is in the middle (a position approximately in the middle between the camera 111 and the rear panel 51), the size of the user's face is also medium. Therefore, the background image 521b is subjected to a blurring process with a moderate blurring amount.

撮影画像513においては、利用者の立ち位置が前(カメラ111に近い位置)であるので、利用者の顔の大きさは大きくなる。したがって、背景画像521cには、ぼかし量を大きくするぼかし処理が施される。   In the captured image 513, since the user's standing position is the front (position close to the camera 111), the size of the user's face increases. Therefore, the background image 521c is subjected to a blurring process for increasing the blurring amount.

このように、撮影画像に写る顔が大きいほど、背景のぼかし量が大きくなるので、人物と背景との間に距離があるように見えるようになる。   As described above, the larger the face appearing in the captured image, the larger the blur amount of the background. Therefore, it appears that there is a distance between the person and the background.

すなわち、以上の処理によれば、被写体となる利用者が撮影空間内のどこに立ってもピントが合うよう、被写界深度が深く設定されている写真シール機であっても、奥行き感のある画像を提供することが可能となる。   That is, according to the above processing, even if the photo sticker has a deep depth of field so that the subject user can focus anywhere in the shooting space, there is a sense of depth. Images can be provided.

なお、以上においては、編集対象として選択されているアップ画像に対して背景画像が合成される度に、背景画像にぼかし処理が施されるものとしたが、1つの背景画像について、異なるぼかし具合のぼかし処理が施された背景画像が複数用意されるようにしてもよい。この場合、背景選択領域401において、1つの背景画像が選択されると、その背景画像に対して異なるぼかし具合のぼかし処理が施された背景画像の中から、編集対象となる撮影画像に写る人物の顔の大きさに対応したぼかし具合のぼかし処理が施された背景画像が選択され、その撮影画像に合成される。   In the above description, the background image is subjected to the blurring process every time the background image is combined with the up image selected as the editing target. A plurality of background images subjected to the blur processing may be prepared. In this case, when one background image is selected in the background selection area 401, a person who appears in the captured image to be edited from the background images that have been subjected to different blurring processes on the background image. A background image subjected to a blurring process corresponding to the size of the face is selected and combined with the captured image.

また、以上においては、編集対象としてアップ画像が選択された場合に、背景画像にぼかし処理が施されるものとした。アップ画像においては、全身画像と比べて人物の顔が大きく写るため、奥行き感がより強調されるようになる。特に、利用者が、写真シール機の利用者で最も多い2人組が撮影画像において互いに離れて写った場合には、奥行き感がより一層強調される。   In the above description, the background image is subjected to the blurring process when the up image is selected as the editing target. In the up image, since the face of the person is shown larger than the whole body image, the sense of depth is more emphasized. In particular, the depth feeling is further emphasized when a pair of users, who are the largest number of users of a photo sticker, are photographed apart from each other in the photographed image.

なお、上述した例とは逆に、編集対象として全身画像が選択された場合であっても、背景画像にぼかし処理が施されるようにしてもよい。この場合でも、撮影空間A1において利用者の立ち位置がカメラ111に近づくほど、奥行き感が出るようになる。   Contrary to the example described above, the background image may be subjected to the blurring process even when the whole body image is selected as the editing target. Even in this case, the closer the user's standing position to the camera 111 in the shooting space A1, the greater the sense of depth.

また、顔の大きさ以外の、顔の状態に応じたぼかし具合のぼかし処理が背景画像に施されるようにしてもよい。   In addition, the background image may be subjected to a blurring process according to the face condition other than the face size.

例えば、顔の向きに応じたぼかし具合のぼかし処理が背景画像に施されるようにしてもよい。具体的には、顔が正面を向いているほど、ぼかし具合が大きくなるようにし、顔が横を向いているほど、ぼかし具合が小さくなるようにする。この場合、撮影の際、利用者がカメラ111に対して顔をまっすぐ向けるほど、奥行き感のある画像が提供されるようになる。   For example, the background image may be subjected to a blurring process according to the direction of the face. Specifically, the degree of blurring is increased as the face is facing front, and the degree of blurring is decreased as the face is sideways. In this case, an image with a sense of depth is provided as the user turns his face straight toward the camera 111 at the time of shooting.

また、顔の位置に応じたぼかし具合のぼかし処理が背景画像に施されるようにしてもよい。具体的には、顔の中心(例えば鼻)が、撮影範囲において画像全体のバランスが最も良くなる所定位置に近いほど、ぼかし具合が大きくなるようにし、顔の中心が所定位置から遠いほど、ぼかし具合が小さくなるようにする。この場合、撮影の際、利用者が所定位置に顔を近づけるほど、奥行き感のある、かつ、バランスの良い画像が提供されるようになる。   Further, the background image may be subjected to a blurring process according to the position of the face. Specifically, the blurring degree increases as the center of the face (for example, the nose) is closer to a predetermined position where the balance of the entire image is the best in the shooting range, and the blurring is increased as the center of the face is farther from the predetermined position. Try to reduce the condition. In this case, an image with a sense of depth and good balance is provided as the user brings his face closer to a predetermined position at the time of shooting.

さらに、顔の数に応じたぼかし具合のぼかし処理が背景画像に施されるようにしてもよい。具体的には、顔の数が2に近いほど、ぼかし具合が大きくなるようにする。この場合、写真シール作成装置1の利用者として最も多い2人組が被写体となることで、奥行き感のある画像が提供されるようになる。なお、利用者の人数が多いほど、撮影画像に写る背景の領域は小さくなるので、顔の数が多いほど、ぼかし具合が小さくなるようにしても、そのことは画像の見た目には大きく影響しない。   Further, the background image may be subjected to a blurring process according to the number of faces according to the number of faces. Specifically, the closer the number of faces is to 2, the greater the degree of blurring. In this case, an image with a sense of depth can be provided by making the most common duo as users of the photo sticker creating apparatus 1 as subjects. Note that the larger the number of users, the smaller the background area that appears in the captured image. Therefore, the larger the number of faces, the smaller the blurring will be. This does not significantly affect the appearance of the image. .

以上においては、顔の大きさに応じたぼかし具合のぼかし処理が背景画像に施されるものとしたが、前景画像に施されるようにしてもよい。   In the above description, the blurring process according to the size of the face is performed on the background image, but may be performed on the foreground image.

図18は、ぼかし処理が前景画像に施される場合の、人物の顔の大きさと前景のぼかし量について説明する図である。   FIG. 18 is a diagram for explaining the size of a person's face and the amount of foreground blur when the blur process is performed on the foreground image.

図18において、撮影画像511,512,513それぞれには、前景画像としての星型のスタンプ画像531a,531b,531cと、ハート型のスタンプ画像532a,532b,532cが合成されている。スタンプ画像531a,531b,531cは、いずれも同じスタンプ画像であり、異なるぼかし具合のぼかし処理が施されている。スタンプ画像532a,532b,532cもまた、いずれも同じスタンプ画像であり、異なるぼかし具合のぼかし処理が施されている。   In FIG. 18, star-shaped stamp images 531a, 531b, and 531c as foreground images and heart-shaped stamp images 532a, 532b, and 532c are combined with each of captured images 511, 512, and 513. The stamp images 531a, 531b, and 531c are all the same stamp images, and are subjected to blurring processing with different blurring conditions. The stamp images 532a, 532b, and 532c are also the same stamp image, and are subjected to blurring processing with different blurring conditions.

撮影画像511においては、利用者の立ち位置が後ろであるので、利用者の顔の大きさは小さくなる。したがって、スタンプ画像531a,532aには、ぼかし量を小さくするぼかし処理が施される。   In the captured image 511, since the user's standing position is behind, the size of the user's face is reduced. Accordingly, the stamp images 531a and 532a are subjected to a blurring process for reducing the blurring amount.

撮影画像512においては、利用者の立ち位置が中ほどであるので、利用者の顔の大きさも中程度となる。したがって、スタンプ画像531b,532bには、ぼかし量を中程度とするぼかし処理が施される。   In the photographed image 512, the user's standing position is middle, so the size of the user's face is also medium. Therefore, the stamp images 531b and 532b are subjected to the blurring process with the blurring amount being medium.

撮影画像513においては、利用者の立ち位置が前であるので、利用者の顔の大きさは大きくなる。したがって、スタンプ画像531c,532cには、ぼかし量を大きくするぼかし処理が施される。   In the captured image 513, the user's standing position is in front, so the size of the user's face increases. Accordingly, the stamp images 531c and 532c are subjected to a blurring process for increasing the blurring amount.

このように、撮影画像に写る顔が大きいほど、前景のぼかし量が大きくなるので、人物にピントが合ったように見えるようになる。   As described above, the larger the face in the captured image, the greater the amount of blur in the foreground, so that the person appears to be in focus.

すなわち、以上の例によれば、被写体となる利用者が撮影空間内のどこに立ってもピントが合うよう、被写界深度が深く設定されている写真シール機であっても、被写界深度を浅く設定して撮影したような、前景と人物との間に奥行き感のある画像を提供することが可能となる。   That is, according to the above example, even if the photo sticker has a deep depth of field so that the subject user can focus anywhere in the shooting space, the depth of field It is possible to provide an image having a sense of depth between the foreground and the person, such as when the image is set shallowly.

なお、上述したぼかし処理は、撮影画像に合成される背景画像および前景画像のいずれか一方に施されるようにしてもよいし、背景画像および前景画像の両方に施されるようにしてもよい。特に、上述したぼかし処理が、背景画像および前景画像の両方に施されるようにした場合には、背景画像および前景画像のいずれか一方に施される場合と比較して、より奥行き感のある画像を提供することができる。   Note that the blurring process described above may be performed on either the background image or the foreground image combined with the captured image, or may be performed on both the background image and the foreground image. . In particular, when the blurring process described above is applied to both the background image and the foreground image, there is a sense of depth compared to the case where it is applied to either the background image or the foreground image. Images can be provided.

以上においては、編集対象となる撮影画像にぼかし処理が施される例について説明してきたが、他の画像にぼかし処理が施されるようにしてもよい。   In the above, the example in which the blurring process is performed on the captured image to be edited has been described, but the blurring process may be performed on other images.

例えば、撮影処理において表示されるライブビュー画像に合成用画像(背景画像や前景画像)が合成されるようにし、その合成用画像に上述したぼかし処理が施されるようにする。また、撮影処理において表示される、撮影結果としての撮影画像に合成用画像が合成されるようにし、その合成用画像に上述したぼかし処理が施されるようにしてもよい。   For example, a synthesis image (background image or foreground image) is synthesized with the live view image displayed in the shooting process, and the above-described blurring process is performed on the synthesis image. Further, the composition image may be combined with the photographed image as the photographing result displayed in the photographing process, and the above-described blurring process may be performed on the composition image.

また、撮影処理や編集処理において表示される撮影画像や編集画像には、上述したぼかし処理が施されないようにし、シール紙に印刷されたり、携帯専用画像としてサーバに送信される撮影画像や編集画像に、上述したぼかし処理が施されるようにしてもよい。   In addition, the photographed image and the edited image displayed in the photographing process and the editing process are not subjected to the blurring process described above, and the photographed image or the edited image that is printed on the sticker paper or transmitted to the server as a portable-only image. In addition, the blurring process described above may be performed.

以上においては、撮影画像に写る顔の大きさに応じた画像処理として、ぼかし処理が施される例について説明してきたが、ぼかし処理以外の画像処理が施されるようにしてもよい。   In the above description, the example in which the blurring process is performed as the image processing corresponding to the size of the face shown in the photographed image has been described. However, image processing other than the blurring process may be performed.

<画像処理の例1>
撮影画像に写る顔の大きさに応じた画像処理として、明度、彩度、色相などの色情報を調整する処理が施されるようにしてもよい。
<Example 1 of image processing>
As image processing corresponding to the size of the face shown in the photographed image, processing for adjusting color information such as brightness, saturation, and hue may be performed.

例えば、撮影画像に写る顔の大きさが大きい程、背景画像が明るくなるように、明度(明るさ)を調整する明るさ調整処理が施され、撮影画像に写る顔の大きさが小さい程、背景画像が暗くなるように、明るさ調整処理が施されるようにする。明るさ調整処理においては、トーンカーブなどの色調補正機能が用いられる。   For example, brightness adjustment processing is performed to adjust the brightness (brightness) so that the background image becomes brighter as the size of the face reflected in the captured image increases, and the smaller the size of the face reflected in the captured image, Brightness adjustment processing is performed so that the background image becomes dark. In the brightness adjustment process, a tone correction function such as a tone curve is used.

図19は、明るさ調整処理が背景画像に施される場合の、人物の顔の大きさと背景の明るさについて説明する図である。   FIG. 19 is a diagram for explaining the size of a person's face and the brightness of the background when the brightness adjustment process is performed on the background image.

図19において、撮影画像511,512,513それぞれには、背景画像541a,541b,541cが合成されている。背景画像541a,541b,541cは、いずれも同じ背景画像であり、異なる明るさとなる明るさ調整処理が施されている。   In FIG. 19, background images 541a, 541b, and 541c are combined with the captured images 511, 512, and 513, respectively. The background images 541a, 541b, and 541c are all the same background image, and have been subjected to brightness adjustment processing with different brightness.

撮影画像511においては、利用者の立ち位置が後ろであるので、利用者の顔の大きさは小さくなる。したがって、背景画像541aには、背景の明るさを小さくする明るさ調整処理が施される。   In the captured image 511, since the user's standing position is behind, the size of the user's face is reduced. Therefore, the background image 541a is subjected to brightness adjustment processing for reducing the brightness of the background.

撮影画像512においては、利用者の立ち位置が中ほどであるので、利用者の顔の大きさも中程度となる。したがって、背景画像541bには、背景の明るさを中程度とする明るさ調整処理が施される。   In the photographed image 512, the user's standing position is middle, so the size of the user's face is also medium. Therefore, the background image 541b is subjected to a brightness adjustment process in which the brightness of the background is medium.

撮影画像513においては、利用者の立ち位置が前であるので、利用者の顔の大きさは大きくなる。したがって、背景画像541cには、背景の明るさを大きくする明るさ調整処理が施される。   In the captured image 513, the user's standing position is in front, so the size of the user's face increases. Accordingly, a brightness adjustment process for increasing the brightness of the background is performed on the background image 541c.

利用者の立ち位置がカメラ111に近いほど、利用者には、上ストロボユニット103からの光が十分にあたり、撮影画像において利用者は明るく写るようになる。一方、利用者の立ち位置がカメラ111から遠いほど、利用者には、上ストロボユニット103からの光が十分にあたらず、撮影画像において利用者は暗く写るようになる。   The closer the user's standing position is to the camera 111, the more light from the upper strobe unit 103 hits the user, and the user appears brighter in the captured image. On the other hand, as the user's standing position is farther from the camera 111, the user is not sufficiently exposed to the light from the upper strobe unit 103, and the user appears darker in the captured image.

そこで、撮影画像に写る顔が大きいほど、背景画像を明るくすることで、人物と背景の明るさの差が小さくなる。また、撮影画像に写る顔が小さいほど、背景画像を暗くすることで、人物と背景の明るさの差が小さくなる。   Therefore, the larger the face that appears in the captured image, the brighter the background image, so that the difference in brightness between the person and the background becomes smaller. In addition, the smaller the face that appears in the captured image, the darker the background image, thereby reducing the difference in brightness between the person and the background.

すなわち、以上の例によれば、被写体となる利用者が撮影空間内のどこに立っても、人物と背景の明るさのバランスがとれた画像を提供することが可能となる。   That is, according to the above example, it is possible to provide an image in which the brightness of the person and the background is balanced regardless of where the user as the subject stands in the shooting space.

なお、撮影画像に写る顔が小さいほど、撮影画像における人物領域の明るさを大きくする明るさ調整処理が施されるようにしてもよい。これにより、利用者の立ち位置がカメラ111から遠く、利用者に上ストロボユニット103からの光が十分にあたらないような場合であっても、利用者の立ち位置がカメラ111から近いときと同程度に、撮影画像において利用者が明るく写るようにすることができる。   Note that brightness adjustment processing may be performed to increase the brightness of the person area in the captured image as the face in the captured image is smaller. As a result, even when the user's standing position is far from the camera 111 and the user is not sufficiently exposed to the light from the upper flash unit 103, the user's standing position is the same as when the user's standing position is close to the camera 111. It is possible to make the user appear brighter in the captured image.

また、ライブビュー画像に明るさ調整処理を施すようにした場合、ライブビュー画像に写る顔が小さいほど、ライブビュー画像における人物領域の明るさを小さく、ライブビュー画像に写る顔が大きいほど、ライブビュー画像における人物領域の明るさを大きくする明るさ調整処理が施されるようにしてもよい。通常、ライブビュー画像を確認しながら撮影作業を行う利用者は、ライブビュー画像において自身が暗く映ることを好まない。そこで、ライブビュー画像に写る顔が大きいほど、ライブビュー画像における人物領域の明るさを大きくすることで、結果的に、利用者を、カメラ111に近い位置に誘導することができる。   In addition, when brightness adjustment processing is performed on a live view image, the smaller the face that appears in the live view image, the lower the brightness of the person area in the live view image, and the larger the face that appears in the live view image, A brightness adjustment process for increasing the brightness of the person area in the view image may be performed. Usually, a user who performs a shooting operation while confirming a live view image does not like to appear dark in the live view image. Therefore, by increasing the brightness of the person area in the live view image as the face captured in the live view image increases, the user can be guided to a position closer to the camera 111 as a result.

<画像処理の例2>
撮影画像に写る顔の大きさに応じた画像処理として、合成用画像の大きさを調整する処理が施されるようにしてもよい。
<Example 2 of image processing>
As image processing corresponding to the size of the face shown in the photographed image, processing for adjusting the size of the composition image may be performed.

例えば、撮影画像に写る顔の大きさが大きい程、合成用画像が大きくなるように、その大きさを調整するサイズ調整処理が施され、撮影画像に写る顔の大きさが小さい程、合成用画像が小さくなるように、サイズ調整処理が施されるようにする。   For example, a size adjustment process is performed to adjust the size of the face so that the larger the face size in the captured image is, the larger the size of the composite image is. Size adjustment processing is performed so that the image becomes smaller.

図20は、サイズ調整処理が合成用画像に施される場合の、人物の顔の大きさと合成用画像の大きさについて説明する図である。   FIG. 20 is a diagram illustrating the size of a person's face and the size of a composition image when size adjustment processing is performed on the composition image.

図20において、撮影画像511,512,513それぞれには、前景画像としての星型のスタンプ画像551a,551b,551cと、ハート型のスタンプ画像552a,552b,552cが合成されている。スタンプ画像551a,551b,551cは、いずれも同じスタンプ画像であり、異なる大きさとなるサイズ調整処理が施されている。スタンプ画像552a,552b,552cもまた、いずれも同じスタンプ画像であり、異なる大きさとなるサイズ調整処理が施されている。   In FIG. 20, the star-shaped stamp images 551a, 551b, and 551c as the foreground images and the heart-shaped stamp images 552a, 552b, and 552c are combined with the captured images 511, 512, and 513, respectively. The stamp images 551a, 551b, and 551c are all the same stamp image, and have been subjected to size adjustment processing for different sizes. The stamp images 552a, 552b, and 552c are also the same stamp image, and have been subjected to size adjustment processing for different sizes.

撮影画像511においては、利用者の立ち位置が後ろ(カメラ111から遠い位置)であるので、利用者の顔の大きさは小さくなる。したがって、スタンプ画像551a,552aには、サイズを小さくするサイズ調整処理が施される。   In the captured image 511, since the user's standing position is behind (a position far from the camera 111), the size of the user's face becomes small. Therefore, the stamp images 551a and 552a are subjected to a size adjustment process for reducing the size.

撮影画像512においては、利用者の立ち位置が中ほど(カメラ111と背面パネル51の略中間となる位置)であるので、利用者の顔の大きさも中程度となる。したがって、スタンプ画像551b,552bには、サイズを中程度とするサイズ調整処理が施される。   In the photographed image 512, since the user's standing position is in the middle (a position approximately in the middle between the camera 111 and the rear panel 51), the size of the user's face is also medium. Therefore, the stamp images 551b and 552b are subjected to a size adjustment process with a medium size.

撮影画像513においては、利用者の立ち位置が前(カメラ111に近い位置)であるので、利用者の顔の大きさは大きくなる。したがって、スタンプ画像551c,552cには、サイズを大きくするサイズ調整処理が施される。   In the captured image 513, since the user's standing position is the front (position close to the camera 111), the size of the user's face increases. Therefore, the stamp images 551c and 552c are subjected to a size adjustment process for increasing the size.

また、図20において、撮影画像511,512,513それぞれには、背景画像561a,561b,561cが合成されている。背景画像561a,561b,561cは、いずれも同じ文字を含む背景画像であり、その背景画像(文字)が異なる大きさとなるサイズ調整処理が施されている。   In FIG. 20, background images 561a, 561b, and 561c are combined with the captured images 511, 512, and 513, respectively. The background images 561a, 561b, and 561c are all background images that include the same characters, and have been subjected to size adjustment processing that makes the background images (characters) have different sizes.

撮影画像511においては、利用者の立ち位置が後ろであるので、利用者の顔の大きさは小さくなる。背景画像561aには、背景画像(文字)のサイズを極めて小さくするサイズ調整処理が施される。   In the captured image 511, since the user's standing position is behind, the size of the user's face is reduced. The background image 561a is subjected to a size adjustment process for extremely reducing the size of the background image (character).

撮影画像512においては、利用者の立ち位置が中ほどであるので、利用者の顔の大きさも中程度となる。背景画像561bには、背景画像(文字)のサイズを小さくするサイズ調整処理が施される。   In the photographed image 512, the user's standing position is middle, so the size of the user's face is also medium. The background image 561b is subjected to size adjustment processing for reducing the size of the background image (character).

撮影画像513においては、利用者の立ち位置が前であるので、利用者の顔の大きさは大きくなる。背景画像561cには、背景画像(文字)のサイズを中程度とするサイズ調整処理が施される。   In the captured image 513, the user's standing position is in front, so the size of the user's face increases. The background image 561c is subjected to a size adjustment process in which the background image (character) has a medium size.

このように、撮影画像に写る顔が大きいほど、スタンプ画像や背景の文字を大きくすることで、人物とスタンプ画像や背景の文字との大きさの差が小さくなる。また、撮影画像に写る顔が小さいほど、スタンプ画像や背景の文字を小さくすることで、人物とスタンプ画像や背景の文字との大きさの差が小さくなる。   As described above, the larger the face appearing in the photographed image, the larger the stamp image or background character, so that the difference in size between the person and the stamp image or background character becomes smaller. In addition, the smaller the face that appears in the captured image, the smaller the stamp image or background character, so that the difference in size between the person and the stamp image or background character becomes smaller.

すなわち、以上の例によれば、被写体となる利用者が撮影空間内のどこに立っても、人物とスタンプ画像や背景の文字の大きさのバランスがとれた画像を提供することが可能となる。   In other words, according to the above example, it is possible to provide an image in which the size of the person and the stamp image and the background text are balanced regardless of where the subject user stands in the shooting space.

なお、従来の写真シール機において、スタンプ画像のサイズを変更するには、編集画面に対する操作が必要であったが、上述した例によれば、編集画面に対する操作の必要なく、スタンプ画像のサイズを変更することができる。   It should be noted that, in the conventional photo sticker, in order to change the size of the stamp image, an operation on the edit screen is required. However, according to the above-described example, the size of the stamp image is not required without an operation on the edit screen. Can be changed.

さらに、図20の例において、撮影画像に写る顔が大きいほど、背景画像のぼかし量を大きくし、撮影画像に写る顔が小さいほど、背景画像のぼかし量を小さくするようにしてもよい。   Further, in the example of FIG. 20, the blurring amount of the background image may be increased as the face appearing in the captured image is larger, and the blurring amount of the background image may be decreased as the face reflected in the captured image is smaller.

また、図20の例とは逆に、撮影画像に写る顔が大きいほど、背景の文字を小さくするようにしてもよい。この場合、人物と背景との間に距離があるように見えるようになり、奥行き感のある画像を提供することができる。   In contrast to the example of FIG. 20, the background character may be made smaller as the face appearing in the captured image is larger. In this case, it seems that there is a distance between the person and the background, and an image with a sense of depth can be provided.

なお、図20の例では、スタンプ画像が前景画像として撮影画像に合成されるものとしたが、ペン画像が前景画像として撮影画像に合成されるようにしてもよい。さらに、スタンプ画像やペン画像が、背景画像として撮影画像に合成されるようにしてもよい。   In the example of FIG. 20, the stamp image is combined with the captured image as the foreground image, but the pen image may be combined with the captured image as the foreground image. Furthermore, a stamp image or a pen image may be combined with the captured image as a background image.

また、上述した例において、これらスタンプ画像やペン画像のぼかし量を、背景画像のぼかし量と同等にしてもよい。さらに、前景画像として合成されるスタンプ画像(ペン画像)は大きく(太く)なるように、背景画像として合成されるスタンプ画像(ペン画像)は小さく(細く)なるように、サイズ調整処理が施されるようにしてもよい。さらにまた、スタンプ画像やペン画像が、前景画像であるか背景画像であるかに応じて、その透過度などが調整されるようにしてもよい。   In the above-described example, the blur amount of the stamp image or the pen image may be equal to the blur amount of the background image. Furthermore, the size adjustment processing is performed so that the stamp image (pen image) combined as the foreground image becomes large (thick) and the stamp image (pen image) combined as the background image becomes small (thin). You may make it do. Furthermore, the transparency or the like may be adjusted according to whether the stamp image or pen image is a foreground image or a background image.

<撮影画像上の位置に応じたパラメータ調整>
以上においては、撮影画像に写る顔の大きさに基づいて、画像処理のパラメータが調整されるものとしたが、撮影画像上の位置(座標)に応じて、画像処理のパラメータが調整されるようにしてもよい。
<Parameter adjustment according to the position on the captured image>
In the above, the image processing parameters are adjusted based on the size of the face appearing in the captured image. However, the image processing parameters are adjusted according to the position (coordinates) on the captured image. It may be.

例えば、図21に示されるように、撮影画像571上の位置が上であるほど、ぼかし具合が小さくなるようなパラメータが設定され、撮影画像571上の位置が下であるほど、ぼかし具合が大きくなるようなパラメータが設定されるようにしてもよい。   For example, as shown in FIG. 21, a parameter is set such that the higher the position on the photographed image 571 is, the smaller the blur condition is. The lower the position on the photographed image 571 is, the larger the blur condition is. Such a parameter may be set.

この場合、特に、撮影画像571が、図21に示されるような、斜め上から見た利用者の全身が写る全身画像である場合、撮影画像における下側の領域に写る床面の背景画像に、ぼかし量の大きいぼかし処理が施されるようになる。これにより、高さ方向に奥行き感(立体感)のある画像を提供することが可能となる。   In this case, in particular, when the photographed image 571 is a whole body image showing the whole body of the user as viewed obliquely from the top as shown in FIG. 21, the background image of the floor surface shown in the lower region of the photographed image is displayed. The blur process with a large blur amount is performed. Thereby, it is possible to provide an image having a sense of depth (three-dimensional effect) in the height direction.

<その他>
以上においては、撮影画像に写る顔の大きさが大きいほど、ぼかし量の大きいぼかし処理が施される例について説明したが、ぼかし具合によっては、そのぼかし処理が施される合成用画像がどのようなものなのか認識できなくなるおそれがある。
<Others>
In the above description, the example in which the blurring process with the larger blur amount is performed as the face size in the photographed image is larger has been described. There is a risk that it will not be possible to recognize what is wrong.

そこで、撮影画像に施されるぼかし処理の有無を利用者に選択させるようにしてもよい。   Therefore, the user may be allowed to select whether or not to perform the blurring process performed on the captured image.

例えば、図22に示される編集画面において、編集領域412Lの左側に、ぼかしONボタン611−1およびぼかしOFFボタン611−2が設けられるようにする。   For example, on the editing screen shown in FIG. 22, a blur ON button 611-1 and a blur OFF button 611-2 are provided on the left side of the editing area 412L.

ぼかしONボタン611−1およびぼかしOFFボタン611−2は、ぼかし処理をON/OFFするために操作される。タッチペンにより、ぼかしONボタン611−1が操作されると、編集領域412Lに表示されている撮影画像は、撮影画像に写る顔の大きさに基づいたぼかし処理が施された状態となる。また、この状態で、タッチペンにより、ぼかしOFFボタン611−2が操作されると、編集領域412Lに表示されている撮影画像は、ぼかし処理が施されていない状態となる。   The blur ON button 611-1 and the blur OFF button 611-2 are operated to turn ON / OFF the blur processing. When the blur ON button 611-1 is operated with the touch pen, the photographed image displayed in the editing area 412L is in a state where a blurring process based on the size of the face appearing in the photographed image is performed. In this state, when the blur OFF button 611-2 is operated with the touch pen, the photographed image displayed in the editing area 412L is not subjected to the blur process.

また、撮影画像に施されたぼかし処理のぼかし具合を利用者に選択させるようにしてもよい。   Further, the user may be allowed to select the degree of blurring of the blurring process performed on the captured image.

例えば、図23に示される編集画面において、編集領域412Lの左側に、スライダー612が設けられるようにする。   For example, in the editing screen shown in FIG. 23, a slider 612 is provided on the left side of the editing area 412L.

スライダー612は、ぼかし処理のぼかし具合を調整するために操作される。タッチペンにより、スライダー612が+側(図中上側)に操作される程、編集領域412Lに表示されている撮影画像は、人物以外の領域(例えば背景画像)にぼかし量の大きいぼかし処理が施された状態となる。また、タッチペンにより、スライダー612が−側(図中下側)に操作される程、編集領域412Lに表示されている撮影画像は、人物以外の領域にぼかし量の小さいぼかし処理が施された状態となる。   The slider 612 is operated to adjust the blurring degree of the blurring process. As the slider 612 is operated to the + side (upper side in the figure) with the touch pen, the captured image displayed in the editing area 412L is subjected to a blurring process with a large blurring amount in an area other than a person (for example, a background image). It becomes a state. In addition, as the slider 612 is operated to the − side (lower side in the drawing) with the touch pen, the captured image displayed in the editing area 412L is subjected to a blurring process with a small blurring amount in an area other than a person. It becomes.

また、図示はしないが、ぼかし処理のぼかし具合を調整するために操作されるGUIとして、編集画面において、所定のペンアイコンを設けるようにしてもよい。タッチペンにより、このペンアイコンが操作された後、タブレット内蔵モニタ141(編集画面)上の所定の領域がなぞられると、タッチペンの軌跡の距離に応じて、人物以外の領域に対して施されるぼかし処理のぼかし具合が調整される。   Further, although not shown, a predetermined pen icon may be provided on the editing screen as a GUI operated to adjust the blurring degree of the blurring process. When a predetermined area on the tablet built-in monitor 141 (editing screen) is traced after the pen icon is operated by the touch pen, blurring is performed on areas other than the person according to the distance of the path of the touch pen. The blur of processing is adjusted.

また、タッチペンの軌跡の長さではなく、タッチペンとタブレット内蔵モニタ141との接触時間の長さに応じて、人物領域に対して施されるぼかし処理のぼかし具合が調整されるようしてもよい。   Further, the degree of blurring of the blurring process performed on the person area may be adjusted according to the length of the contact time between the touch pen and the tablet built-in monitor 141 instead of the length of the touch pen locus. .

これらの場合、タッチペンの軌跡の距離や、タブレット内蔵モニタ141との接触時間の長さに対応して、ぼかし処理のぼかし量の大小が周期的に変化するようにする。   In these cases, the amount of blurring in the blurring process is changed periodically according to the distance of the locus of the touch pen and the length of the contact time with the tablet built-in monitor 141.

さらに、タブレット内蔵モニタ141上のタッチペンの移動方向に応じて、人物以外の領域に対して施されるぼかし処理のぼかし具合が調整されるようにしてもよい。例えば、タブレット内蔵モニタ141上で、タッチペンが右または上に移動するほど、人物以外の領域に対してぼかし量の大きいぼかし処理が施され、タッチペンが左または下に移動するほど、人物以外の領域に対してぼかし量の小さいぼかし処理が施されるようにする。   Furthermore, according to the moving direction of the touch pen on the tablet built-in monitor 141, the blurring degree of the blurring process performed on the area other than the person may be adjusted. For example, on the tablet built-in monitor 141, as the touch pen moves to the right or upward, a blur process with a larger blur amount is performed on the area other than the person, and as the touch pen moves to the left or lower, the area other than the person A blurring process with a small blurring amount is performed.

また、上述したタブレット内蔵モニタ141に対する操作に、タッチペンに代えて指を用いるようにしてもよい。この場合、ピンチインやピンチアウト等の操作によって、ぼかし処理のぼかし具合が調整されるようしてもよい。具体的には、ピンチアウトの操作により、人物以外の領域に対して施されるぼかし処理が強くなり、ピンチインの操作により、人物以外の領域に対して施されるぼかし処理が弱くなるようにする。   Moreover, you may make it use a finger instead of a touch pen for operation with respect to the monitor 141 with a tablet mentioned above. In this case, the blurring degree of the blurring process may be adjusted by operations such as pinch-in and pinch-out. Specifically, the blurring process applied to the area other than the person is strengthened by the pinch-out operation, and the blurring process applied to the area other than the person is weakened by the pinch-in operation. .

さらに、ぼかし処理のぼかし具合を調整するために操作される物理的なボタンやキー等の操作部が、タブレット内蔵モニタ141の周辺に設けられるようにしてもよい。   Furthermore, an operation unit such as a physical button or key operated to adjust the blurring degree of the blurring process may be provided around the tablet built-in monitor 141.

さらにまた、上述したぼかし処理のぼかし具合を調整するためのGUI、物理的な操作部、および指による操作が、任意に組み合わされて用いられるようにしてもよい。   Furthermore, a GUI for adjusting the blurring degree of the blurring process described above, a physical operation unit, and an operation with a finger may be arbitrarily combined and used.

これにより、利用者は、撮影画像に対して、好みのぼかし具合のぼかし処理を施すことができる。   As a result, the user can perform a blurring process with a desired degree of blurring on the captured image.

また、撮影画像の用途に応じて、背景画像に施されるぼかし処理のぼかし具合が調整されるようにしてもよい。   Further, the degree of blurring of the blurring process performed on the background image may be adjusted according to the use of the captured image.

具体的には、撮影画像が携帯専用画像である場合、特に、撮影画像がSNS(Social Networking Service)のトップ画像(プロフィール画像)に用いられる場合、このトップ画像は顔が大きく写るアップ画像であることが多いため、背景画像に施されるぼかし処理が強くなるようにする。これにより、トップ画像として、奥行きのある画像を提供することができる。   Specifically, when the photographed image is a mobile-only image, particularly when the photographed image is used as a top image (profile image) of SNS (Social Networking Service), the top image is an up image with a large face. In many cases, the blurring process applied to the background image is strengthened. Thereby, a deep image can be provided as a top image.

また、上述した例とは逆に、撮影画像が携帯専用画像である場合、携帯専用画像は携帯端末上でのアプリケーション(アプリ)により加工可能とされるため、背景画像にぼかし処理が施されないようにしてもよい。   Contrary to the above-described example, when the captured image is a portable-only image, the portable-only image can be processed by an application (app) on the portable terminal, so that the background image is not blurred. It may be.

<他の実施の形態>
上述した実施の形態においては、検出された顔の大きさに基づいて、撮影画像に施される画像処理のパラメータが調整(変更)されるものとした。以下においては、検出された顔の器官(パーツ)の大きさや形状に応じて、撮影画像に施される画像処理が変更される例について説明する。
<Other embodiments>
In the above-described embodiment, the parameters of image processing to be performed on the captured image are adjusted (changed) based on the detected face size. In the following, an example will be described in which the image processing applied to the photographed image is changed according to the size and shape of the detected facial organ (part).

図24は、編集画面のさらに他の例を示す図である。   FIG. 24 is a diagram showing still another example of the editing screen.

図24の編集画面においては、編集領域412Lの左端に、メイクパレット621が設けられる。メイクパレット621は、メイクツールを選択するためのアイコンの表示領域である。メイクツールは、撮影画像に写る利用者の顔を、化粧(メイク)を施したような顔にするための編集ツールである。メイクツールが選択されることで、撮影画像に写る利用者の顔に対して、選択されたメイクツールに対応する画像処理が施される。   In the editing screen of FIG. 24, a makeup palette 621 is provided at the left end of the editing area 412L. The makeup palette 621 is an icon display area for selecting a makeup tool. The makeup tool is an editing tool for making the face of the user shown in the photographed image a face that has undergone makeup. By selecting the makeup tool, image processing corresponding to the selected makeup tool is performed on the user's face in the captured image.

図24の例では、唇部分の色を変更するための「リップ」、頬部分の色を変更するための「チーク」、目の形状を変更するための「目のかたち」、および、まつ毛の濃さを変更するための「マスカラ」の、4つのメイクツールが用意されている。これらのメイクツールに対応する画像処理は、メイクパレット621に対する利用者の選択操作(具体的には、メイクパレット621に設けられる「2人同時」ボタンまたは「1人ずつ」ボタンの押下)により、編集領域412Lに表示されている編集対象となる撮影画像に写る2人の利用者それぞれの顔に施されたり、利用者1人ずつの顔に施されるようにすることができる。   In the example of FIG. 24, “lip” for changing the color of the lip portion, “teak” for changing the color of the cheek portion, “shape of the eye” for changing the shape of the eye, and eyelashes There are four makeup tools, “Mascara” for changing the density. The image processing corresponding to these makeup tools is performed by a user's selection operation on the makeup palette 621 (specifically, pressing of the “two simultaneous” button or the “one person” button provided on the makeup palette 621). It can be applied to the face of each of the two users shown in the shot image to be edited displayed in the editing area 412L, or to the face of each user.

また、図24の例では、メイクツールとして「リップ」が選択された場合、唇部分の色に加えて、唇部分のテクスチャが変更(選択)されるようになされている。   In the example of FIG. 24, when “lip” is selected as the makeup tool, the texture of the lip portion is changed (selected) in addition to the color of the lip portion.

ここでいうテクスチャは、艶やマットなどの質感、色、ぼかし具合、模様、明るさのうちのいずれかであるものとする。図24の例では、唇部分のテクスチャとして、濡れ感(濡れたような艶)を出すための「ティント」と、ラメ(微小な金属箔を模したもの)入りのグロスを塗ったような質感を出すための「ラメグロス」とが用意されている。   The texture here is assumed to be any one of a texture such as gloss and matte, a color, a blurring condition, a pattern, and brightness. In the example of FIG. 24, as the texture of the lips, “tint” for giving a feeling of wetness (wet luster) and glossy texture with lame (simulating a fine metal foil) are applied. "Lamegross" to prepare

本実施の形態においては、例えば、テクスチャとして「ラメグロス」が選択されると、撮影画像に写る顔の唇の大きさに基づいて、唇部分のテクスチャを変更する処理が実行される。   In the present embodiment, for example, when “lame gloss” is selected as the texture, a process of changing the texture of the lip portion is executed based on the size of the lip of the face shown in the photographed image.

<テクスチャ変更処理>
ここで、図25のフローチャートを参照して、顔のパーツのテクスチャ変更処理について説明する。
<Texture change processing>
Here, with reference to the flowchart of FIG. 25, the texture change process of the facial part will be described.

ステップS51において、顔検出部311は、編集対象となる撮影画像において、顔のパーツ(ここでは唇)を検出する。   In step S51, the face detection unit 311 detects a facial part (here, lips) in the captured image to be edited.

例えば、顔検出部311は、撮影画像において顔を検出した後、顔の各パーツの位置関係に基づいて唇を検出する。顔の検出は、鼻、これを挟む目、およびこれらを囲む輪郭を認識することで行われるようにしてもよいし、顔の輪郭点を複数抽出しそれらの位置を判別することで行われるようにしてもよい。また、最終的に唇の領域が特定されればよく、顔の検出を行わずに、唇の輪郭点を抽出するなどして、唇を検出するようにしてもよい。   For example, the face detection unit 311 detects the face in the captured image, and then detects the lips based on the positional relationship between the parts of the face. Face detection may be performed by recognizing the nose, the eyes sandwiching the nose, and the outlines surrounding them, or by extracting a plurality of face outline points and determining their positions. It may be. Further, it is only necessary to finally specify the lip region, and the lips may be detected by extracting the contour points of the lips without detecting the face.

なお、テクスチャ変更処理は、撮影画像がアップ画像であるか全身画像であるかにかかわらず実行されるようにすることができる。この場合、全身画像は、アップ画像と比較して顔の部分が小さくなるので、誤検出を避けるために、抽出される輪郭点の数をより多くするなどしてもよい。   The texture change process can be executed regardless of whether the captured image is an up image or a whole body image. In this case, the whole-body image has a smaller face portion than the up-image, so that the number of contour points to be extracted may be increased to avoid erroneous detection.

ステップS52において、顔検出部311は、検出された唇部分についてのマスク画像を生成する。例えば、図26の上段左および中央に示されるように、撮影画像において検出された唇部分の画像631に基づいて、唇部分の領域が黒画素で、それ以外の領域が白画素となるマスク画像632が生成される。   In step S52, the face detection unit 311 generates a mask image for the detected lip portion. For example, as shown in the upper left and center of FIG. 26, based on the lip image 631 detected in the captured image, a mask image in which the lip region is a black pixel and the other regions are white pixels. 632 is generated.

ステップS53において、パラメータ調整部312は、マスク画像のマスク部分(黒画素の部分)の大きさに基づいて、テクスチャ画像の大きさを変更する。ここでは、テクスチャ画像は、ラメ入りのグロスを塗ったような質感を有する矩形状の画像とされる。   In step S53, the parameter adjustment unit 312 changes the size of the texture image based on the size of the mask portion (black pixel portion) of the mask image. Here, the texture image is a rectangular image having a texture such as a glossy finish.

具体的には、図26の上段右に示されるように、所定の大きさのテクスチャ画像633が、マスク画像632における黒画素の部分(唇部分)を囲む最小の矩形領域F1と同一の大きさになるように縮小される。これにより、図26の中段右に示されるような、大きさが変更された(縮小された)テクスチャ画像634が得られる。なお、唇部分を囲む領域の形状は矩形に限らず、例えば楕円などであってもよい。この場合、テクスチャ画像の形状も、その形状に合わせて楕円などであることが望ましい。   Specifically, as shown in the upper right of FIG. 26, the texture image 633 having a predetermined size is the same size as the smallest rectangular region F1 surrounding the black pixel portion (lip portion) in the mask image 632. To be reduced. As a result, a texture image 634 whose size has been changed (reduced) as shown in the middle right of FIG. 26 is obtained. Note that the shape of the region surrounding the lip is not limited to a rectangle, and may be an ellipse, for example. In this case, the shape of the texture image is preferably an ellipse or the like in accordance with the shape.

縮小される前のテクスチャ画像633においては、ラメを模した模様が所定の密度で配置されることで、その質感(テクスチャ)がつくり出されている。テクスチャ画像633の大きさが変更された場合、ラメを模した模様の密度が変化し、そのテクスチャは変化することになる。すなわち、テクスチャ画像は、唇部分の大きさに基づいて、そのテクスチャが変更される。なお、唇部分の大きさによっては、テクスチャ画像633が拡大されることで、そのテクスチャが変更されるようにもなる。   In the texture image 633 before being reduced, the texture (texture) is created by arranging the pattern imitating the glitter at a predetermined density. When the size of the texture image 633 is changed, the density of the pattern imitating the glitter changes, and the texture changes. That is, the texture of the texture image is changed based on the size of the lip portion. Depending on the size of the lip, the texture image 633 may be enlarged to change the texture.

ステップS54において、画像処理部314は、マスク画像を用いて、テクスチャが変更されたテクスチャ画像を、撮影画像における顔のパーツ(唇)に合成する。具体的には、図26における画像631に、テクスチャ画像634からマスク画像632の黒画素の部分を抽出した画像が合成される。これにより、図26の下段中央に示されるように、画像631における唇部分のテクスチャが、その大きさに応じたテクスチャに変更されるようになる。   In step S54, the image processing unit 314 uses the mask image to synthesize the texture image whose texture has been changed with the facial parts (lips) in the captured image. Specifically, an image obtained by extracting the black pixel portion of the mask image 632 from the texture image 634 is combined with the image 631 in FIG. Thereby, as shown in the lower center of FIG. 26, the texture of the lip portion in the image 631 is changed to a texture corresponding to the size.

以上においては、唇の大きさに応じて、唇部分のテクスチャが変更されるものとしたが、唇の形状に応じて、唇部分のテクスチャが変更されるようにしてもよい。   In the above description, the texture of the lip portion is changed according to the size of the lips. However, the texture of the lip portion may be changed according to the shape of the lips.

例えば、唇がぽってりして厚みのある場合、ラメを模した模様の密度を低くするようにし、唇が薄く厚みのない場合、ラメを模した模様の密度を高くするようにする。これにより、撮影画像に写る利用者の唇を、その厚み(形状)に合った見た目の質感に仕上げることができる。唇の厚みは、例えば、上唇部分を囲む最小の矩形、および、下唇部分を囲む最小の矩形それぞれの縦横比が、所定の値以上であるか否かによって判別されるようにする。   For example, when the lips are thick and thick, the density of the pattern imitating the glitter is lowered, and when the lips are thin and not thick, the density of the pattern imitating the glitter is increased. As a result, the user's lips appearing in the photographed image can be finished to an appearance that matches the thickness (shape) of the user. The thickness of the lips is determined based on whether or not the aspect ratio of each of the minimum rectangle surrounding the upper lip portion and the minimum rectangle surrounding the lower lip portion is equal to or greater than a predetermined value.

また、メイクパレット621において選択された唇部分の色に応じて、唇部分のテクスチャが変更されるようにしてもよい。   Further, the texture of the lip portion may be changed according to the color of the lip portion selected in the makeup palette 621.

例えば、選択された唇部分の色に応じて、唇部分においてテクスチャ画像が合成される領域が変更されるようにする。具体的には、例えば、唇部分の色としてピンク色が選択された場合と、オレンジ色が選択された場合とで、上述した矩形領域F1の、左右方向の中心を基準とした幅を変更するようにする。これにより、選択された唇部分の色によって、テクスチャの変更される範囲が変わり、唇部分の色に応じた合成感を抑えることができる。   For example, the region where the texture image is synthesized in the lip portion is changed according to the color of the selected lip portion. Specifically, for example, when the pink color is selected as the color of the lip portion and when the orange color is selected, the width of the rectangular area F1 described above with respect to the center in the left-right direction is changed. Like that. Thereby, the range in which the texture is changed varies depending on the color of the selected lip portion, and it is possible to suppress a feeling of synthesis according to the color of the lip portion.

また、選択された唇部分の色に応じて、テクスチャ画像の濃淡やグラデーションが変更されるようにしてもよい。具体的には、例えば、唇部分の色としてピンク色が選択された場合には、テクスチャ画像におけるラメを模した模様を均一にし、唇部分の色としてオレンジ色が選択された場合には、テクスチャ画像におけるラメを模した模様に濃淡やグラデーションをもたせるようにする。   Further, the shading or gradation of the texture image may be changed according to the color of the selected lip portion. Specifically, for example, when pink is selected as the color of the lip portion, the pattern imitating the glitter in the texture image is made uniform, and when orange is selected as the color of the lip portion, Make the pattern imitating the lamé in the image to have shading and gradation.

さらに、選択された唇部分の色に応じて、テクスチャ画像の明るさが変更されるようにしてもよい。具体的には、例えば、唇部分の色としてピンク色が選択された場合、ピンク色はオレンジ色より彩度が高いので、テクスチャ画像の明るさを低くする。逆に、唇部分の色としてオレンジ色が選択された場合、オレンジ色はピンク色より彩度が低いので、テクスチャ画像の明るさを高くする。   Furthermore, the brightness of the texture image may be changed according to the color of the selected lip portion. Specifically, for example, when pink is selected as the color of the lip portion, the pink color has a higher saturation than the orange color, so the brightness of the texture image is lowered. On the contrary, when orange is selected as the color of the lips, the orange is less saturated than pink, so the brightness of the texture image is increased.

<他のパーツのテクスチャ変更>
以上においては、唇の大きさや形状に応じて、唇部分のテクスチャが変更される例について説明したが、唇以外の顔のパーツについても同様に、その部分のテクスチャが変更されるようにしてもよい。
<Change the texture of other parts>
In the above, the example in which the texture of the lip portion is changed according to the size and shape of the lips has been described. However, the facial texture other than the lips may be changed similarly. Good.

(チークの例)
図24の例で、メイクツールとして「チーク」が選択された場合、頬部分の色に加えて、頬部分のテクスチャが変更されるようにしてもよい。
(Example of teak)
In the example of FIG. 24, when “blush” is selected as the makeup tool, the texture of the cheek portion may be changed in addition to the color of the cheek portion.

頬部分へのテクスチャ画像の合成は、頬部分についてのマスク画像を生成することで行われ、頬部分についてのマスク画像の生成は、頬の領域を特定することで行われる。   The synthesis of the texture image to the cheek portion is performed by generating a mask image for the cheek portion, and the mask image for the cheek portion is generated by specifying the cheek region.

頬の領域を特定する手法としては、例えば、目を認識し、その目尻および目頭の2点を結ぶ線分、目尻および目頭の2点から鉛直下方向に下ろした2直線、これらに直交し、目尻と顔の輪郭との交点を通る直線で囲まれる矩形領域から目の領域を除いた領域を、頬の領域とする。   As a method for identifying the cheek region, for example, the eye is recognized, a line segment connecting the two points of the corner of the eye and the eye, two straight lines drawn downward from the two points of the corner of the eye and the eye, and perpendicular to these, A region obtained by removing the eye region from a rectangular region surrounded by a straight line passing through the intersection of the corner of the eye and the face outline is defined as a cheek region.

そして、頬の領域の大きさに応じて、頬部分のテクスチャが変更されるようにする。   The texture of the cheek portion is changed according to the size of the cheek region.

テクスチャ画像の形状は、特定される頬の領域の形状に合わせて矩形状とされるが、楕円などの形状であってもよい。なお、テクスチャ画像の形状は、顔の形状に応じて変化するものとする。例えば、顔が丸顔の場合、特定される頬の領域は正方形や正円に近い形状となるので、テクスチャ画像の形状も正方形や正円に近い形状となる。また、顔が面長の場合、特定される頬の領域は縦長の長方形や縦長の楕円に近い形状となるので、テクスチャ画像の形状も縦長の長方形や縦長の楕円に近い形状となる。   The shape of the texture image is rectangular according to the shape of the cheek region specified, but may be an ellipse or the like. It is assumed that the shape of the texture image changes according to the shape of the face. For example, when the face is a round face, the specified cheek region has a shape close to a square or a perfect circle, and thus the shape of the texture image also has a shape close to a square or a perfect circle. In addition, when the face is a face length, the cheek region to be specified has a shape close to a vertically long rectangle or a vertically long ellipse, and thus the shape of the texture image also has a shape close to a vertically long rectangle or a vertically long ellipse.

(黒目の例)
図24の例のメイクツールによってテクスチャが変更されるパーツ以外にも、例えば、黒目の大きさに応じて、黒目部分のテクスチャが変更されるようにしてもよい。
(Example of black eyes)
In addition to the parts whose texture is changed by the makeup tool in the example of FIG. 24, for example, the texture of the black eye portion may be changed according to the size of the black eye.

ここでは、黒目部分のテクスチャとして、黒目に写り込むキャッチライトの大きさが変更されるものとする。したがって、特定された黒目の領域の大きさに応じて、黒目に写り込むキャッチライトの大きさが変更されるようにする。例えば、黒目の領域全体のN%の大きさのキャッチライトを模した画像(テクスチャ画像)が、黒目の領域に合成される。   Here, it is assumed that the size of the catch light reflected in the black eye is changed as the texture of the black eye part. Therefore, the size of the catchlight reflected in the black eye is changed according to the size of the specified black eye area. For example, an image (texture image) simulating a catch light having a size of N% of the entire black eye area is combined with the black eye area.

写真シール作成装置1においては、メインライトとなる上ストロボユニット103からの光と、足元ストロボユニット104からの光がキャッチライトとなる。   In the photo sticker creating apparatus 1, the light from the upper strobe unit 103 serving as the main light and the light from the foot strobe unit 104 serve as catch lights.

そこで、上ストロボユニット103に対応するテクスチャ画像の大きさを黒目の領域全体のn%とし、足元ストロボユニット104に対応するテクスチャ画像の大きさを黒目の領域全体のm%とするようにしてもよい(但し、n>mとする)。   Therefore, the size of the texture image corresponding to the upper strobe unit 103 is set to n% of the entire black eye area, and the size of the texture image corresponding to the foot strobe unit 104 is set to m% of the entire black eye area. Good (however, n> m).

この例によれば、黒目の大きさに適したキャッチライトが、黒目に写り込んだような画像が得られ、違和感なく画像の完成度を高めることができる。   According to this example, an image in which a catchlight suitable for the size of the black eye is reflected in the black eye can be obtained, and the completeness of the image can be increased without a sense of incongruity.

(まつ毛の例)
図24の例で、メイクツールとして「マスカラ」が選択された場合、目の大きさに応じて、まつ毛部分のテクスチャが変更されるようにしてもよい。
(Example of eyelashes)
In the example of FIG. 24, when “mascara” is selected as the makeup tool, the texture of the eyelash portion may be changed according to the size of the eyes.

ここでは、まつ毛部分のテクスチャとして、マスカラを模した画像(テクスチャ画像)で表現されるマスカラの濃さが変更されるものとする。したがって、特定された目の領域の大きさに応じて、マスカラの濃さが変更されるようにする。例えば、目の領域が小さいほど、マスカラが濃くなるようにする。これにより、目が小さい場合であっても、目を強調させることができる。   Here, it is assumed that the mascara density expressed by an image (texture image) simulating mascara is changed as the texture of the eyelash portion. Therefore, the density of the mascara is changed according to the size of the specified eye area. For example, the smaller the eye area, the darker the mascara. Thereby, even when the eyes are small, the eyes can be emphasized.

また、まつ毛部分のテクスチャと同様に、眉毛部分のテクスチャ(アイブロウの濃さ)が変更されるようにしてもよい。   Further, the texture (eyebrow density) of the eyebrows may be changed in the same manner as the texture of the eyelashes.

<変形例>
以上においては、利用者が2人の場合、メイクツールに対応する画像処理やテクスチャ変更処理は、利用者の選択操作により、撮影画像に写る2人の利用者それぞれの顔に施されたり、利用者1人ずつの顔に施されるものとした。
<Modification>
In the above, when there are two users, the image processing and texture change processing corresponding to the makeup tool are applied to the faces of the two users shown in the photographed image or used by the user's selection operation. It was given to each person's face.

利用者が3人以上の場合には、メイクツールに対応する画像処理やテクスチャ変更処理は、利用者の選択操作によらず、撮影画像に写る利用者全ての顔に施されるようにしてもよい。さらに、利用者が1人の場合には、利用者の選択操作に制限を設け、メイクツールに対応する画像処理やテクスチャ変更処理が、撮影画像に写る利用者の顔パーツの一部のみに施されるようにしてもよい。   When there are three or more users, the image processing and texture change processing corresponding to the makeup tool may be performed on all faces of the user who appear in the photographed image, regardless of the user's selection operation. Good. In addition, when there is only one user, the user's selection operation is limited, and image processing and texture change processing corresponding to the makeup tool are performed only on a part of the user's facial parts that appear in the captured image. You may be made to do.

また、メイクツールは、図24で示されたように、編集画面において選択されるようにしてもよいし、編集画面とは別に表示される専用の選択画面において選択されるようにしてもよい。   In addition, the makeup tool may be selected on the editing screen as shown in FIG. 24, or may be selected on a dedicated selection screen that is displayed separately from the editing screen.

さらに、例えば、編集画面の編集領域412L(412R)に表示されている編集対象となる撮影画像において、利用者がタッチペン142A(142B)により顔のパーツを囲むことで、メイクツールに対応する画像処理やテクスチャ変更処理の対象となる顔のパーツが選択されるようにしてもよい。   Furthermore, for example, in the captured image to be edited displayed in the editing area 412L (412R) of the editing screen, the user surrounds the facial part with the touch pen 142A (142B), so that image processing corresponding to the makeup tool is performed. Alternatively, a facial part to be subjected to texture change processing may be selected.

上述した実施の形態では、写真シール作成装置1は、得られた撮影画像や編集画像をシール紙に印刷するとともに、サーバに送信することで利用者の携帯端末に提供する構成を採るものとした。これに限らず、撮影画像や編集画像をシール紙に印刷せずに、サーバに送信することで利用者の携帯端末に提供するのみの構成を採ることも可能である。また逆に、撮影画像や編集画像をサーバに送信せずに、シール紙に印刷するのみの構成を採ることも可能である。   In the above-described embodiment, the photo sticker creating apparatus 1 is configured to print the obtained photographed image or edited image on the sticker paper and to send it to the server by sending it to the server. . However, the present invention is not limited to this, and it is also possible to adopt a configuration in which a photographed image or an edited image is only provided to a user's mobile terminal by being transmitted to a server without being printed on sticker paper. On the contrary, it is possible to adopt a configuration in which the photographed image or the edited image is only printed on the sticker paper without being transmitted to the server.

上述した一連の処理は、ハードウェアにより実行させることもできるし、ソフトウェアにより実行させることもできる。上述した一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、ネットワークや記録媒体からインストールされる。   The series of processes described above can be executed by hardware or can be executed by software. When the above-described series of processing is executed by software, a program constituting the software is installed from a network or a recording medium.

この記録媒体は、例えば、図10に示されるように、装置本体とは別に、写真シール作成装置1の管理者にプログラムを配信するために配布される、そのプログラムが記録されている磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROMおよびDVDを含む)、光磁気ディスク、もしくは半導体メモリなどよりなるリムーバブルメディア205により構成される。また、これらだけでなく、記録媒体は、装置本体にあらかじめ組み込まれた状態で管理者に配信されるプログラムが記録されているROM206や、記憶部202に含まれるハードディスクなどで構成される。   For example, as shown in FIG. 10, this recording medium is distributed to distribute the program to the administrator of the photo sticker creating apparatus 1 separately from the apparatus main body, and the magnetic disk on which the program is recorded ( A removable medium 205 including a flexible disk, an optical disk (including a CD-ROM and a DVD), a magneto-optical disk, or a semiconductor memory. In addition to these, the recording medium includes a ROM 206 in which a program distributed to the administrator in a state of being incorporated in the apparatus main body in advance, a hard disk included in the storage unit 202, and the like.

なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。   In the present specification, the step of describing the program recorded on the recording medium is not limited to the processing performed in chronological order according to the described order, but is not necessarily performed in chronological order. It also includes processes that are executed individually.

以上において、印刷媒体は、シール紙や写真紙に限られるものではない。例えば、所定のサイズの紙やフィルム、プリペイドカードやIC(Integrated Circuit)カードなどのカード、あるいは、Tシャツなどの布地などに、画像を印刷するようにしてもよい。この場合、1または複数の撮影画像が配置されたシールレイアウト画像が、これらの印刷媒体に印刷されるようにしてもよい。   In the above, the printing medium is not limited to sticker paper or photographic paper. For example, an image may be printed on a predetermined size of paper or film, a card such as a prepaid card or an IC (Integrated Circuit) card, or a cloth such as a T-shirt. In this case, a sticker layout image in which one or a plurality of photographed images are arranged may be printed on these print media.

また、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。   The embodiments of the present technology are not limited to the above-described embodiments, and various modifications can be made without departing from the gist of the present technology.

1 写真シール作成装置
301 撮影処理部
302 編集処理部
311 顔検出部
312 パラメータ調整部
313 合成部
314 画像処理部
315 表示制御部
DESCRIPTION OF SYMBOLS 1 Photo sticker production apparatus 301 Image pick-up processing part 302 Edit processing part 311 Face detection part 312 Parameter adjustment part 313 Composition part 314 Image processing part 315 Display control part

Claims (13)

利用者を被写体として撮影することで撮影画像を生成する撮影処理部と、
前記撮影画像において人物の顔を検出する顔検出部と、
検出された前記顔の大きさに基づいて、前記撮影画像に施される画像処理のパラメータを調整するパラメータ調整部と、
調整された前記パラメータでの前記画像処理を、前記撮影画像の前記人物以外の領域に施す画像処理部と
を備える写真シール作成装置。
A shooting processing unit that generates a shot image by shooting a user as a subject;
A face detection unit for detecting a human face in the captured image;
A parameter adjustment unit that adjusts parameters of image processing performed on the captured image based on the size of the detected face;
An image processing unit comprising: an image processing unit that performs the image processing with the adjusted parameters on an area other than the person of the photographed image.
前記撮影画像に合成用画像を合成する合成部をさらに備え、
前記画像処理部は、調整された前記パラメータでの前記画像処理を、前記撮影画像に合成された前記合成用画像に施す
請求項1に記載の写真シール作成装置。
A synthesis unit for synthesizing an image for synthesis with the captured image;
The photo sticker creating apparatus according to claim 1, wherein the image processing unit performs the image processing with the adjusted parameters on the image for synthesis combined with the captured image.
前記合成用画像は、前記撮影画像の前記人物の背景に合成される背景画像、または、前記撮影画像の前記人物の前景に合成される前景画像である
請求項2に記載の写真シール作成装置。
The photo sticker creating apparatus according to claim 2, wherein the composition image is a background image synthesized with the background of the person in the photographed image or a foreground image synthesized with the foreground of the person in the photographed image.
前記合成用画像は、前記撮影画像の前記人物の背景に合成される背景画像、および、前記撮影画像の前記人物の前景に合成される前景画像である
請求項2に記載の写真シール作成装置。
The photo sticker creating apparatus according to claim 2, wherein the composition image is a background image synthesized with the background of the person in the photographed image and a foreground image synthesized with the foreground of the person in the photographed image.
前記合成用画像は、前記撮影画像を編集するための画像である
請求項2乃至4のいずれかに記載の写真シール作成装置。
The photographic sticker creating apparatus according to claim 2, wherein the composition image is an image for editing the photographed image.
前記パラメータ調整部は、検出された前記顔の大きさに基づいて、前記撮影画像の前記人物以外の領域に施されるぼかし処理のぼかし具合を表すパラメータを調整し、
前記画像処理部は、調整された前記パラメータで表されるぼかし具合の前記ぼかし処理を、前記撮影画像の前記人物以外の領域に施す
請求項1乃至5のいずれかに記載の写真シール作成装置。
The parameter adjustment unit adjusts a parameter representing a blurring degree of a blurring process performed on a region other than the person of the captured image based on the detected size of the face,
The photographic sticker creating apparatus according to any one of claims 1 to 5, wherein the image processing unit performs the blurring process of the blurring degree represented by the adjusted parameter on a region other than the person of the photographed image.
前記画像処理部は、前記撮影画像に写る前記人物の撮影範囲に応じて、前記画像処理を施す
請求項1乃至6のいずれかに記載の写真シール作成装置。
The photo sticker creating apparatus according to any one of claims 1 to 6, wherein the image processing unit performs the image processing according to a shooting range of the person appearing in the shot image.
前記撮影処理部は、前記撮影画像として、前記人物の顔および上半身が写るアップ画像、および、前記人物の全身が写る全身画像を生成し、
前記画像処理部は、前記アップ画像が生成された場合、前記画像処理を前記アップ画像の前記人物以外の領域に施し、前記全身画像が生成された場合、前記画像処理を前記全身画像に施さない
請求項7に記載の写真シール作成装置。
The photographing processing unit generates, as the photographed image, an up image in which the face and upper body of the person are photographed, and a whole body image in which the whole body of the person is photographed,
The image processing unit applies the image processing to a region other than the person in the up image when the up image is generated, and does not apply the image processing to the whole body image when the whole body image is generated. The photo sticker creating apparatus according to claim 7.
前記撮影処理部は、被写界深度が深くなるように光学系の絞りを固定して、前記被写体を撮影する
請求項1乃至8のいずれかに記載の写真シール作成装置。
9. The photo sticker creating apparatus according to claim 1, wherein the photographing processing unit photographs the subject while fixing a diaphragm of an optical system so that a depth of field becomes deep.
前記画像処理部は、前記撮影画像に対して顔認識を行うことで、前記画像処理を前記撮影画像の前記人物以外の領域に施す
請求項1乃至9のいずれかに記載の写真シール作成装置。
The photographic sticker creating apparatus according to claim 1, wherein the image processing unit performs the image processing on an area other than the person in the photographed image by performing face recognition on the photographed image.
前記画像処理部は、前記撮影画像における前記人物の領域をマスク画像として抽出することで、前記画像処理を前記撮影画像の前記人物以外の領域に施す
請求項1乃至9のいずれかに記載の写真シール作成装置。
The photograph according to any one of claims 1 to 9, wherein the image processing unit performs the image processing on a region other than the person in the photographed image by extracting the person region in the photographed image as a mask image. Seal making device.
前記顔検出部は、カメラにより取り込まれたライブビュー画像において前記顔を検出し、
前記パラメータ調整部は、前記ライブビュー画像において検出された前記顔の大きさに基づいて、前記パラメータを調整し、
前記画像処理部は、調整された前記パラメータでの前記画像処理を、前記ライブビュー画像の前記人物以外の領域に施す
請求項1に記載の写真シール作成装置。
The face detection unit detects the face in a live view image captured by a camera,
The parameter adjustment unit adjusts the parameter based on the size of the face detected in the live view image,
The photo sticker creating apparatus according to claim 1, wherein the image processing unit performs the image processing with the adjusted parameters on an area other than the person of the live view image.
利用者を被写体として撮影することで撮影画像を生成し、
前記撮影画像において人物の顔を検出し、
検出された前記顔の大きさに基づいて、前記撮影画像に施される画像処理のパラメータを調整し、
調整された前記パラメータでの前記画像処理を、前記撮影画像の前記人物以外の領域に施す
ステップを含む画像処理方法。
Create a shot image by shooting the user as a subject,
Detecting a human face in the captured image;
Based on the detected size of the face, adjust parameters of image processing performed on the captured image,
An image processing method including a step of applying the image processing with the adjusted parameter to an area other than the person of the photographed image.
JP2016239068A 2015-12-25 2016-12-09 Photo sticker making device and image processing method Active JP6829380B2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015254038 2015-12-25
JP2015254038 2015-12-25

Publications (2)

Publication Number Publication Date
JP2017121044A true JP2017121044A (en) 2017-07-06
JP6829380B2 JP6829380B2 (en) 2021-02-10

Family

ID=59272535

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016239068A Active JP6829380B2 (en) 2015-12-25 2016-12-09 Photo sticker making device and image processing method

Country Status (1)

Country Link
JP (1) JP6829380B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108830892A (en) * 2018-06-13 2018-11-16 北京微播视界科技有限公司 Face image processing process, device, electronic equipment and computer readable storage medium
JP2020053831A (en) * 2018-09-27 2020-04-02 フリュー株式会社 Photo-creating game machine, image processing method, and program
JP2021132321A (en) * 2020-02-20 2021-09-09 株式会社セガ Photographing game device and program
JP7412348B2 (en) 2018-10-29 2024-01-12 サターン ライセンシング エルエルシー Display device and display control method

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009031870A (en) * 2007-07-24 2009-02-12 Seiko Epson Corp Image processing for estimation of photographic object distance
JP2013041117A (en) * 2011-08-16 2013-02-28 Pentax Ricoh Imaging Co Ltd Imaging apparatus and distance information acquisition method
JP2013157677A (en) * 2012-01-26 2013-08-15 Canon Inc Electronic apparatus, control method for electronic apparatus, program, and storage medium
JP2013243466A (en) * 2012-05-18 2013-12-05 Tatsumi Denshi Kogyo Kk Imaging apparatus for game, imaging method for game, and program
JP2014216947A (en) * 2013-04-26 2014-11-17 フリュー株式会社 Imaging apparatus and method, and program
JP5825542B1 (en) * 2015-06-29 2015-12-02 フリュー株式会社 Photo sticker creation apparatus and display method

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009031870A (en) * 2007-07-24 2009-02-12 Seiko Epson Corp Image processing for estimation of photographic object distance
JP2013041117A (en) * 2011-08-16 2013-02-28 Pentax Ricoh Imaging Co Ltd Imaging apparatus and distance information acquisition method
JP2013157677A (en) * 2012-01-26 2013-08-15 Canon Inc Electronic apparatus, control method for electronic apparatus, program, and storage medium
JP2013243466A (en) * 2012-05-18 2013-12-05 Tatsumi Denshi Kogyo Kk Imaging apparatus for game, imaging method for game, and program
JP2014216947A (en) * 2013-04-26 2014-11-17 フリュー株式会社 Imaging apparatus and method, and program
JP5825542B1 (en) * 2015-06-29 2015-12-02 フリュー株式会社 Photo sticker creation apparatus and display method

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108830892A (en) * 2018-06-13 2018-11-16 北京微播视界科技有限公司 Face image processing process, device, electronic equipment and computer readable storage medium
WO2019237745A1 (en) * 2018-06-13 2019-12-19 北京微播视界科技有限公司 Facial image processing method and apparatus, electronic device and computer readable storage medium
CN108830892B (en) * 2018-06-13 2020-03-06 北京微播视界科技有限公司 Face image processing method and device, electronic equipment and computer readable storage medium
US11176355B2 (en) 2018-06-13 2021-11-16 Beijing Microlive Vision Technology Co., Ltd Facial image processing method and apparatus, electronic device and computer readable storage medium
JP2020053831A (en) * 2018-09-27 2020-04-02 フリュー株式会社 Photo-creating game machine, image processing method, and program
JP7412348B2 (en) 2018-10-29 2024-01-12 サターン ライセンシング エルエルシー Display device and display control method
JP2021132321A (en) * 2020-02-20 2021-09-09 株式会社セガ Photographing game device and program

Also Published As

Publication number Publication date
JP6829380B2 (en) 2021-02-10

Similar Documents

Publication Publication Date Title
JP6829380B2 (en) Photo sticker making device and image processing method
JP2019013013A (en) Photo sticker generation apparatus, photo sticker generation method, and program
JP6880394B2 (en) Photographing game console and shooting method
JP2015035765A (en) Imaging apparatus and display control method
JP6810336B2 (en) Photo creation game console and display method
JP5472767B2 (en) Image processing apparatus and image processing method
JP6213791B2 (en) Image processing apparatus and image processing method
JP5825542B1 (en) Photo sticker creation apparatus and display method
JP6477780B2 (en) Photo sticker creation apparatus, photo sticker creation method, and photo sticker creation processing program
JP5483136B1 (en) Imaging apparatus and display control method
JP6853475B2 (en) Photo creation game console and display method
JP6262643B2 (en) Image processing apparatus and image processing method
JP7339515B2 (en) Image processing device, image processing method, and program
JP2018107515A (en) Photograph formation game machine and image processing method
JP2016197222A (en) Photograph sticker creating apparatus and display method
JP7074994B2 (en) Photographing game console and image processing method
JP2021043797A (en) Image processing device, image processing method, and image processing program
JP6465333B2 (en) Image processing apparatus and image processing method
JP6032378B1 (en) Photo creation game machine and image processing method
JP6443028B2 (en) Image generation apparatus, image generation method, and print medium
JP5962643B2 (en) Imaging apparatus and display control method
JP7121256B2 (en) PHOTO-CREATION GAME MACHINE, IMAGE PROCESSING METHOD, AND PROGRAM
JP6982230B2 (en) Photographing game console and image processing method
JP6041024B1 (en) Photo sticker creation apparatus and display method
JP2018201183A (en) Photograph making game machine, display method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191125

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200710

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200721

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200923

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201006

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201204

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201222

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210104

R150 Certificate of patent or registration of utility model

Ref document number: 6829380

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250