JP7339515B2 - Image processing device, image processing method, and program - Google Patents

Image processing device, image processing method, and program Download PDF

Info

Publication number
JP7339515B2
JP7339515B2 JP2019161941A JP2019161941A JP7339515B2 JP 7339515 B2 JP7339515 B2 JP 7339515B2 JP 2019161941 A JP2019161941 A JP 2019161941A JP 2019161941 A JP2019161941 A JP 2019161941A JP 7339515 B2 JP7339515 B2 JP 7339515B2
Authority
JP
Japan
Prior art keywords
image
user
unit
editing
iris
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019161941A
Other languages
Japanese (ja)
Other versions
JP2021039655A (en
Inventor
妥美 呉屋
栞里 庄
茜 大和田
悠里 溝口
Original Assignee
フリュー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by フリュー株式会社 filed Critical フリュー株式会社
Priority to JP2019161941A priority Critical patent/JP7339515B2/en
Publication of JP2021039655A publication Critical patent/JP2021039655A/en
Priority to JP2023135602A priority patent/JP2023164461A/en
Application granted granted Critical
Publication of JP7339515B2 publication Critical patent/JP7339515B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Cameras Adapted For Combination With Other Photographic Or Optical Apparatuses (AREA)
  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Image Analysis (AREA)

Description

本技術は、特に、より自然な形で目の印象を変えることができるようにした画像処理装置、画像処理方法、およびプログラムに関する。 The present technology particularly relates to an image processing device, an image processing method, and a program capable of changing eye impressions in a more natural manner.

従来、写真シール作成装置が知られている。写真シール作成装置は、利用者を撮影し、撮影画像に対して利用者に編集を行わせ、編集後の画像をシール紙に印刷して提供するものである。写真シール作成装置は遊戯施設などに設置される。 Conventionally, a photo sticker creating device is known. A photo sticker creating apparatus photographs a user, makes the user edit the photographed image, and prints the edited image on sticker paper to provide the edited image. A photo sticker creating device is installed in an amusement facility or the like.

写真シール作成装置が提供する1ゲームの流れは、通常、撮影空間内にいる利用者を被写体として撮影を行った後、利用者を編集空間に移動させ、編集空間内で行われる操作に従って画像を編集して、編集済みの画像をシール紙に印刷するものとなる。撮影空間での撮影時、ストロボ光を照射することによって、利用者の目の黒目部分にキャッチライトを写り込ませた状態で撮影が行われる。 The flow of one game provided by the photo sticker creating device is that after taking a picture of the user in the shooting space as the subject, the user is moved to the editing space, and the image is displayed according to the operation performed in the editing space. After editing, the edited image is printed on sticker paper. At the time of photographing in the photographing space, photographing is performed in a state in which a catch light is reflected in the iris of the user's eye by irradiating strobe light.

例えば特許文献1には、撮影画像に写る利用者の黒目部分を所定の色で塗りつぶし、色を変えた黒目部分に、キャッチライトを表現した画像を描画する技術が開示されている。 For example, Japanese Patent Application Laid-Open No. 2002-200000 discloses a technique of painting out the iris of a user in a photographed image with a predetermined color, and drawing an image representing a catch light on the iris of the user whose color has been changed.

特開2014-182672号公報JP 2014-182672 A 特開2013-055372号公報JP 2013-055372 A

目の印象を変えるために黒目部分の色を画像処理によって変更した場合、変更後の黒目部分の見え方が不自然になってしまうことがある。 When the color of the black part of the eye is changed by image processing in order to change the impression of the eye, the black part of the eye may look unnatural after the change.

本技術はこのような状況に鑑みてなされたものであり、より自然な形で目の印象を変えることができるようにするものである。 The present technology has been developed in view of such circumstances, and is capable of changing the impression of eyes in a more natural manner.

本技術の一側面の画像処理装置は、利用者を被写体として撮影して得られた撮影画像に写る前記利用者の黒目を検出する検出部と、前記利用者による操作に応じて、黒目の色と、黒目の縁の濃さとをそれぞれ変更する画像処理部とを備える。 An image processing apparatus according to one aspect of the present technology includes a detection unit that detects the iris of the user in a photographed image obtained by photographing the user as a subject; and an image processing unit for changing the density of the edge of the iris.

本技術の一側面においては、利用者を被写体として撮影して得られた撮影画像に写る前記利用者の黒目が検出され、前記利用者による操作に応じて、黒目の色と、黒目の縁の濃さとがそれぞれ変更される。 In one aspect of the present technology, the iris of the user is detected in a captured image obtained by photographing the user as a subject, and the color of the iris and the edge of the iris are determined according to the user's operation. The density is changed respectively.

本技術によれば、より自然な形で目の印象を変えることができる。 According to this technology, it is possible to change the impression of the eyes in a more natural way.

本技術の写真シール作成装置の外観の構成例を示す斜視図である。It is a perspective view showing an example of composition of appearance of a photograph sticker production device of this art. 写真シール作成装置の外観を他の角度から見た斜視図である。FIG. 10 is a perspective view of the appearance of the photo sticker creating apparatus as seen from another angle; 利用者の移動について説明する図である。It is a figure explaining a user's movement. 事前選択部の構成例を示す図である。It is a figure which shows the structural example of a prior selection part. 撮影部の構成例を示す斜視図である。It is a perspective view which shows the structural example of an imaging part. 撮影部の構成例を示す斜視図である。It is a perspective view which shows the structural example of an imaging part. カメラの角度調整の例を示す図である。It is a figure which shows the example of angle adjustment of a camera. 背景部の構成例を示す図である。It is a figure which shows the structural example of a background part. 操作部の構成例を示す図である。FIG. 3 is a diagram showing a configuration example of an operation unit; 編集ユニットの正面側の構成例を示す図である。FIG. 4 is a diagram showing a configuration example of the front side of an editing unit; カーテンの取り付け例を示す図である。It is a figure which shows the installation example of a curtain. カーテンの裏面のデザイン例を示す図である。It is a figure which shows the design example of the back surface of a curtain. 鏡面部の利用例を示す図である。It is a figure which shows the example of utilization of a mirror surface part. 編集ユニットの側面の構成例を示す図である。FIG. 4 is a diagram showing a configuration example of a side surface of an editing unit; 編集画像のレイヤ構造の例を示す図である。FIG. 4 is a diagram showing an example of a layer structure of an edited image; 写真シール作成装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of a photo sticker production apparatus. 写真シール作成装置の機能構成例を示すブロック図である。2 is a block diagram showing a functional configuration example of a photo sticker creating device; FIG. 図17の撮影処理部の構成例を示すブロック図である。18 is a block diagram showing a configuration example of an imaging processing unit in FIG. 17; FIG. 図17の編集処理部の構成例を示すブロック図である。18 is a block diagram showing a configuration example of an edit processing unit in FIG. 17; FIG. 図19の編集用画像生成部の構成例を示すブロック図である。FIG. 20 is a block diagram showing a configuration example of an editing image generation unit in FIG. 19; 領域の検出の例を示す図である。FIG. 10 is a diagram illustrating an example of detection of regions; 図20のまつげ処理部の構成例を示すブロック図である。21 is a block diagram showing a configuration example of an eyelash processing unit in FIG. 20; FIG. 逆さまつげの除去の例を示す図である。FIG. 10 illustrates an example of removing upside down eyelashes; まつげ画像の変形の例を示す図である。It is a figure which shows the example of deformation|transformation of an eyelash image. まつげ画像の合成の例を示す図である。It is a figure which shows the example of the synthesis|combination of an eyelash image. 写真シール作成装置の動作について説明するフローチャートである。4 is a flowchart for explaining the operation of the photo sticker creating device; 図26のステップS3において行われる編集処理について説明するフローチャートである。FIG. 27 is a flowchart for explaining editing processing performed in step S3 of FIG. 26; FIG. 落書き前自撮りの案内画面の表示例を示す図である。FIG. 10 is a diagram showing a display example of a guide screen for self-portrait before graffiti. 編集画面の例を示す図である。FIG. 10 is a diagram showing an example of an edit screen; 図27のステップS42において行われる編集用画像生成処理について説明するフローチャートである。FIG. 28 is a flowchart for explaining editing image generation processing performed in step S42 of FIG. 27; FIG. 図30のステップS64において行われるまつげ処理について説明するフローチャートである。FIG. 31 is a flow chart describing eyelash processing performed in step S64 of FIG. 30. FIG. メイクツールの選択中の編集パレットを拡大して示す図である。FIG. 11 is an enlarged view showing an edit palette being selected by a makeup tool; アイカラーツールによって生成される画像の例を示す図である。FIG. 10 is a diagram showing an example of an image generated by an eye color tool; FIG. アイカラーツール選択時の画像処理に用いられるマスク画像の例を示す図である。FIG. 10 is a diagram showing an example of a mask image used for image processing when an eye color tool is selected; 黒目領域の色の変更の例を示す図である。FIG. 10 is a diagram showing an example of changing the color of the black eye area; 目の輪郭の濃さの調整の例を示す図である。FIG. 10 is a diagram showing an example of adjusting the density of the outline of the eye; 目の輪郭の濃さの調整の他の例を示す図である。FIG. 10 is a diagram showing another example of adjusting the density of the contour of the eye;

<写真シール作成装置の外観>
図1および図2は、写真シール作成装置1の外観の構成例を示す斜視図である。
<Appearance of photo sticker making device>
1 and 2 are perspective views showing configuration examples of the appearance of the photo sticker creating apparatus 1. FIG.

写真シール作成装置1は、撮影画像や編集画像を提供するゲーム機である。写真シール作成装置1は、画像をシール紙に印刷したり、画像を利用者の携帯端末上で閲覧可能にしたりすることで、利用者に画像を提供する。写真シール作成装置1は、ゲームセンターなどのアミューズメント施設や店舗に設置される。 The photo sticker creation device 1 is a game machine that provides photographed images and edited images. The photo sticker creating apparatus 1 provides images to users by printing the images on sticker paper or making the images viewable on the user's portable terminal. The photo sticker creating device 1 is installed in an amusement facility such as a game center or a store.

写真シール作成装置1の利用者は、主に女子高生や若い女性が中心とされる。写真シール作成装置1において、1組あたり主に2人や3人などの複数人の利用者がゲームを楽しむことができる。もちろん、写真シール作成装置1において、1人の利用者がゲームを楽しむこともできる。 Users of the photo sticker creating apparatus 1 are mainly high school girls and young women. In the photo sticker creating device 1, a plurality of users, mainly two or three, can enjoy the game per group. Of course, one user can also enjoy the game in the photo sticker creating apparatus 1 .

写真シール作成装置1において、利用者は、自身が被写体となって撮影作業を行う。利用者は、編集作業により、撮影によって得られた撮影画像の中から選択した画像に、手書きの文字やスタンプ画像などの合成用画像を合成させる。これにより、撮影画像が彩り豊かな画像に編集される。利用者は、編集済みの画像である編集画像が印刷されたシール紙を受け取って一連のゲームを終了させる。 In the photo sticker creating apparatus 1, the user himself/herself becomes a subject and performs photographing work. Through editing work, the user combines an image for composition such as handwritten characters or a stamp image with an image selected from the photographed images obtained by photographing. As a result, the photographed image is edited into a colorful image. The user receives the seal paper on which the edited image, which is the edited image, is printed, and ends the series of games.

写真シール作成装置1は、写真作成ゲームを提供する写真作成ゲーム機ということができる。 The photo sticker creation device 1 can be called a photo creation game machine that provides a photo creation game.

図1に示すように、写真シール作成装置1は、基本的に、撮影ユニット11と編集ユニット12が接した状態で設置されることによって構成される。撮影ユニット11と編集ユニット12は電気的に接続される。 As shown in FIG. 1, the photo sticker creating apparatus 1 is basically configured by installing a photographing unit 11 and an editing unit 12 in contact with each other. The photographing unit 11 and the editing unit 12 are electrically connected.

撮影ユニット11は、人が中に入ることができる程度の大きさを有する箱形状の筐体を有し、事前選択部20、撮影部21、および背景部22から構成される。事前選択部20は、撮影部21の側面に設置される。事前選択部20の前方の空間が、事前選択処理が行われる事前選択空間となる。また、撮影部21と背景部22は所定の距離だけ離して設置される。撮影部21と背景部22の間に形成される空間が、撮影処理が行われる撮影空間となる。 The photographing unit 11 has a box-shaped housing large enough for a person to enter, and is composed of a pre-selection section 20 , a photographing section 21 and a background section 22 . The pre-selection unit 20 is installed on the side of the imaging unit 21 . The space in front of the pre-selection unit 20 becomes the pre-selection space where the pre-selection process is performed. Also, the photographing unit 21 and the background unit 22 are placed apart from each other by a predetermined distance. A space formed between the photographing section 21 and the background section 22 is a photographing space in which photographing processing is performed.

事前選択部20は、事前選択処理として、写真シール作成装置1によって提供されるゲームを紹介するガイダンスを行ったり、撮影空間で行われる撮影処理における各種の設定を行ったりする。事前選択部20には、利用者が代金を投入する硬貨投入口や、各種の操作に用いられるタッチパネルモニタなどが設けられる。事前選択部20は、撮影空間の空き状況に応じて、事前選択空間にいる利用者を撮影空間へと案内する。 As the pre-selection process, the pre-selection unit 20 performs guidance for introducing games provided by the photo sticker creation device 1, and performs various settings in the photographing process performed in the photographing space. The pre-selection unit 20 is provided with a coin slot into which the user inserts money, a touch panel monitor used for various operations, and the like. The pre-selection unit 20 guides the user in the pre-selected space to the photographic space according to the availability of the photographic space.

撮影部21は、利用者を被写体として撮影するための装置である。撮影部21は、撮影空間に入った利用者の正面に位置する。撮影空間に臨む撮影部21の正面には、カメラや、各種の操作に用いられるタッチパネルモニタなどが設けられる。 The photographing unit 21 is a device for photographing a user as a subject. The photographing unit 21 is positioned in front of the user entering the photographing space. A camera, a touch panel monitor used for various operations, and the like are provided in front of the photographing unit 21 facing the photographing space.

撮影空間において正面を向いている利用者からみて左側の面を左側面、右側の面を右側面とすると、撮影部21の左側面が側面パネル41Aにより構成され、右側面が側面パネル41Bにより構成される。さらに、撮影部21の正面が正面パネル42により構成される。側面パネル41Aには、上述した事前選択部20が設置される。なお、事前選択部20が、側面パネル41Bに設置されるようにしてもよい。 Assuming that the left side and the right side are the left side and the right side, respectively, as viewed from the user facing the front in the imaging space, the left side of the imaging unit 21 is composed of the side panel 41A, and the right side is composed of the side panel 41B. be done. Further, a front panel 42 constitutes the front of the photographing unit 21 . The preselection section 20 described above is installed on the side panel 41A. Note that the preselection unit 20 may be installed on the side panel 41B.

背景部22は、背面パネル51、側面パネル52A、および側面パネルから構成される。背面パネル51は、正面を向いている利用者の背面側に位置する板状の部材である。側面パネル52Aは、背面パネル51の左端に取り付けられ、側面パネル41Aより横幅の狭い板状の部材である。側面パネル52Bは、背面パネル51の右端に取り付けられ、側面パネル41Bより横幅の狭い板状の部材である。 The background portion 22 is composed of a back panel 51, side panels 52A, and side panels. The back panel 51 is a plate-like member located on the back side of the user facing the front. The side panel 52A is a plate-like member attached to the left end of the rear panel 51 and having a width narrower than that of the side panel 41A. The side panel 52B is a plate-like member attached to the right end of the rear panel 51 and having a width narrower than that of the side panel 41B.

側面パネル41Aと側面パネル52Aは、ほぼ同一平面に設けられる。側面パネル41Aと側面パネル52Aの上部は、板状の部材である連結部23Aによって連結される。側面パネル41Aと側面パネル52Aの下部は、床面に設けた例えば金属製の部材である連結部23A’によって連結される。側面パネル41Bと側面パネル52Bも同様に、ほぼ同一平面に設けられる。側面パネル41Bと側面パネル52Bの上部は、連結部23Bによって連結される。側面パネル41Bと側面パネル52Bの下部は、連結部23B’によって連結される。 The side panel 41A and the side panel 52A are provided substantially on the same plane. Upper portions of the side panel 41A and the side panel 52A are connected by a connecting portion 23A, which is a plate-like member. The lower portions of the side panel 41A and the side panel 52A are connected by a connecting portion 23A' which is provided on the floor and is a member made of metal, for example. Similarly, the side panel 41B and the side panel 52B are provided substantially on the same plane. Upper portions of the side panel 41B and the side panel 52B are connected by a connecting portion 23B. The lower portions of the side panel 41B and the side panel 52B are connected by a connecting portion 23B'.

側面パネル41Aと側面パネル52Aは、撮影空間の左側面を囲む部材となり、側面パネル41Bと側面パネル52Bは、撮影空間の右側面を囲む部材となる。 The side panel 41A and the side panel 52A are members surrounding the left side of the photographing space, and the side panel 41B and the side panel 52B are members surrounding the right side of the photographing space.

撮影空間の床には、板状の部材である床材27が敷かれる。 A floor material 27, which is a plate-like member, is laid on the floor of the imaging space.

側面パネル41A、連結部23A、および側面パネル52Aに囲まれることによって形成される開口が撮影空間の出入り口となる。また、側面パネル41B、連結部23B、および側面パネル52Bに囲まれることによって形成される開口も撮影空間の出入り口となる。 An opening formed by being surrounded by the side panel 41A, the connecting portion 23A, and the side panel 52A serves as an entrance to the imaging space. An opening formed by being surrounded by the side panel 41B, the connecting portion 23B, and the side panel 52B also serves as an entrance to the imaging space.

撮影空間の天井の一部には、ビニル素材の部材や板状の部材からなる天井シート24が設けられる。 A ceiling sheet 24 made of a vinyl member or a plate-shaped member is provided on a part of the ceiling of the photographing space.

編集ユニット12は、撮影画像に編集を施すための装置である。編集ユニット12は、一方の側面が撮影部21の正面パネル42に接するようにして、撮影ユニット11に連結して設けられる。 The editing unit 12 is a device for editing a captured image. The editing unit 12 is connected to the photographing unit 11 so that one side thereof contacts the front panel 42 of the photographing section 21 .

図2に示す編集ユニット12の構成を正面側の構成とすると、編集ユニット12の正面側と背面側のそれぞれに、編集作業で用いられる構成が設けられる。この構成により、2組の利用者が同時に編集作業を行うことができる。 If the configuration of the editing unit 12 shown in FIG. 2 is taken as the configuration on the front side, the configuration used in the editing work is provided on each of the front side and the back side of the editing unit 12 . This configuration allows two sets of users to perform editing work at the same time.

編集ユニット12の正面側は、垂直な面61と、面61の上方に形成された斜面62から構成される。斜面62には、編集作業に用いられる構成として、タブレット内蔵モニタやタッチペンが設けられる。斜面62の右側には、照明装置64の一端を支持する柱状の支持部63Aが設けられる。斜面62の左側には、照明装置64の他端を支持する柱状の支持部63Bが設けられる。支持部63Aの上面にはカーテンレール26を支持する支持部65が設けられる。 The front side of the editing unit 12 is composed of a vertical surface 61 and an inclined surface 62 formed above the surface 61 . A built-in tablet monitor and a touch pen are provided on the slope 62 as components used for editing work. A columnar support portion 63A that supports one end of the lighting device 64 is provided on the right side of the slope 62 . A columnar support portion 63B that supports the other end of the lighting device 64 is provided on the left side of the slope 62 . A support portion 65 for supporting the curtain rail 26 is provided on the upper surface of the support portion 63A.

編集ユニット12の上方にはカーテンレール26が取り付けられる。カーテンレール26は、3本のレール26A乃至26Cを組み合わせて構成される。 A curtain rail 26 is attached above the editing unit 12 . The curtain rail 26 is configured by combining three rails 26A to 26C.

3本のレール26A乃至26Cは、上から見たときの形状がコの字状となるように組み合わせられる。平行に設けられるレール26Aとレール26Bの一端は、連結部23Aと連結部23Bにそれぞれ固定され、レール26Aとレール26Bの他端は、レール26Cの両端にそれぞれ固定される。 The three rails 26A to 26C are combined to form a U-shape when viewed from above. One ends of rails 26A and 26B, which are provided in parallel, are fixed to connecting portions 23A and 23B, respectively, and the other ends of rails 26A and 26B are fixed to both ends of rail 26C, respectively.

カーテンレール26には、編集ユニット12の正面前方の空間と背面前方の空間が外から見えないようにするためのカーテンが取り付けられる。カーテンレール26に取り付けられたカーテンにより囲まれる編集ユニット12の正面前方の空間と背面前方の空間が、利用者が編集作業を行う編集空間となる。 A curtain is attached to the curtain rail 26 so that the space in front of the front and the space in front of the back of the editing unit 12 are not visible from the outside. The space in front of the front and the space in front of the back of the editing unit 12 surrounded by the curtains attached to the curtain rails 26 serve as an editing space in which the user performs editing work.

編集ユニット12の側面には、印刷済みのシール紙が排出される排出口が設けられる。編集ユニット12の側面前方の空間が、利用者が印刷済みのシール紙が排出されるのを待つ印刷待ち空間となる。 A side face of the editing unit 12 is provided with a discharge port through which the printed sticker paper is discharged. A space in front of the side surface of the editing unit 12 becomes a print waiting space where the user waits for the printed sticker paper to be discharged.

<利用者の移動について>
ここで、写真シール作成ゲームの流れと、それに伴う利用者の移動について説明する。
<Regarding the movement of users>
Here, the flow of the photo sticker creation game and the movement of the user associated therewith will be described.

図3は、写真シール作成装置1を上から見た平面図である。 FIG. 3 is a top plan view of the photo sticker creating apparatus 1. FIG.

利用者は、事前選択部20の前方の空間である事前選択空間A0において硬貨投入口に代金を投入する。次に、利用者は、タッチパネルモニタに表示される画面に従って事前選択作業を行う。例えば、利用者は、撮影空間で行われる撮影に関するコースの選択などを事前選択作業として行う。 The user inserts money into the coin slot in the pre-selection space A0, which is the space in front of the pre-selection section 20. FIG. Next, the user performs pre-selection according to the screen displayed on the touch panel monitor. For example, the user selects a course related to shooting in the shooting space as a pre-selection task.

事前選択作業を終えた利用者は、白抜き矢印#1で示すように、側面パネル41Aと側面パネル52Aの間の出入り口G1から、撮影部21と背景部22の間に形成された撮影空間A1に入る。利用者は、撮影部21に設けられたカメラやタッチパネルモニタなど利用して撮影作業を行う。 After completing the pre-selection work, the user enters the imaging space A1 formed between the imaging unit 21 and the background unit 22 from the entrance G1 between the side panel 41A and the side panel 52A, as indicated by the white arrow #1. to go into. A user uses a camera, a touch panel monitor, or the like provided in the photographing unit 21 to perform photographing work.

撮影作業を終えた利用者は、白抜き矢印#2で示すように出入り口G1から撮影空間A1を出て編集空間A2-2に移動するか、または、白抜き矢印#3で示すように出入り口G2から撮影空間A1を出て編集空間A2-1に移動する。 The user who has completed the photographing work exits the photographing space A1 from the doorway G1 as indicated by the white arrow #2 and moves to the editing space A2-2, or enters the doorway G2 as indicated by the white arrow #3. , exits the photographing space A1 and moves to the editing space A2-1.

編集空間A2-1は、編集ユニット12の正面側の編集空間である。一方、編集空間A2-2は、編集ユニット12の背面側の編集空間である。利用者が編集空間A2-1と編集空間A2-2のいずれの空間に移動するのかは、撮影部21のタッチパネルモニタの画面表示などによって案内される。例えば2つの編集空間のうちの空いている方が移動先として案内される。 The editing space A2-1 is an editing space on the front side of the editing unit 12. FIG. On the other hand, the editing space A2-2 is the editing space behind the editing unit 12. FIG. To which of the editing space A2-1 and the editing space A2-2 the user should move is guided by the screen display of the touch panel monitor of the photographing unit 21 or the like. For example, the empty one of the two editing spaces is guided as the destination.

編集空間A2-1または編集空間A2-2に移動した利用者は、編集作業を開始する。編集空間A2-1の利用者と、編集空間A2-2の利用者は同時に編集作業を行うことができる。編集空間A2-1と編集空間A2-2を区別する必要がない場合、適宜、まとめて編集空間A2という。 The user who has moved to the editing space A2-1 or the editing space A2-2 starts editing work. The user of the editing space A2-1 and the user of the editing space A2-2 can perform editing work at the same time. When there is no need to distinguish between the editing space A2-1 and the editing space A2-2, they are collectively referred to as the editing space A2 as appropriate.

編集作業が終了した後、編集画像の印刷が開始される。編集空間A2-1での編集作業を終えた利用者は、白抜き矢印#5で示すように編集空間A2-1から印刷待ち空間A3に移動する。また、編集空間A2-2での編集作業を終えた利用者は、白抜き矢印#4で示すように編集空間A2-2から印刷待ち空間A3に移動する。 After the editing work is completed, printing of the edited image is started. After completing the editing work in the editing space A2-1, the user moves from the editing space A2-1 to the print waiting space A3 as indicated by the white arrow #5. Also, the user who has finished the editing work in the editing space A2-2 moves from the editing space A2-2 to the print waiting space A3 as indicated by the white arrow #4.

印刷待ち空間A3に移動した利用者は、印刷が終わるのを待つ。印刷が終了すると、利用者は、編集ユニット12の側面に設けられた排出口から排出されたシール紙を受け取り、一連の写真シール作成ゲームを終える。 The user who has moved to the print waiting space A3 waits for the end of printing. When the printing is finished, the user receives the sticker paper ejected from the ejection port provided on the side of the editing unit 12, and finishes the series of photo sticker making games.

次に、各装置の構成について説明する。 Next, the configuration of each device will be described.

<事前選択部の構成>
図4は、事前選択部20の構成例を示す図である。
<Configuration of pre-selection unit>
FIG. 4 is a diagram showing a configuration example of the pre-selection unit 20. As shown in FIG.

事前選択部20の上側にはタッチパネルモニタ71が設けられる。タッチパネルモニタ71は、LCD(Liquid Crystal Display)などのモニタと、それに積層されたタッチパネルにより構成される。タッチパネルモニタ71は、各種のGUI(Graphical User Interface)を表示し、利用者の選択操作を受け付ける機能を備えている。タッチパネルモニタ71には、利用者の人数の選択に用いられる画面などが表示される。 A touch panel monitor 71 is provided above the pre-selection section 20 . The touch panel monitor 71 is composed of a monitor such as an LCD (Liquid Crystal Display) and a touch panel stacked thereon. The touch panel monitor 71 has a function of displaying various GUIs (Graphical User Interfaces) and receiving a user's selection operation. The touch panel monitor 71 displays a screen used for selecting the number of users.

タッチパネルモニタ71の下方にはスピーカ72が設けられる。スピーカ72は、事前選択処理の案内音声、BGM(Back Ground Music)、効果音などを出力する。スピーカ72の隣に、利用者が硬貨を入れる硬貨投入返却口73が設けられる。 A speaker 72 is provided below the touch panel monitor 71 . The speaker 72 outputs a guide voice for pre-selection processing, BGM (Background Music), sound effects, and the like. Next to the speaker 72, a coin insertion/return opening 73 into which the user inserts coins is provided.

<撮影部の構成>
図5および図6は、撮影部21の構成例を示す斜視図である。
<Structure of shooting unit>
5 and 6 are perspective views showing configuration examples of the photographing unit 21. FIG.

撮影部21は、側面パネル41A、側面パネル41B、および正面パネル42に囲まれるようにして構成される。 The imaging unit 21 is configured to be surrounded by the side panel 41A, the side panel 41B, and the front panel 42. As shown in FIG.

正面パネル42の略中央には箱状のカメラユニット81が設けられる。カメラユニット81の正面には、カメラ91とタッチパネルモニタ92が設けられる。カメラ91の右側には、スマートフォンホルダ93が設けられる。 A box-shaped camera unit 81 is provided substantially in the center of the front panel 42 . A camera 91 and a touch panel monitor 92 are provided in front of the camera unit 81 . A smartphone holder 93 is provided on the right side of the camera 91 .

カメラ91は、例えば一眼レフカメラであり、レンズが露出するようにカメラユニット81の内部に取り付けられる。カメラ91は、CCD(Charge Coupled Device)イメージセンサやCMOS(Complementary Metal Oxide Semiconductor)イメージセンサなどの撮像素子を有する。カメラ91は、撮影空間A1にいる利用者を被写体として撮影を行う撮影部として機能する。 The camera 91 is, for example, a single-lens reflex camera, and is attached inside the camera unit 81 so that the lens is exposed. The camera 91 has an imaging device such as a CCD (Charge Coupled Device) image sensor or a CMOS (Complementary Metal Oxide Semiconductor) image sensor. The camera 91 functions as a photographing unit that photographs a user in the photographing space A1 as a subject.

また、カメラ91は、上下方向の首振り機能(角度調整機能)を有する。 The camera 91 also has a vertical swing function (angle adjustment function).

図7は、カメラ91の角度調整の例を示す図である。 FIG. 7 is a diagram showing an example of angle adjustment of the camera 91. As shown in FIG.

図7に示すように、カメラ91は、カメラユニット81の内部において姿勢を変えることによって、光軸の向きを上下方向に調整することが可能とされる。図7において、破線矢印はレンズの光軸の向きを表す。 As shown in FIG. 7, the orientation of the optical axis of the camera 91 can be adjusted vertically by changing the posture inside the camera unit 81 . In FIG. 7, the dashed arrow indicates the direction of the optical axis of the lens.

図7A乃至Cに示すように、例えば、写真シール作成装置1の接地面と略水平な方向を上限とし、下限となる所定の下向きの角度までの範囲で、カメラ91の角度を調整することが可能とされる。 As shown in FIGS. 7A to 7C, for example, the angle of the camera 91 can be adjusted within a range from a direction substantially horizontal to the ground surface of the photo sticker creating apparatus 1 as an upper limit to a predetermined downward angle as a lower limit. It is possible.

このようなカメラ91の角度の調整は、後述するように、撮影を行っている利用者の操作に従って電動で行われる。利用者は、カメラ91の角度を好みの角度に調整して、撮影を行うことができる。 Such adjustment of the angle of the camera 91 is electrically performed according to the operation of the user who is taking the picture, as will be described later. The user can adjust the angle of the camera 91 to a desired angle and take a picture.

カメラ91により取り込まれた動画像に基づいて生成されたライブビュー画像は、タッチパネルモニタ92に表示される。所定のタイミングでカメラ91により取り込まれた静止画像は撮影画像として保存される。 A live view image generated based on the moving image captured by the camera 91 is displayed on the touch panel monitor 92 . A still image captured by the camera 91 at a predetermined timing is saved as a photographed image.

タッチパネルモニタ92はカメラ91の下方に設けられる。タッチパネルモニタ92は、LCDなどのモニタと、それに積層されたタッチパネルにより構成される。タッチパネルモニタ92は、カメラ91により取り込まれたライブビュー画像を表示するライブビューモニタとしての機能と、各種のGUIを表示して利用者の選択操作を受け付ける機能を備えている。 A touch panel monitor 92 is provided below the camera 91 . The touch panel monitor 92 is composed of a monitor such as an LCD and a touch panel laminated thereon. The touch panel monitor 92 has a function as a live view monitor that displays a live view image captured by the camera 91, and a function that displays various GUIs and receives a user's selection operation.

カメラ91の右側には、スマートフォンの置き場となるスマートフォンホルダ93が設けられる。スマートフォンホルダ93は、スマートフォンを横向きで置くのに十分な長さとなるように形成される。 On the right side of the camera 91, a smart phone holder 93 is provided for placing a smart phone. The smartphone holder 93 is formed to be long enough to place the smartphone sideways.

利用者は、自分のスマートフォンをスマートフォンホルダ93に置き、スマートフォンを利用して、ゲーム中の自身の様子を動画像や静止画像として撮影することができる。 The user can place his/her own smartphone on the smartphone holder 93 and use the smartphone to capture a video or still image of himself/herself during the game.

カメラユニット81の上方には、カメラユニット81の位置(カメラ91の位置)を基準として左に偏った状態で上ストロボユニット82が設置される。上ストロボユニット82は、カメラユニット81の上方と左上方の略全体を覆うようにして設けられる。 Above the camera unit 81, an upper strobe unit 82 is installed with the position of the camera unit 81 (the position of the camera 91) as a reference and biased to the left. The upper strobe unit 82 is provided so as to cover substantially the entire upper and upper left portions of the camera unit 81 .

上ストロボユニット82の正面は、斜め下方を向くように前傾したパネルと、その下方に設けられ、略垂直面を構成するパネルとから構成される。上ストロボユニット82の正面が、透光性を有する乳白色の板状の部材を用いた発光面として構成される。上ストロボユニット82は、カメラ91による撮影に合わせて発光し、利用者の正面左上方から、主に利用者の顔と上半身にストロボ光を照射する。 The front surface of the upper strobe unit 82 is composed of a panel tilted forward to face obliquely downward, and a panel provided below and forming a substantially vertical plane. The front surface of the upper strobe unit 82 is configured as a light-emitting surface using a translucent milky-white plate-like member. The upper strobe unit 82 emits light in synchronization with photographing by the camera 91, and irradiates mainly the user's face and upper body with strobe light from the upper left front of the user.

カメラユニット81の下方には、主に利用者の下半身および足元にストロボ光を照射する足元ストロボユニット83が設けられる。 Below the camera unit 81, a foot strobe unit 83 is provided that mainly irradiates the user's lower body and feet with strobe light.

足元ストロボユニット83は、正面視において横長長方形となる正面全体が発光面となるように、側面パネル41Aと側面パネル41Bとの間に隙間なく形成される。足元ストロボユニット83の上面は、写真シール作成装置1の設置面と略水平な面であり、撮影作業を行う利用者が手荷物などを置くための荷物置き場として用いられる。 The foot strobe unit 83 is formed without a gap between the side panels 41A and 41B so that the entire front surface, which is a horizontally long rectangle when viewed from the front, serves as a light emitting surface. The upper surface of the foot strobe unit 83 is substantially horizontal to the installation surface of the photo sticker creating apparatus 1, and is used as a baggage storage area for the user who is performing the photographing work to place his/her baggage.

上ストロボユニット82と足元ストロボユニット83の内部には、常時点灯する電球とストロボ発光管が設けられる。上ストロボユニット82と足元ストロボユニット83は、電球を発光させることによって撮影空間内を常時照らすとともに、撮影タイミングに合わせてストロボ発光管を発光させることによって、被写体となる利用者にストロボ光を照射する。 Inside the upper strobe unit 82 and the foot strobe unit 83, a constantly lit light bulb and a strobe arc tube are provided. The upper strobe unit 82 and the foot strobe unit 83 illuminate the shooting space at all times by emitting light bulbs, and irradiate the user, who is the subject, with strobe light by emitting light from the strobe arc tube in accordance with the shooting timing. .

なお、正面パネル42の天井付近にはスピーカが設けられる。スピーカからは、撮影処理の案内音声、BGM、効果音などが出力される。スピーカが背景部22に設けられるようにしても良い。 A speaker is provided near the ceiling of the front panel 42 . From the speaker, guidance voice, BGM, sound effects, etc. for the shooting process are output. A speaker may be provided in the background portion 22 .

図8は、背景部22の撮影空間A1側の構成例を示す図である。 FIG. 8 is a diagram showing a configuration example of the background portion 22 on the photographing space A1 side.

背面パネル51の内側には、緑色などの所定の色のシートが貼り付けられる。撮影された画像に写る緑色の領域を検出することによってクロマキー処理が行われ、人物の領域が検出される。 A sheet of a predetermined color such as green is attached to the inner side of the rear panel 51 . Chromakey processing is performed by detecting a green area appearing in the photographed image, and a person's area is detected.

背面パネル51の左端に取り付けられる側面パネル52Bの内側には操作部53が設けられる。 An operation unit 53 is provided inside a side panel 52B attached to the left end of the rear panel 51 .

操作部53は、図9に示すように、カメラ91の向きを上方向または下方向に調整するときに押下される角度調整ボタン53Aと、撮影を停止するときに押下される撮影停止ボタン53Bとから構成される。 As shown in FIG. 9, the operation unit 53 includes an angle adjustment button 53A that is pressed to adjust the orientation of the camera 91 upward or downward, and a shooting stop button 53B that is pressed to stop shooting. consists of

カメラ91による撮影は、10秒間隔などの所定の間隔で連続して行われる。撮影停止ボタン53Bは、その連続撮影を一時的に停止させるために押下される。利用者は、連続撮影を一時的に停止させている状態で、角度調整ボタン53Aを押下し、カメラ91の角度を調整することができる。 Photographing by the camera 91 is continuously performed at predetermined intervals such as 10-second intervals. The shooting stop button 53B is pressed to temporarily stop the continuous shooting. The user can adjust the angle of the camera 91 by pressing the angle adjustment button 53A while the continuous shooting is temporarily stopped.

操作部53が側面パネル52Bに設けられていることにより、カメラ91に顔を向けている利用者の立ち位置は、無意識のうちに、撮影空間A1において右側に僅かに寄った位置となる。撮影空間A1において操作部53の対角となる正面左側の位置に設けられた上ストロボユニット82から立ち位置までの距離を確保することにより、適切な光量の光によって、上ストロボユニット82から利用者を照射することが可能となる。 Since the operation unit 53 is provided on the side panel 52B, the standing position of the user facing the camera 91 is unconsciously slightly shifted to the right side in the photographing space A1. By securing a distance from the upper strobe unit 82 provided on the left side of the front diagonally of the operation unit 53 in the photographing space A1 to the standing position, an appropriate amount of light is emitted from the upper strobe unit 82 to the user. can be irradiated.

側面パネル52Bに設けられた操作部53は、利用者の立ち位置を無意識のうちに誘導する機能をも有する。操作部53が側面パネル52A側に設けられるようにしてもよい。 The operation unit 53 provided on the side panel 52B also has a function of guiding the user's standing position unconsciously. The operation unit 53 may be provided on the side panel 52A side.

<編集ユニットの構成>
図10は、編集ユニット12の正面側(図3の編集空間A2-1側)の構成例を示す図である。背面側(図3の編集空間A2-2側)にも同様の構成が設けられる。
<Structure of editing unit>
FIG. 10 is a diagram showing a configuration example of the front side of the editing unit 12 (on the editing space A2-1 side in FIG. 3). A similar configuration is also provided on the rear side (editing space A2-2 side in FIG. 3).

斜面62のほぼ中央にはタブレット内蔵モニタ131が設けられる。タブレット内蔵モニタ131の左側にはタッチペン132Aが設けられる。タブレット内蔵モニタ131の右側にはタッチペン132Bが設けられる。 A tablet built-in monitor 131 is provided approximately in the center of the slope 62 . A touch pen 132A is provided on the left side of the tablet built-in monitor 131 . A touch pen 132B is provided on the right side of the tablet built-in monitor 131 .

タブレット内蔵モニタ131には、例えば、編集作業に用いられる編集画面が表示される。2人の利用者が同時に編集作業を行う場合、タッチペン132Aはタブレット内蔵モニタ131に向かって左側にいる利用者により用いられ、タッチペン132Bはタブレット内蔵モニタ131に向かって右側にいる利用者により用いられる。 The tablet built-in monitor 131 displays, for example, an editing screen used for editing work. When two users edit at the same time, the touch pen 132A is used by the user on the left side of the tablet built-in monitor 131, and the touch pen 132B is used by the user on the right side of the tablet built-in monitor 131. .

なお、タッチペン132Aを用いた操作とタッチペン132Bを用いた操作は識別される。適宜、タブレット内蔵モニタ131の左側の表示に対してはタッチペン132Aを用いた操作のみが可能とされ、右側の表示に対してはタッチペン132Bを用いた操作のみが可能とされる。以下、適宜、タッチペン132Aとタッチペン132Bを区別する必要がない場合、まとめてタッチペン132という。 An operation using the touch pen 132A and an operation using the touch pen 132B are distinguished. As appropriate, the display on the left side of the tablet built-in monitor 131 can only be operated using the touch pen 132A, and the display on the right side can only be operated using the touch pen 132B. Hereinafter, when there is no need to distinguish between the touch pen 132A and the touch pen 132B, the touch pen 132A and the touch pen 132B are collectively referred to as the touch pen 132.

照明装置64の下方であって、照明装置64を支持する柱状の支持部63Aと支持部63Bの間には、アクリルミラー板などにより構成される鏡面部66が設けられる。鏡面部66は略垂直な面を形成する。 Below the illumination device 64 and between the columnar support portions 63A and 63B that support the illumination device 64, a mirror surface portion 66 made of an acrylic mirror plate or the like is provided. The mirror surface portion 66 forms a substantially vertical surface.

図10においては、鏡面となる鏡面部66の範囲が色を付して示されている。鏡面部66の横方向の幅は、タブレット内蔵モニタ131の横方向の幅より広い幅となる。鏡面部66には、編集空間A2-1にいる利用者の顔付近を含めて、編集空間A2-1の内部の様子が写り込むことになる。 In FIG. 10, the range of the mirror surface portion 66 that becomes the mirror surface is shown in color. The width of the mirror portion 66 in the horizontal direction is wider than the width of the tablet built-in monitor 131 in the horizontal direction. The mirror surface portion 66 reflects the inside of the editing space A2-1, including the vicinity of the user's face in the editing space A2-1.

図11は、カーテンの取り付け例を示す図である。 FIG. 11 is a diagram showing an example of curtain attachment.

図11に示すように、編集ユニット12の上方のカーテンレール26には、編集空間A2が外から見えないようにするためのカーテン取り付けられる。図11の例においては、レール26Cにカーテン111が取り付けられ、編集ユニット12の正面側のレール26Bにカーテン112が取り付けられている。編集ユニット12の背面側のレール26Aにも、カーテン112と同様のカーテンが取り付けられる。 As shown in FIG. 11, a curtain is attached to the curtain rail 26 above the editing unit 12 so as to hide the editing space A2 from the outside. In the example of FIG. 11, a curtain 111 is attached to rail 26C, and a curtain 112 is attached to rail 26B on the front side of editing unit 12. In FIG. A curtain similar to the curtain 112 is attached to the rail 26A on the rear side of the editing unit 12 as well.

ビニル素材のカーテン111、カーテン112の表面には、写真シール作成装置1が目立つように所定のデザインが施される。また、カーテン111とカーテン112のうち、少なくともカーテン112には、表面だけでなく裏面(編集空間A2-1側の面)にも、所定のデザインが施される。 A predetermined design is applied to the surfaces of the curtains 111 and 112 made of vinyl material so that the photo sticker creating apparatus 1 stands out. Further, of the curtain 111 and the curtain 112, at least the curtain 112 has a predetermined design on not only the front surface but also the back surface (the surface on the editing space A2-1 side).

図12は、カーテン112の裏面のデザイン例を示す図である。 FIG. 12 is a diagram showing a design example of the back surface of the curtain 112. As shown in FIG.

図12に示すように、カーテン112の裏面には、キャラクタや文字がプリントされることによってデザインが施される。 As shown in FIG. 12, the reverse side of the curtain 112 is designed by printing characters and letters.

図12の例においては、キャラクタである鳥のイラストと花のイラストからなるデザインが施されている。カーテン112の上方には、花に囲まれた「Happy!」の文字が、左右反転した状態でプリントされている。他のイラストがプリントされたり、風景や人物の写真がプリントされるといったように、カーテン112の裏面のデザインは任意である。 In the example of FIG. 12, a design consisting of an illustration of a bird and an illustration of a flower, which are characters, is applied. Above the curtain 112, the characters "Happy!" surrounded by flowers are printed in a horizontally reversed state. The design of the back side of the curtain 112 is optional, such as printing other illustrations or photographs of landscapes or people.

編集空間A2-1にいる利用者は、図12に示すようなデザインが施されたカーテン112に自分の背中を向けて立つことになる。利用者の前方にある鏡面部66には、利用者の背景として、カーテン112のデザインも写り込む。 A user in the editing space A2-1 stands with his/her back facing the curtain 112 designed as shown in FIG. The design of the curtain 112 is reflected as the user's background on the mirror surface portion 66 in front of the user.

図13は、鏡面部66の利用例を示す図である。 FIG. 13 is a diagram showing a usage example of the mirror surface portion 66. As shown in FIG.

図13に示すように、編集空間A2-1にいる利用者は、自分のスマートフォンのカメラを鏡面部66に向けて、鏡面部66に写っている自分の様子を撮影することができる。図13の例においては利用者が1人だけ示されているが、2人でゲームを行っている場合、2人で撮影を行うことができる。 As shown in FIG. 13, the user in the editing space A2-1 can point the camera of his/her smart phone toward the mirror surface portion 66 and take an image of himself reflected on the mirror surface portion 66. As shown in FIG. Although only one user is shown in the example of FIG. 13, when two people are playing the game, both of them can take pictures.

すなわち、鏡面部66は、編集空間A2-1にいる利用者が、いわゆる自撮り(自分撮り)を鏡越しで行うために用意されるものである。 In other words, the mirror section 66 is prepared for the user in the editing space A2-1 to take a so-called self-portrait (self-portrait) through the mirror.

カーテン112の裏面には上述したようなデザインが施されているから、利用者は、カーテン112に施されたデザインを自分の背景にして自撮りを行うことができる。また、左右反転の状態でプリントされているカーテン112の文字は、図13に示すように、正転した状態で鏡面部66に写り込む。自撮りによって得られた画像には、カーテン112にプリントされた文字が、正転した状態で写ることになる。 Since the back of the curtain 112 has the design as described above, the user can take a selfie with the design on the curtain 112 as his or her background. Also, the characters on the curtain 112 printed in a left-right reversed state are reflected in the mirror surface portion 66 in a normal reversed state, as shown in FIG. The characters printed on the curtain 112 appear in the image obtained by the self-portrait in a reversed state.

利用者は、編集空間A2-1での自撮りによって撮影した画像を、自分が利用しているSNS(Social Networking Service)のサイトにアップロードし、友達などに見せることができる。 The user can upload the self-portrait image taken in the editing space A2-1 to the site of the SNS (Social Networking Service) used by the user and show it to his/her friends.

このように、写真シール作成装置1は、撮影空間A1において撮影を行うだけでなく、編集空間A2においても撮影を行うことが可能な装置である。後述するように、編集の開始時、自撮りを行うことが利用者に対して案内される。撮影を終えて編集空間A2に移動した利用者に対しては、編集の前に、自撮りを行う時間が確保される。 As described above, the photo sticker creating apparatus 1 is a device capable of taking pictures not only in the photographing space A1 but also in the editing space A2. As will be described later, at the start of editing, the user is advised to take a selfie. For the user who has finished shooting and moved to the editing space A2, time for taking a selfie is secured before editing.

なお、編集空間A2-1側に取り付けられるカーテン112の裏面のデザインと、編集空間A2-2側に取り付けられるカーテン112の裏面のデザインが異なるデザインであってもよい。利用者は、いずれのデザインのカーテン112が設置された方の編集空間A2に案内されるのかを楽しむことができる。 The design of the rear surface of the curtain 112 attached to the editing space A2-1 side may be different from the design of the rear surface of the curtain 112 attached to the editing space A2-2 side. The user can enjoy which design of the curtain 112 is guided to the editing space A2 in which the curtain 112 is installed.

カーテン112の裏面のデザインとして、商品やサービスの広告などがプリントされるようにしてもよい。 As the design of the back side of the curtain 112, an advertisement for goods or services may be printed.

図14は、編集ユニット12の側面の構成例を示す図である。 FIG. 14 is a diagram showing a side configuration example of the editing unit 12. As shown in FIG.

編集ユニット12の側面の下側にはシール紙排出口161が設けられる。編集ユニット12の内部にはプリンタが設けられている。プリンタにより、編集空間A2-1において編集作業を行った利用者が写る画像、または、編集空間A2-2において編集作業を行った利用者が写る画像が所定のレイアウトでシール紙に印刷され、シール紙排出口161から排出される。 A seal paper discharge port 161 is provided on the lower side of the editing unit 12 . A printer is provided inside the editing unit 12 . A printer prints an image of a user who has performed editing work in the editing space A2-1 or an image of a user who has performed editing work in the editing space A2-2 on a sticker paper in a predetermined layout, and a sticker is printed. It is discharged from the paper discharge port 161 .

<編集画像のレイヤ構造>
図15は、編集画像のレイヤ構造の例を示す図である。
<Layer structure of edited image>
FIG. 15 is a diagram showing an example of the layer structure of an edited image.

左端の編集画像P1が編集によって生成される画像である。編集画像P1は、基本的に、背景画像P11、人物画像P12、前景画像P13の各レイヤの画像から構成される。各種の画像処理の対象となるレイヤも適宜設定される。 The edited image P1 at the left end is an image generated by editing. The edited image P1 is basically composed of images of layers of a background image P11, a person image P12, and a foreground image P13. Layers to be subjected to various types of image processing are also set appropriately.

図15の例において、背景画像P11は、単色の画像である。前景画像P13は、「Love my friend」の手書き文字の画像とハート型の画像を含む画像である。「Love my friend」の手書き文字の画像は、ペンツールを用いて利用者によって入力されたペン画像である。また、ハート型の画像は、スタンプツールを用いて利用者によって入力されたスタンプ画像である。 In the example of FIG. 15, the background image P11 is a monochrome image. The foreground image P13 is an image including an image of handwritten characters "Love my friend" and a heart-shaped image. The handwritten character image of "Love my friend" is a pen image input by the user using the pen tool. The heart-shaped image is a stamp image input by the user using the stamp tool.

このように、編集画像P1は、撮影画像からクロマキー処理によって抽出した人物の領域の画像である人物画像P12を背景画像P11に重ね、その上に前景画像P13を重ねることによって生成される。ペン画像やスタンプ画像を背景画像P11上に入力し、被写体の背景に表示させるようにすることも可能とされる。撮影画像に対しては、前景画像や背景画像が合成されることもあるし、編集処理を経たとしても利用者の操作によっては合成されないこともある。 Thus, the edited image P1 is generated by superimposing the person image P12, which is the image of the person's area extracted from the photographed image by chromakey processing, on the background image P11, and superimposing the foreground image P13 thereon. It is also possible to input a pen image or a stamp image onto the background image P11 and display it in the background of the subject. A foreground image or a background image may be combined with a photographed image, or may not be combined depending on a user's operation even after an editing process.

図15の例においては、人物画像P12として、利用者の略胸付近から上の範囲が大きく写る画像が示されている。撮影処理においては、このように顔が大きく写る撮影画像であるアップ画像が撮影される。アップ画像の撮影は例えば複数回行われる。利用者の全身が写る全身画像の撮影が行われるようにしてもよい。 In the example of FIG. 15, an image in which a range from the vicinity of the user's chest to the top is largely captured is shown as the person image P12. In the photographing process, a close-up image, which is a photographed image in which the face is enlarged in this way, is photographed. Shooting of the close-up image is performed, for example, multiple times. A full-body image of the user's whole body may be captured.

<写真シール作成装置の内部構成>
図16は、写真シール作成装置1の構成例を示すブロック図である。図16において、上述した構成と同じ構成には同じ符号を付してある。重複する説明については適宜省略する。
<Internal configuration of photo sticker creation device>
FIG. 16 is a block diagram showing a configuration example of the photo sticker creating apparatus 1. As shown in FIG. In FIG. 16, the same reference numerals are given to the same configurations as those described above. Duplicate explanations will be omitted as appropriate.

図16に示すように、写真シール作成装置1は、PC(Personal Computer)部301に対して、事前選択部302、撮影部304、編集部305A,305B、および印刷部306が外部入出力インタフェース303を介して接続されることによって構成される。情報処理部であるPC部301は、例えば編集ユニット12の筐体内部に搭載される。 As shown in FIG. 16, the photo sticker creating apparatus 1 has an external input/output interface 303 for a PC (Personal Computer) section 301, a prior selection section 302, a photographing section 304, editing sections 305A and 305B, and a printing section 306. It is configured by being connected via A PC section 301, which is an information processing section, is mounted inside the housing of the editing unit 12, for example.

PC部301を構成するCPU(Central Processing Unit)311、ROM(Read Only Memory)312、RAM(Random Access Memory)313は、バス314により相互に接続される。 A CPU (Central Processing Unit) 311 , a ROM (Read Only Memory) 312 , and a RAM (Random Access Memory) 313 constituting the PC section 301 are interconnected by a bus 314 .

CPU311は、所定のプログラムを実行し、写真シール作成装置1の全体の動作を制御する。ROM312は、CPU311が実行するプログラムやデータを記憶する。RAM312は、CPU311が処理するデータやプログラムを一時的に記憶する。 A CPU 311 executes a predetermined program and controls the overall operation of the photo sticker creating apparatus 1 . The ROM 312 stores programs and data executed by the CPU 311 . A RAM 312 temporarily stores data and programs processed by the CPU 311 .

バス314には、さらに、入出力インタフェース315が接続される。入出力インタフェース315には、記憶部316、通信部317、およびドライブ318が接続される。 An input/output interface 315 is further connected to the bus 314 . A storage unit 316 , a communication unit 317 and a drive 318 are connected to the input/output interface 315 .

記憶部316は、ハードディスクやフラッシュメモリなどの不揮発性の記憶媒体である。記憶部316は、CPU311から供給された各種の設定情報などを記憶する。記憶部316に記憶されている情報はCPU311により適宜読み出される。 The storage unit 316 is a nonvolatile storage medium such as a hard disk or flash memory. The storage unit 316 stores various setting information and the like supplied from the CPU 311 . Information stored in the storage unit 316 is appropriately read by the CPU 311 .

通信部317は、インターネットなどのネットワークのインタフェースである。通信部317は、CPU311による制御に従って外部の装置と通信を行う。通信部317は、利用者により選択された画像を、例えば写真シール作成装置1のメーカーが管理する画像管理サーバに送信する。通信部317から送信された画像は、所定の記憶領域が割り当てられて保存され、画像管理サーバにアクセスしてきた携帯端末上で表示されたり、携帯端末にダウンロードされたりする。 A communication unit 317 is a network interface such as the Internet. A communication unit 317 communicates with an external device under the control of the CPU 311 . The communication unit 317 transmits the image selected by the user to an image management server managed by the manufacturer of the photo sticker creating apparatus 1, for example. Images transmitted from the communication unit 317 are stored in a predetermined storage area, displayed on the mobile terminal that has accessed the image management server, or downloaded to the mobile terminal.

ドライブ318には、光ディスクや半導体メモリなどよりなるリムーバブルメディア319が適宜装着される。ドライブ318によりリムーバブルメディア319から読み出されたプログラムやデータは、CPU311に供給され、記憶部316に記憶されたり、インストールされたりする。 A removable medium 319 such as an optical disk or a semiconductor memory is mounted in the drive 318 as appropriate. Programs and data read from the removable medium 319 by the drive 318 are supplied to the CPU 311 and stored in the storage unit 316 or installed.

入出力インタフェース315には外部入出力インタフェース303が接続される。PC部301による各部の制御が、外部入出力インタフェース303を介して行われる。 The external input/output interface 303 is connected to the input/output interface 315 . Each unit is controlled by the PC unit 301 via the external input/output interface 303 .

事前選択部302は、事前選択空間A0にいる利用者を対象とした事前選択処理を行う。事前選択部302は、タッチパネルモニタ71、スピーカ72、および硬貨処理部321から構成される。 The pre-selection unit 302 performs pre-selection processing for users in the pre-selection space A0. The preselection unit 302 is composed of a touch panel monitor 71 , a speaker 72 and a coin processing unit 321 .

タッチパネルモニタ71は、PC部301による制御に従って各種の選択画面を表示し、選択画面に対する利用者の操作を受け付ける。利用者の操作の内容を表す入力信号はPC部301に供給され、各種の設定が行われる。 The touch panel monitor 71 displays various selection screens under the control of the PC unit 301 and accepts user operations on the selection screens. An input signal representing the content of the user's operation is supplied to the PC unit 301, and various settings are performed.

硬貨処理部321は、硬貨投入返却口73への硬貨の投入を検出する。硬貨処理部321は、所定の金額分の硬貨が投入されたことを検出した場合、ゲームの開始を指示する起動信号をPC部301に出力する。 The coin processing unit 321 detects insertion of coins into the coin insertion/return port 73 . When the coin processing unit 321 detects that a predetermined amount of coins has been inserted, the coin processing unit 321 outputs an activation signal instructing the start of the game to the PC unit 301 .

撮影部304は、撮影空間A1にいる利用者を対象とした撮影処理を行う。撮影部304は、操作部53、カメラ91、カメラ駆動部91A、タッチパネルモニタ92、照明装置331、およびスピーカ332から構成される。 The photographing unit 304 performs photographing processing for users in the photographing space A1. The photographing unit 304 is composed of the operation unit 53 , the camera 91 , the camera driving unit 91A, the touch panel monitor 92 , the illumination device 331 and the speaker 332 .

操作部53は、角度調整ボタン53A、撮影停止ボタン53Bに対する利用者の操作に応じて、利用者の操作を表す信号をPC部301に出力する。 The operation unit 53 outputs a signal representing the user's operation to the PC unit 301 according to the user's operation on the angle adjustment button 53A and the shooting stop button 53B.

カメラ91は、PC部301によるシャッタ制御に従って撮影を行い、撮影によって得られた撮影画像(画像データ)をPC部301に出力する。 The camera 91 performs photographing according to shutter control by the PC section 301 and outputs a photographed image (image data) obtained by photographing to the PC section 301 .

カメラ駆動部91Aは、PC部301による制御に従って、カメラ91の上下方向の角度を調整する。 The camera drive unit 91A adjusts the vertical angle of the camera 91 under the control of the PC unit 301 .

照明装置331は、撮影空間A1内の各ストロボユニットであり、PC部301から供給される照明制御信号に従って発光する。照明装置331には、上ストロボユニット82と足元ストロボユニット83が含まれる。 The lighting device 331 is each strobe unit in the shooting space A1 and emits light according to the lighting control signal supplied from the PC section 301 . The lighting device 331 includes an upper strobe unit 82 and a foot strobe unit 83 .

スピーカ332は、撮影空間A1の各位置に設けられたスピーカにより構成される。 The speaker 332 is composed of speakers provided at respective positions in the imaging space A1.

編集部305Aは、編集空間A2-1にいる利用者を対象とした編集処理を行う。編集部305Aは、タブレット内蔵モニタ131、タッチペン132A,132B、およびスピーカ341から構成される。編集部305Bは、編集空間A2-2にいる利用者を対象とした編集処理を行い、編集部305Aと同一の構成を有する。以下、適宜、編集部305A,305Bをまとめて編集部305という。 The editing unit 305A performs editing processing for users in the editing space A2-1. The editing unit 305A is composed of a tablet built-in monitor 131, touch pens 132A and 132B, and a speaker 341. FIG. The editing section 305B performs editing processing for users in the editing space A2-2, and has the same configuration as the editing section 305A. Hereinafter, the editing units 305A and 305B are collectively referred to as an editing unit 305 as appropriate.

タブレット内蔵モニタ131は、PC部301による制御に従って編集画面を表示し、編集画面に対する利用者の操作を受け付ける。利用者の操作の内容を表す入力信号はPC部301に供給され、編集対象となる撮影画像が編集される。 The tablet built-in monitor 131 displays an edit screen under the control of the PC unit 301 and accepts user's operations on the edit screen. An input signal representing the content of the user's operation is supplied to the PC unit 301, and the captured image to be edited is edited.

印刷部306は、プリンタ351を含むように構成される。プリンタ351にはシール紙ユニット352が装着される。 Printing unit 306 is configured to include printer 351 . A sticker paper unit 352 is attached to the printer 351 .

プリンタ351は、内蔵するヘッド361を駆動し、PC部301から供給された印刷データに基づいて、シール紙ユニット352に収納されているロール状のシール紙363に画像を印刷する。また、プリンタ351は、画像を印刷したシール紙363をカッター362によって所定のカット位置でカットして、シール紙排出口161に排出する。 The printer 351 drives a built-in head 361 and prints an image on a roll-shaped sticker paper 363 stored in the sticker paper unit 352 based on print data supplied from the PC section 301 . The printer 351 also cuts the sticker paper 363 on which the image is printed by the cutter 362 at a predetermined cut position, and discharges the cut paper to the sticker paper outlet 161 .

<写真シール作成装置の機能構成例>
図17は、写真シール作成装置1の機能構成例を示すブロック図である。図17に示す機能部のうちの少なくとも一部は、CPU311により所定のプログラムが実行されることによって実現される。
<Example of functional configuration of photo sticker creation device>
FIG. 17 is a block diagram showing a functional configuration example of the photo sticker creating apparatus 1. As shown in FIG. At least some of the functional units shown in FIG. 17 are implemented by the CPU 311 executing a predetermined program.

写真シール作成装置1においては、事前選択処理部401、撮影処理部402、編集処理部403、および印刷処理部404が実現される。 In the photo sticker creating apparatus 1, a pre-selection processing unit 401, a photographing processing unit 402, an editing processing unit 403, and a printing processing unit 404 are implemented.

事前選択処理部401は、事前選択部302の各部を制御することで、事前選択処理を実行する。事前選択処理により、利用者の人数の選択などが行われる。利用者による選択内容を表す情報は撮影処理部402に供給される。 The pre-selection processing unit 401 executes pre-selection processing by controlling each unit of the pre-selection unit 302 . Selection of the number of users and the like are performed by the pre-selection process. Information representing the content selected by the user is supplied to the imaging processing unit 402 .

撮影処理部402は、撮影部304の各部を制御することで撮影処理を行う。撮影処理部402は、撮影処理を行うことによって得られた撮影画像のデータを編集処理部403に出力する。撮影処理部402から編集処理部403に対しては、撮影を複数回行うことによって得られた複数枚の撮影画像のデータが供給される。 The imaging processing unit 402 performs imaging processing by controlling each unit of the imaging unit 304 . The shooting processing unit 402 outputs the data of the shot image obtained by performing the shooting processing to the editing processing unit 403 . The shooting processing unit 402 supplies the editing processing unit 403 with data of a plurality of captured images obtained by performing shooting a plurality of times.

編集処理部403は、編集部305の各部を制御することで編集処理を行う。編集処理には、撮影画像に写る利用者の目の大きさを調整するための画像処理、撮影画像に対して編集を施すための画像処理などが含まれる。 The editing processing unit 403 performs editing processing by controlling each unit of the editing unit 305 . The editing processing includes image processing for adjusting the size of the user's eyes in the captured image, image processing for editing the captured image, and the like.

撮影画像の編集後、編集処理部403は、分割数の選択に用いられる画面、画像管理サーバに送信する画像の選択に用いられる画面などの各種の画面をタブレット内蔵モニタ131に表示する。編集処理部403は、利用者により選択された分割数に従って各編集画像を配置することによって印刷データを生成し、印刷処理部404に出力する。また、編集処理部403は、利用者により選択された編集画像を画像管理サーバに送信する。 After editing the captured image, the edit processing unit 403 displays various screens on the tablet built-in monitor 131, such as a screen used for selecting the number of divisions and a screen used for selecting an image to be transmitted to the image management server. The edit processing unit 403 generates print data by arranging each edited image according to the number of divisions selected by the user, and outputs the print data to the print processing unit 404 . Also, the edit processing unit 403 transmits the edited image selected by the user to the image management server.

印刷処理部404は、プリンタ351に印刷データを出力し、編集画像の印刷を行う。 The print processing unit 404 outputs print data to the printer 351 to print the edited image.

<撮影処理部の詳細構成>
図18は、撮影処理部402の構成例を示すブロック図である。
<Detailed Configuration of Shooting Processing Unit>
FIG. 18 is a block diagram showing a configuration example of the imaging processing unit 402. As shown in FIG.

撮影処理部402は、撮影制御部411、画像処理部412、表示制御部413、および画像記憶部414から構成される。 The shooting processing unit 402 is composed of a shooting control unit 411 , an image processing unit 412 , a display control unit 413 and an image storage unit 414 .

撮影制御部411は、カメラ91を制御することによって動画像の撮影を行い、撮影を行うことによって得られた画像を画像処理部412に出力する。撮影制御部411から出力された動画像はライブビュー画像の生成に用いられる。 The shooting control unit 411 shoots a moving image by controlling the camera 91 and outputs the image obtained by shooting to the image processing unit 412 . The moving image output from the shooting control unit 411 is used to generate a live view image.

また、撮影制御部411は、カウントダウンに合わせて静止画像の撮影を行い、撮影を行うことによって得られた静止画像を画像処理部412に出力する。撮影制御部411から出力された静止画像は撮影画像の生成に用いられる。 The shooting control unit 411 also shoots a still image in time with the countdown, and outputs the still image obtained by shooting to the image processing unit 412 . A still image output from the imaging control unit 411 is used to generate a captured image.

画像処理部412は、撮影制御部411から供給された動画像の各フレームから矩形領域をトリミングにより切り出し、切り出した画像からなる動画像を生成する。画像処理部412により生成された動画像は、ライブビュー画面に表示するライブビュー画像として用いられる。 The image processing unit 412 cuts out a rectangular region from each frame of the moving image supplied from the imaging control unit 411 by trimming, and generates a moving image made up of the cut out images. The moving image generated by the image processing unit 412 is used as a live view image displayed on the live view screen.

また、画像処理部412は、撮影制御部411から供給された静止画像から矩形領域をトリミングにより切り出すことによって、所定の画角の撮影画像を生成する。画像処理部412により生成された撮影画像は、画像記憶部414に供給され、記憶される。 Further, the image processing unit 412 generates a photographed image having a predetermined angle of view by cutting out a rectangular area from the still image supplied from the photographing control unit 411 by trimming. The captured image generated by the image processing unit 412 is supplied to the image storage unit 414 and stored therein.

表示制御部413は、ライブビュー画面などの、タッチパネルモニタ92の各種の画面の表示を制御する。 The display control unit 413 controls display of various screens of the touch panel monitor 92 such as a live view screen.

画像記憶部414は、画像処理部412により生成された撮影画像を記憶する。撮影処理が終了した場合、画像記憶部414に記憶された撮影画像は編集処理部403に供給される。 The image storage unit 414 stores captured images generated by the image processing unit 412 . When the shooting process ends, the shot image stored in the image storage unit 414 is supplied to the editing processing unit 403 .

<編集処理部の詳細構成>
図19は、図17の編集処理部403の構成例を示すブロック図である。
<Detailed configuration of editing processing unit>
FIG. 19 is a block diagram showing a configuration example of the edit processing unit 403 of FIG. 17. As shown in FIG.

編集処理部403は、選択受付部431、編集用画像生成部432、編集制御部433、表示制御部434、印刷データ生成部435、および通信制御部436から構成される。編集制御部433には黒目処理部433Aと輪郭調整部433Bが含まれる。 The edit processing unit 403 includes a selection reception unit 431 , an edit image generation unit 432 , an edit control unit 433 , a display control unit 434 , a print data generation unit 435 and a communication control unit 436 . The edit control section 433 includes a iris processing section 433A and a contour adjustment section 433B.

選択受付部431は、タブレット内蔵モニタ131に表示された画面に対する利用者の操作を受け付ける。選択受付部431により受け付けられた利用者の操作の内容を表す情報は、編集制御部433と表示制御部434に供給される。 The selection accepting unit 431 accepts a user's operation on the screen displayed on the tablet built-in monitor 131 . Information representing the content of the user's operation received by the selection receiving unit 431 is supplied to the editing control unit 433 and the display control unit 434 .

編集用画像生成部432は、撮影処理部402から供給された撮影画像に基づいて、編集用の撮影画像を生成する。例えば、画像処理部412(図18)によるトリミング後のそれぞれの画像を原画として、レタッチ処理などの各種の処理を原画に対して施して得られた画像が、編集用の撮影画像となる。編集用画像生成部432により生成された編集用の撮影画像は、編集制御部433と表示制御部434に供給される。 The editing image generation unit 432 generates a shot image for editing based on the shot image supplied from the shooting processing unit 402 . For example, each image after trimming by the image processing unit 412 (FIG. 18) is used as an original image, and an image obtained by performing various processes such as retouching on the original image becomes the photographed image for editing. The photographed image for editing generated by the editing image generation unit 432 is supplied to the editing control unit 433 and the display control unit 434 .

編集制御部433は、選択受付部431から出力された情報に基づいて、編集用画像生成部432から供給された編集用の撮影画像の編集を行う。編集は、手書きの文字やスタンプ画像などの合成用画像を、編集対象となっている撮影画像に合成する画像処理である。 The editing control unit 433 edits the photographed image for editing supplied from the editing image generating unit 432 based on the information output from the selection receiving unit 431 . Editing is image processing for synthesizing an image for synthesis, such as handwritten characters or a stamp image, with a photographed image to be edited.

編集用画像生成部432により行われるレタッチ処理が、利用者による選択内容に応じた画像処理を複数の撮影画像のそれぞれに一括して施す処理であるのに対して、編集は、利用者による選択内容に応じた画像処理を、そのとき編集対象となっている1枚の撮影画像に施す処理である。レタッチ処理時、目の大きさなどを撮影画像毎に選択することができるようにしてもよい。 While the retouching process performed by the editing image generation unit 432 is a process of collectively applying image processing according to the content selected by the user to each of a plurality of captured images, editing is a process of performing image processing according to the user's selection. This is a process of applying image processing according to the content to a photographed image that is being edited at that time. At the time of retouching processing, the eye size and the like may be selected for each captured image.

編集制御部433は、編集結果を表す情報を表示制御部434に出力し、編集画面の表示に反映させる。 The editing control unit 433 outputs information representing the editing result to the display control unit 434 and reflects it in the display of the editing screen.

編集制御部433は、編集が終了した場合、編集を施して得られた撮影画像である編集画像を印刷データ生成部435と通信制御部436に出力する。 When editing is completed, the editing control unit 433 outputs an edited image, which is a photographed image obtained by editing, to the print data generation unit 435 and the communication control unit 436 .

編集制御部433の黒目処理部433Aは、編集画面に対する利用者の操作に応じて、撮影画像に写るそれぞれの利用者の黒目の色を変更する処理である黒目処理を行う。 The iris processing unit 433A of the editing control unit 433 performs iris processing, which is processing for changing the color of the iris of each user appearing in the captured image, according to the user's operation on the editing screen.

編集制御部433の輪郭調整部433Bは、編集画面に対する利用者の操作に応じて画像処理を行い、編集用の撮影画像に写る利用者の特定の部位を強調させる。例えば、目全体、または、黒目部分などの目の一部を強調させるための画像処理が輪郭調整部433Bにより行われる。 The contour adjusting unit 433B of the editing control unit 433 performs image processing according to the user's operation on the editing screen, and emphasizes a specific part of the user appearing in the photographed image for editing. For example, the contour adjustment unit 433B performs image processing for emphasizing the entire eye or part of the eye such as the iris.

表示制御部434は、利用者による操作に用いられる操作画面をタブレット内蔵モニタ131に表示し、利用者の操作に応じて操作画面の表示を制御する。表示制御部434には、編集用画像生成部432から出力された撮影画像、編集制御部433から出力された編集画像などが供給される。表示制御部434に供給された各種の画像は操作画面の表示に用いられる。 The display control unit 434 displays an operation screen used for operation by the user on the tablet built-in monitor 131, and controls the display of the operation screen according to the user's operation. The display control unit 434 is supplied with the captured image output from the editing image generation unit 432, the edited image output from the editing control unit 433, and the like. Various images supplied to the display control unit 434 are used for displaying the operation screen.

印刷データ生成部435は、編集制御部433から供給された編集画像を所定のレイアウトで配置することによって印刷データを生成する。印刷データ生成部435は、印刷データを印刷処理部404に出力し、シール紙363に印刷させる。 The print data generation unit 435 generates print data by arranging the edited images supplied from the edit control unit 433 in a predetermined layout. The print data generation unit 435 outputs the print data to the print processing unit 404 to print it on the sticker paper 363 .

通信制御部436は、通信部317を制御し、編集制御部433から供給された編集画像を画像管理サーバに送信する。 The communication control unit 436 controls the communication unit 317 and transmits the edited image supplied from the editing control unit 433 to the image management server.

図20は、編集用画像生成部432の構成例を示すブロック図である。 FIG. 20 is a block diagram showing a configuration example of the editing image generation unit 432. As shown in FIG.

編集用画像生成部432は、領域検出部451、レタッチ処理部452、性別判定部453、まつげ処理部454、および縮小部455により構成される。 The editing image generation unit 432 includes an area detection unit 451 , a retouch processing unit 452 , a gender determination unit 453 , an eyelash processing unit 454 and a reduction unit 455 .

撮影処理部402から供給された撮影画像は、領域検出部451、レタッチ処理部452、および性別判定部453に入力される。編集用画像生成部432の各部による処理は、それぞれの撮影画像を対象として行われる。 A photographed image supplied from the photographing processing unit 402 is input to an area detection unit 451 , a retouch processing unit 452 , and a gender determination unit 453 . Processing by each unit of the editing image generation unit 432 is performed on each captured image.

領域検出部451は、撮影画像に写る人物である利用者の領域を検出するとともに、利用者の各部位の領域を検出する。例えば、利用者の顔の領域、顔を構成する部位としての目、まぶた、鼻、唇、頬の領域、髪の毛の領域などが領域検出部451により検出される。 The region detection unit 451 detects the region of the user who is a person in the captured image, and also detects the regions of each part of the user. For example, the region detection unit 451 detects the region of the user's face, the eye, eyelid, nose, lips, cheek region, hair region, etc. as parts of the face.

図21は、領域の検出の例を示す図である。 FIG. 21 is a diagram illustrating an example of region detection.

2人の女性が写る撮影画像P101が供給された場合、それぞれの利用者を対象として、顔や、顔の各部位の領域の検出が行われる。例えば左側に写る利用者からは、左右のそれぞれの目の領域を含む各領域が検出される。 When a photographed image P101 in which two women are photographed is supplied, detection of the face and regions of each part of the face is performed for each user. For example, for a user photographed on the left side, respective areas including left and right eye areas are detected.

左側に写る利用者の右目の領域に注目した場合、図21の左側に拡大して示すように、黒目領域A11と、黒目領域A11の左右の白目領域A12,A13がそれぞれ検出される。 Focusing on the area of the user's right eye shown on the left side, a black eye area A11 and left and right white eye areas A12 and A13 of the black eye area A11 are detected, respectively, as shown in the enlarged left side of FIG.

白目領域A12は、鼻に近い方の白目の領域であり、白目領域A13は、耳に近い方の白目の領域である。位置p1は目頭の位置を表し、位置p2は目尻の位置を表す。黒目領域A11には、上ストロボユニット82と足元ストロボユニット83の発光により、それぞれの形状や大きさに応じたキャッチライトが写り込む。 The white eye region A12 is the white eye region closer to the nose, and the white eye region A13 is the white eye region closer to the ear. The position p1 represents the position of the inner corner of the eye, and the position p2 represents the position of the outer corner of the eye. In the iris area A11, catch lights corresponding to the shapes and sizes of the upper strobe unit 82 and the foot strobe unit 83 are reflected.

黒目領域と白目領域の検出は、例えば、ニューラルネットワークなどにより構成される予測モデルに基づいて行われる。領域検出部451に対しては、機械学習によってあらかじめ生成された、目の各領域を検出するための予測モデルが用意されている。 Detection of the black eye region and the white eye region is performed based on, for example, a prediction model configured by a neural network or the like. For the area detection unit 451, a prediction model for detecting each area of the eye, which is generated in advance by machine learning, is prepared.

領域検出部451に用意される予測モデルは、例えば、撮影画像を入力とし、目の各領域のマスク画像、目の周りの肌の領域のマスク画像を出力とするモデルである。予測モデルから出力されたマスク画像により、黒目領域と白目領域の各領域の位置、大きさ、形状などが表される。 The prediction model prepared in the region detection unit 451 is, for example, a model that receives a captured image as an input and outputs a mask image of each region of the eyes and a mask image of the skin region around the eyes. The mask image output from the prediction model represents the position, size, shape, and the like of each region of the black eye region and the white eye region.

黒目領域と白目領域の検出が、予測モデルを用いるのではなく、画像を解析することによって抽出された各領域の特徴量に基づくマッチングにより行われるようにしてもよい。この場合、黒目領域と白目領域の各領域の特徴量を表すデータが領域検出部451には用意される。 The detection of the black eye region and the white eye region may be performed by matching based on the feature amount of each region extracted by analyzing the image instead of using the prediction model. In this case, the region detection unit 451 prepares data representing feature amounts of each region of the black eye region and the white eye region.

目の各領域だけでなく、顔全体や、顔の他の各部の領域についても、機械学習によって生成された予測モデルを用いて検出されるようにしてもよい。また、特徴量に基づくマッチングにより検出されるようにしてもよい。 Not only each area of the eyes, but also the entire face and other parts of the face may be detected using a prediction model generated by machine learning. Alternatively, detection may be performed by matching based on feature amounts.

図20の領域検出部451は、以上のようにして検出した各領域の情報をレタッチ処理部452とまつげ処理部454に出力する。領域検出部451から出力される情報により、撮影画像に写るそれぞれの利用者の左右の目の黒目領域と白目領域の位置、大きさ、形状などが表される。領域検出部451による検出結果を表す情報は、後段の編集制御部433にも供給される。 The area detection unit 451 in FIG. 20 outputs the information of each area detected as described above to the retouch processing unit 452 and the eyelash processing unit 454 . The information output from the area detection unit 451 represents the position, size, shape, and the like of the iris area and the white area of the left and right eyes of each user in the captured image. Information representing the detection result by the area detection unit 451 is also supplied to the editing control unit 433 in the subsequent stage.

レタッチ処理部452は、撮影画像に対してレタッチ処理を施す。レタッチ処理は、顔の輪郭の調整、目の大きさの調整などの、撮影画像に写る利用者の特定の部位に対する画像処理である。画像処理の対象となる各領域が、領域検出部451から供給される情報により特定される。レタッチ処理が施された撮影画像は、まつげ処理部454に供給される。 The retouch processing unit 452 performs retouch processing on the captured image. The retouching process is image processing for a specific part of the user appearing in the captured image, such as adjusting the contour of the face and adjusting the size of the eyes. Each area to be subjected to image processing is specified by information supplied from the area detection unit 451 . The photographed image that has been retouched is supplied to the eyelash processing unit 454 .

肌の明るさの調整などの他の処理がレタッチ処理として行われるようにしてもよい。特定の部位に対する処理ではなく、画像全体を対象としたフィルタ処理などの他の画像処理が行われるようにしてもよい。 Other processing, such as skin brightness adjustment, may be performed as retouch processing. Other image processing such as filtering may be performed on the entire image instead of processing on a specific part.

性別判定部453は、撮影画像に写るそれぞれの利用者の性別を判定し、判定結果を表す情報をまつげ処理部454に出力する。性別判定部453による判定についても、機械学習によって生成された予測モデルに基づいて行われるようにしてもよいし、画像を解析することによって抽出された各領域の特徴量に基づくマッチングにより行われるようにしてもよい。 The gender determination unit 453 determines the gender of each user appearing in the captured image, and outputs information representing the determination result to the eyelash processing unit 454 . The determination by the gender determination unit 453 may also be performed based on a prediction model generated by machine learning, or may be performed by matching based on the feature amount of each region extracted by analyzing the image. can be

まつげ処理部454は、レタッチ処理部452から供給された撮影画像に写るそれぞれの利用者のまつげ(睫毛)を強調する画像処理であるまつげ処理を行う。まつげ処理は、性別判定部453による判定結果に基づいて、例えば女性だけを対象として行われる。まつげ処理が施されることによってまつげが強調された撮影画像は、縮小部455に供給される。まつげ処理部454により行われるまつげ処理については後に詳述する。 The eyelash processing unit 454 performs eyelash processing, which is image processing for emphasizing eyelashes (eyelashes) of each user appearing in the captured image supplied from the retouch processing unit 452 . Based on the determination result of the gender determination unit 453, eyelash processing is performed only for women, for example. The photographed image in which the eyelashes are emphasized by the eyelash processing is supplied to the reduction unit 455 . The eyelash processing performed by the eyelash processing unit 454 will be detailed later.

縮小部455は、まつげ処理部454から供給された撮影画像を縮小することによって、編集用の撮影画像を生成する。撮影画像の縮小は、例えば画素を間引き、撮影画像を構成する画素数を減らすことによって行われる。縮小部455により生成された編集用の撮影画像は、編集制御部433などに供給される。 The reduction unit 455 reduces the captured image supplied from the eyelash processing unit 454 to generate a captured image for editing. Reduction of the captured image is performed, for example, by thinning out pixels to reduce the number of pixels forming the captured image. The shot image for editing generated by the reduction unit 455 is supplied to the editing control unit 433 and the like.

このように、編集用画像生成部432においては、レタッチ処理とまつげ処理は、縮小前の原画に対して施されることになる。データ量の多い撮影画像を対象として、精細な処理を施すことが可能となる。 In this way, in the editing image generation unit 432, the retouching process and the eyelashes process are performed on the original image before reduction. It is possible to perform fine processing on captured images with a large amount of data.

図22は、図20のまつげ処理部454の構成例を示すブロック図である。 FIG. 22 is a block diagram showing a configuration example of the eyelash processing unit 454 of FIG.

まつげ処理部454は、逆さまつげ除去部461、変形部462、合成部463、およびまつげ強調処理部464により構成される。 The eyelash processing unit 454 is composed of an upside-down eyelash removing unit 461 , a transforming unit 462 , a synthesizing unit 463 , and an eyelash enhancement processing unit 464 .

レタッチ処理部452から供給されたレタッチ処理後の撮影画像は逆さまつげ除去部461に入力される。また、領域検出部451により検出された各領域の情報は、まつげ処理部454の各部に入力される。性別判定部453による性別の判定結果を表す情報は、変形部462と合成部463に入力される。 The retouched photographed image supplied from the retouch processing unit 452 is input to the upside-down eyelash removal unit 461 . Information on each area detected by the area detection section 451 is input to each section of the eyelash processing section 454 . Information representing the result of gender determination by gender determination unit 453 is input to transforming unit 462 and synthesizing unit 463 .

逆さまつげ除去部461は、撮影画像に写る利用者の目に逆さまつげがある場合、逆さまつげを画像処理によって除去する。逆さまつげは、上まつげのうち、下向きになって生えていて白目領域にかかっているまつげ、および、下まつげのうち、上向きになって生えていて白目領域にかかっているまつげである。白目領域の位置などについては、領域検出部451から供給された情報に基づいて特定される。 The upside-down eyelash removing unit 461 removes the upside-down eyelashes by image processing when the eyelashes of the user appearing in the photographed image are present. The upside-down eyelashes are the eyelashes that grow downward and cover the white region of the upper eyelashes, and the eyelashes that grow upward and cover the white region of the lower eyelashes. The position of the white-of-the-eye area and the like are specified based on the information supplied from the area detection section 451 .

図23は、逆さまつげの除去の例を示す図である。 FIG. 23 is a diagram showing an example of removal of upside down eyelashes.

図23の左側に破線の円C1で囲んで示すように白目領域A13にまつげがかかって写っている場合、逆さまつげ除去部461は、まつげを構成する画素を、周りの白目領域A13の画素で置き換える(補間する)ことによって、図23の右側に示すように逆さまつげを除去する。 When the white eye region A13 is covered with the eyelashes as shown by the dashed circle C1 on the left side of FIG. By (interpolating), we remove the upside-down lashes as shown on the right side of FIG.

白目領域A13にまつげがかかって写っていることは、白目領域の標準の色として設定された白色以外の色の画素が白目領域A13内にある場合に、その画素を異常画素として検出することによって特定される。逆さまつげ除去部461には、白目領域の標準の色を表す情報があらかじめ設定されている。 The eyelashes appearing in the white eye region A13 is obtained by detecting a pixel of a color other than white set as the standard color of the white eye region A13 as an abnormal pixel. identified. Information representing the standard color of the white eye area is set in advance in the upside-down eyelash removal section 461 .

逆さまつげ除去部461においては、標準の色以外の色の画素である異常画素を、周りにある白色の画素で補間することによって、逆さまつげの除去が行われる。 The upside-down eyelash removal unit 461 removes upside-down eyelashes by interpolating abnormal pixels, which are pixels of colors other than the standard color, with surrounding white pixels.

白色以外の色の画素を異常画素として検出し、白色の画素で補間する処理が逆さまつげ除去部461において行われるため、結果的に、充血して赤くなっている部分なども除去されることになる。 Pixels of colors other than white are detected as abnormal pixels, and the process of interpolating with white pixels is performed by the upside-down eyelash removal unit 461, so that as a result, the congested and reddish portions are also removed. .

以上のようにして逆さまつげが除去された撮影画像が逆さまつげ除去部461から出力される。撮影画像に写る利用者の目に逆さまつげがない場合、逆さまつげ除去部461に入力された撮影画像はそのまま出力される。 The photographed image from which the upside-down eyelashes have been removed as described above is output from the upside-down eyelash removal unit 461 . If there is no upside-down eyelashes on the user's eye in the captured image, the captured image input to the upside-down eyelash removal unit 461 is output as it is.

変形部462は、逆さまつげ除去部461から供給された撮影画像に写る利用者が女性である場合、その利用者の目の上側の輪郭の形状に合わせて、まつげ画像を変形させる。変形部462には、まつげを表現したテクスチャ画像であるまつげ画像があらかじめ記憶されている。変形部462による変形後のまつげ画像が、撮影画像に写る利用者の目の部分に対する合成に用いられる。 If the user in the photographed image supplied from the upside-down eyelash removing unit 461 is a female, the transforming unit 462 transforms the eyelash image in accordance with the shape of the upper contour of the user's eye. The deformation unit 462 stores in advance an eyelash image, which is a texture image representing eyelashes. The eyelash image after deformation by the deformation unit 462 is used for synthesizing the user's eye portion in the photographed image.

図24は、まつげ画像の変形の例を示す図である。 FIG. 24 is a diagram showing an example of deformation of an eyelash image.

変形部462は、図24の左上に示すような、デフォルトの形状のまつげ画像P111を有している。撮影画像に写る利用者の例えば右目ERの上側の輪郭の形状が、図24の左下に示す位置p1から位置p2までの曲線で表される場合、変形部462は、まつげ画像P111を位置p1-位置p2間の曲線の特定の区間の形状に合わせて変形させ、図24の右側に示す、変形後のまつげ画像P111’を生成する。位置p1-位置p2間の曲線は、領域検出部451から供給された情報に基づいて特定される。 The deformation section 462 has an eyelash image P111 with a default shape as shown in the upper left of FIG. For example, when the shape of the upper contour of the user's right eye E R in the photographed image is represented by a curved line from position p1 to position p2 shown in the lower left of FIG. - Deform to the shape of a particular segment of the curve between positions p2 to generate the deformed eyelash image P111' shown on the right side of FIG. A curve between the position p1 and the position p2 is identified based on the information supplied from the area detection section 451. FIG.

変形部462は、以上のようにして変形したまつげ画像を合成部463に出力する。デフォルトのまつげ画像が複数用意されており、変形に用いられるまつげ画像が選択されるようにしてもよい。まつげ画像の選択が、利用者により行われるようにしてもよいし、まつげ処理部454において自動的に行われるようにしてもよい。 The transforming unit 462 outputs the eyelash image transformed as described above to the synthesizing unit 463 . A plurality of default eyelash images are prepared, and an eyelash image to be used for deformation may be selected. The selection of the eyelash image may be performed by the user, or may be automatically performed by the eyelash processing section 454 .

図22の合成部463は、逆さまつげ除去部461から供給された撮影画像に写る女性の利用者の目の上側の輪郭に沿って、変形部462により変形されたまつげ画像を合成する。 The synthesizing unit 463 in FIG. 22 synthesizes the eyelash image deformed by the transforming unit 462 along the upper contour of the female user's eye appearing in the photographed image supplied from the upside-down eyelash removing unit 461 .

図25は、まつげ画像の合成の例を示す図である。 FIG. 25 is a diagram showing an example of synthesizing eyelash images.

図25の左上に示すような変形後のまつげ画像P111’が供給された場合、合成部463は、図25の右側に示すように、まつげ画像P111’を右目ERの上側の輪郭に沿って合成する。右目ERの上側の輪郭の位置は、領域検出部451から供給された情報に基づいて特定される。 When a deformed eyelash image P111′ as shown in the upper left of FIG. 25 is supplied, the synthesizing unit 463 transforms the eyelash image P111′ along the upper contour of the right eye E R as shown in the right side of FIG. Synthesize. The position of the upper contour of the right eye E R is identified based on the information supplied from the area detection section 451 .

以上のようなまつげ画像の合成が左目についても同様にして行われる。左目に対するまつげ画像の合成は、例えば、右目用として用意されたまつげ画像P111を用いて行われる。 Synthesis of eyelash images as described above is performed in the same manner for the left eye. Synthesis of the eyelash image for the left eye is performed using, for example, the eyelash image P111 prepared for the right eye.

この場合、変形部462は、まつげ画像P111の左右を反転させ、左右反転後のまつげ画像P111の形状を、左目の上側の形状に合わせて変形させる。合成部463は、変形部462による変形後のまつげ画像P111を左目の上側の輪郭に沿って合成する。 In this case, the deformation unit 462 reverses the eyelash image P111 horizontally, and deforms the shape of the eyelash image P111 after the horizontal reverse to match the shape of the upper side of the left eye. The synthesizing unit 463 synthesizes the eyelash image P111 deformed by the deforming unit 462 along the upper contour of the left eye.

このように、左目に対するまつげ画像の合成には、右目用として用意されたまつげ画像の左右を反転させた画像が用いられる。左目に対する処理が右目用の画像を用いて行われるため、用意しておく必要があるまつげ画像の数を減らすことができる。反対に、左目用のまつげ画像が用意されており、右目に対する処理が、左目用の画像を用いて行われるようにしてもよい。当然、右目用と左目用のそれぞれのまつげ画像が用意されるようにしてもよい。 In this way, an image obtained by horizontally reversing the eyelash image prepared for the right eye is used for synthesizing the eyelash image for the left eye. Since the processing for the left eye is performed using the image for the right eye, the number of eyelash images that need to be prepared can be reduced. Conversely, an eyelash image for the left eye may be provided and the processing for the right eye may be performed using the image for the left eye. Of course, eyelash images for the right eye and left eye may be prepared.

以上のようなまつげ画像の合成は、撮影画像に写るそれぞれの女性を対象として行われる。合成部463は、まつげ画像の合成後の撮影画像を図22のまつげ強調処理部464に出力する。 Synthesis of eyelash images as described above is performed for each woman appearing in the photographed image. The synthesizing unit 463 outputs the photographed image after synthesizing the eyelash images to the eyelash enhancement processing unit 464 in FIG. 22 .

まつげ強調処理部464は、合成部463から供給された撮影画像に写るまつげを画像処理によって強調させる。例えば、上まつげと下まつげの1本1本を太くする処理や、色を濃くする処理が行われる。まつげ強調処理部464は、まつげを強調した撮影画像を出力する。 The eyelash enhancement processing unit 464 enhances the eyelashes appearing in the captured image supplied from the synthesizing unit 463 by image processing. For example, a process of thickening the upper eyelashes and the lower eyelashes one by one and a process of darkening the color are performed. The eyelash enhancement processing unit 464 outputs a photographed image in which the eyelashes are enhanced.

<写真シール作成装置の動作>
ここで、図26のフローチャートを参照して、写真シール作成ゲームを提供する写真シール作成装置1の動作について説明する。図26の処理は、例えば、所定の金額分の硬貨が投入されたときに開始される。
<Operation of photo sticker creation device>
Here, the operation of the photo sticker creating apparatus 1 that provides the photo sticker creating game will be described with reference to the flowchart of FIG. The process of FIG. 26 is started, for example, when a predetermined amount of coins is inserted.

ステップS1において、事前選択処理部401は、事前選択部302を制御することで事前選択処理を行う。事前選択処理により、例えば、利用者の人数の選択、撮影コースの選択などが行われる。いずれの選択も、タッチパネルモニタ71に表示される選択画面を用いて行われる。 In step S<b>1 , the pre-selection processing unit 401 performs pre-selection processing by controlling the pre-selection unit 302 . By the pre-selection process, for example, selection of the number of users, selection of an imaging course, and the like are performed. Any selection is made using a selection screen displayed on the touch panel monitor 71 .

ステップS2において、撮影処理部402は、撮影部304を制御することで撮影処理を行う。 In step S<b>2 , the imaging processing unit 402 performs imaging processing by controlling the imaging unit 304 .

例えば、撮影処理部402は、立ち位置の誘導を行った後、カメラ91により取り込まれた動画像に基づいて、ライブビュー画面をタッチパネルモニタ92に表示させる。また、撮影処理部402は、ライブビュー画面を表示させた後、撮影空間A1にいる利用者を被写体として静止画像の連続撮影を行う。 For example, the imaging processing unit 402 causes the touch panel monitor 92 to display a live view screen based on the moving image captured by the camera 91 after guiding the standing position. Further, after displaying the live view screen, the imaging processing unit 402 performs continuous imaging of still images with the user in the imaging space A1 as the subject.

ステップS3において、編集処理部403は、編集空間A2-1と編集空間A2-2のうち、撮影処理を終えた利用者の移動先とした方の編集空間に対応する編集部305を制御することで編集処理を行う。 In step S3, the editing processing unit 403 controls the editing unit 305 corresponding to the editing space to which the user who has completed the shooting process is moved, out of the editing space A2-1 and the editing space A2-2. to perform the editing process.

例えば、編集処理部403は、タブレット内蔵モニタ131に編集画面を表示させ、撮影画像に対して利用者に編集作業を行わせる。編集画面には、編集対象の撮影画像とともに、撮影画像に合成する合成用画像を選択するときに操作されるボタンなどが表示される。編集処理の詳細については図27のフローチャートを参照して後述する。 For example, the editing processing unit 403 causes the tablet built-in monitor 131 to display an editing screen and allows the user to edit the captured image. On the editing screen, a photographed image to be edited and buttons to be operated when selecting a composite image to be composited with the photographed image are displayed. Details of the editing process will be described later with reference to the flowchart of FIG.

ステップS4において、印刷処理部404は、プリンタ351を制御することで、印刷処理を行う。印刷処理部404は、編集処理部403により生成された印刷データをプリンタ351に出力してシール紙363に印刷させる。 In step S<b>4 , the print processing unit 404 performs print processing by controlling the printer 351 . The print processing unit 404 outputs the print data generated by the editing processing unit 403 to the printer 351 to print it on the sticker paper 363 .

印刷が終了した場合、ステップS5において、プリンタ351は、カッター362で切り離したシール紙363をシール紙排出口161に排出する。 When printing is completed, the printer 351 ejects the sticker paper 363 cut by the cutter 362 to the sticker paper outlet 161 in step S5.

写真シール作成装置1の利用者の各グループに対しては、以上のような一連の処理からなる写真作成ゲームが提供される。あるグループの利用者に続けて他のグループの利用者が写真シール作成装置1の利用を開始した場合、写真シール作成装置1の利用を先に始めた利用者の写真シール作成ゲームと、後から始めた利用者の写真シール作成ゲームとが適宜並行して行われることになる。適宜、写真シール作成ゲームを単にゲームともいう。 Each group of users of the photo sticker creating apparatus 1 is provided with a photo creating game consisting of a series of processes as described above. When a user of another group starts using the photo sticker creating device 1 following a user of a certain group, the photo sticker creating game of the user who started using the photo sticker creating device 1 first, and the user who started using the photo sticker creating device 1 later. The user's photo sticker creation game that has been started will be played in parallel as appropriate. As appropriate, the photo sticker creation game is also simply called a game.

<編集処理>
次に、図27のフローチャートを参照して、図26のステップS3において行われる編集処理について説明する。
<Editing process>
Next, the editing process performed in step S3 of FIG. 26 will be described with reference to the flowchart of FIG.

ステップS41において、編集処理部403の表示制御部434(図19)は、落書き前自撮りの案内画面をタブレット内蔵モニタ131に表示させる。ここでいう落書きは、撮影画像の編集のことを意味する。編集は、タッチペン132を用いて、撮影画像を落書きするようにして行われる。 In step S41, the display control unit 434 (FIG. 19) of the editing processing unit 403 causes the tablet built-in monitor 131 to display a guide screen for self-shooting before graffiti. Graffiti here means editing of a photographed image. Editing is performed by using the touch pen 132 to scribble on the captured image.

図28は、落書き前自撮りの案内画面の表示例を示す図である。 FIG. 28 is a diagram showing a display example of a guide screen for self-portrait before graffiti.

図28に示すように、落書き前自撮りの案内画面の左側には、モデルの人物が鏡面部66越しに自撮りを行っている様子を表す画像が表示される。案内画面の右側には、自撮りによって得られた画像のサンプル画像が表示される。それぞれの画像の下には、画像の内容を説明するメッセージが表示される。 As shown in FIG. 28, on the left side of the pre-doodle selfie guide screen, an image showing a model person taking a selfie through the mirror surface 66 is displayed. On the right side of the guide screen, a sample image of an image obtained by taking a selfie is displayed. Below each image is a message describing the content of the image.

このような案内画面を表示させることにより、鏡面部66を用いてどのような自撮りを行うことができるのかを利用者に分かりやすく伝えることができる。 By displaying such a guide screen, it is possible to tell the user in an easy-to-understand manner what kind of self-portrait can be performed using the mirror portion 66 .

編集空間A2に移動してきた利用者は、案内画面に従って、自分のスマートフォンを用意し、鏡面部66越しに自撮りを行う。 The user who has moved to the editing space A2 prepares his/her smart phone according to the guidance screen and takes a selfie through the mirror surface portion 66. - 特許庁

図27の説明に戻り、ステップS42において、編集用画像生成部432は編集用画像生成処理を行う。編集用画像生成処理により、それぞれの撮影画像を元にして編集用の撮影画像が生成される。 Returning to the description of FIG. 27, in step S42, the editing image generation unit 432 performs editing image generation processing. Editing image generation processing generates a photographed image for editing based on each photographed image.

撮影処理においては、例えば最大8枚の撮影画像の撮影が行われる。撮影画像の枚数が多いため、それぞれの撮影画像に基づいて行われる編集用の撮影画像の生成には一定の時間が必要になる。編集用の撮影画像の生成は、編集前の自撮り用に確保された時間を利用して行われる。利用者は、編集用の撮影画像の生成が行われている間も、退屈せずに待つことができる。 In the shooting process, for example, up to eight shot images are shot. Since the number of captured images is large, it takes a certain amount of time to generate a captured image for editing based on each captured image. A photographed image for editing is generated using the time reserved for self-portraits before editing. The user can wait without getting bored while the photographed image for editing is being generated.

利用者が自撮りを行っている間に行われる編集用画像生成処理の詳細については図30のフローチャートを参照して後述する。 The details of the editing image generation processing that is performed while the user is taking a selfie will be described later with reference to the flowchart of FIG.

ステップS43において、表示制御部434は、キープ画像の選択画面をタブレット内蔵モニタ131に表示させる。図28の案内画面に代えてキープ画像の選択画面がタブレット内蔵モニタ131に表示されることにより、利用者は自撮りを終え、タブレット内蔵モニタ131の表示に従ってキープ画像の選択を行う。 In step S43, the display control unit 434 causes the tablet built-in monitor 131 to display a keep image selection screen. A keep image selection screen is displayed on the tablet built-in monitor 131 instead of the guidance screen of FIG.

キープ画像は、実際に編集する撮影画像である。キープ画像として選択可能な撮影画像の枚数は例えば4枚として設定されている。キープ画像の選択画面には、レタッチ処理が施された撮影画像が並べて表示される。選択画面を用いて行われる選択は、最大8枚の撮影画像の中から4枚の撮影画像を選択するようにして行われる。 A keep image is a photographed image that is actually edited. The number of shot images that can be selected as keep images is set to four, for example. On the keep image selection screen, retouched captured images are displayed side by side. The selection performed using the selection screen is performed by selecting four photographed images from a maximum of eight photographed images.

4枚などの所定の枚数のキープ画像が選択された場合、ステップS44において、表示制御部434は、編集画面をタブレット内蔵モニタ131に表示させる。編集画面には、編集対象となる撮影画像とともに、編集に用いられるスタンプ画像やペン画像などの各種の編集ツール(合成用画像)を選択するときに押下されるボタンなどが表示される。 When a predetermined number of keep images, such as four, are selected, the display control unit 434 causes the tablet built-in monitor 131 to display an edit screen in step S44. The editing screen displays, together with the photographed image to be edited, buttons that are pressed when selecting various editing tools (compositing images) such as stamp images and pen images used for editing.

図29は、タブレット内蔵モニタ131に表示される編集画面の例を示す図である。 FIG. 29 is a diagram showing an example of an edit screen displayed on the tablet built-in monitor 131. As shown in FIG.

編集画面には、編集領域501L,501Rがそれぞれ左右に並べて設けられる。編集領域501L,501Rの間には、キープ画像として選択された撮影画像のサムネイルが表示されるサムネイル表示領域502が設けられる。 On the edit screen, edit areas 501L and 501R are arranged side by side. A thumbnail display area 502 is provided between the editing areas 501L and 501R to display thumbnails of captured images selected as keep images.

また、編集領域501L,501Rそれぞれの下方には、編集パレット503L,503Rが設けられる。編集パレット503L,503Rの間には、編集パレット503L,503Rに表示される編集ツールのカテゴリを選択するためのカテゴリ選択ボタン群504が設けられる。 Edit palettes 503L and 503R are provided below the edit areas 501L and 501R, respectively. Between the editing palettes 503L and 503R, a category selection button group 504 is provided for selecting categories of editing tools displayed on the editing palettes 503L and 503R.

このような構成により、編集画面においては、編集対象として選択された撮影画像の編集入力が2人の利用者によって個別に受け付けられる。 With such a configuration, on the editing screen, two users individually accept editing input of the shot image selected as the editing target.

以下において、編集領域501L,501R、編集パレット503L,503Rをそれぞれ区別しない場合には、単に、編集領域501、編集パレット503という。 Hereinafter, when the editing areas 501L and 501R and the editing palettes 503L and 503R are not distinguished from each other, they are simply referred to as the editing area 501 and the editing palette 503, respectively.

編集領域501は、編集入力を行う対象として選択されたキープ画像(編集対象画像)の表示領域である。利用者は、タッチペン132を用いて編集ツールを選択し、編集領域501に表示されたキープ画像の編集を行う。 An editing area 501 is a display area for a keep image (editing target image) selected as a target for editing input. The user selects an editing tool using the touch pen 132 and edits the keep image displayed in the editing area 501 .

サムネイル表示領域502は、キープ画像を表すサムネイルの表示領域である。利用者は、サムネイル表示領域502に表示されているサムネイルを選択することによって、編集入力を行うキープ画像を選択する。 A thumbnail display area 502 is a display area for thumbnails representing keep images. The user selects a keep image for editing input by selecting a thumbnail displayed in the thumbnail display area 502 .

編集パレット503は、ペンツール、くっつきツール、スタンプツール、メイクツールなどの各種の編集ツールの選択に用いられるアイコンなどが表示される領域である。なお、くっつきツールは、顔の認識結果に基づいた位置に所定の画像を合成するときに用いられる編集ツールである。また、メイクツールは、目、唇、頬などを対象として、メイクを模した画像処理を施すときに用いられる編集ツールである。 An editing palette 503 is an area where icons and the like used for selecting various editing tools such as a pen tool, a sticking tool, a stamp tool, and a makeup tool are displayed. Note that the sticking tool is an editing tool used when synthesizing a predetermined image at a position based on the face recognition result. Also, the makeup tool is an editing tool that is used when performing image processing that imitates makeup on the eyes, lips, cheeks, and the like.

カテゴリ選択ボタン群504は、編集パレット503に表示させる編集ツールのカテゴリを切り替えるときに押下されるボタンから構成される。 A category selection button group 504 includes buttons that are pressed when switching the category of editing tools displayed on the editing palette 503 .

図29の例においては、タブレット内蔵モニタ131に向かって左側の利用者によりカテゴリ選択ボタン群504のペンボタンが選択されている。編集パレット503Lには、ペンツールを選択するためのアイコンなどが表示される。 In the example of FIG. 29, the pen button of the category selection button group 504 is selected by the user on the left side of the tablet built-in monitor 131 . The editing palette 503L displays an icon for selecting a pen tool and the like.

また、右側の利用者によりカテゴリ選択ボタン群504のメイクボタンが選択されている。編集パレット503Rには、メイクツールを選択するためのボタンなどが表示される。 Also, the make button of the category selection button group 504 is selected by the user on the right side. Editing palette 503R displays buttons for selecting makeup tools.

サムネイル表示領域502の下には、スマートフォンの外観を模した2つの携帯おまけボタン505L,505Rが並べて表示される。携帯おまけボタン505L,505Rが操作された場合、携帯おまけの作成を行うときに用いられるボタンなどが表示される。なお、携帯おまけは、携帯端末の待ち受け画面に表示されたり、SNSにアップロードされたりする画像など、携帯端末上で用いられることを前提とした画像である。作成された携帯おまけは、携帯端末への送信専用の画像として画像管理サーバに送信される。 Under the thumbnail display area 502, two cellphone bonus buttons 505L and 505R imitating the appearance of a smart phone are displayed side by side. When the mobile phone bonus buttons 505L and 505R are operated, buttons used when creating a mobile phone bonus are displayed. The mobile bonus is an image that is assumed to be used on a mobile terminal, such as an image that is displayed on the standby screen of the mobile terminal or uploaded to SNS. The created mobile bonus is transmitted to the image management server as an image exclusively for transmission to the mobile terminal.

サムネイル表示領域502の上にはBGM選択領域506が表示される。BGM選択領域506は、編集作業中のBGMの選曲や音量の調整を行うときに操作される。 A BGM selection area 506 is displayed above the thumbnail display area 502 . A BGM selection area 506 is operated when selecting BGM during editing work and adjusting the volume.

図27の説明に戻り、ステップS45において、編集制御部433は、編集画面に対する利用者の操作に応じて、編集対象となる撮影画像に編集を施す。編集が施されることによって生成された編集画像は印刷データ生成部435に供給される。 Returning to the description of FIG. 27, in step S45, the editing control unit 433 edits the captured image to be edited in accordance with the user's operation on the editing screen. An edited image generated by performing editing is supplied to the print data generation unit 435 .

終了ボタンが操作されるなどして編集が終了した場合、ステップS46において、表示制御部434は、分割数選択画面をタブレット内蔵モニタ131に表示させる。 When the end button is operated and the editing ends, the display control unit 434 causes the tablet built-in monitor 131 to display a division number selection screen in step S46.

分割数選択画面は、シールレイアウトの選択に用いられる画面である。シールレイアウトは、1枚のシール紙363に配置される編集画像の枚数や位置、大きさを決定するレイアウト(配置パターン)である。シール紙363には、利用者により選択されたシールレイアウトに従って配置された編集画像が印刷される。 The division number selection screen is a screen used to select a seal layout. The sticker layout is a layout (arrangement pattern) that determines the number, positions, and sizes of edited images to be arranged on one sheet of sticker paper 363 . Edited images arranged according to the sticker layout selected by the user are printed on the sticker paper 363 .

ステップS47において、表示制御部434は、送信画像選択画面をタブレット内蔵モニタ131に表示させる。 In step S47, the display control unit 434 causes the tablet built-in monitor 131 to display a transmission image selection screen.

利用者は、画像管理サービスを利用するためには会員登録を行う必要があり、会員には有料会員と無料会員がある。有料会員は画像管理サーバに送信された全ての画像を取得して自分の携帯端末にダウンロードしたりすることができるのに対して、無料会員は1枚の画像だけを取得することができる。送信画像選択画面は、無料会員が取得する1枚の画像を選択するのに用いられる画面である。なお、画像管理サービスは、ゲームにおいて作成され、写真シール作成装置1から画像管理サーバに送信された画像を利用者に提供するサービスである。 A user needs to register as a member in order to use the image management service, and there are paid members and free members. Paying members can acquire all the images transmitted to the image management server and download them to their mobile terminals, while free members can acquire only one image. The transmission image selection screen is a screen used for selecting one image to be acquired by the free member. Note that the image management service is a service for providing users with images created in the game and transmitted from the photo sticker creating device 1 to the image management server.

ステップS48において、編集処理部403は、メールアドレス入力画面をタブレット内蔵モニタ131に表示させる。 In step S48, the edit processing unit 403 causes the tablet built-in monitor 131 to display an email address input screen.

メールアドレス入力画面は、利用者のメールアドレスの入力に用いられる画面である。メールアドレス入力画面には、メールアドレスに用いることが可能なアルファベットや記号、スマートフォンなどの携帯電話機のキャリアを選択するためのボタンなどが表示される。 The e-mail address input screen is a screen used for inputting the user's e-mail address. The e-mail address input screen displays alphabets and symbols that can be used for e-mail addresses, buttons for selecting carriers of mobile phones such as smartphones, and the like.

ステップS49において、通信制御部436は、編集画像を画像管理サーバに送信する。画像管理サーバに対しては、適宜、撮影画像も送信される。すなわち、編集画像だけでなく、編集画像の元になった撮影画像も画像管理サーバに対して送信される。 In step S49, the communication control unit 436 transmits the edited image to the image management server. A captured image is also transmitted to the image management server as appropriate. That is, not only the edited image but also the photographed image from which the edited image is based are transmitted to the image management server.

また、画像管理サーバに対しては、写真シール作成装置1の機器ID、撮影日時、送信画像選択画面からどの画像が選択されたのかを表す情報なども送信される。 Also, the device ID of the photo sticker creating apparatus 1, the date and time of photography, information indicating which image was selected from the transmission image selection screen, and the like are also transmitted to the image management server.

ステップS50において、印刷データ生成部435は、利用者により選択されたレイアウトで編集画像を配置することによって印刷データを生成する。印刷データは印刷処理部404に供給され、編集画像の印刷に用いられる(図26のステップS4)。 In step S50, the print data generation unit 435 generates print data by arranging the edited image in the layout selected by the user. The print data is supplied to the print processing unit 404 and used to print the edited image (step S4 in FIG. 26).

ステップS51において、表示制御部434は、案内画面をタブレット内蔵モニタ131に表示させることによって、編集作業を終えた利用者に対して、印刷待ち空間A3への移動を案内する。印刷待ち空間A3への移動の案内は、スピーカ341から音声を出力することによっても行われる。 In step S51, the display control unit 434 displays a guide screen on the tablet built-in monitor 131 to guide the user who has finished the editing work to move to the print waiting space A3. Guidance to move to the print waiting space A3 is also provided by outputting a voice from the speaker 341. FIG.

その後、図26のステップS3に戻り、それ以降の処理が行われる。 After that, the process returns to step S3 in FIG. 26 and the subsequent processes are performed.

以上のように、写真シール作成装置1のゲームにおいては、撮影空間A1だけでなく、編集空間A2においても撮影を行うことが可能とされる。利用者は、編集空間A2にいてゲームを行っている自分達の様子を自撮りによって残しておくことができる。 As described above, in the game of the photo sticker creating apparatus 1, it is possible to take pictures not only in the photographing space A1 but also in the editing space A2. The users can keep a self-portrait of themselves playing the game in the editing space A2.

<編集用画像生成処理>
次に、図30のフローチャートを参照して、図27のステップS42において行われる編集用画像生成処理について説明する。
<Editing image generation processing>
Next, the editing image generation processing performed in step S42 of FIG. 27 will be described with reference to the flowchart of FIG.

ステップS61において、性別判定部453は、撮影画像に写るそれぞれの利用者の性別を判定する。 In step S61, the sex determination unit 453 determines the sex of each user appearing in the captured image.

ステップS62において、レタッチ処理部452は、撮影画像に対してレタッチ処理を施す。レタッチ処理部452によるレタッチ処理は、撮影処理時にタッチパネルモニタ92に表示されたレタッチ画面を用いて選択された内容に従って行われる。 In step S62, the retouch processing unit 452 performs retouch processing on the captured image. The retouch processing by the retouch processing unit 452 is performed according to the content selected using the retouch screen displayed on the touch panel monitor 92 during the shooting processing.

例えば、レタッチ処理部452は、撮影画像に写る利用者の目を検出し、検出した目の大きさを調整する処理をそれぞれの撮影画像を対象として行う。レタッチ処理部452は、目の大きさの調整以外の複数種類の画像処理を、それぞれの撮影画像を対象として行う。 For example, the retouch processing unit 452 detects the eyes of the user appearing in the captured image, and performs processing for adjusting the size of the detected eyes for each captured image. The retouch processing unit 452 performs a plurality of types of image processing other than eye size adjustment on each captured image.

ステップS63において、領域検出部451は、撮影画像に写る利用者の目の領域を検出する。 In step S63, the area detection unit 451 detects the area of the user's eyes in the captured image.

ステップS64において、まつげ処理部454は、撮影画像に写っているまつげを強調する画像処理であるまつげ処理を行う。まつげ処理の詳細については図31のフローチャートを参照して後述する。 In step S64, the eyelash processing unit 454 performs eyelash processing, which is image processing for emphasizing the eyelashes appearing in the captured image. Details of the eyelash processing will be described later with reference to the flowchart of FIG.

ステップS65において、縮小部455は、まつげ処理部454から供給された撮影画像を縮小して編集用の撮影画像を生成する。 In step S65, the reduction unit 455 reduces the captured image supplied from the eyelash processing unit 454 to generate a captured image for editing.

ステップS66において、編集用画像生成部432は、全ての撮影画像の処理が終わったか否かを判定し、まだ処理が終わっていない撮影画像があると判定した場合、ステップS61以降の処理を繰り返し実行する。 In step S66, the editing image generating unit 432 determines whether or not all the captured images have been processed. If it is determined that there is a captured image that has not been processed yet, the processing from step S61 onward is repeatedly executed. do.

全ての撮影画像の処理が終わったとステップS66において判定した場合、図27のステップS42に戻り、それ以降の処理が行われる。 If it is determined in step S66 that the processing of all captured images has been completed, the process returns to step S42 in FIG. 27 and the subsequent processing is performed.

<まつげ処理>
次に、図31のフローチャートを参照して、図30のステップS64において行われるまつげ処理について説明する。
<Eyelash treatment>
Next, the eyelash processing performed in step S64 of FIG. 30 will be described with reference to the flowchart of FIG.

ステップS81において、まつげ処理部454は、性別判定部453による性別の判定結果に基づいて、処理対象になっている撮影画像に女性が写っているか否かを判定する。 In step S<b>81 , the eyelash processing unit 454 determines whether or not the captured image to be processed includes a woman, based on the gender determination result of the gender determination unit 453 .

上述したように、まつげを強調する画像処理であるまつげ処理は、女性だけを対象として行われ、男性を対象としては行われない。処理対象になっている撮影画像に女性が写っていない、すなわち、撮影画像に写っている利用者全員が男性であるとステップS81において判定された場合、図31のステップS82以降の処理はスキップされる。 As described above, eyelash processing, which is image processing for enhancing eyelashes, is performed only for women, not for men. If it is determined in step S81 that no female image is captured in the captured image to be processed, that is, that all the users captured in the captured image are male, the processing after step S82 in FIG. 31 is skipped. be.

これにより、男性のまつげを強調するような画像処理が行われるのを防ぐことが可能となる。 This makes it possible to prevent image processing that emphasizes the eyelashes of men.

ステップS82以降の処理のうちの少なくとも一部の処理が、男性を対象として行われるようにしてもよい。 At least part of the processing after step S82 may be performed for men.

処理対象になっている撮影画像に女性が写っているとステップS81において判定された場合、処理はステップS82に進む。複数の女性が写っている場合、1人ずつ注目してステップS82以降の処理が行われる。 If it is determined in step S81 that the photographed image to be processed includes a woman, the process proceeds to step S82. If a plurality of women are photographed, the process from step S82 onwards is performed while paying attention to each woman.

ステップS82において、逆さまつげ除去部461は、目の領域のうちの白目領域に含まれる異常画素を検出し、周辺画素で補間することによって逆さまつげを除去する。 In step S82, the upside-down eyelash removal unit 461 detects abnormal pixels included in the white eye region of the eye region, and removes the upside-down eyelashes by interpolating with peripheral pixels.

ステップS83において、変形部462は、図24を参照して説明したようにして、目の上側の輪郭の形状に合わせて、まつげ画像を変形させる。 In step S83, the deformation unit 462 deforms the eyelash image according to the contour shape of the upper side of the eye as described with reference to FIG.

ステップS84において、合成部463は、変形部462により変形されたまつげ画像を、撮影画像に写る、処理対象の女性の目の上側の輪郭に沿って合成する。 In step S84, the synthesizing unit 463 synthesizes the eyelash image transformed by the transforming unit 462 along the upper contour of the eye of the woman to be processed, which appears in the captured image.

ここで、処理対象の女性の両方の目が開いている場合、両目に対してまつげ画像の合成が行われる。例えば、閾値となる度合いより目の開きの度合いが低い場合(閉じている場合)、まつげ画像の合成を含むまつげを強調する処理が、その閉じている目を対象としては行われないようにしてもよい。 Here, if both eyes of the woman to be processed are open, eyelash images are synthesized for both eyes. For example, if the degree of opening of the eyes is lower than the threshold (when the eyes are closed), the process of emphasizing the eyelashes, including the synthesis of the eyelash images, is not performed for the closed eyes. good too.

ウインクなどをして閉じている目を対象としてまつげの強調が行われるとした場合、不自然な見栄えになる可能性があるが、そのようなことを防ぐことが可能となる。 If eyelashes are emphasized for closed eyes with a wink or the like, it may look unnatural, but this can be prevented.

ステップS85において、まつげ強調処理部464は、まつげを画像処理によって強調させる。例えば、上まつげと下まつげを検出し、その1本1本を太くしたり、濃くしたりすることによって、まつげの強調が行われる。まつげの1本1本を太くしたり、濃くしたりする処理は、上まつげとして合成されたまつげ画像を構成するまつげの1本1本に対しても施される。 In step S85, the eyelash enhancement processing unit 464 enhances the eyelashes by image processing. For example, the eyelashes are enhanced by detecting the upper and lower eyelashes and thickening or darkening them one by one. The process of thickening or darkening each eyelash is also applied to each eyelash constituting the eyelash image synthesized as the upper eyelashes.

すなわち、この例においては、上まつげに対しては、まつげ画像の合成に加えて、さらに、1本1本を太くしたりする処理が施されることになる。また、上まつげと下まつげは、それぞれ異なる処理によって強調されることになる。 That is, in this example, the upper eyelashes are subjected to a process of thickening each eyelash, in addition to the synthesis of the eyelash images. Also, the upper eyelashes and the lower eyelashes are emphasized by different processing.

その後、図30のステップS64に戻り、それ以降の処理が行われる。 After that, the process returns to step S64 in FIG. 30, and the subsequent processes are performed.

以上のように、撮影画像に写る女性に対するまつげの強調は、テンプレートとして用意されたまつげ画像をそのまま合成するのではなく、目の輪郭の形状に合わせて変形させたまつげ画像を合成するようにして行われる。 As described above, the eyelashes of the woman in the photographed image are emphasized not by synthesizing the eyelashes image prepared as the template as they are, but by synthesizing the eyelashes image deformed according to the shape of the contour of the eyes. done.

撮影時の表情などにより、それぞれの利用者の目の形状は異なるものとなる。それぞれの利用者の目の形状に合わせて変形させたまつげ画像を合成することにより、より自然な形でまつげを強調させ、目を大きく見せることが可能となる。 The shape of each user's eyes differs depending on the facial expression at the time of photographing. By synthesizing the eyelash images deformed according to the shape of each user's eyes, it is possible to emphasize the eyelashes in a more natural manner and make the eyes appear larger.

また、まつげ画像の合成後、上まつげと下まつげの1本1本を強調することにより、まつげ画像として合成されたまつげを、利用者の自分のまつげに馴染ませることが可能となる。 In addition, by emphasizing the upper eyelashes and the lower eyelashes one by one after synthesizing the eyelash images, the eyelashes synthesized as the eyelash image can be blended with the user's own eyelashes.

<メイクツール機能>
・アイカラーツール
ここで、編集画面に用意されるメイクツールを用いた編集について説明する。
<Makeup tool function>
Eye Color Tool Editing using the makeup tool provided on the editing screen will now be described.

図32は、メイクツール選択中の、図29の編集パレット503Rを拡大して示す図である。 FIG. 32 is an enlarged view of the edit palette 503R of FIG. 29 during selection of the makeup tool.

編集パレット503Rの上には、メイクツールの選択に用いられる選択ボタン511-1乃至511-5が並べて表示される。 Selection buttons 511-1 to 511-5 used for selecting makeup tools are displayed side by side on the editing palette 503R.

選択ボタン511-1は、小顔に見えるためのメイクを行う小顔ツールを選択するときに押下されるボタンである。 The selection button 511-1 is a button that is pressed when selecting a small face tool for applying makeup to make the face look smaller.

選択ボタン511-2は、黒目部分の色を変えるアイカラーツールを選択するときに押下されるボタンである。利用者は、アイカラーツールを使うことにより、カラーコンタクトレンズを装着しているかのようなメイクをすることができる。図32の例においては、選択ボタン511-2が押下され、アイカラーツールが選択されている。 The selection button 511-2 is a button that is pressed when selecting an eye color tool for changing the color of the iris. The user can apply makeup as if wearing colored contact lenses by using the eye color tool. In the example of FIG. 32, the selection button 511-2 is pressed to select the eye color tool.

選択ボタン511-3は、目の輪郭の濃さを調整する輪郭濃度調整ツールを選択するときに押下されるボタンである。 The selection button 511-3 is a button that is pressed when selecting an edge density adjustment tool for adjusting the density of the eye outline.

選択ボタン511-4は、唇の色を変えるリップツールを選択するときに押下されるボタンである。選択ボタン511-5は、チークの色を変えるチークツールを選択するときに押下されるボタンである。 The selection button 511-4 is a button that is pressed when selecting a lip tool for changing the lip color. The select button 511-5 is a button that is pressed when selecting a cheek tool that changes the color of cheeks.

アイカラーツールが選択されている場合、図32に示すように、編集パレット503Rの左側には顔画像領域512が表示される。顔画像領域512は、顔認識を行うことによって切り出された、撮影画像に写る利用者の顔の画像の表示領域である。 When the eye color tool is selected, face image area 512 is displayed on the left side of edit palette 503R, as shown in FIG. A face image area 512 is a display area for an image of the user's face that appears in the captured image and is cut out by performing face recognition.

顔画像領域512に顔が表示されている利用者を対象として、黒目の色を変更する処理である黒目処理が黒目処理部433A(図19)により行われる。図32の例においては、図29において編集領域501Rに表示されている撮影画像に写る2人の利用者のうちの右側の利用者がアイカラーツールの対象の利用者として表示されている。 The iris processing unit 433A (FIG. 19) performs iris processing, which is processing for changing the color of iris, for the user whose face is displayed in the face image area 512. FIG. In the example of FIG. 32, the user on the right side of the two users appearing in the photographed image displayed in the editing area 501R in FIG. 29 is displayed as the target user of the eye color tool.

顔画像領域512の下には、アイカラーツールの対象とする利用者を切り替えるときに押下される切り替えボタン513が表示される。 Below the face image area 512 is displayed a switch button 513 that is pressed when switching the target user of the eye color tool.

顔画像領域512の右側には、アイカラーの選択に用いられるボタンであるカラー選択ボタン514-1乃至514-4が表示される。円形のボタンであるカラー選択ボタン514-1乃至514-4には、それぞれ、ブラウン、ショコラ、グレー、ブラックの色が割り当てられている。 On the right side of the face image area 512, color selection buttons 514-1 to 514-4, which are buttons used for eye color selection, are displayed. Color selection buttons 514-1 to 514-4, which are circular buttons, are assigned colors of brown, chocolate, gray, and black, respectively.

例えばカラー選択ボタン514-1が押下された場合、編集領域501Rに表示されている撮影画像に写る利用者のうち、アイカラーツールの対象として選択されている利用者の黒目領域の色がブラウンに変更される。 For example, when the color selection button 514-1 is pressed, the color of the iris area of the user selected as the target of the eye color tool among the users appearing in the photographed image displayed in the editing area 501R is changed to brown. Be changed.

また、カラー選択ボタン514-2が押下された場合、編集領域501Rに表示されている撮影画像に写る利用者のうち、アイカラーツールの対象として選択されている利用者の黒目領域の色がショコラに変更される。 When the color selection button 514-2 is pressed, the color of the iris area of the user selected as the target of the eye color tool among the users appearing in the photographed image displayed in the editing area 501R is changed to chocolate. is changed to

図33は、アイカラーツールによって生成される画像の例を示す図である。 FIG. 33 is a diagram showing an example of an image generated by an eye color tool.

撮影画像P101が編集対象として選択され、右側の利用者がアイカラーツールの対象として選択されている場合、カラー選択ボタン514-1乃至514-4が押下されることに応じて、編集領域501Rの撮影画像が、枠Fで囲んで示す右側の利用者の黒目領域の色が変更された撮影画像P101-1乃至P101-4に切り替えられる。 When the photographed image P101 is selected as an object to be edited and the user on the right side is selected to be an object of the eye color tool, the color selection buttons 514-1 to 514-4 are pressed to change the color of the editing area 501R. The photographed images are switched to the photographed images P101-1 to P101-4 in which the color of the iris area of the user on the right side surrounded by the frame F is changed.

図33の例においては同じ画像として示されているが、撮影画像P101-1は、右側の利用者の黒目領域の色がブラウンに変更された画像であり、撮影画像P101-2は、右側の利用者の黒目領域の色がショコラに変更された画像である。撮影画像P101-3は、右側の利用者の黒目領域の色がグレーに変更された画像であり、撮影画像P101-4は、右側の利用者の黒目領域の色がブラックに変更された画像である。 Although the same images are shown in the example of FIG. 33, the captured image P101-1 is an image in which the color of the black eye region of the user on the right side is changed to brown, and the captured image P101-2 is an image on the right side. This is an image in which the color of the iris region of the user is changed to chocolate. The photographed image P101-3 is an image in which the color of the iris region of the user on the right is changed to gray, and the photographed image P101-4 is an image in which the color of the iris region of the user on the right is changed to black. be.

切り替えボタン513が押下される毎に、左側に写る利用者、右側に写る利用者、2人の利用者の順に、アイカラーツールの対象とする利用者が切り替えられる。 Each time the switching button 513 is pressed, the user targeted for the eye color tool is switched in the order of the user on the left, the user on the right, and two users.

例えば、アイカラーツールの対象とする利用者が左側に写る利用者として選択されている場合、カラー選択ボタン514-1乃至514-4が押下されることに応じて、編集領域501Rの撮影画像が、左側の利用者の黒目領域の色が変更された撮影画像に切り替えられる。 For example, when the user targeted by the eye color tool is selected as the user on the left side, the photographed image of the editing area 501R is changed in response to pressing of the color selection buttons 514-1 to 514-4. , is switched to a captured image in which the color of the iris region of the user on the left is changed.

また、アイカラーツールの対象とする利用者が全員である2人の利用者として選択されている場合、カラー選択ボタン514-1乃至514-4が押下されることに応じて、編集領域501Rの撮影画像が、左側と右側の2人の利用者の黒目領域の色が変更された撮影画像に切り替えられる。 Further, when the users targeted by the eye color tool are all selected as two users, when the color selection buttons 514-1 to 514-4 are pressed, the editing area 501R The photographed images are switched to photographed images in which the colors of the iris areas of the left and right users are changed.

このように、アイカラーツールを利用することにより、利用者は、1枚の撮影画像毎に、かつ、撮影画像に写っている利用者毎に、黒目の色を変えることができる。また、利用者は、2人の利用者の目の色を同時に変えることもできる。 Thus, by using the eye color tool, the user can change the color of the black eye for each photographed image and for each user appearing in the photographed image. A user can also change the eye color of two users at the same time.

図32のカラー選択ボタン514-4の右下には、アイカラーツールの機能をオフにするときに押下されるオフボタン515が表示される。オフボタン515が押下された場合、編集領域501Rには、黒目処理が施されていない撮影画像が表示される。 At the lower right of the color selection button 514-4 in FIG. 32, an off button 515 is displayed to be pressed when turning off the eye color tool function. When the OFF button 515 is pressed, a captured image without black-eye processing is displayed in the editing area 501R.

図34は、アイカラーツール選択時の画像処理に用いられるマスク画像の例を示す図である。 FIG. 34 is a diagram showing an example of a mask image used for image processing when an eye color tool is selected.

編集用の撮影画像の生成時、図34Aに示す撮影画像P101に基づいて、図34Bに示すような、目の各領域を表すマスク画像が生成される。上述したように、編集用の撮影画像の生成時、編集用画像生成部432の領域検出部451(図20)においては、機械学習により生成された予測モデルを用いて、目の各領域などを表すマスク画像Mが生成される。 When generating a photographed image for editing, a mask image representing each region of the eye as shown in FIG. 34B is generated based on the photographed image P101 shown in FIG. 34A. As described above, when generating a shot image for editing, the area detection unit 451 (FIG. 20) of the image generation unit 432 for editing detects each area of the eye using a prediction model generated by machine learning. A mask image M representing is generated.

図34Bの例においては、マスク画像Mを構成する画素のうち、2人の利用者のそれぞれの目の輪郭、目の黒目の輪郭、およびまつげを表す画素が白色の画素によって表されている。このようなマスク画像Mを用いて、黒目処理部433Aにより黒目処理が行われる。 In the example of FIG. 34B, among the pixels forming the mask image M, the pixels representing the outlines of the eyes, the outlines of the irises of the eyes, and the eyelashes of the two users are represented by white pixels. Using such a mask image M, black-eye processing is performed by the black-eye processing unit 433A.

図35は、黒目領域の色の変更の例を示す図である。 FIG. 35 is a diagram showing an example of changing the color of the iris area.

アイカラーツールによって黒目の色を変更することが選択された場合、黒目処理部433Aは、マスク画像Mを用いて、アイカラーツールの対象とする利用者の黒目領域を抽出する。図35の上段の例においては、右目ERの黒目領域A11Rと、左目ELの黒目領域A11Lがマスク画像Mに基づいて抽出されている。 When changing the color of the iris with the eye color tool is selected, the iris processor 433A uses the mask image M to extract the iris area of the user targeted for the eye color tool. In the example in the upper part of FIG. 35, the black eye area A11 R of the right eye E R and the black eye area A11 L of the left eye EL are extracted based on the mask image M.

また、黒目処理部433Aは、抽出した黒目領域である黒目領域A11R,A11Lを構成する画素の色を、ブラウン、ショコラ、グレー、ブラックの中から利用者により選択された色に変更する。図35の下段において黒目領域A11R,A11Lにハッチを付して示していることは、黒目領域A11R,A11Lの画素の色が変更されていることを表す。 Further, the iris processor 433A changes the color of the pixels forming the iris regions A11 R and A11 L , which are the extracted iris regions, to a color selected by the user from among brown, chocolate, gray, and black. The hatched black eye areas A11 R and A11 L in the lower part of FIG. 35 indicate that the colors of the pixels of the black eye areas A11 R and A11 L have been changed.

黒目領域を構成する画素の色の変更は、例えば、オリジナルの色の色相を、選択された色に応じた量だけ変更するようにして行われる。ブラウン、ショコラ、グレー、ブラックのそれぞれの色に対しては、変更の程度(量)を含む、色相の変更の仕方があらかじめ設定されている。 The change in color of the pixels that make up the iris region is done, for example, by changing the hue of the original color by an amount that depends on the selected color. For each color of brown, chocolate, gray, and black, the manner of hue change, including the degree (amount) of change, is set in advance.

すなわち、選択された色に変更するのではなく、オリジナルの黒目の色を基準にして、その基準の色を、選択された色に応じて調整するようにして色の変更が行われる。 In other words, instead of changing to the selected color, the color is changed by adjusting the reference color according to the selected color with reference to the original black eye color.

色相ではなく、明度、彩度などの他のパラメータを変更することによって、または、複数のパラメータの組み合わせを変更することによって、黒目領域の色が変更されるようにしてもよい。 Instead of hue, the color of the black eye area may be changed by changing other parameters such as lightness, saturation, etc., or by changing a combination of parameters.

黒目領域を構成する各画素に対してフィルタ処理を施したり、所定のトーンカーブを用いて輝度を調整したりするようにして色の変更が行われるようにしてもよい。 The color may be changed by performing filter processing on each pixel constituting the iris region or by adjusting the brightness using a predetermined tone curve.

このように、黒目領域の色の変更は、黒目領域の形状と同じ形状を有する略円形の画像を撮影画像の上に合成するのではなく、撮影画像の画素の色自体を変更するようにして行われる。また、人ごとに微妙に異なるオリジナルの色を元にして、オリジナルの色を変更するようにして黒目領域の色の変更が行われる。 In this way, the color of the iris area is changed by changing the color of the pixels of the photographic image rather than synthesizing a substantially circular image having the same shape as the iris area on the photographed image. done. Also, based on the original color which is slightly different for each person, the color of the iris area is changed by changing the original color.

ブラウン、ショコラ、グレー、ブラックの中から同じ色を選択したとしても人ごとに微妙に異なる色となるため、黒目領域の印象を、違和感なく、自然な見映えがする状態で変更することが可能となる。 Even if the same color is selected from brown, chocolate, gray, and black, the color will be slightly different for each person, so it is possible to change the impression of the black eye area in a state that gives a natural look without discomfort. becomes.

仮に、所定の色の円形の画像を黒目領域に合成する形で黒目領域の色の変更が行われるとした場合、人によっては、黒目領域の色が大きく変わってしまったり、目の向きやストロボ光の当たり方などに応じた見え方の違いが損なわれてしまったりすることがあるが、そのような不自然な色の変更が行われるのを防ぐことが可能となる。 Assuming that the color of the iris region is changed by synthesizing a circular image of a predetermined color with the iris region, depending on the person, the color of the iris region may change significantly. Although the difference in appearance depending on how the light hits may be lost, it is possible to prevent such an unnatural color change.

・輪郭濃度調整ツール
次に、輪郭濃度調整ツールを用いて行われる目の輪郭の濃さの調整について説明する。
• Contour Density Adjustment Tool Next, the adjustment of the density of the contour of the eye performed using the contour density adjustment tool will be described.

選択ボタン511-3が押下された場合、編集パレット503Rには、例えば、目の輪郭の濃さの調整に用いられるスライドバーが表示される。編集パレット503Rの左側には顔画像領域512が表示される。 When the selection button 511-3 is pressed, the editing palette 503R displays, for example, a slide bar used for adjusting the density of the outline of the eyes. A face image area 512 is displayed on the left side of the edit palette 503R.

顔画像領域512に顔が表示されている利用者を対象として、目の輪郭の濃さを変更する処理である輪郭濃度調整処理が輪郭調整部433B(図19)により行われる。輪郭濃度調整処理も、領域検出部451により生成されたマスク画像Mを用いて行われる。 For the user whose face is displayed in the face image area 512, the contour density adjustment process for changing the density of the contour of the eyes is performed by the contour adjustment unit 433B (FIG. 19). The contour density adjustment process is also performed using the mask image M generated by the area detection unit 451 .

図36は、目の輪郭の濃さの調整の例を示す図である。 FIG. 36 is a diagram showing an example of adjusting the density of the outline of the eye.

目の輪郭を濃くすることが輪郭濃度調整ツールによって選択された場合、輪郭調整部433Bは、目の輪郭、目の黒目の輪郭、および、まつげを、マスク画像Mを用いて抽出する。 When darkening the eye contour is selected by the contour density adjustment tool, the contour adjustment unit 433B uses the mask image M to extract the contour of the eye, the contour of the iris of the eye, and the eyelashes.

また、輪郭調整部433Bは、抽出したそれぞれの部分が濃くなるように、画素の色を調整する。例えば、抽出したそれぞれの部分を太くすることによって、または、色を濃くすることによって、目の輪郭、目の黒目の輪郭、および、まつげの調整が行われる。図36の下段の例においては、目の輪郭、目の黒目の輪郭(左右の縁)、および、まつげが、図36の上段の状態より濃い状態で示されている。 In addition, the contour adjustment unit 433B adjusts the color of the pixels so that each of the extracted portions becomes darker. For example, the contour of the eye, the contour of the iris of the eye, and the eyelashes are adjusted by thickening or darkening the respective extracted portions. In the lower example of FIG. 36, the outline of the eye, the outline of the iris of the eye (left and right edges), and the eyelashes are shown in a darker state than in the upper state of FIG.

図37は、目の輪郭の濃さの調整の他の例を示す図である。 FIG. 37 is a diagram showing another example of adjusting the density of the outline of the eye.

目の輪郭を薄くすることが輪郭濃度調整ツールによって選択された場合、輪郭調整部433Bは、目の輪郭、目の黒目の輪郭、および、まつげを、マスク画像Mを用いて抽出する。 When lightening the eye contour is selected by the contour density adjustment tool, the contour adjustment unit 433B uses the mask image M to extract the contour of the eye, the contour of the iris of the eye, and the eyelashes.

また、輪郭調整部433Bは、抽出したそれぞれの部分が薄くなるように、画素の色を調整する。例えば、抽出したそれぞれの部分を細くすることによって、または、色を薄くすることによって、目の輪郭、目の黒目の輪郭、および、まつげの調整が行われる。 In addition, the contour adjustment unit 433B adjusts the color of the pixels so that each extracted portion becomes lighter. For example, the eye contour, eye iris contour, and eyelashes are adjusted by thinning or lightening the respective extracted portions.

このように、目の輪郭の調整は、マスク画像Mに基づいて、目の輪郭、目の黒目の輪郭、および、まつげを一体として調整するようにして行われる。スライドバーが複数表示され、目の輪郭、目の黒目の輪郭、および、まつげの濃さのそれぞれを調整することができるようにしてもよい。 In this manner, the eye contour adjustment is performed based on the mask image M by adjusting the eye contour, the iris contour of the eye, and the eyelashes as a unit. A plurality of slide bars may be displayed so that the outline of the eye, the outline of the iris of the eye, and the density of the eyelashes can be adjusted.

このような輪郭濃度調整処理が、輪郭濃度調整ツールの対象とする利用者を選択して行われる。 Such edge density adjustment processing is performed by selecting a target user of the edge density adjustment tool.

例えば、図32を参照して説明したように、輪郭濃度調整ツールの対象とする利用者が右側に写る利用者として選択されている場合、スライドバーが操作されることに応じて、編集領域501Rの撮影画像が、右側の利用者の目の輪郭の濃さが変更された撮影画像に切り替えられる。 For example, as described with reference to FIG. 32, when the target user of the contour density adjustment tool is selected as the user on the right side, the edit area 501R is displayed in response to the operation of the slide bar. is switched to a photographed image in which the density of the contour of the user's eye on the right side is changed.

同様に、輪郭濃度調整ツールの対象とする利用者が左側に写る利用者として選択されている場合、スライドバーが操作されることに応じて、編集領域501Rの撮影画像が、左側の利用者の目の輪郭の濃さが変更された撮影画像に切り替えられる。 Similarly, when the target user of the contour density adjustment tool is selected as the user who appears on the left side, the photographed image of the editing area 501R is changed to that of the user on the left side in response to the operation of the slide bar. The image is switched to a photographed image in which the density of the outline of the eyes has been changed.

また、輪郭濃度調整ツールの対象とする利用者が2人の利用者として選択されている場合、スライドバーが操作されることに応じて、編集領域501Rの撮影画像が、左側と右側の2人の利用者の目の輪郭の濃さが変更された撮影画像に切り替えられる。 Further, when two users are selected as targets of the contour density adjustment tool, the photographed images of the editing area 501R are changed to two users, one on the left side and the other on the right side, in response to the operation of the slide bar. is switched to a photographed image in which the density of the outline of the user's eyes has been changed.

このように、輪郭濃度調整ツールを利用することにより、利用者は、1枚の撮影画像毎に、かつ、撮影画像に写っている利用者毎に、目の輪郭の濃さを変えることができる。また、利用者は、2人の利用者の目の輪郭の濃さを同時に変えることもできる。 Thus, by using the contour density adjustment tool, the user can change the density of the contour of the eyes for each photographed image and for each user appearing in the photographed image. . The user can also change the darkness of the eye contours of two users at the same time.

アイカラーツールと輪郭濃度調整ツールを合わせて利用することにより、利用者は、黒目の色については利用者毎に個別に調整し、目の輪郭などの濃さについては2人まとめて調整するといったことが可能となる。また、利用者は、黒目の色については2人まとめて調整し、目の輪郭などの濃さについては利用者毎に個別に調整するといったことが可能となる。 By using the eye color tool and the contour density adjustment tool together, the user can individually adjust the color of the black eye for each user and adjust the density of the contour of the eyes of two people collectively. becomes possible. In addition, it is possible for two users to collectively adjust the color of black eyes, and to individually adjust the density of the contours of the eyes for each user.

<変形例>
・他のメイクツールの例
メイクツールとして用意されるリップツール、チークツールを用いた処理が、アイカラーツールと同様にして行われるようにしてもよい。
<Modification>
Examples of Other Makeup Tools Processing using the lip tools and cheek tools prepared as makeup tools may be performed in the same manner as the eye color tools.

例えば選択ボタン511-4が押下され、リップツールが選択された場合、リップツールの対象として選択された利用者の唇の色が、編集パレット503Rに表示されたボタンを用いて選択された色に応じて変更される。マスク画像を用いて抽出された唇領域を構成する画素の色の変更が、オリジナルの唇の色を基準にして、その基準の色を、選択された色に応じて調整するようにして行われる。 For example, when the selection button 511-4 is pressed to select the lip tool, the user's lip color selected as the target of the lip tool is changed to the color selected using the button displayed on the edit palette 503R. changed accordingly. The color of the pixels forming the lip region extracted using the mask image is changed based on the original lip color, and the reference color is adjusted according to the selected color. .

・出力先に応じた処理の切り替え
アイカラーツールによって色が変更される黒目領域は、画像全体に対して狭い領域である。仮に、黒目領域の色を変更した複数枚の画像を並べてシール紙に印刷した場合、それぞれの画像に写る黒目が小さいために、レイアウトによっては、黒目領域の色の違いを表現できないことがある。また、黒目全体が不自然な色に見えてしまうことがある。
・Switching of processing according to the output destination The iris area whose color is changed by the eye color tool is a narrow area with respect to the entire image. If a plurality of images in which the color of the iris area is changed are printed side by side on sticker paper, the iris reflected in each image is small, and depending on the layout, the difference in the color of the iris area may not be expressed. In addition, the entire iris may appear to have an unnatural color.

アイカラーツールによる黒目領域の色の変更が、編集画面に表示する画像には反映され、シール紙に印刷する画像には反映されないようにしてもよい。この場合、それぞれの撮影画像を対象として、編集画面に表示する画像を生成するための処理と、シール紙に印刷する画像を生成するための処理とが、利用者の操作に応じて行われることになる。 A change in the color of the iris area by the eye color tool may be reflected in the image displayed on the edit screen, but not reflected in the image printed on the sticker paper. In this case, processing for generating an image to be displayed on the editing screen and processing for generating an image to be printed on sticker paper are performed for each captured image in accordance with the user's operation. become.

すなわち、撮影画像P101が編集対象として選択されている場合において、アイカラーツールによる黒目領域の色の変更が利用者により指示された場合、黒目領域の色を変更した撮影画像P101が、編集画面に表示する画像として生成されるとともに、黒目領域の色を変更していない撮影画像P101が、シール紙に印刷する画像として生成される。 That is, when the photographed image P101 is selected as an object to be edited, when the user instructs to change the color of the iris region using the eye color tool, the photographed image P101 with the changed iris region color is displayed on the editing screen. In addition to being generated as an image to be displayed, a photographed image P101 in which the color of the iris region is not changed is generated as an image to be printed on sticker paper.

これにより、画像の出力先に応じて適切な画像を生成することができ、不自然な見え方の画像がシール紙に印刷されてしまうといったことを防ぐことが可能となる。 As a result, it is possible to generate an appropriate image according to the output destination of the image, and to prevent an unnatural-looking image from being printed on sticker paper.

なお、黒目領域の色を変更した状態で編集画面に表示された撮影画像P101に対しては、各種の編集ツールを用いた編集が利用者の操作に応じて施される。編集については施され、黒目領域の色については変更されていない画像がシール紙には印刷されることになる。 Note that the photographed image P101 displayed on the edit screen with the color of the iris area changed is edited using various editing tools according to the user's operation. An image that has been edited and the color of the iris area has not been changed is printed on the sticker paper.

画像の出力先が編集画面(タブレット内蔵モニタ131)またはシール紙であるものとしたが、他の出力先に応じて処理が切り替えられるようにしてもよい。出力先には、タッチパネルモニタ92などの写真シール作成装置1に設けられる構成だけでなく、利用者のスマートフォンのモニタ、画像管理サーバが含まれる。 Although the image output destination is the editing screen (tablet built-in monitor 131) or sticker paper, the process may be switched according to other output destinations. The output destination includes not only the configuration provided in the photo sticker creating apparatus 1 such as the touch panel monitor 92, but also the monitor of the user's smart phone and the image management server.

なお、画像の印刷媒体がシール紙である場合について説明したが、印刷用紙、樹脂製のカード、布などの各種の媒体がシール紙に代えて用いられるようにしてもよい。 Although the case where the print medium of the image is sticker paper has been described, various media such as printing paper, resin cards, and cloth may be used instead of sticker paper.

・プログラムについて
上述した一連の処理は、ハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または、汎用のパーソナルコンピュータなどにインストールされる。
- Program The series of processes described above can be executed by hardware or by software. When a series of processes is executed by software, a program that constitutes the software is installed in a computer built into dedicated hardware or a general-purpose personal computer.

インストールされるプログラムは、光ディスク(CD-ROM(Compact Disc-Read Only Memory),DVD(Digital Versatile Disc)等)や半導体メモリなどよりなる図16に示されるリムーバブルメディア319に記録して提供される。また、ローカルエリアネットワーク、インターネット、デジタル放送といった、有線または無線の伝送媒体を介して提供されるようにしてもよい。プログラムは、ROM312や記憶部316に、あらかじめインストールしておくことができる。 The program to be installed is provided by being recorded on removable media 319 shown in FIG. Alternatively, it may be provided via a wired or wireless transmission medium such as a local area network, the Internet, or digital broadcasting. The program can be pre-installed in the ROM 312 or storage unit 316 .

なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。 The program executed by the computer may be a program that is processed in chronological order according to the order described in this specification, or may be executed in parallel or at a necessary timing such as when a call is made. It may be a program in which processing is performed.

本明細書に記載された効果はあくまで例示であって限定されるものでは無く、また他の効果があってもよい。 The effects described herein are only examples and are not limiting, and other effects may also occur.

本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。 Embodiments of the present technology are not limited to the above-described embodiments, and various modifications are possible without departing from the gist of the present technology.

例えば、本技術は、1つの機能を、ネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。 For example, the present technology can take a configuration of cloud computing in which a single function is shared by a plurality of devices via a network and processed jointly.

また、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。 In addition, each step described in the flowchart above can be executed by a single device, or can be shared and executed by a plurality of devices.

さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。 Furthermore, when one step includes a plurality of processes, the plurality of processes included in the one step can be executed by one device or shared by a plurality of devices.

1 写真シール作成装置, 66 鏡面部, 82 上ストロボユニット, 91 カメラ, 92 タッチパネルモニタ, 131 タブレット内蔵モニタ, 301 PC部, 302 事前選択部, 304 撮影部, 305 編集部, 306 印刷部, 401 事前選択処理部, 402 撮影処理部, 403 編集処理部, 404 印刷処理部, 411 撮影制御部, 412 画像処理部, 413 表示制御部, 414 画像記憶部, 431 選択受付部, 432 編集用画像生成部, 433 編集制御部, 434 表示制御部, 435 印刷データ生成部, 436 通信制御部, 451 領域検出部, 452 レタッチ処理部, 453 性別判定部, 454 まつげ処理部, 455 縮小部 1 photo sticker creation device, 66 mirror surface unit, 82 upper strobe unit, 91 camera, 92 touch panel monitor, 131 tablet built-in monitor, 301 PC unit, 302 preselection unit, 304 photographing unit, 305 editing unit, 306 printing unit, 401 advance selection processing unit, 402 shooting processing unit, 403 editing processing unit, 404 printing processing unit, 411 shooting control unit, 412 image processing unit, 413 display control unit, 414 image storage unit, 431 selection reception unit, 432 editing image generation unit , 433 edit control unit, 434 display control unit, 435 print data generation unit, 436 communication control unit, 451 area detection unit, 452 retouch processing unit, 453 gender determination unit, 454 eyelash processing unit, 455 reduction unit

Claims (10)

利用者を被写体として撮影して得られた撮影画像に写る前記利用者の黒目を検出する検出部と、
前記利用者による操作に応じて、黒目の色と、黒目の縁の濃さとをそれぞれ変更する画像処理部と
を備える画像処理装置。
a detection unit that detects the iris of the user in a photographed image obtained by photographing the user as a subject;
and an image processing unit that changes the color of the iris and the darkness of the edge of the iris according to the user's operation.
前記検出部は、前記撮影画像に写る複数の前記利用者のそれぞれの黒目を検出し、
前記画像処理部は、対象とする前記利用者を選択して行われる操作に応じて、黒目の色と、黒目の縁の濃さとをそれぞれ変更する
請求項1に記載の画像処理装置。
The detection unit detects the iris of each of the plurality of users appearing in the captured image,
The image processing device according to claim 1, wherein the image processing unit changes the color of the iris and the darkness of the edge of the iris according to an operation performed by selecting the target user.
前記撮影画像の編集時に、前記画像処理部による処理が施された前記撮影画像を編集画面に表示させる表示制御部と、
前記編集画面に対する前記利用者の操作に応じて、前記撮影画像に対して編集を施す編集処理部と、
前記編集処理部による編集が施され、前記画像処理部による処理が施されていない前記撮影画像を印刷媒体に印刷させる印刷部と
をさらに備える請求項1または2に記載の画像処理装置。
a display control unit for displaying the captured image processed by the image processing unit on an editing screen when editing the captured image;
an editing processing unit that edits the captured image in accordance with the user's operation on the editing screen;
3. The image processing apparatus according to claim 1, further comprising: a printing unit that prints the photographed image that has been edited by the editing processing unit and has not been processed by the image processing unit on a printing medium.
前記画像処理部は、黒目を構成する画素の画素値を変更することによって、黒目の色を変更する
請求項1乃至3のいずれかに記載の画像処理装置。
The image processing device according to any one of claims 1 to 3, wherein the image processing section changes the color of the iris by changing the pixel values of the pixels forming the iris.
前記画像処理部は、黒目を構成する画素の画素値を、前記利用者により選択された色に応じてあらかじめ設定された量だけ変更する
請求項4に記載の画像処理装置。
5. The image processing device according to claim 4, wherein the image processing unit changes the pixel values of the pixels forming the iris by an amount preset according to the color selected by the user.
前記検出部は、黒目とまつげを含む目の各部を検出し、
前記画像処理部は、前記利用者による操作に応じて、黒目の縁の濃さとともに、まつげの濃さと目の輪郭の濃さとを変更する
請求項1乃至5のいずれかに記載の画像処理装置。
The detection unit detects each part of the eye including the iris and eyelashes,
6. The image processing device according to any one of claims 1 to 5, wherein the image processing unit changes the darkness of the edge of the iris, the darkness of the eyelashes, and the darkness of the contour of the eye according to the user's operation. .
前記画像処理部は、前記撮影画像に写る複数の前記利用者のうちの、前記利用者により選択された1人の前記利用者の黒目の色を変更するとともに、前記利用者全員の黒目の縁の濃さをまとめて変更する
請求項1に記載の画像処理装置。
The image processing unit changes the color of the iris of one of the users selected by the user from among the plurality of users appearing in the photographed image, and changes the iris of the irises of all the users. The image processing apparatus according to claim 1, wherein the densities of are collectively changed.
前記画像処理部は、前記撮影画像に写る複数の前記利用者のうちの、前記利用者により選択された1人の前記利用者の黒目の縁の濃さを変更するとともに、前記利用者全員の黒目の色をまとめて変更する
請求項1に記載の画像処理装置。
The image processing unit changes the darkness of the iris of the eyes of one user selected by the user from among the plurality of users appearing in the photographed image, and The image processing device according to claim 1, wherein the color of the pupil is changed collectively.
画像処理装置が、
利用者を被写体として撮影して得られた撮影画像に写る前記利用者の黒目を検出し、
前記利用者による操作に応じて、黒目の色と、黒目の縁の濃さとをそれぞれ変更する
画像処理方法。
The image processing device
Detecting the iris of the user in a photographed image obtained by photographing the user as a subject,
An image processing method for changing the color of the iris and the darkness of the edge of the iris according to the user's operation.
コンピュータに、
利用者を被写体として撮影して得られた撮影画像に写る前記利用者の黒目を検出し、
前記利用者による操作に応じて、黒目の色と、黒目の縁の濃さとをそれぞれ変更する
処理を実行させるためのプログラム。
to the computer,
Detecting the iris of the user in a photographed image obtained by photographing the user as a subject,
A program for executing processing for changing the color of the iris and the darkness of the edge of the iris according to the user's operation.
JP2019161941A 2019-09-05 2019-09-05 Image processing device, image processing method, and program Active JP7339515B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019161941A JP7339515B2 (en) 2019-09-05 2019-09-05 Image processing device, image processing method, and program
JP2023135602A JP2023164461A (en) 2019-09-05 2023-08-23 Image processing apparatus, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019161941A JP7339515B2 (en) 2019-09-05 2019-09-05 Image processing device, image processing method, and program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023135602A Division JP2023164461A (en) 2019-09-05 2023-08-23 Image processing apparatus, image processing method, and program

Publications (2)

Publication Number Publication Date
JP2021039655A JP2021039655A (en) 2021-03-11
JP7339515B2 true JP7339515B2 (en) 2023-09-06

Family

ID=74848683

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2019161941A Active JP7339515B2 (en) 2019-09-05 2019-09-05 Image processing device, image processing method, and program
JP2023135602A Pending JP2023164461A (en) 2019-09-05 2023-08-23 Image processing apparatus, image processing method, and program

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023135602A Pending JP2023164461A (en) 2019-09-05 2023-08-23 Image processing apparatus, image processing method, and program

Country Status (1)

Country Link
JP (2) JP7339515B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7492150B2 (en) 2022-04-28 2024-05-29 フリュー株式会社 Information processing device, information processing method, and program

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013058165A (en) 2011-09-09 2013-03-28 Nikon Corp Image processing device and camera
WO2018229909A1 (en) 2017-06-14 2018-12-20 株式会社メニコン Cosmetic contact lens
JP2019050582A (en) 2018-10-22 2019-03-28 辰巳電子工業株式会社 Photographing game device, image processing method, and image processing program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013058165A (en) 2011-09-09 2013-03-28 Nikon Corp Image processing device and camera
WO2018229909A1 (en) 2017-06-14 2018-12-20 株式会社メニコン Cosmetic contact lens
JP2019050582A (en) 2018-10-22 2019-03-28 辰巳電子工業株式会社 Photographing game device, image processing method, and image processing program

Also Published As

Publication number Publication date
JP2023164461A (en) 2023-11-10
JP2021039655A (en) 2021-03-11

Similar Documents

Publication Publication Date Title
JP5748651B2 (en) Image processing apparatus, image processing method, and program
JP6829380B2 (en) Photo sticker making device and image processing method
JP2023164461A (en) Image processing apparatus, image processing method, and program
JP5825542B1 (en) Photo sticker creation apparatus and display method
JP7152687B2 (en) Display control device, display control method, program
JP6792154B2 (en) Photographing game console and image processing method
JP7401727B2 (en) Image processing device, image processing method, and image processing program
JP7132492B2 (en) Image processing device, display control method, and program
JP2018195881A (en) Photo seal creation device, photo seal manufacturing method, and photo seal manufacturing processing program
JP7140962B2 (en) Image processing device, control method, and program
JP2021043797A (en) Image processing device, image processing method, and image processing program
JP2021039654A (en) Image processing device, image processing method, and program
JP6465333B2 (en) Image processing apparatus and image processing method
JP7319534B2 (en) camera
JP6421969B2 (en) Image processing apparatus and control method
JP6303561B2 (en) Image processing apparatus and photographing method
JP7319535B2 (en) Photo-making game machine, control method, and program
JP7121256B2 (en) PHOTO-CREATION GAME MACHINE, IMAGE PROCESSING METHOD, AND PROGRAM
JP2018106678A (en) Sticker making game machine and image processing method
JP7364866B2 (en) Image processing device, editing device
JP6982230B2 (en) Photographing game console and image processing method
JP2024064430A (en) Picture creation game machine, image processing method and program
JP2009164904A (en) Photographic sticker forming device and method, and program
JP2019211683A (en) Photograph creation game machine, image processing method, and program
JP2022012958A (en) Image processing apparatus, image processing method, image processing program, region specification model and model generation method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220902

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230612

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230725

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230807

R150 Certificate of patent or registration of utility model

Ref document number: 7339515

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150