JP2023164461A - Image processing apparatus, image processing method, and program - Google Patents

Image processing apparatus, image processing method, and program Download PDF

Info

Publication number
JP2023164461A
JP2023164461A JP2023135602A JP2023135602A JP2023164461A JP 2023164461 A JP2023164461 A JP 2023164461A JP 2023135602 A JP2023135602 A JP 2023135602A JP 2023135602 A JP2023135602 A JP 2023135602A JP 2023164461 A JP2023164461 A JP 2023164461A
Authority
JP
Japan
Prior art keywords
image
editing
user
unit
iris
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023135602A
Other languages
Japanese (ja)
Inventor
妥美 呉屋
Yasumi Kureya
栞里 庄
Shiori Sho
茜 大和田
Akane Owada
悠里 溝口
Yuri Mizoguchi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Furyu Corp
Original Assignee
Furyu Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Furyu Corp filed Critical Furyu Corp
Priority to JP2023135602A priority Critical patent/JP2023164461A/en
Publication of JP2023164461A publication Critical patent/JP2023164461A/en
Pending legal-status Critical Current

Links

Images

Abstract

To provide an image processing apparatus which can be applied to a photo generating game machine for providing a series of games printing a captured image on a seal paper and which can more naturally changes impression of eyes.SOLUTION: An image processing apparatus (photo seal creating apparatus has an edition processing unit 403 which has an iris processing unit 433A that detects an iris of a person in a captured image and can further change thickness of an edge of the iris in response to an operation by a user. The iris processing unit 433A can further change color of the iris.SELECTED DRAWING: Figure 19

Description

本技術は、特に、より自然な形で目の印象を変えることができるようにした画像処理装置、画像処理方法、およびプログラムに関する。 The present technology particularly relates to an image processing device, an image processing method, and a program that can change the impression of the eyes in a more natural manner.

従来、写真シール作成装置が知られている。写真シール作成装置は、利用者を撮影し、撮影画像に対して利用者に編集を行わせ、編集後の画像をシール紙に印刷して提供するものである。写真シール作成装置は遊戯施設などに設置される。 Conventionally, photo sticker producing devices are known. A photo sticker creation device photographs a user, allows the user to edit the photographed image, and prints and provides the edited image on sticker paper. Photo sticker making devices are installed at amusement facilities and the like.

写真シール作成装置が提供する1ゲームの流れは、通常、撮影空間内にいる利用者を被写体として撮影を行った後、利用者を編集空間に移動させ、編集空間内で行われる操作に従って画像を編集して、編集済みの画像をシール紙に印刷するものとなる。撮影空間での撮影時、ストロボ光を照射することによって、利用者の目の黒目部分にキャッチライトを写り込ませた状態で撮影が行われる。 The flow of one game provided by the photo sticker creation device is that after taking a picture of a user in the shooting space as the subject, the user is moved to the editing space, and the image is edited according to the operations performed in the editing space. After editing, the edited image is printed on sticker paper. When photographing in a photographic space, a strobe light is irradiated to capture a catchlight in the eyelids of the user's eyes.

例えば特許文献1には、撮影画像に写る利用者の黒目部分を所定の色で塗りつぶし、色を変えた黒目部分に、キャッチライトを表現した画像を描画する技術が開示されている。 For example, Patent Document 1 discloses a technique in which the iris of a user's eyes in a photographed image is filled in with a predetermined color, and an image representing a catch light is drawn on the iris of the user in a different color.

特開2014-182672号公報Japanese Patent Application Publication No. 2014-182672 特開2013-055372号公報Japanese Patent Application Publication No. 2013-055372

目の印象を変えるために黒目部分の色を画像処理によって変更した場合、変更後の黒目部分の見え方が不自然になってしまうことがある。 When the color of the iris is changed by image processing to change the impression of the eyes, the iris may look unnatural after the change.

本技術はこのような状況に鑑みてなされたものであり、より自然な形で目の印象を変えることができるようにするものである。 The present technology was developed in view of this situation, and is intended to make it possible to change the impression of the eyes in a more natural manner.

本技術の一側面の画像処理装置は、撮影画像に写る人物の黒目を検出する検出部と、利用者による操作に応じて、黒目の縁の濃さを変更する画像処理部とを備える。 An image processing device according to one aspect of the present technology includes a detection unit that detects the iris of a person in a photographed image, and an image processing unit that changes the darkness of the iris of the iris according to an operation by a user.

本技術の一側面においては、撮影画像に写る人物の黒目が検出され、利用者による操作に応じて、黒目の縁の濃さが変更される。 In one aspect of the present technology, the iris of a person in a photographed image is detected, and the darkness of the rim of the iris is changed in accordance with a user's operation.

本技術によれば、より自然な形で目の印象を変えることができる。 According to this technology, it is possible to change the impression of the eyes in a more natural manner.

本技術の写真シール作成装置の外観の構成例を示す斜視図である。FIG. 1 is a perspective view showing an example of the external configuration of a photo sticker creation device of the present technology. 写真シール作成装置の外観を他の角度から見た斜視図である。FIG. 2 is a perspective view of the appearance of the photo sticker creation device seen from another angle. 利用者の移動について説明する図である。It is a figure explaining movement of a user. 事前選択部の構成例を示す図である。It is a figure showing an example of composition of a pre-selection part. 撮影部の構成例を示す斜視図である。FIG. 3 is a perspective view showing an example of the configuration of an imaging section. 撮影部の構成例を示す斜視図である。FIG. 3 is a perspective view showing an example of the configuration of an imaging unit. カメラの角度調整の例を示す図である。It is a figure which shows the example of angle adjustment of a camera. 背景部の構成例を示す図である。FIG. 3 is a diagram illustrating a configuration example of a background part. 操作部の構成例を示す図である。It is a figure showing an example of composition of an operation part. 編集ユニットの正面側の構成例を示す図である。FIG. 3 is a diagram illustrating an example of the configuration of the front side of the editing unit. カーテンの取り付け例を示す図である。It is a figure which shows the example of attachment of a curtain. カーテンの裏面のデザイン例を示す図である。It is a figure which shows the example of a design of the back side of a curtain. 鏡面部の利用例を示す図である。It is a figure which shows the example of use of a mirror surface part. 編集ユニットの側面の構成例を示す図である。FIG. 3 is a diagram illustrating an example of a side configuration of an editing unit. 編集画像のレイヤ構造の例を示す図である。FIG. 3 is a diagram showing an example of a layer structure of an edited image. 写真シール作成装置の構成例を示すブロック図である。FIG. 1 is a block diagram showing an example of the configuration of a photo sticker creation device. 写真シール作成装置の機能構成例を示すブロック図である。FIG. 2 is a block diagram showing an example of a functional configuration of a photo sticker creation device. 図17の撮影処理部の構成例を示すブロック図である。FIG. 18 is a block diagram showing an example of the configuration of the imaging processing section in FIG. 17; 図17の編集処理部の構成例を示すブロック図である。18 is a block diagram showing a configuration example of an editing processing section in FIG. 17. FIG. 図19の編集用画像生成部の構成例を示すブロック図である。FIG. 20 is a block diagram showing a configuration example of an editing image generation section in FIG. 19. FIG. 領域の検出の例を示す図である。FIG. 3 is a diagram illustrating an example of area detection. 図20のまつげ処理部の構成例を示すブロック図である。21 is a block diagram showing a configuration example of an eyelash processing section in FIG. 20. FIG. 逆さまつげの除去の例を示す図である。It is a figure which shows the example of the removal of upside-down eyelashes. まつげ画像の変形の例を示す図である。It is a figure which shows the example of deformation|transformation of an eyelash image. まつげ画像の合成の例を示す図である。FIG. 3 is a diagram showing an example of combining eyelash images. 写真シール作成装置の動作について説明するフローチャートである。It is a flowchart explaining the operation of the photo sticker creation device. 図26のステップS3において行われる編集処理について説明するフローチャートである。27 is a flowchart illustrating the editing process performed in step S3 of FIG. 26. FIG. 落書き前自撮りの案内画面の表示例を示す図である。FIG. 6 is a diagram illustrating an example of a guide screen for self-portrait before doodling. 編集画面の例を示す図である。FIG. 3 is a diagram showing an example of an editing screen. 図27のステップS42において行われる編集用画像生成処理について説明するフローチャートである。28 is a flowchart illustrating the editing image generation process performed in step S42 of FIG. 27. FIG. 図30のステップS64において行われるまつげ処理について説明するフローチャートである。31 is a flowchart illustrating eyelash processing performed in step S64 of FIG. 30. FIG. メイクツールの選択中の編集パレットを拡大して示す図である。FIG. 7 is an enlarged diagram showing an editing palette while a makeup tool is being selected. アイカラーツールによって生成される画像の例を示す図である。FIG. 3 is a diagram illustrating an example of an image generated by an eye color tool. アイカラーツール選択時の画像処理に用いられるマスク画像の例を示す図である。FIG. 7 is a diagram showing an example of a mask image used in image processing when selecting an eye color tool. 黒目領域の色の変更の例を示す図である。FIG. 7 is a diagram illustrating an example of changing the color of the iris area. 目の輪郭の濃さの調整の例を示す図である。FIG. 7 is a diagram illustrating an example of adjusting the darkness of the eye outline. 目の輪郭の濃さの調整の他の例を示す図である。FIG. 7 is a diagram showing another example of adjusting the darkness of the eye outline.

<写真シール作成装置の外観>
図1および図2は、写真シール作成装置1の外観の構成例を示す斜視図である。
<Exterior of photo sticker making device>
FIGS. 1 and 2 are perspective views showing an example of the external configuration of the photo sticker producing device 1. FIG.

写真シール作成装置1は、撮影画像や編集画像を提供するゲーム機である。写真シール作成装置1は、画像をシール紙に印刷したり、画像を利用者の携帯端末上で閲覧可能にしたりすることで、利用者に画像を提供する。写真シール作成装置1は、ゲームセンターなどのアミューズメント施設や店舗に設置される。 The photo sticker creation device 1 is a game machine that provides photographed images and edited images. The photo sticker creation device 1 provides images to the user by printing the images on sticker paper or making the images viewable on the user's mobile terminal. The photo sticker creation device 1 is installed in an amusement facility such as a game center or a store.

写真シール作成装置1の利用者は、主に女子高生や若い女性が中心とされる。写真シール作成装置1において、1組あたり主に2人や3人などの複数人の利用者がゲームを楽しむことができる。もちろん、写真シール作成装置1において、1人の利用者がゲームを楽しむこともできる。 Users of the photo sticker creation device 1 are mainly high school girls and young women. In the photo sticker creation device 1, a plurality of users, mainly two or three users per group, can enjoy the game. Of course, one user can also enjoy the game in the photo sticker creation device 1.

写真シール作成装置1において、利用者は、自身が被写体となって撮影作業を行う。利用者は、編集作業により、撮影によって得られた撮影画像の中から選択した画像に、手書きの文字やスタンプ画像などの合成用画像を合成させる。これにより、撮影画像が彩り豊かな画像に編集される。利用者は、編集済みの画像である編集画像が印刷されたシール紙を受け取って一連のゲームを終了させる。 In the photo sticker creation device 1, a user performs a photographing operation with himself/herself as a subject. Through editing work, the user combines images for synthesis, such as handwritten characters and stamp images, with an image selected from among the photographed images obtained by photographing. As a result, the photographed image is edited into a colorful image. The user receives the sticker sheet on which the edited image, which is the edited image, is printed, and completes the series of games.

写真シール作成装置1は、写真作成ゲームを提供する写真作成ゲーム機ということができる。 The photo sticker creation device 1 can be said to be a photo creation game machine that provides a photo creation game.

図1に示すように、写真シール作成装置1は、基本的に、撮影ユニット11と編集ユニット12が接した状態で設置されることによって構成される。撮影ユニット11と編集ユニット12は電気的に接続される。 As shown in FIG. 1, the photo sticker creation device 1 is basically constructed by installing a photographing unit 11 and an editing unit 12 in contact with each other. The photographing unit 11 and the editing unit 12 are electrically connected.

撮影ユニット11は、人が中に入ることができる程度の大きさを有する箱形状の筐体を有し、事前選択部20、撮影部21、および背景部22から構成される。事前選択部20は、撮影部21の側面に設置される。事前選択部20の前方の空間が、事前選択処理が行われる事前選択空間となる。また、撮影部21と背景部22は所定の距離だけ離して設置される。撮影部21と背景部22の間に形成される空間が、撮影処理が行われる撮影空間となる。 The photographing unit 11 has a box-shaped housing large enough for a person to enter, and is composed of a pre-selection section 20, a photographing section 21, and a background section 22. The pre-selection unit 20 is installed on the side of the imaging unit 21. The space in front of the pre-selection unit 20 becomes a pre-selection space where the pre-selection process is performed. Further, the photographing section 21 and the background section 22 are installed apart from each other by a predetermined distance. The space formed between the photographing section 21 and the background section 22 becomes a photographing space in which photographing processing is performed.

事前選択部20は、事前選択処理として、写真シール作成装置1によって提供されるゲームを紹介するガイダンスを行ったり、撮影空間で行われる撮影処理における各種の設定を行ったりする。事前選択部20には、利用者が代金を投入する硬貨投入口や、各種の操作に用いられるタッチパネルモニタなどが設けられる。事前選択部20は、撮影空間の空き状況に応じて、事前選択空間にいる利用者を撮影空間へと案内する。 As a pre-selection process, the pre-selection unit 20 provides guidance introducing games provided by the photo sticker creation device 1, and performs various settings in the photo-taking process performed in the photo-taking space. The advance selection section 20 is provided with a coin slot into which the user inserts money, a touch panel monitor used for various operations, and the like. The pre-selection unit 20 guides users in the pre-selected space to the shooting space depending on the availability of the shooting space.

撮影部21は、利用者を被写体として撮影するための装置である。撮影部21は、撮影空間に入った利用者の正面に位置する。撮影空間に臨む撮影部21の正面には、カメラや、各種の操作に用いられるタッチパネルモニタなどが設けられる。 The photographing unit 21 is a device for photographing a user as a subject. The photographing unit 21 is located in front of the user who has entered the photographing space. A camera, a touch panel monitor used for various operations, and the like are provided at the front of the photographing section 21 facing the photographing space.

撮影空間において正面を向いている利用者からみて左側の面を左側面、右側の面を右側面とすると、撮影部21の左側面が側面パネル41Aにより構成され、右側面が側面パネル41Bにより構成される。さらに、撮影部21の正面が正面パネル42により構成される。側面パネル41Aには、上述した事前選択部20が設置される。なお、事前選択部20が、側面パネル41Bに設置されるようにしてもよい。 Assuming that the left side is the left side and the right side is the right side when viewed from the user facing forward in the shooting space, the left side of the shooting unit 21 is constituted by the side panel 41A, and the right side is constituted by the side panel 41B. be done. Further, the front of the photographing section 21 is constituted by a front panel 42. The above-mentioned pre-selection section 20 is installed on the side panel 41A. Note that the pre-selection section 20 may be installed on the side panel 41B.

背景部22は、背面パネル51、側面パネル52A、および側面パネルから構成される。背面パネル51は、正面を向いている利用者の背面側に位置する板状の部材である。側面パネル52Aは、背面パネル51の左端に取り付けられ、側面パネル41Aより横幅の狭い板状の部材である。側面パネル52Bは、背面パネル51の右端に取り付けられ、側面パネル41Bより横幅の狭い板状の部材である。 The background section 22 includes a back panel 51, a side panel 52A, and a side panel. The back panel 51 is a plate-shaped member located on the back side of the user facing the front. The side panel 52A is a plate-shaped member that is attached to the left end of the back panel 51 and is narrower in width than the side panel 41A. The side panel 52B is a plate-shaped member that is attached to the right end of the back panel 51 and is narrower in width than the side panel 41B.

側面パネル41Aと側面パネル52Aは、ほぼ同一平面に設けられる。側面パネル41Aと側面パネル52Aの上部は、板状の部材である連結部23Aによって連結される。側面パネル41Aと側面パネル52Aの下部は、床面に設けた例えば金属製の部材である連結部23A’によって連結される。側面パネル41Bと側面パネル52Bも同様に、ほぼ同一平面に設けられる。側面パネル41Bと側面パネル52Bの上部は、連結部23Bによって連結される。側面パネル41Bと側面パネル52Bの下部は、連結部23B’によって連結される。 The side panel 41A and the side panel 52A are provided on substantially the same plane. The upper portions of the side panel 41A and the side panel 52A are connected by a connecting portion 23A, which is a plate-shaped member. The lower portions of the side panel 41A and the side panel 52A are connected by a connecting portion 23A', which is a metal member, for example, provided on the floor surface. Similarly, the side panel 41B and the side panel 52B are provided on substantially the same plane. The upper portions of the side panel 41B and the side panel 52B are connected by a connecting portion 23B. The lower portions of the side panel 41B and the side panel 52B are connected by a connecting portion 23B'.

側面パネル41Aと側面パネル52Aは、撮影空間の左側面を囲む部材となり、側面パネル41Bと側面パネル52Bは、撮影空間の右側面を囲む部材となる。 The side panel 41A and the side panel 52A serve as members surrounding the left side of the photographing space, and the side panel 41B and the side panel 52B serve as members surrounding the right side of the photographing space.

撮影空間の床には、板状の部材である床材27が敷かれる。 A floor material 27, which is a plate-shaped member, is laid on the floor of the photographing space.

側面パネル41A、連結部23A、および側面パネル52Aに囲まれることによって形成される開口が撮影空間の出入り口となる。また、側面パネル41B、連結部23B、および側面パネル52Bに囲まれることによって形成される開口も撮影空間の出入り口となる。 An opening formed by being surrounded by the side panel 41A, the connecting portion 23A, and the side panel 52A serves as an entrance/exit to the photographing space. Further, an opening formed by being surrounded by the side panel 41B, the connecting portion 23B, and the side panel 52B also serves as an entrance to the photographing space.

撮影空間の天井の一部には、ビニル素材の部材や板状の部材からなる天井シート24が設けられる。 A ceiling sheet 24 made of a vinyl material or a plate-like member is provided on a part of the ceiling of the photographing space.

編集ユニット12は、撮影画像に編集を施すための装置である。編集ユニット12は、一方の側面が撮影部21の正面パネル42に接するようにして、撮影ユニット11に連結して設けられる。 The editing unit 12 is a device for editing a photographed image. The editing unit 12 is connected to the photographing unit 11 so that one side surface is in contact with the front panel 42 of the photographing section 21 .

図2に示す編集ユニット12の構成を正面側の構成とすると、編集ユニット12の正面側と背面側のそれぞれに、編集作業で用いられる構成が設けられる。この構成により、2組の利用者が同時に編集作業を行うことができる。 If the configuration of the editing unit 12 shown in FIG. 2 is the configuration on the front side, the configuration used in editing work is provided on each of the front side and the back side of the editing unit 12. This configuration allows two sets of users to perform editing work at the same time.

編集ユニット12の正面側は、垂直な面61と、面61の上方に形成された斜面62から構成される。斜面62には、編集作業に用いられる構成として、タブレット内蔵モニタやタッチペンが設けられる。斜面62の右側には、照明装置64の一端を支持する柱状の支持部63Aが設けられる。斜面62の左側には、照明装置64の他端を支持する柱状の支持部63Bが設けられる。支持部63Aの上面にはカーテンレール26を支持する支持部65が設けられる。 The front side of the editing unit 12 is composed of a vertical surface 61 and a slope 62 formed above the surface 61. A monitor with a built-in tablet and a touch pen are provided on the slope 62 as components used for editing work. A columnar support portion 63A that supports one end of the lighting device 64 is provided on the right side of the slope 62. A columnar support portion 63B that supports the other end of the lighting device 64 is provided on the left side of the slope 62. A support portion 65 that supports the curtain rail 26 is provided on the upper surface of the support portion 63A.

編集ユニット12の上方にはカーテンレール26が取り付けられる。カーテンレール26は、3本のレール26A乃至26Cを組み合わせて構成される。 A curtain rail 26 is attached above the editing unit 12. The curtain rail 26 is constructed by combining three rails 26A to 26C.

3本のレール26A乃至26Cは、上から見たときの形状がコの字状となるように組み合わせられる。平行に設けられるレール26Aとレール26Bの一端は、連結部23Aと連結部23Bにそれぞれ固定され、レール26Aとレール26Bの他端は、レール26Cの両端にそれぞれ固定される。 The three rails 26A to 26C are combined in a U-shape when viewed from above. One end of rail 26A and rail 26B provided in parallel is fixed to connecting part 23A and connecting part 23B, respectively, and the other end of rail 26A and rail 26B is fixed to both ends of rail 26C, respectively.

カーテンレール26には、編集ユニット12の正面前方の空間と背面前方の空間が外から見えないようにするためのカーテンが取り付けられる。カーテンレール26に取り付けられたカーテンにより囲まれる編集ユニット12の正面前方の空間と背面前方の空間が、利用者が編集作業を行う編集空間となる。 A curtain is attached to the curtain rail 26 to prevent the space in front of the front and the space in front of the back of the editing unit 12 from being seen from the outside. A space in front of the front and a space in front of the back of the editing unit 12 surrounded by the curtain attached to the curtain rail 26 serve as an editing space in which the user performs editing work.

編集ユニット12の側面には、印刷済みのシール紙が排出される排出口が設けられる。
編集ユニット12の側面前方の空間が、利用者が印刷済みのシール紙が排出されるのを待つ印刷待ち空間となる。
A side surface of the editing unit 12 is provided with a discharge port through which printed sticker paper is discharged.
The space in front of the side of the editing unit 12 becomes a printing waiting space where the user waits for printed sticker sheets to be ejected.

<利用者の移動について>
ここで、写真シール作成ゲームの流れと、それに伴う利用者の移動について説明する。
<About user movement>
Here, the flow of the photo sticker creation game and the accompanying movement of the user will be explained.

図3は、写真シール作成装置1を上から見た平面図である。 FIG. 3 is a plan view of the photographic sticker making device 1 viewed from above.

利用者は、事前選択部20の前方の空間である事前選択空間A0において硬貨投入口に代金を投入する。次に、利用者は、タッチパネルモニタに表示される画面に従って事前選択作業を行う。例えば、利用者は、撮影空間で行われる撮影に関するコースの選択などを事前選択作業として行う。 The user inserts money into the coin slot in the pre-selection space A0, which is the space in front of the pre-selection section 20. Next, the user performs a pre-selection operation according to the screen displayed on the touch panel monitor. For example, the user performs a pre-selection task such as selecting a course regarding photography to be performed in the photography space.

事前選択作業を終えた利用者は、白抜き矢印#1で示すように、側面パネル41Aと側面パネル52Aの間の出入り口G1から、撮影部21と背景部22の間に形成された撮影空間A1に入る。利用者は、撮影部21に設けられたカメラやタッチパネルモニタなど利用して撮影作業を行う。 After completing the pre-selection process, the user enters the photographing space A1 formed between the photographing section 21 and the background section 22 from the entrance G1 between the side panel 41A and the side panel 52A, as shown by the white arrow #1. to go into. The user performs photographing work using a camera, a touch panel monitor, etc. provided in the photographing section 21.

撮影作業を終えた利用者は、白抜き矢印#2で示すように出入り口G1から撮影空間A1を出て編集空間A2-2に移動するか、または、白抜き矢印#3で示すように出入り口G2から撮影空間A1を出て編集空間A2-1に移動する。 After finishing the shooting work, the user either exits the shooting space A1 through the doorway G1 and moves to the editing space A2-2, as shown by the outlined arrow #2, or exits the shooting space A1 and moves to the editing space A2-2, as shown by the outlined arrow #3. The user exits the shooting space A1 and moves to the editing space A2-1.

編集空間A2-1は、編集ユニット12の正面側の編集空間である。一方、編集空間A2-2は、編集ユニット12の背面側の編集空間である。利用者が編集空間A2-1と編集空間A2-2のいずれの空間に移動するのかは、撮影部21のタッチパネルモニタの画面表示などによって案内される。例えば2つの編集空間のうちの空いている方が移動先として案内される。 The editing space A2-1 is an editing space on the front side of the editing unit 12. On the other hand, the editing space A2-2 is an editing space on the rear side of the editing unit 12. The user is guided as to which space to move to, editing space A2-1 or editing space A2-2, by the screen display of the touch panel monitor of the photographing unit 21, etc. For example, the user is guided to the vacant one of the two editing spaces as the destination.

編集空間A2-1または編集空間A2-2に移動した利用者は、編集作業を開始する。
編集空間A2-1の利用者と、編集空間A2-2の利用者は同時に編集作業を行うことができる。編集空間A2-1と編集空間A2-2を区別する必要がない場合、適宜、まとめて編集空間A2という。
The user who has moved to editing space A2-1 or editing space A2-2 starts editing work.
A user of editing space A2-1 and a user of editing space A2-2 can perform editing work at the same time. When there is no need to distinguish between the editing space A2-1 and the editing space A2-2, they are collectively referred to as editing space A2 as appropriate.

編集作業が終了した後、編集画像の印刷が開始される。編集空間A2-1での編集作業を終えた利用者は、白抜き矢印#5で示すように編集空間A2-1から印刷待ち空間A3に移動する。また、編集空間A2-2での編集作業を終えた利用者は、白抜き矢印#4で示すように編集空間A2-2から印刷待ち空間A3に移動する。 After the editing work is completed, printing of the edited image is started. After completing the editing work in the editing space A2-1, the user moves from the editing space A2-1 to the print waiting space A3 as indicated by the outline arrow #5. Further, the user who has finished the editing work in the editing space A2-2 moves from the editing space A2-2 to the print waiting space A3 as shown by the outline arrow #4.

印刷待ち空間A3に移動した利用者は、印刷が終わるのを待つ。印刷が終了すると、利用者は、編集ユニット12の側面に設けられた排出口から排出されたシール紙を受け取り、一連の写真シール作成ゲームを終える。 The user who has moved to the print waiting space A3 waits for printing to finish. When printing is completed, the user receives the sticker paper discharged from the discharge port provided on the side of the editing unit 12, and completes the series of photo sticker creation games.

次に、各装置の構成について説明する。 Next, the configuration of each device will be explained.

<事前選択部の構成>
図4は、事前選択部20の構成例を示す図である。
<Configuration of pre-selection section>
FIG. 4 is a diagram showing an example of the configuration of the pre-selection section 20. As shown in FIG.

事前選択部20の上側にはタッチパネルモニタ71が設けられる。タッチパネルモニタ71は、LCD(Liquid Crystal Display)などのモニタと、それに積層されたタッチパネルにより構成される。タッチパネルモニタ71は、各種のGUI(Graphical User Interface)を表示し、利用者の選択操作を受け付ける機能を備えている。タッチパネルモニタ71には、利用者の人数の選択に用いられる画面などが表示される。 A touch panel monitor 71 is provided above the pre-selection section 20 . The touch panel monitor 71 includes a monitor such as an LCD (Liquid Crystal Display) and a touch panel laminated thereon. The touch panel monitor 71 has a function of displaying various GUIs (Graphical User Interfaces) and accepting selection operations from the user. The touch panel monitor 71 displays a screen used to select the number of users, and the like.

タッチパネルモニタ71の下方にはスピーカ72が設けられる。スピーカ72は、事前選択処理の案内音声、BGM(Back Ground Music)、効果音などを出力する。スピーカ72の隣に、利用者が硬貨を入れる硬貨投入返却口73が設けられる。 A speaker 72 is provided below the touch panel monitor 71. The speaker 72 outputs guidance audio, BGM (background music), sound effects, etc. for the pre-selection process. Next to the speaker 72, a coin insertion/return slot 73 is provided in which the user inserts coins.

<撮影部の構成>
図5および図6は、撮影部21の構成例を示す斜視図である。
<Structure of the photography department>
5 and 6 are perspective views showing an example of the configuration of the imaging section 21. FIG.

撮影部21は、側面パネル41A、側面パネル41B、および正面パネル42に囲まれるようにして構成される。 The photographing unit 21 is configured to be surrounded by a side panel 41A, a side panel 41B, and a front panel 42.

正面パネル42の略中央には箱状のカメラユニット81が設けられる。カメラユニット81の正面には、カメラ91とタッチパネルモニタ92が設けられる。カメラ91の右側には、スマートフォンホルダ93が設けられる。 A box-shaped camera unit 81 is provided approximately at the center of the front panel 42 . A camera 91 and a touch panel monitor 92 are provided in front of the camera unit 81. A smartphone holder 93 is provided on the right side of the camera 91.

カメラ91は、例えば一眼レフカメラであり、レンズが露出するようにカメラユニット81の内部に取り付けられる。カメラ91は、CCD(Charge Coupled Device)イメージセンサやCMOS(Complementary Metal Oxide Semiconductor)イメージセンサなどの撮像素子を有する。カメラ91は、撮影空間A1にいる利用者を被写体として撮影を行う撮影部として機能する。 The camera 91 is, for example, a single-lens reflex camera, and is attached inside the camera unit 81 so that the lens is exposed. The camera 91 includes an image sensor such as a CCD (Charge Coupled Device) image sensor or a CMOS (Complementary Metal Oxide Semiconductor) image sensor. The camera 91 functions as a photographing unit that photographs a user in the photographing space A1 as a subject.

また、カメラ91は、上下方向の首振り機能(角度調整機能)を有する。 Further, the camera 91 has a vertical swing function (angle adjustment function).

図7は、カメラ91の角度調整の例を示す図である。 FIG. 7 is a diagram showing an example of angle adjustment of the camera 91.

図7に示すように、カメラ91は、カメラユニット81の内部において姿勢を変えることによって、光軸の向きを上下方向に調整することが可能とされる。図7において、破線矢印はレンズの光軸の向きを表す。 As shown in FIG. 7, the direction of the optical axis of the camera 91 can be adjusted in the vertical direction by changing the posture inside the camera unit 81. In FIG. 7, the dashed arrow represents the direction of the optical axis of the lens.

図7A乃至Cに示すように、例えば、写真シール作成装置1の接地面と略水平な方向を上限とし、下限となる所定の下向きの角度までの範囲で、カメラ91の角度を調整することが可能とされる。 As shown in FIGS. 7A to 7C, for example, the angle of the camera 91 can be adjusted within a range from an upper limit to a direction substantially horizontal to the ground plane of the photo sticker making device 1 to a predetermined downward angle as a lower limit. It is considered possible.

このようなカメラ91の角度の調整は、後述するように、撮影を行っている利用者の操作に従って電動で行われる。利用者は、カメラ91の角度を好みの角度に調整して、撮影を行うことができる。 Such adjustment of the angle of the camera 91 is performed electrically according to the operation of the user who is taking the image, as will be described later. The user can take pictures by adjusting the angle of the camera 91 to a desired angle.

カメラ91により取り込まれた動画像に基づいて生成されたライブビュー画像は、タッチパネルモニタ92に表示される。所定のタイミングでカメラ91により取り込まれた静止画像は撮影画像として保存される。 A live view image generated based on the moving image captured by the camera 91 is displayed on the touch panel monitor 92. A still image captured by the camera 91 at a predetermined timing is saved as a captured image.

タッチパネルモニタ92はカメラ91の下方に設けられる。タッチパネルモニタ92は、LCDなどのモニタと、それに積層されたタッチパネルにより構成される。タッチパネルモニタ92は、カメラ91により取り込まれたライブビュー画像を表示するライブビューモニタとしての機能と、各種のGUIを表示して利用者の選択操作を受け付ける機能を備えている。 A touch panel monitor 92 is provided below the camera 91. The touch panel monitor 92 is composed of a monitor such as an LCD and a touch panel laminated thereon. The touch panel monitor 92 has a function as a live view monitor that displays a live view image captured by the camera 91, and a function that displays various GUIs and receives selection operations from the user.

カメラ91の右側には、スマートフォンの置き場となるスマートフォンホルダ93が設けられる。スマートフォンホルダ93は、スマートフォンを横向きで置くのに十分な長さとなるように形成される。 A smartphone holder 93 is provided on the right side of the camera 91 to serve as a place to store a smartphone. The smartphone holder 93 is formed to have a length sufficient to allow a smartphone to be placed horizontally.

利用者は、自分のスマートフォンをスマートフォンホルダ93に置き、スマートフォンを利用して、ゲーム中の自身の様子を動画像や静止画像として撮影することができる。 The user can place his or her smartphone on the smartphone holder 93 and use the smartphone to take a video or still image of himself or herself playing the game.

カメラユニット81の上方には、カメラユニット81の位置(カメラ91の位置)を基準として左に偏った状態で上ストロボユニット82が設置される。上ストロボユニット82は、カメラユニット81の上方と左上方の略全体を覆うようにして設けられる。 An upper strobe unit 82 is installed above the camera unit 81 so as to be biased to the left with respect to the position of the camera unit 81 (the position of the camera 91). The upper strobe unit 82 is provided so as to cover substantially the entire upper and upper left side of the camera unit 81.

上ストロボユニット82の正面は、斜め下方を向くように前傾したパネルと、その下方に設けられ、略垂直面を構成するパネルとから構成される。上ストロボユニット82の正面が、透光性を有する乳白色の板状の部材を用いた発光面として構成される。上ストロボユニット82は、カメラ91による撮影に合わせて発光し、利用者の正面左上方から、主に利用者の顔と上半身にストロボ光を照射する。 The front surface of the upper strobe unit 82 is composed of a panel that is tilted forward so as to face diagonally downward, and a panel that is provided below the panel and forms a substantially vertical surface. The front side of the upper strobe unit 82 is configured as a light emitting surface using a translucent milky white plate-like member. The upper strobe unit 82 emits light in accordance with the photographing by the camera 91, and mainly irradiates the user's face and upper body with strobe light from the upper left of the front of the user.

カメラユニット81の下方には、主に利用者の下半身および足元にストロボ光を照射する足元ストロボユニット83が設けられる。 A foot strobe unit 83 is provided below the camera unit 81 to emit strobe light mainly to the user's lower body and feet.

足元ストロボユニット83は、正面視において横長長方形となる正面全体が発光面となるように、側面パネル41Aと側面パネル41Bとの間に隙間なく形成される。足元ストロボユニット83の上面は、写真シール作成装置1の設置面と略水平な面であり、撮影作業を行う利用者が手荷物などを置くための荷物置き場として用いられる。 The foot strobe unit 83 is formed without a gap between the side panel 41A and the side panel 41B so that the entire front surface, which is a horizontally long rectangle when viewed from the front, serves as a light emitting surface. The upper surface of the foot strobe unit 83 is a surface that is substantially parallel to the installation surface of the photo sticker making device 1, and is used as a luggage storage area for users who are performing photographic work to place their baggage and the like.

上ストロボユニット82と足元ストロボユニット83の内部には、常時点灯する電球とストロボ発光管が設けられる。上ストロボユニット82と足元ストロボユニット83は、電球を発光させることによって撮影空間内を常時照らすとともに、撮影タイミングに合わせてストロボ発光管を発光させることによって、被写体となる利用者にストロボ光を照射する。 Inside the upper strobe unit 82 and the foot strobe unit 83, a constantly lit light bulb and strobe light emitting tube are provided. The upper strobe unit 82 and the foot strobe unit 83 constantly illuminate the shooting space by emitting light bulbs, and emit strobe light to the user, who is the subject, by emitting strobe light tubes in accordance with the shooting timing. .

なお、正面パネル42の天井付近にはスピーカが設けられる。スピーカからは、撮影処理の案内音声、BGM、効果音などが出力される。スピーカが背景部22に設けられるようにしても良い。 Note that a speaker is provided near the ceiling of the front panel 42. The speakers output audio guidance for the shooting process, background music, sound effects, etc. A speaker may be provided in the background section 22.

図8は、背景部22の撮影空間A1側の構成例を示す図である。 FIG. 8 is a diagram showing an example of the configuration of the background section 22 on the photographing space A1 side.

背面パネル51の内側には、緑色などの所定の色のシートが貼り付けられる。撮影された画像に写る緑色の領域を検出することによってクロマキー処理が行われ、人物の領域が検出される。 A sheet of a predetermined color such as green is pasted on the inside of the back panel 51. Chromakey processing is performed by detecting the green area in the photographed image, and the area of the person is detected.

背面パネル51の左端に取り付けられる側面パネル52Bの内側には操作部53が設けられる。 An operating section 53 is provided inside a side panel 52B attached to the left end of the back panel 51.

操作部53は、図9に示すように、カメラ91の向きを上方向または下方向に調整するときに押下される角度調整ボタン53Aと、撮影を停止するときに押下される撮影停止ボタン53Bとから構成される。 As shown in FIG. 9, the operation unit 53 includes an angle adjustment button 53A that is pressed when adjusting the direction of the camera 91 upward or downward, and a shooting stop button 53B that is pressed when stopping shooting. It consists of

カメラ91による撮影は、10秒間隔などの所定の間隔で連続して行われる。撮影停止ボタン53Bは、その連続撮影を一時的に停止させるために押下される。利用者は、連続撮影を一時的に停止させている状態で、角度調整ボタン53Aを押下し、カメラ91の角度を調整することができる。 Photography by the camera 91 is continuously performed at predetermined intervals, such as every 10 seconds. The shooting stop button 53B is pressed to temporarily stop the continuous shooting. The user can adjust the angle of the camera 91 by pressing the angle adjustment button 53A while continuous shooting is temporarily stopped.

操作部53が側面パネル52Bに設けられていることにより、カメラ91に顔を向けている利用者の立ち位置は、無意識のうちに、撮影空間A1において右側に僅かに寄った位置となる。撮影空間A1において操作部53の対角となる正面左側の位置に設けられた上ストロボユニット82から立ち位置までの距離を確保することにより、適切な光量の光によって、上ストロボユニット82から利用者を照射することが可能となる。 Since the operation unit 53 is provided on the side panel 52B, the standing position of the user facing the camera 91 is unconsciously positioned slightly to the right in the photographing space A1. By ensuring a distance from the upper strobe unit 82, which is installed on the front left side diagonally to the operation unit 53 in the photographing space A1, to the standing position, the upper strobe unit 82 can illuminate the user with an appropriate amount of light. It becomes possible to irradiate.

側面パネル52Bに設けられた操作部53は、利用者の立ち位置を無意識のうちに誘導する機能をも有する。操作部53が側面パネル52A側に設けられるようにしてもよい。 The operation unit 53 provided on the side panel 52B also has a function of unconsciously guiding the user's standing position. The operation unit 53 may be provided on the side panel 52A side.

<編集ユニットの構成>
図10は、編集ユニット12の正面側(図3の編集空間A2-1側)の構成例を示す図である。背面側(図3の編集空間A2-2側)にも同様の構成が設けられる。
<Editing unit configuration>
FIG. 10 is a diagram showing a configuration example of the front side (editing space A2-1 side in FIG. 3) of the editing unit 12. A similar configuration is provided on the back side (editing space A2-2 side in FIG. 3).

斜面62のほぼ中央にはタブレット内蔵モニタ131が設けられる。タブレット内蔵モニタ131の左側にはタッチペン132Aが設けられる。タブレット内蔵モニタ131の右側にはタッチペン132Bが設けられる。 A tablet built-in monitor 131 is provided approximately at the center of the slope 62. A touch pen 132A is provided on the left side of the tablet built-in monitor 131. A touch pen 132B is provided on the right side of the tablet built-in monitor 131.

タブレット内蔵モニタ131には、例えば、編集作業に用いられる編集画面が表示される。2人の利用者が同時に編集作業を行う場合、タッチペン132Aはタブレット内蔵モニタ131に向かって左側にいる利用者により用いられ、タッチペン132Bはタブレット内蔵モニタ131に向かって右側にいる利用者により用いられる。 For example, an editing screen used for editing work is displayed on the tablet built-in monitor 131. When two users perform editing work at the same time, the touch pen 132A is used by the user on the left side facing the tablet built-in monitor 131, and the touch pen 132B is used by the user on the right side facing the tablet built-in monitor 131. .

なお、タッチペン132Aを用いた操作とタッチペン132Bを用いた操作は識別される。適宜、タブレット内蔵モニタ131の左側の表示に対してはタッチペン132Aを用いた操作のみが可能とされ、右側の表示に対してはタッチペン132Bを用いた操作のみが可能とされる。以下、適宜、タッチペン132Aとタッチペン132Bを区別する必要がない場合、まとめてタッチペン132という。 Note that operations using the touch pen 132A and operations using the touch pen 132B are distinguished. As appropriate, the display on the left side of the tablet built-in monitor 131 can only be operated using the touch pen 132A, and the display on the right side can only be operated using the touch pen 132B. Hereinafter, if there is no need to distinguish between the touch pen 132A and the touch pen 132B, they will be collectively referred to as the touch pen 132.

照明装置64の下方であって、照明装置64を支持する柱状の支持部63Aと支持部63Bの間には、アクリルミラー板などにより構成される鏡面部66が設けられる。鏡面部66は略垂直な面を形成する。 Below the lighting device 64 and between the columnar support portions 63A and 63B that support the lighting device 64, a mirror surface portion 66 made of an acrylic mirror plate or the like is provided. The mirror surface portion 66 forms a substantially vertical surface.

図10においては、鏡面となる鏡面部66の範囲が色を付して示されている。鏡面部66の横方向の幅は、タブレット内蔵モニタ131の横方向の幅より広い幅となる。鏡面部66には、編集空間A2-1にいる利用者の顔付近を含めて、編集空間A2-1の内部の様子が写り込むことになる。 In FIG. 10, the range of the mirror surface portion 66 that is a mirror surface is shown in color. The width of the mirror surface portion 66 in the lateral direction is wider than the width of the tablet built-in monitor 131 in the lateral direction. The interior of the editing space A2-1, including the vicinity of the user's face in the editing space A2-1, is reflected in the mirror surface portion 66.

図11は、カーテンの取り付け例を示す図である。 FIG. 11 is a diagram showing an example of installing a curtain.

図11に示すように、編集ユニット12の上方のカーテンレール26には、編集空間A2が外から見えないようにするためのカーテン取り付けられる。図11の例においては、レール26Cにカーテン111が取り付けられ、編集ユニット12の正面側のレール26Bにカーテン112が取り付けられている。編集ユニット12の背面側のレール26Aにも、カーテン112と同様のカーテンが取り付けられる。 As shown in FIG. 11, a curtain is attached to the curtain rail 26 above the editing unit 12 to prevent the editing space A2 from being seen from the outside. In the example of FIG. 11, a curtain 111 is attached to the rail 26C, and a curtain 112 is attached to the rail 26B on the front side of the editing unit 12. A curtain similar to the curtain 112 is also attached to the rail 26A on the rear side of the editing unit 12.

ビニル素材のカーテン111、カーテン112の表面には、写真シール作成装置1が目立つように所定のデザインが施される。また、カーテン111とカーテン112のうち、少なくともカーテン112には、表面だけでなく裏面(編集空間A2-1側の面)にも、所定のデザインが施される。 A predetermined design is applied to the surfaces of the curtains 111 and 112 made of vinyl material so that the photo sticker making device 1 stands out. Further, of the curtain 111 and the curtain 112, at least the curtain 112 has a predetermined design not only on the front surface but also on the back surface (the surface facing the editing space A2-1).

図12は、カーテン112の裏面のデザイン例を示す図である。 FIG. 12 is a diagram showing an example of the design of the back surface of the curtain 112.

図12に示すように、カーテン112の裏面には、キャラクタや文字がプリントされることによってデザインが施される。 As shown in FIG. 12, the back side of the curtain 112 is designed by printing characters and letters.

図12の例においては、キャラクタである鳥のイラストと花のイラストからなるデザインが施されている。カーテン112の上方には、花に囲まれた「Happy!」の文字が、左右反転した状態でプリントされている。他のイラストがプリントされたり、風景や人物の写真がプリントされるといったように、カーテン112の裏面のデザインは任意である。 In the example of FIG. 12, a design is provided that includes an illustration of a bird as a character and an illustration of a flower. Above the curtain 112, the words "Happy!" surrounded by flowers are printed with the left and right sides reversed. The design on the back side of the curtain 112 can be arbitrary, such as printing other illustrations or photos of landscapes or people.

編集空間A2-1にいる利用者は、図12に示すようなデザインが施されたカーテン112に自分の背中を向けて立つことになる。利用者の前方にある鏡面部66には、利用者の背景として、カーテン112のデザインも写り込む。 A user in the editing space A2-1 stands with his or her back facing a curtain 112 designed as shown in FIG. 12. The design of the curtain 112 is also reflected in the mirror surface section 66 in front of the user as the user's background.

図13は、鏡面部66の利用例を示す図である。 FIG. 13 is a diagram showing an example of how the mirror surface section 66 is used.

図13に示すように、編集空間A2-1にいる利用者は、自分のスマートフォンのカメラを鏡面部66に向けて、鏡面部66に写っている自分の様子を撮影することができる。
図13の例においては利用者が1人だけ示されているが、2人でゲームを行っている場合、2人で撮影を行うことができる。
As shown in FIG. 13, the user in the editing space A2-1 can point the camera of his/her smartphone toward the mirror section 66 and take a picture of himself/herself reflected in the mirror section 66.
In the example of FIG. 13, only one user is shown, but if two people are playing the game, two people can take pictures.

すなわち、鏡面部66は、編集空間A2-1にいる利用者が、いわゆる自撮り(自分撮り)を鏡越しで行うために用意されるものである。 That is, the mirror section 66 is provided for the user in the editing space A2-1 to take a so-called self-portrait (self-portrait) through the mirror.

カーテン112の裏面には上述したようなデザインが施されているから、利用者は、カーテン112に施されたデザインを自分の背景にして自撮りを行うことができる。また、左右反転の状態でプリントされているカーテン112の文字は、図13に示すように、正転した状態で鏡面部66に写り込む。自撮りによって得られた画像には、カーテン112にプリントされた文字が、正転した状態で写ることになる。 Since the back side of the curtain 112 has the above-described design, the user can take a selfie with the design on the curtain 112 as the background. Furthermore, the characters printed on the curtain 112 in a horizontally reversed state are reflected on the mirror surface portion 66 in a normal rotated state, as shown in FIG. In the image obtained by taking a self-portrait, the characters printed on the curtain 112 will appear rotated in the normal direction.

利用者は、編集空間A2-1での自撮りによって撮影した画像を、自分が利用しているSNS(Social Networking Service)のサイトにアップロードし、友達などに見せることができる。 Users can upload images taken by taking selfies in editing space A2-1 to the SNS (Social Networking Service) site they are using and show them to their friends.

このように、写真シール作成装置1は、撮影空間A1において撮影を行うだけでなく、編集空間A2においても撮影を行うことが可能な装置である。後述するように、編集の開始時、自撮りを行うことが利用者に対して案内される。撮影を終えて編集空間A2に移動した利用者に対しては、編集の前に、自撮りを行う時間が確保される。 In this way, the photo sticker creation device 1 is a device that can not only take photos in the shooting space A1, but also take photos in the editing space A2. As will be described later, at the start of editing, the user is prompted to take a selfie. For the user who has finished shooting and moved to the editing space A2, time is secured for the user to take a selfie before editing.

なお、編集空間A2-1側に取り付けられるカーテン112の裏面のデザインと、編集空間A2-2側に取り付けられるカーテン112の裏面のデザインが異なるデザインであってもよい。利用者は、いずれのデザインのカーテン112が設置された方の編集空間A2に案内されるのかを楽しむことができる。 Note that the design of the back side of the curtain 112 attached to the editing space A2-1 side may be different from the design of the back side of the curtain 112 attached to the editing space A2-2 side. The user can enjoy seeing which design of the curtain 112 is installed in the editing space A2.

カーテン112の裏面のデザインとして、商品やサービスの広告などがプリントされるようにしてもよい。 As the design on the back side of the curtain 112, an advertisement for a product or service may be printed.

図14は、編集ユニット12の側面の構成例を示す図である。 FIG. 14 is a diagram showing an example of a side configuration of the editing unit 12.

編集ユニット12の側面の下側にはシール紙排出口161が設けられる。編集ユニット12の内部にはプリンタが設けられている。プリンタにより、編集空間A2-1において編集作業を行った利用者が写る画像、または、編集空間A2-2において編集作業を行った利用者が写る画像が所定のレイアウトでシール紙に印刷され、シール紙排出口161から排出される。 A sticker paper outlet 161 is provided on the lower side of the editing unit 12. A printer is provided inside the editing unit 12. The printer prints an image of the user who performed editing work in editing space A2-1 or an image of the user who performed editing work in editing space A2-2 on sticker paper in a predetermined layout, and creates a sticker. The paper is discharged from the paper discharge port 161.

<編集画像のレイヤ構造>
図15は、編集画像のレイヤ構造の例を示す図である。
<Layer structure of edited image>
FIG. 15 is a diagram showing an example of the layer structure of an edited image.

左端の編集画像P1が編集によって生成される画像である。編集画像P1は、基本的に、背景画像P11、人物画像P12、前景画像P13の各レイヤの画像から構成される。
各種の画像処理の対象となるレイヤも適宜設定される。
The leftmost edited image P1 is an image generated by editing. The edited image P1 is basically composed of images of each layer: a background image P11, a person image P12, and a foreground image P13.
Layers to be subjected to various types of image processing are also set as appropriate.

図15の例において、背景画像P11は、単色の画像である。前景画像P13は、「Love my friend」の手書き文字の画像とハート型の画像を含む画像である。「Love my friend」の手書き文字の画像は、ペンツールを用いて利用者によって入力されたペン画像である。また、ハート型の画像は、スタンプツールを用いて利用者によって入力されたスタンプ画像である。 In the example of FIG. 15, the background image P11 is a monochrome image. The foreground image P13 is an image that includes an image of the handwritten words "Love my friend" and a heart-shaped image. The handwritten image of "Love my friend" is a pen image input by the user using a pen tool. Further, the heart-shaped image is a stamp image input by the user using the stamp tool.

このように、編集画像P1は、撮影画像からクロマキー処理によって抽出した人物の領域の画像である人物画像P12を背景画像P11に重ね、その上に前景画像P13を重ねることによって生成される。ペン画像やスタンプ画像を背景画像P11上に入力し、被写体の背景に表示させるようにすることも可能とされる。撮影画像に対しては、前景画像や背景画像が合成されることもあるし、編集処理を経たとしても利用者の操作によっては合成されないこともある。 In this way, the edited image P1 is generated by overlaying the person image P12, which is an image of a person's area extracted from the captured image by chromakey processing, on the background image P11, and then overlaying the foreground image P13 on top of the background image P11. It is also possible to input a pen image or a stamp image onto the background image P11 and display it in the background of the subject. A foreground image and a background image may be combined with a photographed image, or may not be combined depending on the user's operation even after editing.

図15の例においては、人物画像P12として、利用者の略胸付近から上の範囲が大きく写る画像が示されている。撮影処理においては、このように顔が大きく写る撮影画像であるアップ画像が撮影される。アップ画像の撮影は例えば複数回行われる。利用者の全身が写る全身画像の撮影が行われるようにしてもよい。 In the example of FIG. 15, an image showing a large area from approximately the vicinity of the user's chest to above is shown as the person image P12. In the photographing process, a close-up image that shows a large face is photographed. For example, the close-up image is photographed multiple times. A full-body image showing the user's whole body may be taken.

<写真シール作成装置の内部構成>
図16は、写真シール作成装置1の構成例を示すブロック図である。図16において、上述した構成と同じ構成には同じ符号を付してある。重複する説明については適宜省略する。
<Internal configuration of photo sticker making device>
FIG. 16 is a block diagram showing an example of the configuration of the photo sticker creating device 1. As shown in FIG. In FIG. 16, the same components as those described above are given the same reference numerals. Duplicate explanations will be omitted as appropriate.

図16に示すように、写真シール作成装置1は、PC(Personal Computer)部301に対して、事前選択部302、撮影部304、編集部305A,305B、および印刷部306が外部入出力インタフェース303を介して接続されることによって構成される。情報処理部であるPC部301は、例えば編集ユニット12の筐体内部に搭載される。 As shown in FIG. 16, in the photo sticker creation device 1, a pre-selection section 302, a photographing section 304, editing sections 305A, 305B, and a printing section 306 are connected to an external input/output interface 303 for a PC (Personal Computer) section 301. configured by being connected via. The PC section 301, which is an information processing section, is mounted inside the housing of the editing unit 12, for example.

PC部301を構成するCPU(Central Processing Unit)311、ROM(Read Only Memory)312、RAM(Random Access Memory)313は、バス314により相互に接続される。 A CPU (Central Processing Unit) 311, a ROM (Read Only Memory) 312, and a RAM (Random Access Memory) 313 that constitute the PC section 301 are interconnected by a bus 314.

CPU311は、所定のプログラムを実行し、写真シール作成装置1の全体の動作を制御する。ROM312は、CPU311が実行するプログラムやデータを記憶する。RAM312は、CPU311が処理するデータやプログラムを一時的に記憶する。 The CPU 311 executes a predetermined program and controls the overall operation of the photo sticker creation device 1. The ROM 312 stores programs and data executed by the CPU 311. The RAM 312 temporarily stores data and programs processed by the CPU 311.

バス314には、さらに、入出力インタフェース315が接続される。入出力インタフェース315には、記憶部316、通信部317、およびドライブ318が接続される。 An input/output interface 315 is further connected to the bus 314 . A storage section 316 , a communication section 317 , and a drive 318 are connected to the input/output interface 315 .

記憶部316は、ハードディスクやフラッシュメモリなどの不揮発性の記憶媒体である。記憶部316は、CPU311から供給された各種の設定情報などを記憶する。記憶部316に記憶されている情報はCPU311により適宜読み出される。 The storage unit 316 is a nonvolatile storage medium such as a hard disk or flash memory. The storage unit 316 stores various setting information and the like supplied from the CPU 311. Information stored in the storage unit 316 is read out by the CPU 311 as appropriate.

通信部317は、インターネットなどのネットワークのインタフェースである。通信部317は、CPU311による制御に従って外部の装置と通信を行う。通信部317は、利用者により選択された画像を、例えば写真シール作成装置1のメーカーが管理する画像管理サーバに送信する。通信部317から送信された画像は、所定の記憶領域が割り当てられて保存され、画像管理サーバにアクセスしてきた携帯端末上で表示されたり、携帯端末にダウンロードされたりする。 The communication unit 317 is an interface for a network such as the Internet. The communication unit 317 communicates with an external device under the control of the CPU 311. The communication unit 317 transmits the image selected by the user to an image management server managed by the manufacturer of the photo sticker creation device 1, for example. The image transmitted from the communication unit 317 is allocated a predetermined storage area and stored, and is displayed on the mobile terminal that has accessed the image management server or downloaded to the mobile terminal.

ドライブ318には、光ディスクや半導体メモリなどよりなるリムーバブルメディア319が適宜装着される。ドライブ318によりリムーバブルメディア319から読み出されたプログラムやデータは、CPU311に供給され、記憶部316に記憶されたり、インストールされたりする。 A removable medium 319 such as an optical disk or a semiconductor memory is appropriately installed in the drive 318 . Programs and data read from the removable medium 319 by the drive 318 are supplied to the CPU 311 and stored or installed in the storage unit 316.

入出力インタフェース315には外部入出力インタフェース303が接続される。PC部301による各部の制御が、外部入出力インタフェース303を介して行われる。 The external input/output interface 303 is connected to the input/output interface 315 . Control of each section by the PC section 301 is performed via an external input/output interface 303.

事前選択部302は、事前選択空間A0にいる利用者を対象とした事前選択処理を行う。事前選択部302は、タッチパネルモニタ71、スピーカ72、および硬貨処理部321から構成される。 The pre-selection unit 302 performs pre-selection processing targeting users in the pre-selection space A0. The pre-selection section 302 includes a touch panel monitor 71, a speaker 72, and a coin processing section 321.

タッチパネルモニタ71は、PC部301による制御に従って各種の選択画面を表示し、選択画面に対する利用者の操作を受け付ける。利用者の操作の内容を表す入力信号はPC部301に供給され、各種の設定が行われる。 The touch panel monitor 71 displays various selection screens under the control of the PC unit 301 and receives user operations on the selection screens. An input signal representing the content of the user's operation is supplied to the PC section 301, and various settings are performed.

硬貨処理部321は、硬貨投入返却口73への硬貨の投入を検出する。硬貨処理部321は、所定の金額分の硬貨が投入されたことを検出した場合、ゲームの開始を指示する起動信号をPC部301に出力する。 The coin processing unit 321 detects the insertion of a coin into the coin insertion/return slot 73 . When the coin processing unit 321 detects that a predetermined amount of coins have been inserted, it outputs an activation signal to the PC unit 301 instructing the start of the game.

撮影部304は、撮影空間A1にいる利用者を対象とした撮影処理を行う。撮影部304は、操作部53、カメラ91、カメラ駆動部91A、タッチパネルモニタ92、照明装置331、およびスピーカ332から構成される。 The photographing unit 304 performs photographing processing for the users in the photographing space A1. The photographing section 304 includes an operation section 53, a camera 91, a camera drive section 91A, a touch panel monitor 92, a lighting device 331, and a speaker 332.

操作部53は、角度調整ボタン53A、撮影停止ボタン53Bに対する利用者の操作に応じて、利用者の操作を表す信号をPC部301に出力する。 The operation unit 53 outputs a signal representing the user's operation to the PC unit 301 in response to the user's operation on the angle adjustment button 53A and the shooting stop button 53B.

カメラ91は、PC部301によるシャッタ制御に従って撮影を行い、撮影によって得られた撮影画像(画像データ)をPC部301に出力する。 The camera 91 performs photography according to the shutter control by the PC unit 301 and outputs the photographed image (image data) obtained by photography to the PC unit 301.

カメラ駆動部91Aは、PC部301による制御に従って、カメラ91の上下方向の角度を調整する。 The camera drive unit 91A adjusts the vertical angle of the camera 91 under the control of the PC unit 301.

照明装置331は、撮影空間A1内の各ストロボユニットであり、PC部301から供給される照明制御信号に従って発光する。照明装置331には、上ストロボユニット82と足元ストロボユニット83が含まれる。 The lighting device 331 is each strobe unit in the photographing space A1, and emits light in accordance with a lighting control signal supplied from the PC section 301. The lighting device 331 includes an upper strobe unit 82 and a foot strobe unit 83.

スピーカ332は、撮影空間A1の各位置に設けられたスピーカにより構成される。 The speakers 332 are configured by speakers provided at each position in the imaging space A1.

編集部305Aは、編集空間A2-1にいる利用者を対象とした編集処理を行う。編集部305Aは、タブレット内蔵モニタ131、タッチペン132A,132B、およびスピーカ341から構成される。編集部305Bは、編集空間A2-2にいる利用者を対象とした編集処理を行い、編集部305Aと同一の構成を有する。以下、適宜、編集部305A,305Bをまとめて編集部305という。 The editing unit 305A performs editing processing for users in the editing space A2-1. The editing section 305A includes a tablet built-in monitor 131, touch pens 132A and 132B, and a speaker 341. The editing section 305B performs editing processing for users in the editing space A2-2, and has the same configuration as the editing section 305A. Hereinafter, the editing departments 305A and 305B will be collectively referred to as the editing department 305 as appropriate.

タブレット内蔵モニタ131は、PC部301による制御に従って編集画面を表示し、編集画面に対する利用者の操作を受け付ける。利用者の操作の内容を表す入力信号はPC部301に供給され、編集対象となる撮影画像が編集される。 The tablet built-in monitor 131 displays an editing screen under the control of the PC unit 301 and receives user operations on the editing screen. An input signal representing the content of the user's operation is supplied to the PC section 301, and the photographed image to be edited is edited.

印刷部306は、プリンタ351を含むように構成される。プリンタ351にはシール紙ユニット352が装着される。 The printing unit 306 is configured to include a printer 351. A sticker paper unit 352 is attached to the printer 351.

プリンタ351は、内蔵するヘッド361を駆動し、PC部301から供給された印刷データに基づいて、シール紙ユニット352に収納されているロール状のシール紙363に画像を印刷する。また、プリンタ351は、画像を印刷したシール紙363をカッター362によって所定のカット位置でカットして、シール紙排出口161に排出する。 The printer 351 drives a built-in head 361 and prints an image on a roll of sticker paper 363 stored in the sticker paper unit 352 based on print data supplied from the PC section 301 . Further, the printer 351 cuts the sticker paper 363 with the image printed thereon at a predetermined cutting position using the cutter 362, and discharges the sticker paper 363 to the sticker paper discharge port 161.

<写真シール作成装置の機能構成例>
図17は、写真シール作成装置1の機能構成例を示すブロック図である。図17に示す機能部のうちの少なくとも一部は、CPU311により所定のプログラムが実行されることによって実現される。
<Example of functional configuration of photo sticker creation device>
FIG. 17 is a block diagram showing an example of the functional configuration of the photo sticker creating device 1. As shown in FIG. At least some of the functional units shown in FIG. 17 are realized by the CPU 311 executing a predetermined program.

写真シール作成装置1においては、事前選択処理部401、撮影処理部402、編集処理部403、および印刷処理部404が実現される。 In the photo sticker creation device 1, a pre-selection processing section 401, a photographing processing section 402, an editing processing section 403, and a printing processing section 404 are implemented.

事前選択処理部401は、事前選択部302の各部を制御することで、事前選択処理を実行する。事前選択処理により、利用者の人数の選択などが行われる。利用者による選択内容を表す情報は撮影処理部402に供給される。 The preselection processing unit 401 executes a preselection process by controlling each part of the preselection unit 302. The pre-selection process selects the number of users, etc. Information representing the selection made by the user is supplied to the photographing processing unit 402.

撮影処理部402は、撮影部304の各部を制御することで撮影処理を行う。撮影処理部402は、撮影処理を行うことによって得られた撮影画像のデータを編集処理部403に出力する。撮影処理部402から編集処理部403に対しては、撮影を複数回行うことによって得られた複数枚の撮影画像のデータが供給される。 The photographing processing unit 402 performs photographing processing by controlling each part of the photographing unit 304. The photographing processing unit 402 outputs data of a photographed image obtained by performing photographing processing to the editing processing unit 403. Data of a plurality of photographed images obtained by performing photographing a plurality of times is supplied from the photographing processing section 402 to the editing processing section 403.

編集処理部403は、編集部305の各部を制御することで編集処理を行う。編集処理には、撮影画像に写る利用者の目の大きさを調整するための画像処理、撮影画像に対して編集を施すための画像処理などが含まれる。 The editing processing section 403 performs editing processing by controlling each section of the editing section 305. The editing process includes image processing for adjusting the size of the user's eyes in the photographed image, image processing for editing the photographed image, and the like.

撮影画像の編集後、編集処理部403は、分割数の選択に用いられる画面、画像管理サーバに送信する画像の選択に用いられる画面などの各種の画面をタブレット内蔵モニタ131に表示する。編集処理部403は、利用者により選択された分割数に従って各編集画像を配置することによって印刷データを生成し、印刷処理部404に出力する。また、編集処理部403は、利用者により選択された編集画像を画像管理サーバに送信する。 After editing the photographed image, the editing processing unit 403 displays various screens on the tablet built-in monitor 131, such as a screen used for selecting the number of divisions and a screen used for selecting the image to be sent to the image management server. Edit processing unit 403 generates print data by arranging each edited image according to the number of divisions selected by the user, and outputs it to print processing unit 404 . Further, the editing processing unit 403 transmits the edited image selected by the user to the image management server.

印刷処理部404は、プリンタ351に印刷データを出力し、編集画像の印刷を行う。 The print processing unit 404 outputs print data to the printer 351 and prints the edited image.

<撮影処理部の詳細構成>
図18は、撮影処理部402の構成例を示すブロック図である。
<Detailed configuration of shooting processing section>
FIG. 18 is a block diagram showing a configuration example of the imaging processing section 402.

撮影処理部402は、撮影制御部411、画像処理部412、表示制御部413、および画像記憶部414から構成される。 The photographing processing section 402 includes a photographing control section 411, an image processing section 412, a display control section 413, and an image storage section 414.

撮影制御部411は、カメラ91を制御することによって動画像の撮影を行い、撮影を行うことによって得られた画像を画像処理部412に出力する。撮影制御部411から出力された動画像はライブビュー画像の生成に用いられる。 The photographing control unit 411 photographs a moving image by controlling the camera 91, and outputs the image obtained by photographing to the image processing unit 412. The moving image output from the shooting control unit 411 is used to generate a live view image.

また、撮影制御部411は、カウントダウンに合わせて静止画像の撮影を行い、撮影を行うことによって得られた静止画像を画像処理部412に出力する。撮影制御部411から出力された静止画像は撮影画像の生成に用いられる。 Further, the photographing control unit 411 photographs a still image in accordance with the countdown, and outputs the still image obtained by photographing to the image processing unit 412. The still image output from the photographing control unit 411 is used to generate a photographed image.

画像処理部412は、撮影制御部411から供給された動画像の各フレームから矩形領域をトリミングにより切り出し、切り出した画像からなる動画像を生成する。画像処理部412により生成された動画像は、ライブビュー画面に表示するライブビュー画像として用いられる。 The image processing unit 412 cuts out a rectangular area by trimming from each frame of the moving image supplied from the shooting control unit 411, and generates a moving image made of the cut out images. The moving image generated by the image processing unit 412 is used as a live view image displayed on the live view screen.

また、画像処理部412は、撮影制御部411から供給された静止画像から矩形領域をトリミングにより切り出すことによって、所定の画角の撮影画像を生成する。画像処理部412により生成された撮影画像は、画像記憶部414に供給され、記憶される。 The image processing unit 412 also generates a captured image with a predetermined angle of view by trimming a rectangular area from the still image supplied from the imaging control unit 411. The photographed image generated by the image processing section 412 is supplied to the image storage section 414 and stored therein.

表示制御部413は、ライブビュー画面などの、タッチパネルモニタ92の各種の画面の表示を制御する。 The display control unit 413 controls the display of various screens on the touch panel monitor 92, such as a live view screen.

画像記憶部414は、画像処理部412により生成された撮影画像を記憶する。撮影処理が終了した場合、画像記憶部414に記憶された撮影画像は編集処理部403に供給される。 The image storage unit 414 stores the photographed image generated by the image processing unit 412. When the photographing process is completed, the photographed image stored in the image storage section 414 is supplied to the editing processing section 403.

<編集処理部の詳細構成>
図19は、図17の編集処理部403の構成例を示すブロック図である。
<Detailed configuration of editing processing section>
FIG. 19 is a block diagram showing a configuration example of the editing processing unit 403 of FIG. 17.

編集処理部403は、選択受付部431、編集用画像生成部432、編集制御部433、表示制御部434、印刷データ生成部435、および通信制御部436から構成される。編集制御部433には黒目処理部433Aと輪郭調整部433Bが含まれる。 The editing processing section 403 includes a selection reception section 431, an editing image generation section 432, an editing control section 433, a display control section 434, a print data generation section 435, and a communication control section 436. The editing control section 433 includes a pupil processing section 433A and a contour adjustment section 433B.

選択受付部431は、タブレット内蔵モニタ131に表示された画面に対する利用者の操作を受け付ける。選択受付部431により受け付けられた利用者の操作の内容を表す情報は、編集制御部433と表示制御部434に供給される。 The selection accepting unit 431 accepts a user's operation on the screen displayed on the tablet built-in monitor 131. Information representing the content of the user's operation accepted by the selection reception unit 431 is supplied to the editing control unit 433 and the display control unit 434.

編集用画像生成部432は、撮影処理部402から供給された撮影画像に基づいて、編集用の撮影画像を生成する。例えば、画像処理部412(図18)によるトリミング後のそれぞれの画像を原画として、レタッチ処理などの各種の処理を原画に対して施して得られた画像が、編集用の撮影画像となる。編集用画像生成部432により生成された編集用の撮影画像は、編集制御部433と表示制御部434に供給される。 The editing image generation unit 432 generates a shot image for editing based on the shot image supplied from the shooting processing unit 402. For example, each image after trimming by the image processing unit 412 (FIG. 18) is used as an original image, and an image obtained by performing various processes such as retouching on the original image becomes a photographed image for editing. The shot image for editing generated by the editing image generation section 432 is supplied to the editing control section 433 and the display control section 434.

編集制御部433は、選択受付部431から出力された情報に基づいて、編集用画像生成部432から供給された編集用の撮影画像の編集を行う。編集は、手書きの文字やスタンプ画像などの合成用画像を、編集対象となっている撮影画像に合成する画像処理である。 The editing control section 433 edits the shot image for editing supplied from the editing image generation section 432 based on the information output from the selection receiving section 431. Editing is image processing that combines images for composition, such as handwritten characters or stamp images, with a photographed image to be edited.

編集用画像生成部432により行われるレタッチ処理が、利用者による選択内容に応じた画像処理を複数の撮影画像のそれぞれに一括して施す処理であるのに対して、編集は、利用者による選択内容に応じた画像処理を、そのとき編集対象となっている1枚の撮影画像に施す処理である。レタッチ処理時、目の大きさなどを撮影画像毎に選択することができるようにしてもよい。 While the retouching process performed by the editing image generation unit 432 is a process of performing image processing on each of a plurality of captured images at once in accordance with the user's selection, editing is based on the user's selection. This is a process in which image processing is applied to a single photographed image that is currently being edited, depending on the content. During retouch processing, it may be possible to select the eye size and the like for each photographed image.

編集制御部433は、編集結果を表す情報を表示制御部434に出力し、編集画面の表示に反映させる。 The editing control unit 433 outputs information representing the editing result to the display control unit 434, and causes the information to be reflected on the display of the editing screen.

編集制御部433は、編集が終了した場合、編集を施して得られた撮影画像である編集画像を印刷データ生成部435と通信制御部436に出力する。 When the editing is completed, the editing control unit 433 outputs an edited image, which is a photographed image obtained by performing the editing, to the print data generation unit 435 and the communication control unit 436.

編集制御部433の黒目処理部433Aは、編集画面に対する利用者の操作に応じて、撮影画像に写るそれぞれの利用者の黒目の色を変更する処理である黒目処理を行う。 The iris processing unit 433A of the editing control unit 433 performs iris processing, which is a process of changing the color of the iris of each user's eye in the photographed image, in response to the user's operation on the editing screen.

編集制御部433の輪郭調整部433Bは、編集画面に対する利用者の操作に応じて画像処理を行い、編集用の撮影画像に写る利用者の特定の部位を強調させる。例えば、目全体、または、黒目部分などの目の一部を強調させるための画像処理が輪郭調整部433Bにより行われる。 The contour adjustment unit 433B of the editing control unit 433 performs image processing according to the user's operation on the editing screen, and emphasizes a specific part of the user that appears in the photographed image for editing. For example, the contour adjustment unit 433B performs image processing to emphasize the entire eye or a part of the eye such as the iris.

表示制御部434は、利用者による操作に用いられる操作画面をタブレット内蔵モニタ131に表示し、利用者の操作に応じて操作画面の表示を制御する。表示制御部434には、編集用画像生成部432から出力された撮影画像、編集制御部433から出力された編集画像などが供給される。表示制御部434に供給された各種の画像は操作画面の表示に用いられる。 The display control unit 434 displays an operation screen used for operations by the user on the tablet built-in monitor 131, and controls the display of the operation screen according to the user's operation. The display control unit 434 is supplied with the captured image output from the editing image generation unit 432, the edited image output from the editing control unit 433, and the like. Various images supplied to the display control unit 434 are used to display the operation screen.

印刷データ生成部435は、編集制御部433から供給された編集画像を所定のレイアウトで配置することによって印刷データを生成する。印刷データ生成部435は、印刷データを印刷処理部404に出力し、シール紙363に印刷させる。 The print data generation unit 435 generates print data by arranging the edited images supplied from the editing control unit 433 in a predetermined layout. The print data generation unit 435 outputs the print data to the print processing unit 404 and causes the print data to be printed on the sticker paper 363.

通信制御部436は、通信部317を制御し、編集制御部433から供給された編集画像を画像管理サーバに送信する。 The communication control unit 436 controls the communication unit 317 and transmits the edited image supplied from the editing control unit 433 to the image management server.

図20は、編集用画像生成部432の構成例を示すブロック図である。 FIG. 20 is a block diagram showing a configuration example of the editing image generation section 432.

編集用画像生成部432は、領域検出部451、レタッチ処理部452、性別判定部453、まつげ処理部454、および縮小部455により構成される。 The editing image generation section 432 includes an area detection section 451, a retouch processing section 452, a gender determination section 453, an eyelash processing section 454, and a reduction section 455.

撮影処理部402から供給された撮影画像は、領域検出部451、レタッチ処理部452、および性別判定部453に入力される。編集用画像生成部432の各部による処理は、それぞれの撮影画像を対象として行われる。 The photographed image supplied from the photographing processing section 402 is input to the region detecting section 451, the retouching processing section 452, and the gender determining section 453. Processing by each section of the editing image generation section 432 is performed on each captured image.

領域検出部451は、撮影画像に写る人物である利用者の領域を検出するとともに、利用者の各部位の領域を検出する。例えば、利用者の顔の領域、顔を構成する部位としての目、まぶた、鼻、唇、頬の領域、髪の毛の領域などが領域検出部451により検出される。 The area detection unit 451 detects the area of the user, who is a person in the photographed image, and also detects the area of each body part of the user. For example, the area detection unit 451 detects the user's face area, the eyes, eyelids, nose, lips, cheek areas, hair area, etc. as parts of the user's face.

図21は、領域の検出の例を示す図である。 FIG. 21 is a diagram illustrating an example of region detection.

2人の女性が写る撮影画像P101が供給された場合、それぞれの利用者を対象として、顔や、顔の各部位の領域の検出が行われる。例えば左側に写る利用者からは、左右のそれぞれの目の領域を含む各領域が検出される。 When a captured image P101 of two women is supplied, the faces and regions of each part of the face are detected for each user. For example, for a user on the left side, each area including the left and right eye areas is detected.

左側に写る利用者の右目の領域に注目した場合、図21の左側に拡大して示すように、黒目領域A11と、黒目領域A11の左右の白目領域A12,A13がそれぞれ検出される。 When focusing on the right eye area of the user shown on the left side, as shown in an enlarged view on the left side of FIG. 21, the iris area A11 and the white eye areas A12 and A13 on the left and right sides of the iris area A11 are detected, respectively.

白目領域A12は、鼻に近い方の白目の領域であり、白目領域A13は、耳に近い方の白目の領域である。位置p1は目頭の位置を表し、位置p2は目尻の位置を表す。黒目領域A11には、上ストロボユニット82と足元ストロボユニット83の発光により、それぞれの形状や大きさに応じたキャッチライトが写り込む。 The white of the eye area A12 is the area of the white of the eye closer to the nose, and the white of the eye area A13 is the area of the white of the eye closer to the ear. Position p1 represents the position of the inner corner of the eye, and position p2 represents the position of the outer corner of the eye. Catchlights corresponding to the shapes and sizes of the upper strobe unit 82 and the foot strobe unit 83 are reflected in the iris area A11 due to the light emission of the upper strobe unit 82 and the foot strobe unit 83.

黒目領域と白目領域の検出は、例えば、ニューラルネットワークなどにより構成される予測モデルに基づいて行われる。領域検出部451に対しては、機械学習によってあらかじめ生成された、目の各領域を検出するための予測モデルが用意されている。 Detection of the iris area and the white area of the eye is performed based on a prediction model configured by, for example, a neural network. For the region detection unit 451, a predictive model for detecting each region of the eye is prepared in advance by machine learning.

領域検出部451に用意される予測モデルは、例えば、撮影画像を入力とし、目の各領域のマスク画像、目の周りの肌の領域のマスク画像を出力とするモデルである。予測モデルから出力されたマスク画像により、黒目領域と白目領域の各領域の位置、大きさ、形状などが表される。 The prediction model prepared in the area detection unit 451 is, for example, a model that inputs a photographed image and outputs a mask image of each area of the eye and a mask image of the skin area around the eyes. The mask image output from the prediction model represents the position, size, shape, etc. of each area of the iris and white of the eye.

黒目領域と白目領域の検出が、予測モデルを用いるのではなく、画像を解析することによって抽出された各領域の特徴量に基づくマッチングにより行われるようにしてもよい。
この場合、黒目領域と白目領域の各領域の特徴量を表すデータが領域検出部451には用意される。
The detection of the iris region and the white eye region may be performed by matching based on the feature amount of each region extracted by analyzing the image, instead of using a prediction model.
In this case, the area detecting unit 451 is provided with data representing the feature amount of each area of the iris and the white of the eye.

目の各領域だけでなく、顔全体や、顔の他の各部の領域についても、機械学習によって生成された予測モデルを用いて検出されるようにしてもよい。また、特徴量に基づくマッチングにより検出されるようにしてもよい。 Not only each eye region, but also the entire face and other regions of the face may be detected using a predictive model generated by machine learning. Alternatively, detection may be performed by matching based on feature amounts.

図20の領域検出部451は、以上のようにして検出した各領域の情報をレタッチ処理部452とまつげ処理部454に出力する。領域検出部451から出力される情報により、撮影画像に写るそれぞれの利用者の左右の目の黒目領域と白目領域の位置、大きさ、形状などが表される。領域検出部451による検出結果を表す情報は、後段の編集制御部433にも供給される。 The area detection unit 451 in FIG. 20 outputs information about each area detected as described above to the retouch processing unit 452 and the eyelash processing unit 454. The information output from the area detection unit 451 represents the position, size, shape, etc. of the iris area and the white area of the left and right eyes of each user in the captured image. Information representing the detection result by the area detection section 451 is also supplied to the subsequent editing control section 433.

レタッチ処理部452は、撮影画像に対してレタッチ処理を施す。レタッチ処理は、顔の輪郭の調整、目の大きさの調整などの、撮影画像に写る利用者の特定の部位に対する画像処理である。画像処理の対象となる各領域が、領域検出部451から供給される情報により特定される。レタッチ処理が施された撮影画像は、まつげ処理部454に供給される。 The retouch processing unit 452 performs retouch processing on the photographed image. Retouch processing is image processing for a specific part of the user in a photographed image, such as adjusting the outline of the face or adjusting the size of the eyes. Each region to be subjected to image processing is specified by information supplied from the region detection section 451. The photographed image subjected to the retouching process is supplied to the eyelash processing section 454.

肌の明るさの調整などの他の処理がレタッチ処理として行われるようにしてもよい。特定の部位に対する処理ではなく、画像全体を対象としたフィルタ処理などの他の画像処理が行われるようにしてもよい。 Other processing such as adjustment of skin brightness may be performed as retouch processing. Other image processing such as filter processing may be performed on the entire image instead of processing on a specific region.

性別判定部453は、撮影画像に写るそれぞれの利用者の性別を判定し、判定結果を表す情報をまつげ処理部454に出力する。性別判定部453による判定についても、機械学習によって生成された予測モデルに基づいて行われるようにしてもよいし、画像を解析することによって抽出された各領域の特徴量に基づくマッチングにより行われるようにしてもよい。 Gender determination section 453 determines the gender of each user appearing in the photographed image, and outputs information representing the determination result to eyelash processing section 454 . The determination by the gender determining unit 453 may also be performed based on a prediction model generated by machine learning, or may be performed by matching based on the feature amount of each region extracted by analyzing the image. You may also do so.

まつげ処理部454は、レタッチ処理部452から供給された撮影画像に写るそれぞれの利用者のまつげ(睫毛)を強調する画像処理であるまつげ処理を行う。まつげ処理は、性別判定部453による判定結果に基づいて、例えば女性だけを対象として行われる。まつげ処理が施されることによってまつげが強調された撮影画像は、縮小部455に供給される。まつげ処理部454により行われるまつげ処理については後に詳述する。 The eyelash processing unit 454 performs eyelash processing, which is image processing that emphasizes the eyelashes of each user appearing in the captured image supplied from the retouch processing unit 452. Eyelash processing is performed, for example, only on women, based on the determination result by the gender determination unit 453. The photographed image, in which the eyelashes have been emphasized by the eyelash processing, is supplied to the reduction unit 455. The eyelash processing performed by the eyelash processing section 454 will be described in detail later.

縮小部455は、まつげ処理部454から供給された撮影画像を縮小することによって、編集用の撮影画像を生成する。撮影画像の縮小は、例えば画素を間引き、撮影画像を構成する画素数を減らすことによって行われる。縮小部455により生成された編集用の撮影画像は、編集制御部433などに供給される。 The reduction unit 455 generates a captured image for editing by reducing the captured image supplied from the eyelash processing unit 454. The reduction of the captured image is performed, for example, by thinning out pixels to reduce the number of pixels that make up the captured image. The shot image for editing generated by the reduction unit 455 is supplied to the editing control unit 433 and the like.

このように、編集用画像生成部432においては、レタッチ処理とまつげ処理は、縮小前の原画に対して施されることになる。データ量の多い撮影画像を対象として、精細な処理を施すことが可能となる。 In this way, in the editing image generation unit 432, the retouching process and the eyelash process are performed on the original image before reduction. It becomes possible to perform detailed processing on captured images with a large amount of data.

図22は、図20のまつげ処理部454の構成例を示すブロック図である。 FIG. 22 is a block diagram showing a configuration example of the eyelash processing section 454 in FIG. 20.

まつげ処理部454は、逆さまつげ除去部461、変形部462、合成部463、およびまつげ強調処理部464により構成される。 The eyelash processing section 454 includes an upside-down eyelash removal section 461, a transformation section 462, a composition section 463, and an eyelash enhancement processing section 464.

レタッチ処理部452から供給されたレタッチ処理後の撮影画像は逆さまつげ除去部461に入力される。また、領域検出部451により検出された各領域の情報は、まつげ処理部454の各部に入力される。性別判定部453による性別の判定結果を表す情報は、変形部462と合成部463に入力される。 The retouched captured image supplied from the retouch processing section 452 is input to the upside down eyelash removal section 461 . Further, information on each region detected by the region detection section 451 is input to each section of the eyelash processing section 454. Information representing the gender determination result by the gender determination unit 453 is input to the transformation unit 462 and the synthesis unit 463.

逆さまつげ除去部461は、撮影画像に写る利用者の目に逆さまつげがある場合、逆さまつげを画像処理によって除去する。逆さまつげは、上まつげのうち、下向きになって生えていて白目領域にかかっているまつげ、および、下まつげのうち、上向きになって生えていて白目領域にかかっているまつげである。白目領域の位置などについては、領域検出部451から供給された情報に基づいて特定される。 The upside-down eyelash removal unit 461 removes the upside-down eyelashes by image processing when there are upside-down eyelashes in the user's eyes appearing in the photographed image. Upside-down eyelashes are the upper eyelashes that grow downward and cover the white of the eye, and the lower eyelashes that grow upward and cover the white of the eye. The position of the white eye area and the like are specified based on information supplied from the area detection unit 451.

図23は、逆さまつげの除去の例を示す図である。 FIG. 23 is a diagram illustrating an example of removing upside-down eyelashes.

図23の左側に破線の円C1で囲んで示すように白目領域A13にまつげがかかって写っている場合、逆さまつげ除去部461は、まつげを構成する画素を、周りの白目領域A13の画素で置き換える(補間する)ことによって、図23の右側に示すように逆さまつげを除去する。 If the white eye area A13 is photographed with eyelashes as shown surrounded by a broken line circle C1 on the left side of FIG. (by interpolation), the upside-down eyelashes are removed as shown on the right side of FIG.

白目領域A13にまつげがかかって写っていることは、白目領域の標準の色として設定された白色以外の色の画素が白目領域A13内にある場合に、その画素を異常画素として検出することによって特定される。逆さまつげ除去部461には、白目領域の標準の色を表す情報があらかじめ設定されている。 The fact that eyelashes cover the white of the eye area A13 is caused by detecting a pixel of a color other than white, which is set as the standard color for the white of the eye area, as an abnormal pixel when the pixel is in the white of the eye area A13. be identified. Information representing the standard color of the white eye area is set in advance in the upside-down eyelash removal section 461.

逆さまつげ除去部461においては、標準の色以外の色の画素である異常画素を、周りにある白色の画素で補間することによって、逆さまつげの除去が行われる。 In the upside-down eyelash removal unit 461, upside-down eyelashes are removed by interpolating an abnormal pixel, which is a pixel of a color other than the standard color, with surrounding white pixels.

白色以外の色の画素を異常画素として検出し、白色の画素で補間する処理が逆さまつげ除去部461において行われるため、結果的に、充血して赤くなっている部分なども除去されることになる。 The process of detecting pixels of colors other than white as abnormal pixels and interpolating them with white pixels is performed in the upside down eyelash removal unit 461, so that as a result, areas that are red due to blood congestion are also removed. .

以上のようにして逆さまつげが除去された撮影画像が逆さまつげ除去部461から出力される。撮影画像に写る利用者の目に逆さまつげがない場合、逆さまつげ除去部461に入力された撮影画像はそのまま出力される。 The photographed image from which the upside-down eyelashes have been removed as described above is output from the upside-down eyelash removal section 461. If there are no upside-down eyelashes in the user's eyes in the photographed image, the photographed image input to the upside-down eyelash removal section 461 is output as is.

変形部462は、逆さまつげ除去部461から供給された撮影画像に写る利用者が女性である場合、その利用者の目の上側の輪郭の形状に合わせて、まつげ画像を変形させる。
変形部462には、まつげを表現したテクスチャ画像であるまつげ画像があらかじめ記憶されている。変形部462による変形後のまつげ画像が、撮影画像に写る利用者の目の部分に対する合成に用いられる。
When the user appearing in the captured image supplied from the upside-down eyelash removing unit 461 is a woman, the transforming unit 462 transforms the eyelash image to match the shape of the upper contour of the user's eyes.
The transformation unit 462 stores in advance an eyelash image that is a texture image expressing eyelashes. The eyelash image transformed by the transformation unit 462 is used for compositing the user's eye portion shown in the photographed image.

図24は、まつげ画像の変形の例を示す図である。 FIG. 24 is a diagram showing an example of deformation of an eyelash image.

変形部462は、図24の左上に示すような、デフォルトの形状のまつげ画像P111を有している。撮影画像に写る利用者の例えば右目ERの上側の輪郭の形状が、図24の左下に示す位置p1から位置p2までの曲線で表される場合、変形部462は、まつげ画像P111を位置p1-位置p2間の曲線の特定の区間の形状に合わせて変形させ、図24の右側に示す、変形後のまつげ画像P111’を生成する。位置p1-位置p2間の曲線は、領域検出部451から供給された情報に基づいて特定される。 The modification unit 462 has an eyelash image P111 in a default shape as shown in the upper left of FIG. 24. For example, if the shape of the upper contour of the user's right eye E R in the photographed image is represented by a curve from position p1 to position p2 shown in the lower left of FIG. - The eyelash image is transformed according to the shape of a specific section of the curve between position p2, and a transformed eyelash image P111' shown on the right side of FIG. 24 is generated. The curve between position p1 and position p2 is specified based on information supplied from area detection section 451.

変形部462は、以上のようにして変形したまつげ画像を合成部463に出力する。デフォルトのまつげ画像が複数用意されており、変形に用いられるまつげ画像が選択されるようにしてもよい。まつげ画像の選択が、利用者により行われるようにしてもよいし、まつげ処理部454において自動的に行われるようにしてもよい。 The transformation unit 462 outputs the eyelash image transformed as described above to the synthesis unit 463. A plurality of default eyelash images may be prepared, and the eyelash image used for transformation may be selected. The selection of eyelash images may be performed by the user or may be performed automatically by the eyelash processing unit 454.

図22の合成部463は、逆さまつげ除去部461から供給された撮影画像に写る女性の利用者の目の上側の輪郭に沿って、変形部462により変形されたまつげ画像を合成する。 The composition section 463 in FIG. 22 composes the eyelash image transformed by the transformation section 462 along the upper contour of the female user's eyes appearing in the captured image supplied from the upside-down eyelash removal section 461.

図25は、まつげ画像の合成の例を示す図である。 FIG. 25 is a diagram showing an example of combining eyelash images.

図25の左上に示すような変形後のまつげ画像P111’が供給された場合、合成部463は、図25の右側に示すように、まつげ画像P111’を右目ERの上側の輪郭に沿って合成する。右目ERの上側の輪郭の位置は、領域検出部451から供給された情報に基づいて特定される。 When the transformed eyelash image P111' as shown in the upper left of FIG. 25 is supplied, the synthesis unit 463 transforms the eyelash image P111' along the upper contour of the right eye E R as shown in the right side of FIG. Synthesize. The position of the upper contour of the right eye E R is specified based on information supplied from the area detection unit 451.

以上のようなまつげ画像の合成が左目についても同様にして行われる。左目に対するまつげ画像の合成は、例えば、右目用として用意されたまつげ画像P111を用いて行われる。 The above-described combination of eyelash images is similarly performed for the left eye. The eyelash image for the left eye is synthesized using, for example, the eyelash image P111 prepared for the right eye.

この場合、変形部462は、まつげ画像P111の左右を反転させ、左右反転後のまつげ画像P111の形状を、左目の上側の形状に合わせて変形させる。合成部463は、変形部462による変形後のまつげ画像P111を左目の上側の輪郭に沿って合成する。 In this case, the deformation unit 462 reverses the left and right sides of the eyelash image P111, and transforms the shape of the eyelash image P111 after the left and right inversion to match the shape of the upper side of the left eye. The composition unit 463 composes the eyelash image P111 transformed by the transformation unit 462 along the upper contour of the left eye.

このように、左目に対するまつげ画像の合成には、右目用として用意されたまつげ画像の左右を反転させた画像が用いられる。左目に対する処理が右目用の画像を用いて行われるため、用意しておく必要があるまつげ画像の数を減らすことができる。反対に、左目用のまつげ画像が用意されており、右目に対する処理が、左目用の画像を用いて行われるようにしてもよい。当然、右目用と左目用のそれぞれのまつげ画像が用意されるようにしてもよい。 In this way, to synthesize the eyelash image for the left eye, an image obtained by inverting the left and right eyelash images prepared for the right eye is used. Since the processing for the left eye is performed using the image for the right eye, the number of eyelash images that need to be prepared can be reduced. Conversely, an eyelash image for the left eye may be prepared, and the processing for the right eye may be performed using the image for the left eye. Of course, separate eyelash images for the right eye and for the left eye may be prepared.

以上のようなまつげ画像の合成は、撮影画像に写るそれぞれの女性を対象として行われる。合成部463は、まつげ画像の合成後の撮影画像を図22のまつげ強調処理部464に出力する。 The above-described combination of eyelash images is performed for each woman appearing in the photographed image. The combining unit 463 outputs the captured image after combining the eyelash images to the eyelash enhancement processing unit 464 in FIG. 22.

まつげ強調処理部464は、合成部463から供給された撮影画像に写るまつげを画像処理によって強調させる。例えば、上まつげと下まつげの1本1本を太くする処理や、色を濃くする処理が行われる。まつげ強調処理部464は、まつげを強調した撮影画像を出力する。 The eyelash enhancement processing section 464 enhances the eyelashes appearing in the photographed image supplied from the composition section 463 through image processing. For example, processing is performed to thicken each of the upper and lower eyelashes, or to deepen their color. The eyelash enhancement processing unit 464 outputs a photographed image in which the eyelashes are emphasized.

<写真シール作成装置の動作>
ここで、図26のフローチャートを参照して、写真シール作成ゲームを提供する写真シール作成装置1の動作について説明する。図26の処理は、例えば、所定の金額分の硬貨が投入されたときに開始される。
<Operation of photo sticker making device>
Here, the operation of the photo sticker creation device 1 that provides the photo sticker creation game will be described with reference to the flowchart of FIG. 26. The process in FIG. 26 is started, for example, when a predetermined amount of coins is inserted.

ステップS1において、事前選択処理部401は、事前選択部302を制御することで事前選択処理を行う。事前選択処理により、例えば、利用者の人数の選択、撮影コースの選択などが行われる。いずれの選択も、タッチパネルモニタ71に表示される選択画面を用いて行われる。 In step S1, the preselection processing unit 401 performs a preselection process by controlling the preselection unit 302. Through the pre-selection process, for example, selection of the number of users, selection of a photography course, etc. are performed. All selections are made using a selection screen displayed on the touch panel monitor 71.

ステップS2において、撮影処理部402は、撮影部304を制御することで撮影処理を行う。 In step S2, the photographing processing section 402 performs photographing processing by controlling the photographing section 304.

例えば、撮影処理部402は、立ち位置の誘導を行った後、カメラ91により取り込まれた動画像に基づいて、ライブビュー画面をタッチパネルモニタ92に表示させる。また、撮影処理部402は、ライブビュー画面を表示させた後、撮影空間A1にいる利用者を被写体として静止画像の連続撮影を行う。 For example, after guiding the user to a standing position, the imaging processing unit 402 displays a live view screen on the touch panel monitor 92 based on the moving image captured by the camera 91. Further, after displaying the live view screen, the photographing processing unit 402 continuously photographs still images using the user in the photographing space A1 as the subject.

ステップS3において、編集処理部403は、編集空間A2-1と編集空間A2-2のうち、撮影処理を終えた利用者の移動先とした方の編集空間に対応する編集部305を制御することで編集処理を行う。 In step S3, the editing processing unit 403 controls the editing unit 305 corresponding to the editing space to which the user moves after completing the shooting process, between the editing space A2-1 and the editing space A2-2. Perform the editing process.

例えば、編集処理部403は、タブレット内蔵モニタ131に編集画面を表示させ、撮影画像に対して利用者に編集作業を行わせる。編集画面には、編集対象の撮影画像とともに、撮影画像に合成する合成用画像を選択するときに操作されるボタンなどが表示される。編集処理の詳細については図27のフローチャートを参照して後述する。 For example, the editing processing unit 403 displays an editing screen on the tablet built-in monitor 131 and allows the user to perform editing work on the captured image. On the editing screen, buttons to be operated when selecting a composition image to be combined with the photographed image are displayed along with the photographed image to be edited. Details of the editing process will be described later with reference to the flowchart in FIG.

ステップS4において、印刷処理部404は、プリンタ351を制御することで、印刷処理を行う。印刷処理部404は、編集処理部403により生成された印刷データをプリンタ351に出力してシール紙363に印刷させる。 In step S4, the print processing unit 404 performs print processing by controlling the printer 351. The print processing unit 404 outputs the print data generated by the editing processing unit 403 to the printer 351 to print it on the sticker paper 363.

印刷が終了した場合、ステップS5において、プリンタ351は、カッター362で切り離したシール紙363をシール紙排出口161に排出する。 When printing is completed, the printer 351 discharges the sticker paper 363 cut off by the cutter 362 to the sticker paper discharge port 161 in step S5.

写真シール作成装置1の利用者の各グループに対しては、以上のような一連の処理からなる写真作成ゲームが提供される。あるグループの利用者に続けて他のグループの利用者が写真シール作成装置1の利用を開始した場合、写真シール作成装置1の利用を先に始めた利用者の写真シール作成ゲームと、後から始めた利用者の写真シール作成ゲームとが適宜並行して行われることになる。適宜、写真シール作成ゲームを単にゲームともいう。 A photo creation game consisting of a series of processes as described above is provided to each group of users of the photo sticker creation device 1. If a user of another group starts using the photo sticker creation device 1 following a user of one group, the photo sticker creation game of the user who started using the photo sticker creation device 1 first and the game of the user who started using the photo sticker creation device 1 first will be played. The photo sticker creation game of the user who started the game will be played in parallel as appropriate. When appropriate, the photo sticker creation game is also simply referred to as a game.

<編集処理>
次に、図27のフローチャートを参照して、図26のステップS3において行われる編集処理について説明する。
<Editing process>
Next, the editing process performed in step S3 of FIG. 26 will be described with reference to the flowchart of FIG. 27.

ステップS41において、編集処理部403の表示制御部434(図19)は、落書き前自撮りの案内画面をタブレット内蔵モニタ131に表示させる。ここでいう落書きは、撮影画像の編集のことを意味する。編集は、タッチペン132を用いて、撮影画像を落書きするようにして行われる。 In step S41, the display control unit 434 (FIG. 19) of the editing processing unit 403 causes the pre-doodle selfie guide screen to be displayed on the tablet built-in monitor 131. Graffiti here means editing of a photographed image. Editing is performed by doodling on the photographed image using the touch pen 132.

図28は、落書き前自撮りの案内画面の表示例を示す図である。 FIG. 28 is a diagram illustrating a display example of a guide screen for self-portrait before doodling.

図28に示すように、落書き前自撮りの案内画面の左側には、モデルの人物が鏡面部66越しに自撮りを行っている様子を表す画像が表示される。案内画面の右側には、自撮りによって得られた画像のサンプル画像が表示される。それぞれの画像の下には、画像の内容を説明するメッセージが表示される。 As shown in FIG. 28, on the left side of the pre-doodle selfie guide screen, an image showing a model person taking a selfie through the mirror surface 66 is displayed. On the right side of the guide screen, sample images of images obtained by self-portraits are displayed. A message explaining the content of the image is displayed below each image.

このような案内画面を表示させることにより、鏡面部66を用いてどのような自撮りを行うことができるのかを利用者に分かりやすく伝えることができる。 By displaying such a guide screen, it is possible to clearly tell the user what kind of self-portraits they can take using the mirror section 66.

編集空間A2に移動してきた利用者は、案内画面に従って、自分のスマートフォンを用意し、鏡面部66越しに自撮りを行う。 The user who has moved to the editing space A2 prepares his or her smartphone and takes a selfie through the mirror section 66 according to the guidance screen.

図27の説明に戻り、ステップS42において、編集用画像生成部432は編集用画像生成処理を行う。編集用画像生成処理により、それぞれの撮影画像を元にして編集用の撮影画像が生成される。 Returning to the explanation of FIG. 27, in step S42, the editing image generation unit 432 performs editing image generation processing. Through the editing image generation process, a photographed image for editing is generated based on each photographed image.

撮影処理においては、例えば最大8枚の撮影画像の撮影が行われる。撮影画像の枚数が多いため、それぞれの撮影画像に基づいて行われる編集用の撮影画像の生成には一定の時間が必要になる。編集用の撮影画像の生成は、編集前の自撮り用に確保された時間を利用して行われる。利用者は、編集用の撮影画像の生成が行われている間も、退屈せずに待つことができる。 In the photographing process, for example, up to eight photographed images are photographed. Since there are a large number of captured images, a certain amount of time is required to generate captured images for editing based on each captured image. Generation of a shot image for editing is performed using the time reserved for self-portraits before editing. The user can wait without getting bored even while the captured image for editing is being generated.

利用者が自撮りを行っている間に行われる編集用画像生成処理の詳細については図30のフローチャートを参照して後述する。 Details of the editing image generation process performed while the user is taking a selfie will be described later with reference to the flowchart of FIG. 30.

ステップS43において、表示制御部434は、キープ画像の選択画面をタブレット内蔵モニタ131に表示させる。図28の案内画面に代えてキープ画像の選択画面がタブレット内蔵モニタ131に表示されることにより、利用者は自撮りを終え、タブレット内蔵モニタ131の表示に従ってキープ画像の選択を行う。 In step S43, the display control unit 434 displays a keep image selection screen on the tablet built-in monitor 131. By displaying a keep image selection screen on the tablet built-in monitor 131 instead of the guide screen in FIG. 28, the user finishes taking a selfie and selects a keep image according to the display on the tablet built-in monitor 131.

キープ画像は、実際に編集する撮影画像である。キープ画像として選択可能な撮影画像の枚数は例えば4枚として設定されている。キープ画像の選択画面には、レタッチ処理が施された撮影画像が並べて表示される。選択画面を用いて行われる選択は、最大8枚の撮影画像の中から4枚の撮影画像を選択するようにして行われる。 The keep image is a captured image that is actually edited. The number of captured images that can be selected as keep images is set to, for example, four. On the keep image selection screen, photographed images that have been subjected to retouching processing are displayed side by side. Selection using the selection screen is performed by selecting four captured images from a maximum of eight captured images.

4枚などの所定の枚数のキープ画像が選択された場合、ステップS44において、表示制御部434は、編集画面をタブレット内蔵モニタ131に表示させる。編集画面には、編集対象となる撮影画像とともに、編集に用いられるスタンプ画像やペン画像などの各種の編集ツール(合成用画像)を選択するときに押下されるボタンなどが表示される。 If a predetermined number of keep images, such as four, are selected, the display control unit 434 causes the tablet built-in monitor 131 to display an editing screen in step S44. On the editing screen, buttons to be pressed to select various editing tools (images for synthesis) such as stamp images and pen images used for editing are displayed along with the photographed image to be edited.

図29は、タブレット内蔵モニタ131に表示される編集画面の例を示す図である。 FIG. 29 is a diagram showing an example of an editing screen displayed on the tablet built-in monitor 131.

編集画面には、編集領域501L,501Rがそれぞれ左右に並べて設けられる。編集領域501L,501Rの間には、キープ画像として選択された撮影画像のサムネイルが表示されるサムネイル表示領域502が設けられる。 On the editing screen, editing areas 501L and 501R are provided side by side, respectively. A thumbnail display area 502 is provided between the editing areas 501L and 501R, in which thumbnails of captured images selected as keep images are displayed.

また、編集領域501L,501Rそれぞれの下方には、編集パレット503L,503Rが設けられる。編集パレット503L,503Rの間には、編集パレット503L,503Rに表示される編集ツールのカテゴリを選択するためのカテゴリ選択ボタン群504が設けられる。 Editing palettes 503L and 503R are provided below the editing areas 501L and 501R, respectively. A category selection button group 504 is provided between the editing palettes 503L, 503R for selecting the category of editing tools displayed on the editing palettes 503L, 503R.

このような構成により、編集画面においては、編集対象として選択された撮影画像の編集入力が2人の利用者によって個別に受け付けられる。 With this configuration, on the editing screen, editing inputs for the photographed image selected as the editing target are individually received by the two users.

以下において、編集領域501L,501R、編集パレット503L,503Rをそれぞれ区別しない場合には、単に、編集領域501、編集パレット503という。 In the following, when the editing areas 501L, 501R and the editing palettes 503L, 503R are not distinguished from each other, they are simply referred to as the editing area 501 and the editing palette 503.

編集領域501は、編集入力を行う対象として選択されたキープ画像(編集対象画像)の表示領域である。利用者は、タッチペン132を用いて編集ツールを選択し、編集領域501に表示されたキープ画像の編集を行う。 The editing area 501 is a display area for a keep image (editing target image) selected as a target for editing input. The user selects an editing tool using the touch pen 132 and edits the keep image displayed in the editing area 501.

サムネイル表示領域502は、キープ画像を表すサムネイルの表示領域である。利用者は、サムネイル表示領域502に表示されているサムネイルを選択することによって、編集入力を行うキープ画像を選択する。 The thumbnail display area 502 is a display area for thumbnails representing keep images. The user selects a keep image to perform editing input by selecting a thumbnail displayed in the thumbnail display area 502.

編集パレット503は、ペンツール、くっつきツール、スタンプツール、メイクツールなどの各種の編集ツールの選択に用いられるアイコンなどが表示される領域である。なお、くっつきツールは、顔の認識結果に基づいた位置に所定の画像を合成するときに用いられる編集ツールである。また、メイクツールは、目、唇、頬などを対象として、メイクを模した画像処理を施すときに用いられる編集ツールである。 The editing palette 503 is an area where icons used for selecting various editing tools such as a pen tool, a stick tool, a stamp tool, and a makeup tool are displayed. Note that the merging tool is an editing tool used when combining a predetermined image at a position based on the face recognition result. The makeup tool is an editing tool used to perform image processing that simulates makeup on the eyes, lips, cheeks, and the like.

カテゴリ選択ボタン群504は、編集パレット503に表示させる編集ツールのカテゴリを切り替えるときに押下されるボタンから構成される。 The category selection button group 504 is composed of buttons that are pressed when switching the categories of editing tools displayed on the editing palette 503.

図29の例においては、タブレット内蔵モニタ131に向かって左側の利用者によりカテゴリ選択ボタン群504のペンボタンが選択されている。編集パレット503Lには、ペンツールを選択するためのアイコンなどが表示される。 In the example of FIG. 29, the pen button of the category selection button group 504 is selected by the user on the left side when facing the tablet built-in monitor 131. Icons for selecting a pen tool and the like are displayed on the editing palette 503L.

また、右側の利用者によりカテゴリ選択ボタン群504のメイクボタンが選択されている。編集パレット503Rには、メイクツールを選択するためのボタンなどが表示される。 Further, the user on the right side has selected the makeup button in the category selection button group 504. Editing palette 503R displays buttons for selecting makeup tools and the like.

サムネイル表示領域502の下には、スマートフォンの外観を模した2つの携帯おまけボタン505L,505Rが並べて表示される。携帯おまけボタン505L,505Rが操作された場合、携帯おまけの作成を行うときに用いられるボタンなどが表示される。なお、携帯おまけは、携帯端末の待ち受け画面に表示されたり、SNSにアップロードされたりする画像など、携帯端末上で用いられることを前提とした画像である。作成された携帯おまけは、携帯端末への送信専用の画像として画像管理サーバに送信される。 Below the thumbnail display area 502, two mobile bonus buttons 505L and 505R that imitate the appearance of a smartphone are displayed side by side. When the mobile bonus buttons 505L and 505R are operated, buttons used when creating a mobile bonus are displayed. Note that the mobile bonus is an image that is intended to be used on a mobile terminal, such as an image displayed on the standby screen of the mobile terminal or uploaded to SNS. The created mobile bonus is transmitted to the image management server as an image exclusively for transmission to the mobile terminal.

サムネイル表示領域502の上にはBGM選択領域506が表示される。BGM選択領域506は、編集作業中のBGMの選曲や音量の調整を行うときに操作される。 A BGM selection area 506 is displayed above the thumbnail display area 502. The BGM selection area 506 is operated when selecting BGM or adjusting the volume during editing work.

図27の説明に戻り、ステップS45において、編集制御部433は、編集画面に対する利用者の操作に応じて、編集対象となる撮影画像に編集を施す。編集が施されることによって生成された編集画像は印刷データ生成部435に供給される。 Returning to the description of FIG. 27, in step S45, the editing control unit 433 edits the photographed image to be edited in accordance with the user's operation on the editing screen. The edited image generated by the editing is supplied to the print data generation unit 435.

終了ボタンが操作されるなどして編集が終了した場合、ステップS46において、表示制御部434は、分割数選択画面をタブレット内蔵モニタ131に表示させる。 If editing is completed by operating the end button, etc., the display control unit 434 displays a division number selection screen on the tablet built-in monitor 131 in step S46.

分割数選択画面は、シールレイアウトの選択に用いられる画面である。シールレイアウトは、1枚のシール紙363に配置される編集画像の枚数や位置、大きさを決定するレイアウト(配置パターン)である。シール紙363には、利用者により選択されたシールレイアウトに従って配置された編集画像が印刷される。 The division number selection screen is a screen used to select a sticker layout. The sticker layout is a layout (arrangement pattern) that determines the number, position, and size of edited images arranged on one sheet of sticker paper 363. Edited images arranged according to the sticker layout selected by the user are printed on the sticker paper 363.

ステップS47において、表示制御部434は、送信画像選択画面をタブレット内蔵モニタ131に表示させる。 In step S47, the display control unit 434 causes the tablet built-in monitor 131 to display a transmission image selection screen.

利用者は、画像管理サービスを利用するためには会員登録を行う必要があり、会員には有料会員と無料会員がある。有料会員は画像管理サーバに送信された全ての画像を取得して自分の携帯端末にダウンロードしたりすることができるのに対して、無料会員は1枚の画像だけを取得することができる。送信画像選択画面は、無料会員が取得する1枚の画像を選択するのに用いられる画面である。なお、画像管理サービスは、ゲームにおいて作成され、写真シール作成装置1から画像管理サーバに送信された画像を利用者に提供するサービスである。 Users must register as members in order to use the image management service, and there are paid members and free members. Paid members can acquire all images sent to the image management server and download them to their mobile terminals, while free members can acquire only one image. The transmission image selection screen is a screen used by a free member to select one image to be acquired. The image management service is a service that provides users with images created in the game and transmitted from the photo sticker creation device 1 to the image management server.

ステップS48において、編集処理部403は、メールアドレス入力画面をタブレット内蔵モニタ131に表示させる。 In step S48, the editing processing unit 403 causes the tablet built-in monitor 131 to display an email address input screen.

メールアドレス入力画面は、利用者のメールアドレスの入力に用いられる画面である。
メールアドレス入力画面には、メールアドレスに用いることが可能なアルファベットや記号、スマートフォンなどの携帯電話機のキャリアを選択するためのボタンなどが表示される。
The email address input screen is a screen used to input the user's email address.
The e-mail address input screen displays alphabets and symbols that can be used in e-mail addresses, buttons for selecting the carrier of a mobile phone such as a smartphone, etc.

ステップS49において、通信制御部436は、編集画像を画像管理サーバに送信する。画像管理サーバに対しては、適宜、撮影画像も送信される。すなわち、編集画像だけでなく、編集画像の元になった撮影画像も画像管理サーバに対して送信される。 In step S49, the communication control unit 436 transmits the edited image to the image management server. Photographed images are also sent to the image management server as appropriate. That is, not only the edited image but also the photographed image that is the source of the edited image is sent to the image management server.

また、画像管理サーバに対しては、写真シール作成装置1の機器ID、撮影日時、送信画像選択画面からどの画像が選択されたのかを表す情報なども送信される。 Additionally, the device ID of the photo sticker creation device 1, the date and time of photography, and information indicating which image was selected from the transmission image selection screen are also transmitted to the image management server.

ステップS50において、印刷データ生成部435は、利用者により選択されたレイアウトで編集画像を配置することによって印刷データを生成する。印刷データは印刷処理部404に供給され、編集画像の印刷に用いられる(図26のステップS4)。 In step S50, the print data generation unit 435 generates print data by arranging the edited image in the layout selected by the user. The print data is supplied to the print processing unit 404 and used to print the edited image (step S4 in FIG. 26).

ステップS51において、表示制御部434は、案内画面をタブレット内蔵モニタ131に表示させることによって、編集作業を終えた利用者に対して、印刷待ち空間A3への移動を案内する。印刷待ち空間A3への移動の案内は、スピーカ341から音声を出力することによっても行われる。 In step S51, the display control unit 434 displays a guide screen on the tablet built-in monitor 131 to guide the user who has finished the editing work to move to the print waiting space A3. The guidance for moving to the print waiting space A3 is also performed by outputting audio from the speaker 341.

その後、図26のステップS3に戻り、それ以降の処理が行われる。 Thereafter, the process returns to step S3 in FIG. 26, and subsequent processing is performed.

以上のように、写真シール作成装置1のゲームにおいては、撮影空間A1だけでなく、編集空間A2においても撮影を行うことが可能とされる。利用者は、編集空間A2にいてゲームを行っている自分達の様子を自撮りによって残しておくことができる。 As described above, in the game of the photo sticker creation device 1, it is possible to take pictures not only in the shooting space A1 but also in the editing space A2. Users can take self-portraits of themselves playing games in the editing space A2.

<編集用画像生成処理>
次に、図30のフローチャートを参照して、図27のステップS42において行われる編集用画像生成処理について説明する。
<Editing image generation processing>
Next, with reference to the flowchart of FIG. 30, the editing image generation process performed in step S42 of FIG. 27 will be described.

ステップS61において、性別判定部453は、撮影画像に写るそれぞれの利用者の性別を判定する。 In step S61, the gender determination unit 453 determines the gender of each user appearing in the photographed image.

ステップS62において、レタッチ処理部452は、撮影画像に対してレタッチ処理を施す。レタッチ処理部452によるレタッチ処理は、撮影処理時にタッチパネルモニタ92に表示されたレタッチ画面を用いて選択された内容に従って行われる。 In step S62, the retouch processing unit 452 performs retouch processing on the photographed image. The retouch processing by the retouch processing unit 452 is performed according to the content selected using the retouch screen displayed on the touch panel monitor 92 during the photographing process.

例えば、レタッチ処理部452は、撮影画像に写る利用者の目を検出し、検出した目の大きさを調整する処理をそれぞれの撮影画像を対象として行う。レタッチ処理部452は、目の大きさの調整以外の複数種類の画像処理を、それぞれの撮影画像を対象として行う。 For example, the retouch processing unit 452 detects the user's eyes appearing in the photographed images, and performs processing for adjusting the size of the detected eyes on each photographed image. The retouch processing unit 452 performs multiple types of image processing on each captured image, other than eye size adjustment.

ステップS63において、領域検出部451は、撮影画像に写る利用者の目の領域を検出する。 In step S63, the area detection unit 451 detects the area of the user's eyes appearing in the photographed image.

ステップS64において、まつげ処理部454は、撮影画像に写っているまつげを強調する画像処理であるまつげ処理を行う。まつげ処理の詳細については図31のフローチャートを参照して後述する。 In step S64, the eyelash processing unit 454 performs eyelash processing, which is image processing that emphasizes the eyelashes in the photographed image. Details of the eyelash processing will be described later with reference to the flowchart of FIG. 31.

ステップS65において、縮小部455は、まつげ処理部454から供給された撮影画像を縮小して編集用の撮影画像を生成する。 In step S65, the reduction unit 455 reduces the captured image supplied from the eyelash processing unit 454 to generate a captured image for editing.

ステップS66において、編集用画像生成部432は、全ての撮影画像の処理が終わったか否かを判定し、まだ処理が終わっていない撮影画像があると判定した場合、ステップS61以降の処理を繰り返し実行する。 In step S66, the editing image generation unit 432 determines whether the processing of all photographed images has been completed, and if it is determined that there is a photographed image that has not yet been processed, it repeatedly executes the processing from step S61 onward. do.

全ての撮影画像の処理が終わったとステップS66において判定した場合、図27のステップS42に戻り、それ以降の処理が行われる。 If it is determined in step S66 that all photographed images have been processed, the process returns to step S42 in FIG. 27 and subsequent processing is performed.

<まつげ処理>
次に、図31のフローチャートを参照して、図30のステップS64において行われるまつげ処理について説明する。
<Eyelash treatment>
Next, the eyelash processing performed in step S64 of FIG. 30 will be described with reference to the flowchart of FIG. 31.

ステップS81において、まつげ処理部454は、性別判定部453による性別の判定結果に基づいて、処理対象になっている撮影画像に女性が写っているか否かを判定する。 In step S81, the eyelash processing unit 454 determines whether a woman is included in the photographed image to be processed, based on the gender determination result by the gender determination unit 453.

上述したように、まつげを強調する画像処理であるまつげ処理は、女性だけを対象として行われ、男性を対象としては行われない。処理対象になっている撮影画像に女性が写っていない、すなわち、撮影画像に写っている利用者全員が男性であるとステップS81において判定された場合、図31のステップS82以降の処理はスキップされる。 As described above, eyelash processing, which is image processing that emphasizes eyelashes, is performed only on women, not men. If it is determined in step S81 that there are no women in the photographed image to be processed, that is, all the users in the photographed image are male, the processing from step S82 onward in FIG. 31 is skipped. Ru.

これにより、男性のまつげを強調するような画像処理が行われるのを防ぐことが可能となる。 This makes it possible to prevent image processing that emphasizes a man's eyelashes from being performed.

ステップS82以降の処理のうちの少なくとも一部の処理が、男性を対象として行われるようにしてもよい。 At least some of the processes after step S82 may be performed for men.

処理対象になっている撮影画像に女性が写っているとステップS81において判定された場合、処理はステップS82に進む。複数の女性が写っている場合、1人ずつ注目してステップS82以降の処理が行われる。 If it is determined in step S81 that a woman is included in the photographed image to be processed, the process proceeds to step S82. If a plurality of women are in the photograph, the processing from step S82 onward is performed, focusing on each woman one by one.

ステップS82において、逆さまつげ除去部461は、目の領域のうちの白目領域に含まれる異常画素を検出し、周辺画素で補間することによって逆さまつげを除去する。 In step S82, the upside-down eyelash removal unit 461 detects an abnormal pixel included in the white of the eye area, and removes the upside-down eyelash by interpolating with surrounding pixels.

ステップS83において、変形部462は、図24を参照して説明したようにして、目の上側の輪郭の形状に合わせて、まつげ画像を変形させる。 In step S83, the deformation unit 462 deforms the eyelash image according to the shape of the upper contour of the eye, as described with reference to FIG. 24.

ステップS84において、合成部463は、変形部462により変形されたまつげ画像を、撮影画像に写る、処理対象の女性の目の上側の輪郭に沿って合成する。 In step S84, the composition unit 463 composes the eyelash image transformed by the transformation unit 462 along the upper contour of the eye of the woman to be processed, which appears in the photographed image.

ここで、処理対象の女性の両方の目が開いている場合、両目に対してまつげ画像の合成が行われる。例えば、閾値となる度合いより目の開きの度合いが低い場合(閉じている場合)、まつげ画像の合成を含むまつげを強調する処理が、その閉じている目を対象としては行われないようにしてもよい。 Here, if both eyes of the woman to be processed are open, eyelash images are combined for both eyes. For example, if the degree of opening of the eyes is lower than the threshold value (if the eyes are closed), the process to emphasize eyelashes, including compositing eyelash images, will not be performed on the closed eyes. Good too.

ウインクなどをして閉じている目を対象としてまつげの強調が行われるとした場合、不自然な見栄えになる可能性があるが、そのようなことを防ぐことが可能となる。 If eyelashes are emphasized on eyes that are closed when winking or the like, there is a possibility that the eyelashes will look unnatural, but this can be prevented.

ステップS85において、まつげ強調処理部464は、まつげを画像処理によって強調させる。例えば、上まつげと下まつげを検出し、その1本1本を太くしたり、濃くしたりすることによって、まつげの強調が行われる。まつげの1本1本を太くしたり、濃くしたりする処理は、上まつげとして合成されたまつげ画像を構成するまつげの1本1本に対しても施される。 In step S85, the eyelash enhancement processing unit 464 emphasizes the eyelashes through image processing. For example, the eyelashes are emphasized by detecting the upper and lower eyelashes and making them thicker or darker one by one. The process of thickening or darkening each eyelash is also performed on each eyelash that makes up the eyelash image that is synthesized as the upper eyelash.

すなわち、この例においては、上まつげに対しては、まつげ画像の合成に加えて、さらに、1本1本を太くしたりする処理が施されることになる。また、上まつげと下まつげは、それぞれ異なる処理によって強調されることになる。 That is, in this example, in addition to compositing the eyelash images, the upper eyelashes are subjected to processing such as making each eyelash thicker one by one. Furthermore, the upper eyelashes and lower eyelashes will be emphasized through different processes.

その後、図30のステップS64に戻り、それ以降の処理が行われる。 Thereafter, the process returns to step S64 in FIG. 30, and subsequent processing is performed.

以上のように、撮影画像に写る女性に対するまつげの強調は、テンプレートとして用意されたまつげ画像をそのまま合成するのではなく、目の輪郭の形状に合わせて変形させたまつげ画像を合成するようにして行われる。 As mentioned above, to emphasize the eyelashes of women in photographed images, instead of composing eyelash images prepared as templates as they are, we synthesize eyelash images that have been transformed to match the shape of the eye contour. It will be done.

撮影時の表情などにより、それぞれの利用者の目の形状は異なるものとなる。それぞれの利用者の目の形状に合わせて変形させたまつげ画像を合成することにより、より自然な形でまつげを強調させ、目を大きく見せることが可能となる。 The shape of each user's eyes will differ depending on their facial expressions at the time of shooting. By combining eyelash images transformed to match the shape of each user's eyes, it is possible to emphasize the eyelashes in a more natural manner and make the eyes appear larger.

また、まつげ画像の合成後、上まつげと下まつげの1本1本を強調することにより、まつげ画像として合成されたまつげを、利用者の自分のまつげに馴染ませることが可能となる。 Further, after the eyelash images are combined, by emphasizing each of the upper and lower eyelashes, it is possible to make the eyelashes combined as an eyelash image blend in with the user's own eyelashes.

<メイクツール機能>
・アイカラーツール
ここで、編集画面に用意されるメイクツールを用いた編集について説明する。
<Make tool function>
・Eye Color Tool Here, editing using the makeup tool provided on the editing screen will be explained.

図32は、メイクツール選択中の、図29の編集パレット503Rを拡大して示す図である。 FIG. 32 is an enlarged view of the editing palette 503R of FIG. 29 while the makeup tool is being selected.

編集パレット503Rの上には、メイクツールの選択に用いられる選択ボタン511-1乃至511-5が並べて表示される。 Selection buttons 511-1 to 511-5 used for selecting makeup tools are displayed side by side on the editing palette 503R.

選択ボタン511-1は、小顔に見えるためのメイクを行う小顔ツールを選択するときに押下されるボタンである。 The selection button 511-1 is a button that is pressed when selecting a small face tool that applies makeup to make the face look smaller.

選択ボタン511-2は、黒目部分の色を変えるアイカラーツールを選択するときに押下されるボタンである。利用者は、アイカラーツールを使うことにより、カラーコンタクトレンズを装着しているかのようなメイクをすることができる。図32の例においては、選択ボタン511-2が押下され、アイカラーツールが選択されている。 The selection button 511-2 is a button that is pressed when selecting an eye color tool that changes the color of the iris. By using the eye color tool, users can apply makeup to look like they are wearing colored contact lenses. In the example of FIG. 32, the selection button 511-2 is pressed and the eye color tool is selected.

選択ボタン511-3は、目の輪郭の濃さを調整する輪郭濃度調整ツールを選択するときに押下されるボタンである。 The selection button 511-3 is a button that is pressed when selecting an outline density adjustment tool for adjusting the density of the eye outline.

選択ボタン511-4は、唇の色を変えるリップツールを選択するときに押下されるボタンである。選択ボタン511-5は、チークの色を変えるチークツールを選択するときに押下されるボタンである。 The selection button 511-4 is a button that is pressed when selecting a lip tool that changes the color of lips. The selection button 511-5 is a button that is pressed when selecting a cheek tool that changes the cheek color.

アイカラーツールが選択されている場合、図32に示すように、編集パレット503Rの左側には顔画像領域512が表示される。顔画像領域512は、顔認識を行うことによって切り出された、撮影画像に写る利用者の顔の画像の表示領域である。 When the eye color tool is selected, a face image area 512 is displayed on the left side of the editing palette 503R, as shown in FIG. 32. The face image area 512 is a display area for an image of the user's face that appears in the captured image and is extracted by performing face recognition.

顔画像領域512に顔が表示されている利用者を対象として、黒目の色を変更する処理である黒目処理が黒目処理部433A(図19)により行われる。図32の例においては、図29において編集領域501Rに表示されている撮影画像に写る2人の利用者のうちの右側の利用者がアイカラーツールの対象の利用者として表示されている。 Eye iris processing, which is processing for changing the color of the iris, is performed by the iris processing unit 433A (FIG. 19) for the user whose face is displayed in the face image area 512. In the example of FIG. 32, the user on the right of the two users in the photographed image displayed in the editing area 501R in FIG. 29 is displayed as the target user of the eye color tool.

顔画像領域512の下には、アイカラーツールの対象とする利用者を切り替えるときに押下される切り替えボタン513が表示される。 Displayed below the face image area 512 is a switching button 513 that is pressed when switching the target user of the eye color tool.

顔画像領域512の右側には、アイカラーの選択に用いられるボタンであるカラー選択ボタン514-1乃至514-4が表示される。円形のボタンであるカラー選択ボタン514-1乃至514-4には、それぞれ、ブラウン、ショコラ、グレー、ブラックの色が割り当てられている。 Color selection buttons 514-1 to 514-4, which are buttons used to select eye colors, are displayed on the right side of the face image area 512. Color selection buttons 514-1 to 514-4, which are circular buttons, are assigned the colors brown, chocolate, gray, and black, respectively.

例えばカラー選択ボタン514-1が押下された場合、編集領域501Rに表示されている撮影画像に写る利用者のうち、アイカラーツールの対象として選択されている利用者の黒目領域の色がブラウンに変更される。 For example, when the color selection button 514-1 is pressed, the color of the iris area of the user selected as the target of the eye color tool among the users appearing in the photographed image displayed in the editing area 501R is changed to brown. Be changed.

また、カラー選択ボタン514-2が押下された場合、編集領域501Rに表示されている撮影画像に写る利用者のうち、アイカラーツールの対象として選択されている利用者の黒目領域の色がショコラに変更される。 In addition, when the color selection button 514-2 is pressed, the color of the iris of the user selected as the target of the eye color tool among the users appearing in the photographed image displayed in the editing area 501R is changed to chocolate. will be changed to

図33は、アイカラーツールによって生成される画像の例を示す図である。 FIG. 33 is a diagram illustrating an example of an image generated by the eye color tool.

撮影画像P101が編集対象として選択され、右側の利用者がアイカラーツールの対象として選択されている場合、カラー選択ボタン514-1乃至514-4が押下されることに応じて、編集領域501Rの撮影画像が、枠Fで囲んで示す右側の利用者の黒目領域の色が変更された撮影画像P101-1乃至P101-4に切り替えられる。 When the photographed image P101 is selected as the target for editing and the user on the right side is selected as the target for the eye color tool, in response to pressing the color selection buttons 514-1 to 514-4, the editing area 501R is The photographed images are switched to photographed images P101-1 to P101-4 in which the color of the iris of the user's eye area on the right side surrounded by a frame F has been changed.

図33の例においては同じ画像として示されているが、撮影画像P101-1は、右側の利用者の黒目領域の色がブラウンに変更された画像であり、撮影画像P101-2は、右側の利用者の黒目領域の色がショコラに変更された画像である。撮影画像P101-3は、右側の利用者の黒目領域の色がグレーに変更された画像であり、撮影画像P101-4は、右側の利用者の黒目領域の色がブラックに変更された画像である。 Although they are shown as the same images in the example of FIG. 33, the captured image P101-1 is an image in which the color of the eye area of the user on the right side has been changed to brown, and the captured image P101-2 is an image in which the color of the eye area of the user on the right side has been changed to brown. This is an image in which the color of the iris of the user's eyes has been changed to chocolate. The photographed image P101-3 is an image in which the color of the iris of the right user's eye area has been changed to gray, and the photographed image P101-4 is an image in which the color of the iris area of the right user has been changed to black. be.

切り替えボタン513が押下される毎に、左側に写る利用者、右側に写る利用者、2人の利用者の順に、アイカラーツールの対象とする利用者が切り替えられる。 Each time the switching button 513 is pressed, the users targeted by the eye color tool are switched in the order of the user on the left, the user on the right, and then the two users.

例えば、アイカラーツールの対象とする利用者が左側に写る利用者として選択されている場合、カラー選択ボタン514-1乃至514-4が押下されることに応じて、編集領域501Rの撮影画像が、左側の利用者の黒目領域の色が変更された撮影画像に切り替えられる。 For example, when the target user of the eye color tool is selected as the user on the left side, the captured image in the editing area 501R is , the image is switched to a captured image in which the color of the eye area of the user on the left side has been changed.

また、アイカラーツールの対象とする利用者が全員である2人の利用者として選択されている場合、カラー選択ボタン514-1乃至514-4が押下されることに応じて、編集領域501Rの撮影画像が、左側と右側の2人の利用者の黒目領域の色が変更された撮影画像に切り替えられる。 In addition, when the target users of the eye color tool are all selected as two users, the editing area 501R is The photographed image is switched to a photographed image in which the colors of the iris areas of the two users on the left and right sides have been changed.

このように、アイカラーツールを利用することにより、利用者は、1枚の撮影画像毎に、かつ、撮影画像に写っている利用者毎に、黒目の色を変えることができる。また、利用者は、2人の利用者の目の色を同時に変えることもできる。 In this way, by using the eye color tool, the user can change the color of the iris for each photographed image and for each user in the photographed image. The user can also change the eye colors of two users at the same time.

図32のカラー選択ボタン514-4の右下には、アイカラーツールの機能をオフにするときに押下されるオフボタン515が表示される。オフボタン515が押下された場合、編集領域501Rには、黒目処理が施されていない撮影画像が表示される。 At the lower right of the color selection button 514-4 in FIG. 32, an off button 515 that is pressed to turn off the function of the eye color tool is displayed. When the off button 515 is pressed, a captured image that has not been subjected to iris processing is displayed in the editing area 501R.

図34は、アイカラーツール選択時の画像処理に用いられるマスク画像の例を示す図である。 FIG. 34 is a diagram showing an example of a mask image used in image processing when selecting an eye color tool.

編集用の撮影画像の生成時、図34Aに示す撮影画像P101に基づいて、図34Bに示すような、目の各領域を表すマスク画像が生成される。上述したように、編集用の撮影画像の生成時、編集用画像生成部432の領域検出部451(図20)においては、機械学習により生成された予測モデルを用いて、目の各領域などを表すマスク画像Mが生成される。 When generating a photographed image for editing, a mask image representing each area of the eye as shown in FIG. 34B is generated based on the photographed image P101 shown in FIG. 34A. As described above, when generating a captured image for editing, the area detection unit 451 (FIG. 20) of the image generation unit 432 for editing uses a predictive model generated by machine learning to detect each area of the eye, etc. A representing mask image M is generated.

図34Bの例においては、マスク画像Mを構成する画素のうち、2人の利用者のそれぞれの目の輪郭、目の黒目の輪郭、およびまつげを表す画素が白色の画素によって表されている。このようなマスク画像Mを用いて、黒目処理部433Aにより黒目処理が行われる。 In the example of FIG. 34B, among the pixels constituting the mask image M, the pixels representing the outlines of the eyes, the outlines of the black eyes, and the eyelashes of the two users are represented by white pixels. Using such a mask image M, the iris processing unit 433A performs iris processing.

図35は、黒目領域の色の変更の例を示す図である。 FIG. 35 is a diagram illustrating an example of changing the color of the iris area.

アイカラーツールによって黒目の色を変更することが選択された場合、黒目処理部433Aは、マスク画像Mを用いて、アイカラーツールの対象とする利用者の黒目領域を抽出する。図35の上段の例においては、右目ERの黒目領域A11Rと、左目ELの黒目領域A11Lがマスク画像Mに基づいて抽出されている。 When changing the color of the iris using the eye color tool is selected, the iris processing unit 433A uses the mask image M to extract the iris area of the user as a target of the eye color tool. In the example in the upper part of FIG. 35, the iris area A11 R of the right eye E R and the iris area A11 L of the left eye E L are extracted based on the mask image M.

また、黒目処理部433Aは、抽出した黒目領域である黒目領域A11R,A11Lを構成する画素の色を、ブラウン、ショコラ、グレー、ブラックの中から利用者により選択された色に変更する。図35の下段において黒目領域A11R,A11Lにハッチを付して示していることは、黒目領域A11R,A11Lの画素の色が変更されていることを表す。 Further, the iris processing unit 433A changes the color of the pixels forming the iris areas A11 R and A11 L , which are the extracted iris areas, to a color selected by the user from among brown, chocolate, gray, and black. The fact that the iris areas A11 R and A11 L are hatched in the lower part of FIG. 35 indicates that the colors of the pixels in the iris areas A11 R and A11 L have been changed.

黒目領域を構成する画素の色の変更は、例えば、オリジナルの色の色相を、選択された色に応じた量だけ変更するようにして行われる。ブラウン、ショコラ、グレー、ブラックのそれぞれの色に対しては、変更の程度(量)を含む、色相の変更の仕方があらかじめ設定されている。 The color of the pixels constituting the iris area is changed, for example, by changing the hue of the original color by an amount corresponding to the selected color. For each of the colors brown, chocolate, gray, and black, the method of changing the hue, including the degree (amount) of the change, is set in advance.

すなわち、選択された色に変更するのではなく、オリジナルの黒目の色を基準にして、その基準の色を、選択された色に応じて調整するようにして色の変更が行われる。 That is, instead of changing to the selected color, the color is changed by using the original black eye color as a reference and adjusting the reference color according to the selected color.

色相ではなく、明度、彩度などの他のパラメータを変更することによって、または、複数のパラメータの組み合わせを変更することによって、黒目領域の色が変更されるようにしてもよい。 The color of the iris area may be changed not by changing the hue but by changing other parameters such as brightness and saturation, or by changing a combination of multiple parameters.

黒目領域を構成する各画素に対してフィルタ処理を施したり、所定のトーンカーブを用いて輝度を調整したりするようにして色の変更が行われるようにしてもよい。 The color may be changed by applying filter processing to each pixel forming the iris area or adjusting the brightness using a predetermined tone curve.

このように、黒目領域の色の変更は、黒目領域の形状と同じ形状を有する略円形の画像を撮影画像の上に合成するのではなく、撮影画像の画素の色自体を変更するようにして行われる。また、人ごとに微妙に異なるオリジナルの色を元にして、オリジナルの色を変更するようにして黒目領域の色の変更が行われる。 In this way, the color of the iris area is changed by changing the color of the pixels in the captured image itself, rather than composing a substantially circular image having the same shape as the iris area on top of the captured image. It will be done. Furthermore, the color of the iris area is changed by changing the original color based on the original color, which differs slightly from person to person.

ブラウン、ショコラ、グレー、ブラックの中から同じ色を選択したとしても人ごとに微妙に異なる色となるため、黒目領域の印象を、違和感なく、自然な見映えがする状態で変更することが可能となる。 Even if you choose the same color from brown, chocolate, gray, or black, the color will be slightly different for each person, so it is possible to change the impression of the black eye area while still looking natural and natural. becomes.

仮に、所定の色の円形の画像を黒目領域に合成する形で黒目領域の色の変更が行われるとした場合、人によっては、黒目領域の色が大きく変わってしまったり、目の向きやストロボ光の当たり方などに応じた見え方の違いが損なわれてしまったりすることがあるが、そのような不自然な色の変更が行われるのを防ぐことが可能となる。 If the color of the iris area were to be changed by compositing a circular image of a predetermined color onto the iris area, some people might notice that the color of the iris area changes significantly, or that the direction of the eyes or the strobe light changes. Differences in appearance depending on the way the light hits it may be lost, but it is possible to prevent such unnatural color changes.

・輪郭濃度調整ツール
次に、輪郭濃度調整ツールを用いて行われる目の輪郭の濃さの調整について説明する。
- Contour Density Adjustment Tool Next, the adjustment of the darkness of the eye contour performed using the contour density adjustment tool will be described.

選択ボタン511-3が押下された場合、編集パレット503Rには、例えば、目の輪郭の濃さの調整に用いられるスライドバーが表示される。編集パレット503Rの左側には顔画像領域512が表示される。 When the selection button 511-3 is pressed, a slide bar used for adjusting the darkness of the eye outline, for example, is displayed on the editing palette 503R. A face image area 512 is displayed on the left side of the editing palette 503R.

顔画像領域512に顔が表示されている利用者を対象として、目の輪郭の濃さを変更する処理である輪郭濃度調整処理が輪郭調整部433B(図19)により行われる。輪郭濃度調整処理も、領域検出部451により生成されたマスク画像Mを用いて行われる。 For a user whose face is displayed in the face image area 512, the contour adjustment unit 433B (FIG. 19) performs contour density adjustment processing, which is a process of changing the density of the eye contour. The contour density adjustment process is also performed using the mask image M generated by the area detection unit 451.

図36は、目の輪郭の濃さの調整の例を示す図である。 FIG. 36 is a diagram illustrating an example of adjusting the darkness of the eye outline.

目の輪郭を濃くすることが輪郭濃度調整ツールによって選択された場合、輪郭調整部433Bは、目の輪郭、目の黒目の輪郭、および、まつげを、マスク画像Mを用いて抽出する。 When darkening the eye contour is selected by the contour density adjustment tool, the contour adjustment unit 433B extracts the eye contour, the iris contour, and the eyelashes using the mask image M.

また、輪郭調整部433Bは、抽出したそれぞれの部分が濃くなるように、画素の色を調整する。例えば、抽出したそれぞれの部分を太くすることによって、または、色を濃くすることによって、目の輪郭、目の黒目の輪郭、および、まつげの調整が行われる。図36の下段の例においては、目の輪郭、目の黒目の輪郭(左右の縁)、および、まつげが、図36の上段の状態より濃い状態で示されている。 Further, the contour adjustment unit 433B adjusts the color of the pixels so that each extracted portion becomes darker. For example, the outline of the eyes, the outline of the iris, and the eyelashes are adjusted by making each extracted part thicker or darker in color. In the example in the lower row of FIG. 36, the outline of the eye, the outline of the iris (left and right edges), and the eyelashes are shown in a darker state than in the upper row of FIG.

図37は、目の輪郭の濃さの調整の他の例を示す図である。 FIG. 37 is a diagram showing another example of adjusting the darkness of the eye outline.

目の輪郭を薄くすることが輪郭濃度調整ツールによって選択された場合、輪郭調整部433Bは、目の輪郭、目の黒目の輪郭、および、まつげを、マスク画像Mを用いて抽出する。 When thinning the eye contour is selected by the contour density adjustment tool, the contour adjustment unit 433B extracts the eye contour, the black eye contour, and the eyelashes using the mask image M.

また、輪郭調整部433Bは、抽出したそれぞれの部分が薄くなるように、画素の色を調整する。例えば、抽出したそれぞれの部分を細くすることによって、または、色を薄くすることによって、目の輪郭、目の黒目の輪郭、および、まつげの調整が行われる。 Furthermore, the contour adjustment unit 433B adjusts the color of the pixels so that each extracted portion becomes lighter. For example, the outline of the eyes, the outline of the iris of the eye, and the eyelashes are adjusted by making each extracted part thinner or lighter in color.

このように、目の輪郭の調整は、マスク画像Mに基づいて、目の輪郭、目の黒目の輪郭、および、まつげを一体として調整するようにして行われる。スライドバーが複数表示され、目の輪郭、目の黒目の輪郭、および、まつげの濃さのそれぞれを調整することができるようにしてもよい。 In this way, the adjustment of the eye contour is performed based on the mask image M by adjusting the eye contour, the black eye contour, and the eyelashes as one unit. A plurality of slide bars may be displayed so that the outline of the eye, the outline of the iris of the eye, and the darkness of the eyelashes can be adjusted.

このような輪郭濃度調整処理が、輪郭濃度調整ツールの対象とする利用者を選択して行われる。 Such contour density adjustment processing is performed by selecting a target user of the contour density adjustment tool.

例えば、図32を参照して説明したように、輪郭濃度調整ツールの対象とする利用者が右側に写る利用者として選択されている場合、スライドバーが操作されることに応じて、編集領域501Rの撮影画像が、右側の利用者の目の輪郭の濃さが変更された撮影画像に切り替えられる。 For example, as described with reference to FIG. 32, if the target user of the contour density adjustment tool is selected as the user on the right side, the editing area 501R The captured image is switched to a captured image in which the density of the eye outline of the user on the right side has been changed.

同様に、輪郭濃度調整ツールの対象とする利用者が左側に写る利用者として選択されている場合、スライドバーが操作されることに応じて、編集領域501Rの撮影画像が、左側の利用者の目の輪郭の濃さが変更された撮影画像に切り替えられる。 Similarly, if the target user of the contour density adjustment tool is selected as the user on the left side, the captured image in the editing area 501R will be changed to the user on the left side in response to the slide bar being operated. The image is switched to a photographed image in which the darkness of the eye outline has been changed.

また、輪郭濃度調整ツールの対象とする利用者が2人の利用者として選択されている場合、スライドバーが操作されることに応じて、編集領域501Rの撮影画像が、左側と右側の2人の利用者の目の輪郭の濃さが変更された撮影画像に切り替えられる。 In addition, if two users are selected as targets for the contour density adjustment tool, the captured image in the editing area 501R will be changed to the two users on the left and right sides in response to the slide bar being operated. The image is switched to a photographed image in which the density of the outline of the user's eyes has been changed.

このように、輪郭濃度調整ツールを利用することにより、利用者は、1枚の撮影画像毎に、かつ、撮影画像に写っている利用者毎に、目の輪郭の濃さを変えることができる。また、利用者は、2人の利用者の目の輪郭の濃さを同時に変えることもできる。 In this way, by using the contour density adjustment tool, the user can change the darkness of the eye contour for each photographed image and for each user in the photographed image. . The user can also change the darkness of the eye contours of two users at the same time.

アイカラーツールと輪郭濃度調整ツールを合わせて利用することにより、利用者は、黒目の色については利用者毎に個別に調整し、目の輪郭などの濃さについては2人まとめて調整するといったことが可能となる。また、利用者は、黒目の色については2人まとめて調整し、目の輪郭などの濃さについては利用者毎に個別に調整するといったことが可能となる。 By using the eye color tool and contour density adjustment tool together, users can adjust the color of the black eye individually for each user, and adjust the darkness of the eye outline etc. for both users at the same time. becomes possible. Further, the users can adjust the color of the iris of two people's eyes at once, and individually adjust the darkness of the outline of the eyes for each user.

<変形例>
・他のメイクツールの例
メイクツールとして用意されるリップツール、チークツールを用いた処理が、アイカラーツールと同様にして行われるようにしてもよい。
<Modified example>
- Examples of other makeup tools Processing using a lip tool and a cheek tool provided as makeup tools may be performed in the same manner as the eye color tool.

例えば選択ボタン511-4が押下され、リップツールが選択された場合、リップツールの対象として選択された利用者の唇の色が、編集パレット503Rに表示されたボタンを用いて選択された色に応じて変更される。マスク画像を用いて抽出された唇領域を構成する画素の色の変更が、オリジナルの唇の色を基準にして、その基準の色を、選択された色に応じて調整するようにして行われる。 For example, when the selection button 511-4 is pressed and the lip tool is selected, the color of the user's lips selected as the target of the lip tool is changed to the color selected using the button displayed on the editing palette 503R. Changes will be made accordingly. The color of pixels constituting the lip area extracted using the mask image is changed based on the original lip color, and the reference color is adjusted according to the selected color. .

・出力先に応じた処理の切り替え
アイカラーツールによって色が変更される黒目領域は、画像全体に対して狭い領域である。仮に、黒目領域の色を変更した複数枚の画像を並べてシール紙に印刷した場合、それぞれの画像に写る黒目が小さいために、レイアウトによっては、黒目領域の色の違いを表現できないことがある。また、黒目全体が不自然な色に見えてしまうことがある。
・Switching processing according to the output destination The iris area whose color is changed using the eye color tool is a narrow area compared to the entire image. If a plurality of images with different colors of the iris areas are printed side by side on sticker paper, the iris in each image is small, so depending on the layout, it may not be possible to express the difference in the color of the iris areas. Additionally, the entire iris of the eye may appear to be an unnatural color.

アイカラーツールによる黒目領域の色の変更が、編集画面に表示する画像には反映され、シール紙に印刷する画像には反映されないようにしてもよい。この場合、それぞれの撮影画像を対象として、編集画面に表示する画像を生成するための処理と、シール紙に印刷する画像を生成するための処理とが、利用者の操作に応じて行われることになる。 A change in the color of the iris area using the eye color tool may be reflected in the image displayed on the editing screen, but not reflected in the image printed on the sticker paper. In this case, for each captured image, processing to generate an image to be displayed on the editing screen and processing to generate an image to be printed on sticker paper are performed in response to user operations. become.

すなわち、撮影画像P101が編集対象として選択されている場合において、アイカラーツールによる黒目領域の色の変更が利用者により指示された場合、黒目領域の色を変更した撮影画像P101が、編集画面に表示する画像として生成されるとともに、黒目領域の色を変更していない撮影画像P101が、シール紙に印刷する画像として生成される。 That is, when the photographed image P101 is selected as an editing target and the user instructs to change the color of the iris area using the eye color tool, the photographed image P101 with the color of the iris area changed is displayed on the editing screen. The captured image P101, which is generated as an image to be displayed and in which the color of the iris area is not changed, is generated as an image to be printed on sticker paper.

これにより、画像の出力先に応じて適切な画像を生成することができ、不自然な見え方の画像がシール紙に印刷されてしまうといったことを防ぐことが可能となる。 As a result, an appropriate image can be generated depending on the destination of the image, and it is possible to prevent an unnatural looking image from being printed on the sticker paper.

なお、黒目領域の色を変更した状態で編集画面に表示された撮影画像P101に対しては、各種の編集ツールを用いた編集が利用者の操作に応じて施される。編集については施され、黒目領域の色については変更されていない画像がシール紙には印刷されることになる。 Note that the photographed image P101 displayed on the editing screen with the color of the iris area changed is edited using various editing tools according to the user's operations. An image that has been edited but with the color of the iris area unchanged will be printed on the sticker paper.

画像の出力先が編集画面(タブレット内蔵モニタ131)またはシール紙であるものとしたが、他の出力先に応じて処理が切り替えられるようにしてもよい。出力先には、タッチパネルモニタ92などの写真シール作成装置1に設けられる構成だけでなく、利用者のスマートフォンのモニタ、画像管理サーバが含まれる。 Although it is assumed that the output destination of the image is the editing screen (tablet built-in monitor 131) or the sticker paper, the processing may be switched depending on other output destinations. Output destinations include not only components provided in the photo sticker creation device 1 such as the touch panel monitor 92, but also the monitor of the user's smartphone and the image management server.

なお、画像の印刷媒体がシール紙である場合について説明したが、印刷用紙、樹脂製のカード、布などの各種の媒体がシール紙に代えて用いられるようにしてもよい。 Although the case has been described in which the image printing medium is sticker paper, various media such as printing paper, resin cards, cloth, etc. may be used instead of sticker paper.

・プログラムについて
上述した一連の処理は、ハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または、汎用のパーソナルコンピュータなどにインストールされる。
- Regarding the program The series of processes described above can be executed by hardware or software. When a series of processes is executed by software, a program constituting the software is installed in a computer built into dedicated hardware or a general-purpose personal computer.

インストールされるプログラムは、光ディスク(CD-ROM(Compact Disc-Read Only Memory),DVD(Digital Versatile Disc)等)や半導体メモリなどよりなる図16に示されるリムーバブルメディア319に記録して提供される。また、ローカルエリアネットワーク、インターネット、デジタル放送といった、有線または無線の伝送媒体を介して提供されるようにしてもよい。プログラムは、ROM312や記憶部316に、あらかじめインストールしておくことができる。 The program to be installed is provided by being recorded on a removable medium 319 shown in FIG. 16, such as an optical disk (CD-ROM (Compact Disc-Read Only Memory), DVD (Digital Versatile Disc), etc.) or semiconductor memory. It may also be provided via a wired or wireless transmission medium, such as a local area network, the Internet, or digital broadcasting. The program can be installed in the ROM 312 or the storage unit 316 in advance.

なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。 Note that the program executed by the computer may be a program in which processing is performed chronologically in accordance with the order described in this specification, in parallel, or at necessary timing such as when a call is made. It may also be a program that performs processing.

本明細書に記載された効果はあくまで例示であって限定されるものでは無く、また他の効果があってもよい。 The effects described in this specification are merely examples and are not limiting, and other effects may also exist.

本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。 The embodiments of the present technology are not limited to the embodiments described above, and various changes can be made without departing from the gist of the present technology.

例えば、本技術は、1つの機能を、ネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。 For example, the present technology can take a cloud computing configuration in which one function is shared and jointly processed by multiple devices via a network.

また、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。 Moreover, each step explained in the above-mentioned flowchart can be executed by one device or can be shared and executed by a plurality of devices.

さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。 Furthermore, when one step includes multiple processes, the multiple processes included in that one step can be executed by one device or can be shared and executed by multiple devices.

1 写真シール作成装置, 66 鏡面部, 82 上ストロボユニット, 91 カメラ, 92 タッチパネルモニタ, 131 タブレット内蔵モニタ, 301 PC部, 302 事前選択部, 304 撮影部, 305 編集部, 306 印刷部, 401 事前選択処理部, 402 撮影処理部, 403 編集処理部, 404 印刷処理部, 411 撮影制御部, 412 画像処理部, 413 表示制御部, 414 画像記憶部, 431 選択受付部, 432 編集用画像生成部, 433 編集制御部, 434 表示制御部, 435 印刷データ生成部, 436 通信制御部, 451 領域検出部, 452 レタッチ処理部, 453 性別判定部, 454 まつげ処理部, 455 縮小部 1 Photo sticker making device, 66 Mirror section, 82 Upper strobe unit, 91 Camera, 92 Touch panel monitor, 131 Monitor with built-in tablet, 301 PC section, 302 Pre-selection section, 304 Photography section, 305 Editorial section, 306 Printing section, 401 Preliminary selection processing section, 402 photographing processing section, 403 editing processing section, 404 print processing section, 411 photographing control section, 412 image processing section, 413 display control section, 414 image storage section, 431 selection reception section, 432 image generation section for editing , 433 editing control unit, 434 display control unit, 435 print data generation unit, 436 communication control unit, 451 area detection unit, 452 retouch processing unit, 453 gender determination unit, 454 eyelash processing unit, 455 reduction unit

Claims (8)

撮影画像に写る人物の黒目を検出する検出部と、
利用者による操作に応じて、黒目の縁の濃さを変更する画像処理部と
を備える画像処理装置。
A detection unit that detects the iris of a person in a photographed image,
An image processing unit that changes the density of the edge of the iris according to an operation by a user.
前記画像処理部は、黒目の色をさらに変更する
請求項1に記載の画像処理装置。
The image processing device according to claim 1, wherein the image processing unit further changes the color of the iris.
黒目の色の調整に用いるツールを選択するときに操作されるボタンと、黒目の縁の濃さの調整に用いるツールを選択するときに操作されるボタンとを前記撮影画像とともに同じ画面に表示させる表示制御部をさらに備える
請求項2に記載の画像処理装置。
A button operated when selecting a tool used for adjusting the color of the iris of the eye and a button operated when selecting a tool used for adjusting the darkness of the edge of the iris are displayed on the same screen together with the photographed image. The image processing device according to claim 2, further comprising a display control section.
前記画像処理部は、前記撮影画像に写る複数の人物のうちの1人の黒目の色を変更し、前記複数の人物全員の黒目の縁の濃さをまとめて変更する
請求項2または3に記載の画像処理装置。
According to claim 2 or 3, the image processing unit changes the color of the iris of one of the plurality of people appearing in the photographed image, and changes the darkness of the iris of the iris of all of the plurality of people at once. The image processing device described.
前記画像処理部は、前記撮影画像に写る複数の人物のうちの1人の黒目の縁の濃さを変更し、前記複数の人物全員の黒目の色をまとめて変更する
請求項2または3に記載の画像処理装置。
According to claim 2 or 3, the image processing unit changes the darkness of the edge of the iris of one of the plurality of people in the photographed image, and changes the color of the iris of all of the plurality of people at once. The image processing device described.
前記画像処理部は、目の輪郭の濃さと黒目の縁の濃さとをそれぞれ変更する
請求項1に記載の画像処理装置。
The image processing device according to claim 1, wherein the image processing unit changes the density of the outline of the eye and the density of the edge of the iris.
画像処理装置が、
撮影画像に写る人物の黒目を検出し、
利用者による操作に応じて、黒目の縁の濃さを変更する
画像処理方法。
The image processing device
Detects the black eyes of people in captured images,
An image processing method that changes the density of the edges of the iris according to user operations.
コンピュータに、
撮影画像に写る人物の黒目を検出し、
利用者による操作に応じて、黒目の縁の濃さを変更する
処理を実行させるプログラム。
to the computer,
Detects the black eyes of people in captured images,
A program that executes processing to change the darkness of the edges of the iris according to user operations.
JP2023135602A 2019-09-05 2023-08-23 Image processing apparatus, image processing method, and program Pending JP2023164461A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023135602A JP2023164461A (en) 2019-09-05 2023-08-23 Image processing apparatus, image processing method, and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019161941A JP7339515B2 (en) 2019-09-05 2019-09-05 Image processing device, image processing method, and program
JP2023135602A JP2023164461A (en) 2019-09-05 2023-08-23 Image processing apparatus, image processing method, and program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2019161941A Division JP7339515B2 (en) 2019-09-05 2019-09-05 Image processing device, image processing method, and program

Publications (1)

Publication Number Publication Date
JP2023164461A true JP2023164461A (en) 2023-11-10

Family

ID=74848683

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2019161941A Active JP7339515B2 (en) 2019-09-05 2019-09-05 Image processing device, image processing method, and program
JP2023135602A Pending JP2023164461A (en) 2019-09-05 2023-08-23 Image processing apparatus, image processing method, and program

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2019161941A Active JP7339515B2 (en) 2019-09-05 2019-09-05 Image processing device, image processing method, and program

Country Status (1)

Country Link
JP (2) JP7339515B2 (en)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013058165A (en) 2011-09-09 2013-03-28 Nikon Corp Image processing device and camera
CN117555164A (en) 2017-06-14 2024-02-13 株式会社目立康 Contact lens for beauty
JP6635170B2 (en) 2018-10-22 2020-01-22 辰巳電子工業株式会社 Photo shooting game device, image processing method, and image processing program

Also Published As

Publication number Publication date
JP2021039655A (en) 2021-03-11
JP7339515B2 (en) 2023-09-06

Similar Documents

Publication Publication Date Title
JP5748651B2 (en) Image processing apparatus, image processing method, and program
JP7248920B2 (en) Image processing device, image processing method, program
JP7152687B2 (en) Display control device, display control method, program
JP2018031860A (en) Photograph creating game machine, and information processing method
JP6477780B2 (en) Photo sticker creation apparatus, photo sticker creation method, and photo sticker creation processing program
JP7339515B2 (en) Image processing device, image processing method, and program
JP2018107515A (en) Photograph formation game machine and image processing method
JP6357800B2 (en) Image processing apparatus and image processing method
JP7140962B2 (en) Image processing device, control method, and program
JP7132492B2 (en) Image processing device, display control method, and program
JP2021039654A (en) Image processing device, image processing method, and program
JP2021043797A (en) Image processing device, image processing method, and image processing program
JP6421969B2 (en) Image processing apparatus and control method
JP6303561B2 (en) Image processing apparatus and photographing method
JP2021044734A (en) Image processing device, image processing method, and program
JP2020144780A (en) Image processing device, image processing method, and image processing program
JP6465333B2 (en) Image processing apparatus and image processing method
JP7290826B2 (en) Image processing device, image processing method, and program
JP5970013B2 (en) Photo sticker making apparatus and photo sticker making method
JP7364866B2 (en) Image processing device, editing device
JP7406065B2 (en) Photography equipment, photography method, and program
JP7401727B2 (en) Image processing device, image processing method, and image processing program
JP7319534B2 (en) camera
JP6982230B2 (en) Photographing game console and image processing method
JP2024064430A (en) Photo creation game machine, image processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230823