JP7140962B2 - Image processing device, control method, and program - Google Patents

Image processing device, control method, and program Download PDF

Info

Publication number
JP7140962B2
JP7140962B2 JP2018086204A JP2018086204A JP7140962B2 JP 7140962 B2 JP7140962 B2 JP 7140962B2 JP 2018086204 A JP2018086204 A JP 2018086204A JP 2018086204 A JP2018086204 A JP 2018086204A JP 7140962 B2 JP7140962 B2 JP 7140962B2
Authority
JP
Japan
Prior art keywords
image
user
content
retouching
editing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018086204A
Other languages
Japanese (ja)
Other versions
JP2019192061A (en
Inventor
仁志 飛田
周平 矢本
莉恵 北野
俊介 中嶋
瞳 高松
和人 片田
みな子 坂原
美穂 田端
Original Assignee
フリュー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by フリュー株式会社 filed Critical フリュー株式会社
Priority to JP2018086204A priority Critical patent/JP7140962B2/en
Publication of JP2019192061A publication Critical patent/JP2019192061A/en
Application granted granted Critical
Publication of JP7140962B2 publication Critical patent/JP7140962B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本技術は、画像処理装置、制御方法、およびプログラムに関し、特に、バランスのよい画像処理を施すことができるようにする画像処理装置、制御方法、およびプログラムに関する。 The present technology relates to an image processing device , a control method, and a program, and more particularly to an image processing device , a control method, and a program that enable well-balanced image processing.

従来、写真シール作成装置が知られている。写真シール作成装置は、利用者を撮影し、撮影画像に対して利用者に編集を行わせ、編集後の画像をシール紙に印刷して提供するものである。写真シール作成装置は遊戯施設などに設置される。 Conventionally, a photo sticker creating device is known. A photo sticker creating apparatus photographs a user, makes the user edit the photographed image, and prints the edited image on sticker paper to provide the edited image. A photo sticker creating device is installed in an amusement facility or the like.

写真シール作成装置が提供する1ゲームの流れは、通常、撮影空間内にいる利用者を被写体として撮影を行った後、利用者を編集空間に移動させ、編集空間内で行われる操作に従って画像を編集して、編集済みの画像をシール紙に印刷するものとなる。 The flow of one game provided by the photo sticker creating device is that after taking a picture of the user in the shooting space as the subject, the user is moved to the editing space, and the image is displayed according to the operation performed in the editing space. After editing, the edited image is printed on sticker paper.

ところで、写真シール作成装置の中には、撮影後、画像に写る顔を小さくしたり、目を大きくしたりするなどのレタッチを行うことができるようにしたものがある。レタッチは、処理対象となる部位を認識し、認識した部位の位置、大きさ、形状を変更する画像処理である。 By the way, some photo sticker creating devices allow retouching such as making the face appearing in the image smaller or enlarging the eyes after the photograph is taken. Retouching is image processing for recognizing a part to be processed and changing the position, size, and shape of the recognized part.

また、唇の色を変更したり、髪の色を変更したりするなどのコンテンツ合成を行うことができるようにしたものがある。コンテンツ合成は、撮影によって得られた画像に基づいてマスク画像を生成し、生成したマスク画像を用いて、所定の色の画像などの他の画像(コンテンツ)を合成することによって行われる。例えば、唇の色を変更する場合、唇の領域のマスク画像を用いて、派手な色の唇の画像を合成するなどの処理が行われる。 In addition, there are some that allow content composition such as changing the color of the lips or changing the color of the hair. Content synthesis is performed by generating a mask image based on an image obtained by photographing, and using the generated mask image to synthesize another image (content) such as an image of a predetermined color. For example, when changing the color of the lips, a mask image of the lip area is used to synthesize an image of brightly colored lips.

特開2013-243648号公報JP 2013-243648 A

特定の部位の大きさを変更したりすることができるものの、慣れていない利用者にとっては、バランスのよいレタッチを施すことが難しい。例えば目を拡大することができる回数に制限がなく、不自然な写りになることがあった。 Although it is possible to change the size of a specific part, it is difficult for users who are not used to it to retouch in a well-balanced manner. For example, there is no limit to the number of times the eyes can be enlarged, which sometimes results in an unnatural image.

また、メイク系のコンテンツを利用してコンテンツ合成を行った後にレタッチを行った場合、利用者が想定していた印象と異なる印象の画像が出来上がることがあった。例えば、アイラインのコンテンツを合成する操作を行った後、さらに、利用者が目を大きくした場合、目元が強調されすぎてバランスが悪くなってしまう。 In addition, when retouching is performed after compositing content using makeup-related content, an image with an impression different from that expected by the user may be produced. For example, if the user enlarges the eyes after performing the operation of synthesizing the eyeline content, the eyes are overemphasized and the balance is lost.

写真シール作成装置のシステム側にとっても、メイク系のコンテンツの合成を行った後に顔の部位の形状を変更するなどのレタッチを行う場合、位置のずれなどを防ぐためには、レタッチ後の形状に応じたマスク画像を再度生成し、メイク系のコンテンツを合成し直す必要がある。 For the system side of the photo sticker creation device, when performing retouching such as changing the shape of the face after compositing makeup content, in order to prevent misalignment etc., it is necessary to adjust the shape after retouching. It is necessary to regenerate the mask image and synthesize makeup content again.

本技術はこのような状況に鑑みてなされたものであり、バランスのよい画像処理を施すことができるようにするものである。 The present technology has been developed in view of such a situation, and enables well-balanced image processing.

本技術の画像処理装置は、利用者を被写体とした撮影画像に対するレタッチ操作用の第1の情報と、コンテンツ合成操作用の第2の情報とが設けられた編集画面を表示させる表示制御部と、前記第1の情報を用いた前記利用者の操作に応じて、前記撮影画像に対してレタッチを施す画像処理部と、前記第2の情報を用いた前記利用者の操作に応じて、前記撮影画像に対してコンテンツを合成する合成処理部と、前記レタッチと前記コンテンツの合成とのうちの一方の操作を受け付けた後に他方の操作を受け付けないように、前記編集画面に対する前記利用者の操作の受け付けを制御する制御部とを備える。 An image processing apparatus according to the present technology includes a display control unit that displays an editing screen provided with first information for retouching operation and second information for content composition operation for a photographed image in which a user is a subject; an image processing unit that retouches the photographed image according to the user's operation using the first information ; a synthesizing unit for synthesizing content with a photographed image; and an operation of the user on the editing screen so as not to accept one operation of retouching and synthesizing the content after accepting the other operation. and a control unit that controls acceptance of

本技術においては、利用者を被写体とした撮影画像に対するレタッチ操作用の第1の情報と、コンテンツ合成操作用の第2の情報とが設けられた編集画面が表示され、第1の情報を用いたレタッチと第2の情報を用いたコンテンツの合成とのうちの一方の操作を受け付けた後に他方の操作を受け付けないように、利用者の操作の受け付けが制御される。 In the present technology, an editing screen provided with first information for a retouching operation and second information for a content synthesizing operation for a photographed image in which the user is the subject is displayed, and the first information is used. Acceptance of a user's operation is controlled such that, after accepting one operation of retouching and synthesizing content using the second information, the other operation is not accepted.

本技術によれば、バランスのよい画像処理を施すことができる。 According to the present technology, well-balanced image processing can be performed.

本技術の写真シール作成装置の外観の構成例を示す斜視図である。It is a perspective view showing an example of composition of appearance of a photograph sticker production device of this art. 写真シール作成装置の外観を他の角度からみた斜視図である。FIG. 10 is a perspective view of the appearance of the photo sticker creating apparatus as seen from another angle; 利用者の移動について説明する図である。It is a figure explaining a user's movement. 事前選択部の構成例を示す図である。It is a figure which shows the structural example of a prior selection part. 撮影部の構成例を示す図である。It is a figure which shows the structural example of an imaging part. 背景部の構成例を示す図である。It is a figure which shows the structural example of a background part. 編集ユニットの正面の構成例を示す図である。It is a figure which shows the structural example of the front of an editing unit. 編集ユニットの側面の構成例を示す図である。FIG. 4 is a diagram showing a configuration example of a side surface of an editing unit; 編集画像のレイヤ構成の例を示す図である。FIG. 4 is a diagram showing an example of a layer configuration of an edited image; 写真シール作成装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of a photo sticker production apparatus. 写真シール作成装置の機能構成例を示すブロック図である。2 is a block diagram showing a functional configuration example of a photo sticker creating device; FIG. 編集処理部の構成例を示すブロック図である。2 is a block diagram showing a configuration example of an edit processing unit; FIG. 画像処理の対象となるレイヤの例を示す図である。FIG. 4 is a diagram showing an example of layers to be subjected to image processing; 操作の受け付けの制限の例を示す図である。FIG. 10 is a diagram illustrating an example of restrictions on acceptance of an operation; 操作の受け付けの制限の他の例を示す図である。FIG. 10 is a diagram showing another example of restrictions on acceptance of operations; 写真シール作成装置のゲーム処理について説明するフローチャートである。4 is a flowchart for explaining game processing of the photo sticker creating device; 図16のステップS4において行われる編集処理について説明するフローチャートである。FIG. 17 is a flowchart for explaining editing processing performed in step S4 of FIG. 16; FIG. 編集画面の例を示す図である。FIG. 10 is a diagram showing an example of an edit screen; 図17のステップS32において行われる操作受付制御処理について説明するフローチャートである。FIG. 18 is a flowchart for explaining operation reception control processing performed in step S32 of FIG. 17; FIG. 操作の受け付けの制限の例を示す図である。FIG. 10 is a diagram illustrating an example of restrictions on acceptance of an operation; 操作の受け付けの制限の他の例を示す図である。FIG. 10 is a diagram showing another example of restrictions on acceptance of operations; 編集画面の一部の表示例を示す図である。It is a figure which shows the example of a display of one part of an edit screen.

<<実施例1>>
<写真シール作成装置の外観>
図1および図2は、写真シール作成装置1の外観の構成例を示す斜視図である。
<<Example 1>>
<Appearance of photo sticker making device>
1 and 2 are perspective views showing configuration examples of the appearance of the photo sticker creating apparatus 1. FIG.

写真シール作成装置1は、撮影画像や編集画像を提供するゲーム機である。写真シール作成装置1は、画像をシール紙に印刷したり、画像を利用者の携帯端末上で閲覧可能にしたりすることで、利用者に画像を提供する。写真シール作成装置1は、ゲームセンターなどのアミューズメント施設や店舗に設置される。 The photo sticker creation device 1 is a game machine that provides photographed images and edited images. The photo sticker creating apparatus 1 provides images to users by printing the images on sticker paper or making the images viewable on the user's portable terminal. The photo sticker creating device 1 is installed in an amusement facility such as a game center or a store.

写真シール作成装置1の利用者は、主に女子高生や若い女性が中心とされる。写真シール作成装置1において、1組あたり主に2人や3人などの複数人の利用者がゲームを楽しむことができる。もちろん、写真シール作成装置1において、1人の利用者がゲームを楽しむこともできる。 Users of the photo sticker creating apparatus 1 are mainly high school girls and young women. In the photo sticker creating device 1, a plurality of users, mainly two or three, can enjoy the game per group. Of course, one user can also enjoy the game in the photo sticker creating apparatus 1 .

写真シール作成装置1において、利用者は、自身が被写体となって撮影作業を行う。利用者は、編集作業により、撮影によって得られた撮影画像の中から選択した画像に、手書きの文字やスタンプ画像などの合成用画像を合成させる。これにより、撮影画像が彩り豊かな画像に編集される。利用者は、編集済みの画像である編集画像が印刷されたシール紙を受け取って一連のゲームを終了させる。 In the photo sticker creating apparatus 1, the user himself/herself becomes a subject and performs photographing work. Through editing work, the user combines an image for composition such as handwritten characters or a stamp image with an image selected from the photographed images obtained by photographing. As a result, the photographed image is edited into a colorful image. The user receives the seal paper on which the edited image, which is the edited image, is printed, and ends the series of games.

写真シール作成装置1は、写真作成ゲームを提供する写真作成ゲーム機ということができる。 The photo sticker creation device 1 can be called a photo creation game machine that provides a photo creation game.

図1に示すように、写真シール作成装置1は、基本的に、撮影ユニット11と編集ユニット12が接した状態で設置されることによって構成される。撮影ユニット11と編集ユニット12は電気的に接続される。 As shown in FIG. 1, the photo sticker creating apparatus 1 is basically configured by installing a photographing unit 11 and an editing unit 12 in contact with each other. The photographing unit 11 and the editing unit 12 are electrically connected.

撮影ユニット11は、人が中に入ることができる程度の大きさを有する箱形状の筐体を有し、事前選択部20、撮影部21、および背景部22から構成される。事前選択部20は、撮影部21の側面に設置される。事前選択部20の前方の空間が、事前選択処理が行われる事前選択空間となる。また、撮影部21と背景部22は所定の距離だけ離して設置される。撮影部21と背景部22の間に形成される空間が、撮影処理が行われる撮影空間となる。 The photographing unit 11 has a box-shaped housing large enough for a person to enter, and is composed of a pre-selection section 20 , a photographing section 21 and a background section 22 . The pre-selection unit 20 is installed on the side of the imaging unit 21 . The space in front of the pre-selection unit 20 becomes the pre-selection space where the pre-selection process is performed. Also, the photographing unit 21 and the background unit 22 are placed apart from each other by a predetermined distance. A space formed between the photographing section 21 and the background section 22 is a photographing space in which photographing processing is performed.

事前選択部20は、事前選択処理として、写真シール作成装置1によって提供されるゲームを紹介するガイダンスを行ったり、撮影空間で行われる撮影処理における各種の設定を行ったりする。事前選択部20には、利用者が代金を投入する硬貨投入口や、各種の操作に用いられるタッチパネルモニタなどが設けられる。事前選択部20は、撮影空間の空き状況に応じて、適宜、事前選択空間にいる利用者を撮影空間へと案内する。 As the pre-selection process, the pre-selection unit 20 performs guidance for introducing games provided by the photo sticker creating apparatus 1, and performs various settings in the photographing process performed in the photographing space. The pre-selection unit 20 is provided with a coin slot into which the user inserts money, a touch panel monitor used for various operations, and the like. The pre-selection unit 20 appropriately guides the user in the pre-selected space to the imaging space according to the availability of the imaging space.

撮影部21は、利用者を被写体として撮影するための装置である。撮影部21は、撮影空間に入った利用者の正面に位置する。撮影空間に臨む撮影部21の正面には、カメラや、各種の操作に用いられるタッチパネルモニタなどが設けられる。 The photographing unit 21 is a device for photographing a user as a subject. The photographing unit 21 is positioned in front of the user entering the photographing space. A camera, a touch panel monitor used for various operations, and the like are provided in front of the photographing unit 21 facing the photographing space.

撮影空間において正面を向いている利用者からみて左側の面を左側面、右側の面を右側面とすると、撮影部21の左側面が側面パネル41Aにより構成され、右側面が側面パネル41Bにより構成される。さらに、撮影部21の正面が正面パネル42により構成される。側面パネル41Aには、上述した事前選択部20が設置される。なお、事前選択部20が、側面パネル41Bに設置されるようにしてもよい。 Assuming that the left side and the right side are the left side and the right side, respectively, as viewed from the user facing the front in the imaging space, the left side of the imaging unit 21 is composed of the side panel 41A, and the right side is composed of the side panel 41B. be done. Further, a front panel 42 constitutes the front of the photographing unit 21 . The preselection section 20 described above is installed on the side panel 41A. Note that the preselection unit 20 may be installed on the side panel 41B.

背景部22は、背面パネル51、側面パネル52A、および側面パネル52Bから構成される。背面パネル51は、正面を向いている利用者の背面側に位置する板状の部材である。側面パネル52Aは、背面パネル51の左端に取り付けられ、側面パネル41Aより横幅の狭い板状の部材である。側面パネル52Bは、背面パネル51の右端に取り付けられ、側面パネル41Bより横幅の狭い板状の部材である。 The background portion 22 is composed of a rear panel 51, side panels 52A, and side panels 52B. The back panel 51 is a plate-like member located on the back side of the user facing the front. The side panel 52A is a plate-like member attached to the left end of the rear panel 51 and having a width narrower than that of the side panel 41A. The side panel 52B is a plate-like member attached to the right end of the rear panel 51 and having a width narrower than that of the side panel 41B.

側面パネル41Aと側面パネル52Aは、ほぼ同一平面に設けられる。側面パネル41Aと側面パネル52Aの上部は、板状の部材である連結部23Aによって連結される。側面パネル41Aと側面パネル52Aの下部は、床面に設けた例えば金属製の部材である連結部23A’によって連結される。側面パネル41Bと側面パネル52Bも同様に、ほぼ同一平面に設けられる。側面パネル41Bと側面パネル52Bの上部は、連結部23Bによって連結される。側面パネル41Bと側面パネル52Bの下部は、連結部23B’によって連結される。 The side panel 41A and the side panel 52A are provided substantially on the same plane. Upper portions of the side panel 41A and the side panel 52A are connected by a connecting portion 23A, which is a plate-like member. The lower portions of the side panel 41A and the side panel 52A are connected by a connecting portion 23A' which is provided on the floor and is a member made of metal, for example. Similarly, the side panel 41B and the side panel 52B are provided substantially on the same plane. Upper portions of the side panel 41B and the side panel 52B are connected by a connecting portion 23B. The lower portions of the side panel 41B and the side panel 52B are connected by a connecting portion 23B'.

撮影空間の床には、板状の部材である床材27が敷かれる。床材27には、撮影時の立ち位置を指定するときに用いられるマークが印刷されている。 A floor material 27, which is a plate-like member, is laid on the floor of the imaging space. The flooring 27 is printed with a mark used for designating a standing position at the time of photographing.

なお、背面パネル51の撮影空間側の面には、例えば緑色のクロマキー用のシートが貼り付けられる。写真シール作成装置1は、クロマキー用のシートを背景として撮影することで、撮影処理や編集処理においてクロマキー合成を行う。これにより、所望の背景画像が、シートが写っている利用者の背景の部分に合成される。 For example, a green chromakey sheet is attached to the surface of the back panel 51 facing the imaging space. The photo sticker creating apparatus 1 performs chromakey synthesis in the shooting process and the editing process by shooting a chromakey sheet as a background. As a result, the desired background image is synthesized with the user's background in which the sheet is shown.

側面パネル41A、連結部23A、および側面パネル52Aに囲まれることによって形成される開口が撮影空間の出入り口となる。また、側面パネル41B、連結部23B、および側面パネル52Bに囲まれることによって形成される開口も撮影空間の出入り口となる。 An opening formed by being surrounded by the side panel 41A, the connecting portion 23A, and the side panel 52A serves as an entrance to the imaging space. An opening formed by being surrounded by the side panel 41B, the connecting portion 23B, and the side panel 52B also serves as an entrance to the imaging space.

撮影空間の上方には、撮影部21の正面、連結部23A、および連結部23Bに囲まれた天井が形成される。その天井の一部に、天井ストロボユニット24が設けられる。天井ストロボユニット24の一端が連結部23Aに固定され、他端が連結部23Bに固定される。 A ceiling surrounded by the front of the photographing unit 21, the connecting portion 23A, and the connecting portion 23B is formed above the photographing space. A ceiling strobe unit 24 is provided on a part of the ceiling. One end of the ceiling strobe unit 24 is fixed to the connecting portion 23A, and the other end is fixed to the connecting portion 23B.

天井ストロボユニット24は、撮影に合わせて撮影空間内に向けて光を照射するストロボを内蔵する。天井ストロボユニット24の内部には、ストロボの他に蛍光灯が設けられている。これにより、天井ストロボユニット24は、撮影空間の照明としても機能する。 The ceiling strobe unit 24 incorporates a strobe that irradiates light toward the inside of the photographing space in accordance with photographing. Inside the ceiling strobe unit 24, a fluorescent lamp is provided in addition to the strobe. As a result, the ceiling strobe unit 24 also functions as lighting for the shooting space.

編集ユニット12は、撮影画像に編集を施すための装置である。編集ユニット12は、一方の側面が撮影部21の正面パネル42に接するようにして、撮影ユニット11に連結している。 The editing unit 12 is a device for editing a captured image. The editing unit 12 is connected to the photographing unit 11 so that one side thereof contacts the front panel 42 of the photographing section 21 .

図1に示される編集ユニット12の構成を正面側の構成とすると、編集ユニット12の正面側と背面側のそれぞれに、編集作業で用いられる構成が設けられる。この構成により、2組の利用者が同時に編集作業を行うことができる。 If the configuration of the editing unit 12 shown in FIG. 1 is taken as the configuration on the front side, the configuration used in the editing work is provided on each of the front side and the back side of the editing unit 12 . This configuration allows two sets of users to perform editing work at the same time.

編集ユニット12の正面側は、面61と、面61の上方に形成された斜面62から構成される。面61は、床面に対して垂直で、撮影部21の側面パネル41Aとほぼ平行な面である。斜面62には、編集作業に用いられる構成として、タブレット内蔵モニタやタッチペンが設けられる。斜面62の左側には、照明装置64の一端を支持する柱状の支持部63Aが設けられる。斜面62の右側には、照明装置64の他端を支持する柱状の支持部63Bが設けられる。支持部63Aの上面にはカーテンレール26を支持する支持部65が設けられる。 The front side of the editing unit 12 is composed of a surface 61 and an inclined surface 62 formed above the surface 61 . The surface 61 is a surface that is perpendicular to the floor surface and substantially parallel to the side panel 41A of the imaging unit 21 . A built-in tablet monitor and a touch pen are provided on the slope 62 as components used for editing work. A columnar support portion 63A that supports one end of the lighting device 64 is provided on the left side of the slope 62 . A columnar support portion 63B that supports the other end of the lighting device 64 is provided on the right side of the slope 62 . A support portion 65 for supporting the curtain rail 26 is provided on the upper surface of the support portion 63A.

編集ユニット12の上方にはカーテンレール26が取り付けられる。カーテンレール26は、3本のレール26A乃至26Cを組み合わせて構成される。3本のレール26A乃至26Cは、上から見たときの形状がコの字状となるように組み合わせられる。平行に設けられるレール26Aとレール26Bの一端は、連結部23Aと連結部23Bにそれぞれ固定され、レール26Aとレール26Bの他端は、レール26Cの両端にそれぞれ接合される。 A curtain rail 26 is attached above the editing unit 12 . The curtain rail 26 is configured by combining three rails 26A to 26C. The three rails 26A to 26C are combined to form a U-shape when viewed from above. One ends of rails 26A and 26B provided in parallel are fixed to connecting portions 23A and 23B, respectively, and the other ends of rails 26A and 26B are joined to both ends of rail 26C, respectively.

カーテンレール26には、編集ユニット12の正面前方の空間と背面前方の空間が外から見えないようにカーテンが取り付けられる。そのカーテンにより囲まれる編集ユニット12の正面前方の空間と背面後方の空間が、利用者が編集作業を行う編集空間となる。 A curtain is attached to the curtain rail 26 so that the space in front of the front and the space in front of the back of the editing unit 12 are not visible from the outside. The space in front of the editing unit 12 surrounded by the curtain and the space behind the editing unit 12 become an editing space in which the user performs editing work.

後述するが、編集ユニット12の左側面には、印刷済みのシール紙が排出される排出口が設けられる。編集ユニット12の左側面前方の空間が、利用者が印刷済みのシール紙が排出されるのを待つ印刷待ち空間となる。 As will be described later, the left side of the editing unit 12 is provided with a discharge port through which the printed sticker paper is discharged. A space in front of the left side of the editing unit 12 becomes a print waiting space where the user waits for the printed sticker paper to be discharged.

<利用者の移動について>
ここで、写真シール作成ゲームの流れと、それに伴う利用者の移動について説明する。
<Regarding the movement of users>
Here, the flow of the photo sticker creation game and the movement of the user associated therewith will be described.

図3は、写真シール作成装置1を上から見た平面図である。 FIG. 3 is a top plan view of the photo sticker creating apparatus 1. FIG.

利用者は、事前選択部20の前方の空間である事前選択空間A0において硬貨投入口に代金を投入する。次に、利用者は、タッチパネルモニタに表示される画面に従って各種の設定を行う。利用者は、例えば、撮影空間で行われる撮影に関するコースの選択などを事前選択作業として行う。 The user inserts money into the coin slot in the pre-selection space A0, which is the space in front of the pre-selection section 20. FIG. Next, the user makes various settings according to the screen displayed on the touch panel monitor. The user performs, for example, selection of a course related to photographing to be performed in the photographing space as a pre-selection work.

事前選択作業を終えた利用者は、白抜き矢印#1で示すように、側面パネル41Aと側面パネル52Aの間の出入り口G1から、撮影部21と背景部22の間に形成された撮影空間A1に入る。利用者は、撮影部21に設けられたカメラやタッチパネルモニタなど利用して撮影作業を行う。 After completing the pre-selection work, the user enters the imaging space A1 formed between the imaging unit 21 and the background unit 22 from the entrance G1 between the side panel 41A and the side panel 52A, as indicated by the white arrow #1. to go into. A user uses a camera, a touch panel monitor, or the like provided in the photographing unit 21 to perform photographing work.

撮影作業を終えた利用者は、白抜き矢印#2で示すように出入り口G1から撮影空間A1を出て編集空間A2-1に移動するか、または、白抜き矢印#3で示すように出入り口G2から撮影空間A1を出て編集空間A2-2に移動する。 The user who has completed the photographing work exits the photographing space A1 from the doorway G1 as indicated by the white arrow #2 and moves to the editing space A2-1, or enters the doorway G2 as indicated by the white arrow #3. , exits the photographing space A1 and moves to the editing space A2-2.

編集空間A2-1は、編集ユニット12の正面側の編集空間である。一方、編集空間A2-2は、編集ユニット12の背面側の編集空間である。利用者が編集空間A2-1と編集空間A2-2のいずれの空間に移動するのかは、撮影部21のタッチパネルモニタの画面表示などによって案内される。例えば2つの編集空間のうちの空いている方が移動先として案内される。編集空間A2-1または編集空間A2-2に移動した利用者は、編集作業を開始する。編集空間A2-1の利用者と、編集空間A2-2の利用者は同時に編集作業を行うことができる。 The editing space A2-1 is an editing space on the front side of the editing unit 12. FIG. On the other hand, the editing space A2-2 is the editing space behind the editing unit 12. FIG. To which of the editing space A2-1 and the editing space A2-2 the user should move is guided by the screen display of the touch panel monitor of the photographing unit 21 or the like. For example, the empty one of the two editing spaces is guided as the destination. The user who has moved to the editing space A2-1 or the editing space A2-2 starts editing work. The user of the editing space A2-1 and the user of the editing space A2-2 can perform editing work at the same time.

編集作業が終了した後、編集画像の印刷が開始される。印刷が開始されると、編集空間A2-1での編集作業を終えた利用者は、白抜き矢印#4で示すように編集空間A2-1から印刷待ち空間A3に移動する。また、編集空間A2-2での編集作業を終えた利用者は、白抜き矢印#5で示すように編集空間A2-2から印刷待ち空間A3に移動する。 After the editing work is completed, printing of the edited image is started. When printing starts, the user who has finished the editing work in the editing space A2-1 moves from the editing space A2-1 to the print waiting space A3 as indicated by the white arrow #4. Also, the user who has finished the editing work in the editing space A2-2 moves from the editing space A2-2 to the print waiting space A3 as indicated by the white arrow #5.

印刷待ち空間A3に移動した利用者は、印刷が終わるのを待つ。印刷が終了すると、利用者は、編集ユニット12の右側面に設けられた排出口から排出されたシール紙を受け取り、一連の写真シール作成ゲームを終える。 The user who has moved to the print waiting space A3 waits for the end of printing. When the printing is finished, the user receives the sticker paper ejected from the ejection port provided on the right side of the editing unit 12, and finishes the series of photo sticker creating games.

<事前選択部の構成>
図4は、事前選択部20の構成例を示す図である。
<Configuration of pre-selection unit>
FIG. 4 is a diagram showing a configuration example of the pre-selection unit 20. As shown in FIG.

事前選択部20にはタッチパネルモニタ71が設けられる。タッチパネルモニタ71は、LCD(Liquid Crystal Display)などのモニタと、それに積層されたタッチパネルにより構成される。タッチパネルモニタ71は、各種のGUI(Graphical User Interface)を表示し、利用者の選択操作を受け付ける機能を備えている。タッチパネルモニタ71には、利用者の人数の選択などに用いられる画面が表示される。 A touch panel monitor 71 is provided in the pre-selection unit 20 . The touch panel monitor 71 is composed of a monitor such as an LCD (Liquid Crystal Display) and a touch panel stacked thereon. The touch panel monitor 71 has a function of displaying various GUIs (Graphical User Interfaces) and receiving a user's selection operation. The touch panel monitor 71 displays a screen used for selecting the number of users.

タッチパネルモニタ71の下方にはスピーカ72が設けられる。スピーカ72は、事前選択処理の案内音声、BGM(Back Ground Music)、効果音などを出力する。スピーカ72に隣接するようにして、利用者が硬貨を入れる硬貨投入返却口73が設けられる。 A speaker 72 is provided below the touch panel monitor 71 . The speaker 72 outputs a guidance voice for pre-selection processing, BGM (Background Music), sound effects, and the like. Adjacent to the speaker 72, a coin insertion/return opening 73 for inserting coins by the user is provided.

<撮影部の構成>
図5は、撮影部21の正面の構成例を示す図である。撮影部21は、側面パネル41A、側面パネル41B、および正面パネル42に囲まれるようにして構成される。
<Structure of shooting unit>
FIG. 5 is a diagram showing a configuration example of the front of the photographing unit 21. As shown in FIG. The imaging unit 21 is configured to be surrounded by the side panel 41A, the side panel 41B, and the front panel 42. As shown in FIG.

正面パネル42の中央よりやや上側には、カメラユニット81が設けられる。カメラユニット81の正面には、カメラ91、タッチパネルモニタ92、および正面ストロボ93が設けられる。 A camera unit 81 is provided slightly above the center of the front panel 42 . A camera 91 , a touch panel monitor 92 , and a front strobe 93 are provided in front of the camera unit 81 .

カメラ91は、例えば一眼レフカメラであり、レンズが露出するようにカメラユニット81の内部に取り付けられる。カメラ91は、CCD(Charge Coupled Device)イメージセンサやCMOS(Complementary Metal Oxide Semiconductor)イメージセンサなどの撮像素子を有し、撮影空間A1にいる利用者を撮影する。カメラ91は、利用者を被写体として撮影を行う撮影部として機能する。 The camera 91 is, for example, a single-lens reflex camera, and is attached inside the camera unit 81 so that the lens is exposed. The camera 91 has an imaging device such as a CCD (Charge Coupled Device) image sensor or a CMOS (Complementary Metal Oxide Semiconductor) image sensor, and photographs a user in the imaging space A1. The camera 91 functions as a photographing unit that photographs a user as a subject.

カメラ91により取り込まれた動画像(以下、ライブビュー画像ともいう)は、タッチパネルモニタ92にリアルタイムで表示される。撮影が指示されたときなどの所定のタイミングでカメラ91により取り込まれた静止画像は、撮影画像として保存される。 A moving image captured by the camera 91 (hereinafter also referred to as a live view image) is displayed on the touch panel monitor 92 in real time. A still image captured by the camera 91 at a predetermined timing, such as when an instruction to shoot is given, is saved as a shot image.

タッチパネルモニタ92は、カメラ91の下方に設けられる。タッチパネルモニタ92は、LCDなどのモニタと、それに積層されたタッチパネルにより構成される。タッチパネルモニタ92は、カメラ91により取り込まれた動画像を表示するライブビューモニタとしての機能と、各種のGUIを表示し利用者の選択操作を受け付ける機能を備えている。 A touch panel monitor 92 is provided below the camera 91 . The touch panel monitor 92 is composed of a monitor such as an LCD and a touch panel laminated thereon. The touch panel monitor 92 has a function as a live view monitor that displays moving images captured by the camera 91, and a function that displays various GUIs and receives user selection operations.

正面ストロボ93は、カメラ91の上方に設けられる。正面ストロボ93は、乳白アクリル板よりなる、三日月状の発光面を有する。正面ストロボ93は、カメラ91による撮影に合わせて発光することで、被写体としての利用者の顔付近を正面から照射する。 A front strobe 93 is provided above the camera 91 . The front strobe 93 has a crescent-shaped light-emitting surface made of a milky white acrylic plate. The front strobe 93 emits light in synchronization with photographing by the camera 91 to illuminate the vicinity of the user's face as a subject from the front.

カメラユニット81の上方には、曲面の発光面を利用者に向けた上ストロボユニット82が設置される。上ストロボユニット82は、利用者の正面上方から、利用者の顔および上半身に光を照射する。 Above the camera unit 81, an upper strobe unit 82 is installed with its curved light-emitting surface facing the user. The upper strobe unit 82 irradiates the user's face and upper body with light from above the front of the user.

カメラユニット81の下方には、利用者の下半身および足元に光を照射する足元ストロボユニット83が設けられる。 Below the camera unit 81, a foot strobe unit 83 is provided to irradiate the user's lower body and feet with light.

上ストロボユニット82および足元ストロボユニット83は、蛍光灯とストロボ発光可能な照明機器とにより構成される。上ストロボユニット82および足元ストロボユニット83は、利用者の操作性や安全性を確保するために、撮影空間内を常時照らすとともに、撮影画像の画質を向上させるために、撮影タイミングでストロボ発光し、被写体となる利用者に光を照射する。 The upper strobe unit 82 and the foot strobe unit 83 are composed of a fluorescent lamp and lighting equipment capable of strobe light emission. The upper strobe unit 82 and the foot strobe unit 83 always illuminate the shooting space in order to ensure the operability and safety of the user, and emit strobe light at the shooting timing to improve the image quality of the shot image. A user, who is a subject, is irradiated with light.

足元ストロボユニット83と側面パネル41Aとの間には、箱状部84が設けられる。また、足元ストロボユニット83と側面パネル41Bとの間には、箱状部85が設けられる。箱状部84,85の上面は、写真シール作成装置1の設置面と略水平な面をなし、撮影作業を行う利用者が手荷物などを置くための荷物置き場として用いられる。 A box-shaped portion 84 is provided between the foot strobe unit 83 and the side panel 41A. A box-shaped portion 85 is provided between the foot strobe unit 83 and the side panel 41B. The upper surfaces of the box-shaped parts 84 and 85 form a surface substantially horizontal with the installation surface of the photo sticker creating apparatus 1, and are used as a luggage storage area for the user who performs the photographing work to place luggage and the like.

なお、図示はしないが、正面パネル42の例えば天井付近には、スピーカが設けられる。そのスピーカは、撮影処理の案内音声、BGM、効果音などを出力する。 Although not shown, a speaker is provided on the front panel 42, for example, near the ceiling. The speaker outputs guide voices, BGM, sound effects, etc. for the shooting process.

<背景部の構成>
図6は、背景部22の撮影空間A1側の構成例を示す図である。
<Composition of the background part>
FIG. 6 is a diagram showing a configuration example of the background portion 22 on the photographing space A1 side.

背面パネル51の上方には、背面上ストロボ101が設置される。背面上ストロボ101は、背面上方から利用者に光を照射する。 A rear upper strobe 101 is installed above the rear panel 51 . The upper back strobe 101 irradiates the user with light from above the back.

図中、背面パネル51の左方には、背面左ストロボ102が設置される。背面左ストロボ102は、背面右方から利用者を照射する。図中、背面パネル51の右方には、背面右ストロボ103が設置される。背面右ストロボ103は、背面左方から利用者を照射する。 In the drawing, a rear left strobe 102 is installed on the left side of the rear panel 51 . The back left strobe 102 irradiates the user from the right side of the back. In the drawing, a rear right strobe 103 is installed on the right side of the rear panel 51 . The back-right strobe 103 irradiates the user from the back-left side.

また、背面パネル51の撮影空間A1側(図中、手前側)の面には、クロマキーシート121が貼り付けられる。クロマキーシート121の色は、例えば緑色とされる。 A chromakey sheet 121 is attached to the surface of the back panel 51 facing the shooting space A1 (the front side in the figure). The color of the chromakey sheet 121 is, for example, green.

なお、図示はしないが、側面パネル52A,52Bの撮影空間A1側の面の下側(床面側)にも、クロマキーシート121と同様に、クロマキーシートが貼り付けられる。 Although not shown, a chromakey sheet similar to the chromakey sheet 121 is attached to the lower side (floor surface side) of the side panels 52A and 52B on the imaging space A1 side.

<編集ユニットの構成>
図7は、編集ユニット12の正面側(編集空間A2-1側)の構成例を示す図である。
<Structure of editing unit>
FIG. 7 is a diagram showing a configuration example of the front side (editing space A2-1 side) of the editing unit 12. As shown in FIG.

斜面62のほぼ中央にはタブレット内蔵モニタ131が設けられる。タブレット内蔵モニタ131の左側にはタッチペン132Aが設けられる。タブレット内蔵モニタ131の右側にはタッチペン132Bが設けられる。 A tablet built-in monitor 131 is provided approximately in the center of the slope 62 . A touch pen 132A is provided on the left side of the tablet built-in monitor 131 . A touch pen 132B is provided on the right side of the tablet built-in monitor 131 .

タブレット内蔵モニタ131は、タブレットとディスプレイを積層して構成される。タブレットは、タッチペン132Aまたはタッチペン132Bを用いた操作入力を可能とする。タブレット内蔵モニタ131には、例えば、編集作業に用いられる編集画面が表示される。2人の利用者が同時に編集作業を行う場合、タッチペン132Aはタブレット内蔵モニタ131に向かって左側にいる利用者により用いられ、タッチペン132Bはタブレット内蔵モニタ131に向かって右側にいる利用者により用いられる。 The tablet built-in monitor 131 is configured by laminating a tablet and a display. The tablet enables operation input using touch pen 132A or touch pen 132B. The tablet built-in monitor 131 displays, for example, an editing screen used for editing work. When two users simultaneously perform editing work, the touch pen 132A is used by the user on the left side of the tablet built-in monitor 131, and the touch pen 132B is used by the user on the right side of the tablet built-in monitor 131. .

なお、タッチペン132Aを用いた操作とタッチペン132Bを用いた操作は識別される。適宜、タブレット内蔵モニタ131の左側の表示に対してはタッチペン132Aを用いた操作のみが可能とされ、右側の表示に対してはタッチペン132Bを用いた操作のみが可能とされる。以下、適宜、タッチペン132Aとタッチペン132Bを区別する必要がない場合、まとめてタッチペン132という。 An operation using the touch pen 132A and an operation using the touch pen 132B are distinguished. As appropriate, the display on the left side of the tablet built-in monitor 131 can only be operated using the touch pen 132A, and the display on the right side can only be operated using the touch pen 132B. Hereinafter, when there is no need to distinguish between the touch pen 132A and the touch pen 132B, the touch pen 132A and the touch pen 132B are collectively referred to as the touch pen 132.

図8は、編集ユニット12の左側面の構成例を示す図である。 FIG. 8 is a diagram showing a configuration example of the left side of the editing unit 12. As shown in FIG.

編集ユニット12の左側面の下側にはシール紙排出口161が設けられる。編集ユニット12の内部にはプリンタが設けられている。そのプリンタにより、編集空間A2-1の利用者が写る画像、または、編集空間A2-2の利用者が写る画像が所定のレイアウトでシール紙に印刷され、シール紙排出口161から排出される。 A seal paper discharge port 161 is provided on the lower side of the left side of the editing unit 12 . A printer is provided inside the editing unit 12 . The printer prints an image of the user of the editing space A2-1 or an image of the user of the editing space A2-2 in a predetermined layout on a sticker sheet, which is discharged from the sticker paper outlet 161. FIG.

<編集画像のレイヤ構造>
図9は、編集画像のレイヤ構造の例を示す図である。
<Layer structure of edited image>
FIG. 9 is a diagram showing an example of the layer structure of an edited image.

左端の編集画像P1が編集によって生成される画像である。編集画像P1は、基本的に、背景画像P11、人物画像P12、前景画像P13の各レイヤの画像から構成される。後述するように、各種の画像処理の対象となるレイヤも適宜設定される。 The edited image P1 at the left end is an image generated by editing. The edited image P1 is basically composed of images of layers of a background image P11, a person image P12, and a foreground image P13. As will be described later, layers to be subjected to various types of image processing are also set appropriately.

図9の例において、背景画像P11は、レンガを重ねた壁面の柄の画像である。前景画像P13は、「Love my friend」の手書き文字の画像とハート型の画像を含む画像である。「Love my friend」の手書き文字の画像は、ペンツールを用いて利用者によって入力されたペン画像である。また、ハート型の画像は、スタンプツールを用いて利用者によって入力されたスタンプ画像である。 In the example of FIG. 9, the background image P11 is an image of a pattern of a wall made of stacked bricks. The foreground image P13 is an image including an image of handwritten characters "Love my friend" and a heart-shaped image. The handwritten character image of "Love my friend" is a pen image input by the user using the pen tool. The heart-shaped image is a stamp image input by the user using the stamp tool.

このように、編集画像P1は、撮影画像からクロマキー処理によって抽出した人物の領域の画像である人物画像P12を背景画像P11に重ね、その上に前景画像P13を重ねることによって生成される。ペン画像やスタンプ画像を背景画像P11上に入力し、被写体の背景に表示させるようにすることも可能とされる。撮影画像に対しては、前景画像や背景画像が合成されることもあるし、編集処理を経たとしても利用者の操作によっては合成されないこともある。 Thus, the edited image P1 is generated by superimposing the person image P12, which is the image of the person's area extracted from the photographed image by chromakey processing, on the background image P11, and superimposing the foreground image P13 thereon. It is also possible to input a pen image or a stamp image onto the background image P11 and display it in the background of the subject. A foreground image or a background image may be combined with a photographed image, or may not be combined depending on a user's operation even after an editing process.

図9の例においては、人物画像P12として、利用者の略胸付近から上の範囲が大きく写る画像が示されている。撮影処理においては、このように顔が大きく写る撮影画像であるアップ画像が撮影される。アップ画像の撮影は例えば複数回行われる。 In the example of FIG. 9, an image showing a large area above the user's chest is shown as the person image P12. In the photographing process, a close-up image, which is a photographed image in which the face is enlarged in this way, is photographed. Shooting of the close-up image is performed, for example, multiple times.

撮影処理においては、アップ画像の他に、頭の上から膝下付近までの広い範囲が写る画像の撮影も行われる。この画像は、例えば、洋服のコーディネートを残しておくために用いられる。以下、適宜、洋服のコーディネートを残しておくためなどに用いられる、アップ画像よりも撮影範囲の広い画像をコーディネート画像という。 In the photographing process, in addition to the close-up image, an image showing a wide range from the top of the head to the vicinity of the knee is also photographed. This image is used, for example, to keep the coordination of clothes. Hereinafter, an image with a wider shooting range than the close-up image, which is used for keeping the coordination of clothes as appropriate, will be referred to as a coordinated image.

コーディネート画像よりも撮影範囲が広い、利用者の全身が写る全身画像の撮影が行われるようにしてもよい。 A whole-body image that captures the whole body of the user, which has a wider imaging range than the coordinated image, may be captured.

<写真シール作成装置の内部構成>
図10は、写真シール作成装置1の構成例を示すブロック図である。図10において、上述した構成と同じ構成には同じ符号を付してある。重複する説明については適宜省略する。
<Internal configuration of photo sticker creation device>
FIG. 10 is a block diagram showing a configuration example of the photo sticker creating apparatus 1. As shown in FIG. In FIG. 10, the same reference numerals are given to the same configurations as those described above. Duplicate explanations will be omitted as appropriate.

図10に示すように、写真シール作成装置1は、PC(Personal Computer)部301に対して、事前選択部302、撮影部304、編集部305A,305B、および印刷部306が外部入出力インタフェース303を介して接続されることによって構成される。PC部301は、例えば編集ユニット12の筐体内部に収納される。 As shown in FIG. 10, the photo sticker creating apparatus 1 has an external input/output interface 303 for a PC (Personal Computer) section 301, a preselection section 302, a photographing section 304, editing sections 305A and 305B, and a printing section 306. It is configured by being connected via The PC section 301 is accommodated inside the housing of the editing unit 12, for example.

PC部301を構成するCPU(Central Processing Unit)311、ROM(Read Only Memory)312、RAM(Random Access Memory)313は、バス314により相互に接続される。 A CPU (Central Processing Unit) 311 , a ROM (Read Only Memory) 312 , and a RAM (Random Access Memory) 313 constituting the PC section 301 are interconnected by a bus 314 .

CPU311は、所定のプログラムを実行し、写真シール作成装置1の全体の動作を制御する。ROM312は、CPU311が実行するプログラムやデータを記憶する。RAM312は、CPU311が処理するデータやプログラムを一時的に記憶する。 A CPU 311 executes a predetermined program and controls the overall operation of the photo sticker creating apparatus 1 . The ROM 312 stores programs and data executed by the CPU 311 . A RAM 312 temporarily stores data and programs processed by the CPU 311 .

バス314には、さらに、入出力インタフェース315が接続される。入出力インタフェース315には、記憶部316、通信部317、およびドライブ318が接続される。 An input/output interface 315 is further connected to the bus 314 . A storage unit 316 , a communication unit 317 and a drive 318 are connected to the input/output interface 315 .

記憶部316は、ハードディスクやフラッシュメモリなどの不揮発性の記憶媒体である。記憶部316は、CPU311から供給された各種の設定情報などを記憶する。記憶部316に記憶されている情報はCPU311により適宜読み出される。 The storage unit 316 is a nonvolatile storage medium such as a hard disk or flash memory. The storage unit 316 stores various setting information and the like supplied from the CPU 311 . Information stored in the storage unit 316 is appropriately read by the CPU 311 .

通信部317は、インターネットなどのネットワークのインタフェースである。通信部317は、CPU311による制御に従って外部の装置と通信を行う。通信部317は、利用者により選択された画像を、例えば写真シール作成装置1の製造メーカが管理する管理サーバに送信する。通信部317から送信された画像は、所定の記憶領域が割り当てられて保存され、管理サーバにアクセスしてきた携帯端末上で表示されたり、その携帯端末にダウンロードされたりする。 A communication unit 317 is an interface of a network such as the Internet. A communication unit 317 communicates with an external device under the control of the CPU 311 . The communication unit 317 transmits the image selected by the user to, for example, a management server managed by the manufacturer of the photo sticker creating apparatus 1 . The image transmitted from the communication unit 317 is stored in a predetermined storage area, displayed on the mobile terminal accessing the management server, or downloaded to the mobile terminal.

ドライブ318には、光ディスクや半導体メモリなどよりなるリムーバブルメディア319が適宜装着される。ドライブ318によりリムーバブルメディア319から読み出されたプログラムやデータは、CPU311に供給され、記憶部316に記憶されたり、インストールされたりする。 A removable medium 319 such as an optical disk or a semiconductor memory is mounted in the drive 318 as appropriate. Programs and data read from the removable medium 319 by the drive 318 are supplied to the CPU 311 and stored in the storage unit 316 or installed.

入出力インタフェース315には外部入出力インタフェース303が接続される。PC部301による各部の制御が、外部入出力インタフェース303を介して行われる。 The external input/output interface 303 is connected to the input/output interface 315 . Each unit is controlled by the PC unit 301 via the external input/output interface 303 .

事前選択部302は、事前選択空間A0にいる利用者を対象とした事前選択処理を行う。事前選択部302は、タッチパネルモニタ71、スピーカ72、および硬貨処理部321から構成される。 The preselection unit 302 performs preselection processing for users in the preselection space A0. The preselection unit 302 is composed of a touch panel monitor 71 , a speaker 72 and a coin processing unit 321 .

タッチパネルモニタ71は、PC部301による制御に従って各種の選択画面を表示し、選択画面に対する利用者の操作を受け付ける。利用者の操作の内容を表す入力信号はPC部301に供給され、各種の設定が行われる。 The touch panel monitor 71 displays various selection screens under the control of the PC unit 301 and accepts user operations on the selection screens. An input signal representing the content of the user's operation is supplied to the PC unit 301, and various settings are performed.

硬貨処理部321は、硬貨投入返却口73への硬貨の投入を検出する。硬貨処理部321は、所定の金額分の硬貨が投入されたことを検出した場合、ゲームの開始を指示する起動信号をPC部301に出力する。 The coin processing unit 321 detects insertion of coins into the coin insertion/return port 73 . When the coin processing unit 321 detects that a predetermined amount of coins has been inserted, the coin processing unit 321 outputs an activation signal instructing the start of the game to the PC unit 301 .

撮影部304は、撮影空間A1にいる利用者を対象とした撮影処理を行う。撮影部304は、照明装置331、カメラ91、タッチパネルモニタ92、およびスピーカ332から構成される。 The photographing unit 304 performs photographing processing for users in the photographing space A1. The photographing unit 304 is composed of an illumination device 331 , a camera 91 , a touch panel monitor 92 and a speaker 332 .

照明装置331は、撮影空間A1内の各ストロボユニットであり、PC部301から供給される照明制御信号に従って発光する。 The lighting device 331 is each strobe unit in the shooting space A1 and emits light according to the lighting control signal supplied from the PC section 301 .

カメラ91は、PC部301によるシャッタ制御に従って撮影を行い、撮影によって得られた画像データをPC部301に出力する。 The camera 91 performs photographing according to shutter control by the PC section 301 and outputs image data obtained by photographing to the PC section 301 .

編集部305Aは、編集空間A2-1にいる利用者を対象とした編集処理を行う。編集部305Aは、タブレット内蔵モニタ131、タッチペン132A,132B、およびスピーカ341から構成される。編集部305Bは、編集部305Aと同一の構成を有しており、編集空間A2-2にいる利用者を対象とした編集処理を行う。 The editing unit 305A performs editing processing for users in the editing space A2-1. The editing unit 305A is composed of a tablet built-in monitor 131, touch pens 132A and 132B, and a speaker 341. FIG. The editing section 305B has the same configuration as the editing section 305A, and performs editing processing for users in the editing space A2-2.

タブレット内蔵モニタ131は、PC部301による制御に従って編集画面を表示し、編集画面に対する利用者の操作を受け付ける。利用者の操作の内容を表す入力信号はPC部301に供給され、編集対象となる撮影画像が編集される。 The tablet built-in monitor 131 displays an edit screen under the control of the PC unit 301 and accepts a user's operation on the edit screen. An input signal representing the content of the user's operation is supplied to the PC unit 301, and the captured image to be edited is edited.

印刷部306は、プリンタ351を含むように構成される。プリンタ351にはシール紙ユニット352が装着される。 Printing unit 306 is configured to include printer 351 . A sticker paper unit 352 is attached to the printer 351 .

プリンタ351は、内蔵するヘッド361を駆動し、PC部301から供給された印刷データに基づいて、シール紙ユニット352に収納されているロール状のシール紙363に画像を印刷する。また、プリンタ351は、画像を印刷したシール紙363をカッター362によって所定のカット位置でカットして、シール紙排出口161に排出する。 The printer 351 drives a built-in head 361 and prints an image on a roll-shaped sticker paper 363 stored in the sticker paper unit 352 based on print data supplied from the PC section 301 . The printer 351 also cuts the sticker paper 363 on which the image is printed by the cutter 362 at a predetermined cut position, and discharges the cut paper to the sticker paper outlet 161 .

<写真シール作成装置の機能構成例>
図11は、写真シール作成装置1の機能構成例を示すブロック図である。図11に示す機能部のうちの少なくとも一部は、CPU311により所定のプログラムが実行されることによって実現される。
<Example of functional configuration of photo sticker creation device>
FIG. 11 is a block diagram showing a functional configuration example of the photo sticker creating apparatus 1. As shown in FIG. At least some of the functional units shown in FIG. 11 are implemented by the CPU 311 executing a predetermined program.

写真シール作成装置1においては、事前選択処理部401、撮影処理部402、編集処理部403、および印刷処理部404が実現される。 In the photo sticker creating apparatus 1, a pre-selection processing unit 401, a photographing processing unit 402, an editing processing unit 403, and a printing processing unit 404 are realized.

事前選択処理部401は、事前選択部302の各部を制御することで、事前選択処理を実行する。事前選択処理により、利用者の人数の選択、背景画像の選択などが行われる。利用者による選択内容を表す情報は撮影処理部402に供給される。 The pre-selection processing unit 401 executes pre-selection processing by controlling each unit of the pre-selection unit 302 . Selection of the number of users, selection of a background image, and the like are performed by the pre-selection process. Information representing the content selected by the user is supplied to the imaging processing unit 402 .

撮影処理部402は、撮影部304の各部を制御することで撮影処理を行う。撮影処理部402は、撮影処理を行うことによって得られた撮影画像のデータを編集処理部403に出力する。撮影処理部402から編集処理部403に対しては、撮影を複数回行うことによって得られた複数枚の撮影画像のデータが供給される。 The imaging processing unit 402 performs imaging processing by controlling each unit of the imaging unit 304 . The shooting processing unit 402 outputs the data of the shot image obtained by performing the shooting processing to the editing processing unit 403 . The shooting processing unit 402 supplies the editing processing unit 403 with data of a plurality of captured images obtained by performing shooting a plurality of times.

編集処理部403は、編集部305A,305Bの各部を制御することで編集処理を行う。編集処理部403は、撮影画像の編集を終えた後、編集画像を所定のレイアウトで配置することによって印刷データを生成し、印刷処理部404に出力する。 The editing processing unit 403 performs editing processing by controlling each unit of the editing units 305A and 305B. After editing the captured image, the edit processing unit 403 generates print data by arranging the edited image in a predetermined layout, and outputs the print data to the print processing unit 404 .

印刷処理部404は、プリンタ351に印刷データを出力し、編集画像の印刷を行う。 The print processing unit 404 outputs print data to the printer 351 to print the edited image.

<編集処理部の詳細構成>
図12は、編集処理部403の構成例を示すブロック図である。
<Detailed configuration of editing processing unit>
FIG. 12 is a block diagram showing a configuration example of the edit processing unit 403. As shown in FIG.

編集処理部403は、撮影画像取得部411、編集対象画像バッファ412、表示制御部413、編集制御部414、コンテンツ合成部415、レタッチ処理部416、受付制御部417、および印刷データ生成部418から構成される。 The edit processing unit 403 receives data from a captured image acquisition unit 411 , an edit target image buffer 412 , a display control unit 413 , an edit control unit 414 , a content composition unit 415 , a retouch processing unit 416 , a reception control unit 417 , and a print data generation unit 418 . Configured.

撮影画像取得部411は、撮影処理部402から出力された撮影画像を取得する。例えば、5枚のアップ画像と1枚のコーディネート画像が取得される。編集対象として選択された撮影画像は、例えば編集対象画像バッファ412に転送される。 The captured image acquisition unit 411 acquires the captured image output from the image capturing processing unit 402 . For example, five close-up images and one coordinated image are acquired. The captured image selected as the editing target is transferred to the editing target image buffer 412, for example.

編集対象画像バッファ412は、編集対象の撮影画像を記憶する。編集対象画像バッファ412に記憶された編集対象の撮影画像に対しては、編集制御部414による編集(落書き)だけでなく、コンテンツ合成部415によるコンテンツ合成と、レタッチ処理部416によるレタッチが適宜施される。 The edit target image buffer 412 stores the shot image to be edited. The shot image to be edited stored in the edit target image buffer 412 is not only edited (scribbled) by the editing control unit 414, but also content synthesized by the content synthesizing unit 415 and retouched by the retouch processing unit 416 as appropriate. be done.

編集対象画像バッファ412には、編集、コンテンツ合成、レタッチのそれぞれの画像処理が施された撮影画像が記憶される。編集処理が終了したとき、編集、コンテンツ合成、レタッチのそれぞれの画像処理が施された撮影画像は、編集画像として印刷データ生成部418に供給される。 The edited image buffer 412 stores captured images that have been subjected to image processing such as editing, content composition, and retouching. When the editing process is finished, the captured image that has been subjected to image processing such as editing, content composition, and retouching is supplied to the print data generation unit 418 as an edited image.

図13は、画像処理の対象となるレイヤの例を示す図である。 FIG. 13 is a diagram illustrating an example of layers to be subjected to image processing.

図13に示すように、それぞれの撮影画像に対しては、下から順に、レイヤL1乃至L5の各レイヤが設定される。 As shown in FIG. 13, layers L1 to L5 are set for each captured image in order from the bottom.

レイヤL1は、背景画像が配置されるレイヤである。例えば事前選択処理において選択された背景画像がレイヤL1に配置される。 A layer L1 is a layer in which a background image is arranged. For example, the background image selected in the pre-selection process is placed on layer L1.

レイヤL2は、人物画像が配置されるレイヤである。レタッチ処理部416によるレタッチは、レイヤL2を対象として行われる。 A layer L2 is a layer in which a person image is arranged. Retouching by the retouching processing unit 416 is performed on the layer L2.

レイヤL3は、コンテンツ合成に用いられるレイヤである。後述するようなメイク系のコンテンツ、全身系のコンテンツが、コンテンツ合成部415によりレイヤL3上に配置される。 Layer L3 is a layer used for content synthesis. Makeup-related content and body-related content, which will be described later, are arranged on layer L3 by the content synthesizing unit 415 .

レイヤL4は、編集に用いられるレイヤである。ペンツール、スタンプツールなどの編集ツールを用いた合成用画像が、編集制御部414によりレイヤL4上に配置される。 Layer L4 is a layer used for editing. An image for synthesis using an editing tool such as a pen tool or a stamp tool is arranged on layer L4 by the editing control unit 414 .

レイヤL5は、フレーム画像の合成やフィルタ処理の対象となるレイヤである。フレーム画像の合成やフィルタ処理などの画像処理も、例えば、利用者による操作に応じて編集制御部414により行われる。 The layer L5 is a layer to be subjected to frame image synthesis and filtering. Image processing such as synthesis of frame images and filter processing is also performed by the editing control unit 414 in accordance with the user's operation, for example.

編集対象画像バッファ412には、編集対象の撮影画像が、このようなレイヤ構造を有する形で記憶される。編集対象画像バッファ412に記憶されている撮影画像は、表示制御部413により読み出され、編集画面の表示などに用いられる。 In the edit target image buffer 412, the shot image to be edited is stored in a form having such a layer structure. The captured image stored in the editing target image buffer 412 is read by the display control unit 413 and used for the display of the editing screen.

図12の説明に戻り、表示制御部413は、タブレット内蔵モニタ131の表示を制御する。例えば、表示制御部413は、撮影画像の編集に用いられる編集画面をタブレット内蔵モニタ131に表示させる。編集画面においては、撮影画像の編集だけでなく、コンテンツ合成とレタッチを行うことも可能とされる。 Returning to the description of FIG. 12 , the display control unit 413 controls display on the tablet built-in monitor 131 . For example, the display control unit 413 causes the tablet built-in monitor 131 to display an editing screen used for editing the captured image. On the editing screen, it is possible not only to edit the shot image, but also to perform content composition and retouching.

表示制御部413は、タブレット内蔵モニタ131の表示を、利用者による操作に応じて切り替える。受付制御部417からは、利用者の操作の内容を表す情報が供給されてくる。 The display control unit 413 switches the display of the tablet built-in monitor 131 according to the user's operation. Information representing the content of the user's operation is supplied from the reception control unit 417 .

編集制御部414は、利用者による操作に応じて、編集対象画像バッファ412に記憶されている撮影画像の編集を行う。受付制御部417からは、利用者の操作の内容を表す情報が供給されてくる。編集制御部414により、ペンツール、スタンプツールなどの編集ツールに応じた合成用画像が編集対象の撮影画像のレイヤL4に配置される。 The edit control unit 414 edits the captured image stored in the edit target image buffer 412 according to the user's operation. Information representing the content of the user's operation is supplied from the reception control unit 417 . The editing control unit 414 arranges an image for synthesis corresponding to an editing tool such as a pen tool or a stamp tool on the layer L4 of the shot image to be edited.

コンテンツ合成部415は、利用者による操作に応じて、編集対象画像バッファ412に記憶されている撮影画像に対してコンテンツ合成を行う。コンテンツ合成は、撮影画像を元にして生成したマスク画像を用いて、撮影画像に写る被写体の特定の領域に、他の画像(コンテンツ)を合成する処理である。合成に用いるコンテンツの形状、大きさなどは、適宜、合成対象となる領域の形状や大きさに応じて変更される。 The content synthesizing unit 415 performs content synthesizing on the captured images stored in the edit target image buffer 412 in accordance with the user's operation. Content synthesis is a process of synthesizing another image (content) in a specific area of a subject captured in a captured image using a mask image generated based on the captured image. The shape, size, etc. of the content used for synthesis are appropriately changed according to the shape and size of the area to be synthesized.

例えばメイク系のコンテンツにはリップのコンテンツがある。リップのコンテンツが選択された場合、コンテンツ合成部415は、撮影画像に写る人物の唇を認識し、唇の領域以外の領域をマスクするマスク画像を生成する。コンテンツ合成部415は、マスク画像を用いて、利用者により選択された色の唇の画像を人物の唇の領域に合成することにより、リップのコンテンツを用いたコンテンツ合成を行う。 For example, make-up content includes lip content. When the lip content is selected, the content synthesizing unit 415 recognizes the lips of the person in the captured image and generates a mask image that masks the area other than the lip area. The content synthesizing unit 415 performs content synthesis using the lip content by synthesizing the lip image of the color selected by the user with the lip region of the person using the mask image.

コンテンツ合成に用いられるコンテンツには、アップ画像用のコンテンツと全身画像用のコンテンツがある。全身画像用のコンテンツが、コーディネート画像を対象としたコンテンツ合成に用いられるようにしてもよい。 Content used for content synthesis includes close-up image content and full-body image content. The content for the whole-body image may be used for content synthesis targeting the coordinated image.

アップ画像用のコンテンツには、以下のようにメイク系のコンテンツとくっつきコンテンツがある。 Content for close-up images includes makeup-based content and stick-on content, as shown below.

メイク系のコンテンツ
・眉マスカラ
・アイシャドウ
・アイライン
・カラーコンタクトレンズ
・疑似キャッチライト
・つけまつげ
・涙袋
・下まつげ
・ハイライト
・シェーディング
・チーク
・リップ
・肌の色(美白、美黒)
・肌質(マット系、つや系)
・髪色
・天使の輪
Makeup-related content ・Eyebrow mascara ・Eyeshadow ・Eyeliner ・Colored contact lenses ・Pseudo catch light ・False eyelashes ・Tear bags ・Lower eyelashes ・Highlights ・Shading ・Cheeks ・Lip ・Skin color (whitening, blackening)
・Skin quality (matte, glossy)
・Hair color ・Angel ring

眉マスカラは、眉の部分に所定の色の眉の画像を合成するコンテンツである。アイシャドウは、まぶたの部分に所定の色のアイシャドウの画像を合成するコンテンツである。アイラインは、目の縁部分に所定の色のアイラインの画像を合成するコンテンツである。 The eyebrow mascara is content for synthesizing an eyebrow image of a predetermined color on the eyebrow portion. The eye shadow is content for synthesizing an eye shadow image of a predetermined color on the eyelid portion. The eyeline is content that synthesizes an eyeline image of a predetermined color on the edge of the eye.

カラーコンタクトレンズは、目の瞳の部分に所定の色のコンタクトレンズの画像を合成するコンテンツである。疑似キャッチライトは、目の瞳の部分に所定の形状のキャッチライトの画像を合成するコンテンツである。つけまつげは、上まつげの部分に所定の長さのつけまつげの画像を合成するコンテンツである。 A color contact lens is content for synthesizing an image of a contact lens of a predetermined color on the pupil of the eye. The pseudo catchlight is content that synthesizes an image of a catchlight with a predetermined shape on the pupil of the eye. False eyelashes is content that synthesizes an image of false eyelashes of a predetermined length with the upper eyelashes.

涙袋は、涙袋の部分に所定の涙袋の画像を合成するコンテンツである。下まつげは、下まつげの部分に所定の長さのつけまつげの画像を合成するコンテンツである。ハイライトは、鼻筋や額の部分に光を表現する画像を合成するコンテンツである。 The lacrimal sac is content that synthesizes a predetermined lacrimal sack image with the lacrimal sack portion. The lower eyelashes is content for synthesizing an image of false eyelashes of a predetermined length with the lower eyelashes. Highlight is content that synthesizes an image that expresses light on the bridge of the nose and forehead.

シェーディングは、鼻筋、額、顎の部分などに影を表現する画像を合成するコンテンツである。チークは、頬の部分にチークの画像を合成するコンテンツである。リップは、上述したように、唇の部分にリップの画像を合成するコンテンツである。 Shading is content that synthesizes an image that expresses shadows on the bridge of the nose, forehead, chin, and the like. Cheek is content that synthesizes a cheek image with a cheek portion. As described above, the lip is content that synthesizes the lip image with the lip portion.

肌の色は、肌の部分に所定の肌の色の画像を合成するコンテンツである。肌質は、肌の部分に所定の肌の質感を表現する画像を合成するコンテンツである。髪色は、髪の部分に所定の色の髪の画像を合成するコンテンツである。天使の輪は、頭部の上方に天使の輪の画像を合成するコンテンツである。 The skin color is content for synthesizing an image of a predetermined skin color with the skin part. The skin texture is content for synthesizing an image representing a predetermined texture of the skin on the skin portion. The hair color is content for synthesizing an image of hair of a predetermined color with the hair portion. An angel's ring is content that synthesizes an image of an angel's ring above the head.

くっつきコンテンツ
・サングラス
・メガネ
・鼻
・ひげ
・口
Attached content ・Sunglasses ・Glasses ・Nose ・Beard ・Mouth

くっつきコンテンツとしてのサングラスは、利用者の目を認識し、目に重ねてサングラスの画像を合成するコンテンツである。メガネは、利用者の目を認識し、目に重ねて所定のメガネの画像を合成するコンテンツである。鼻は、利用者の鼻を認識し、鼻に重ねて所定の鼻の画像を合成するコンテンツである。 Sunglasses as sticky content is content that recognizes the user's eyes and synthesizes an image of sunglasses superimposed on the eyes. Glasses are content that recognizes the eyes of the user and synthesizes an image of predetermined glasses by superimposing them on the eyes. The nose is content that recognizes the user's nose and synthesizes a predetermined nose image over the nose.

ひげは、利用者の口を認識し、口の周りに所定のひげの画像を合成するコンテンツである。口は、利用者の口を認識し、口に重ねて所定の口の画像を合成するコンテンツである。 The whisker is content that recognizes the user's mouth and synthesizes a predetermined whisker image around the mouth. Mouth is content that recognizes the user's mouth and synthesizes a predetermined mouth image over the mouth.

全身画像用のコンテンツには、以下のように全身系のコンテンツとくっつきコンテンツがある。 Full-body image content includes full-body content and attached content as follows.

全身系のコンテンツ
・オーラ
・フレーム(被写体を避けるタイプ)
Full-body content ・Aura ・Frame (type that avoids the subject)

全身系のコンテンツは、撮影画像に写る利用者の領域の位置や形に応じてコンテンツを合成するものである。オーラとフレームは、利用者の体の周りに画像を合成するコンテンツである。 The whole-body content is synthesized according to the position and shape of the user's region in the captured image. Auras and frames are content that composite images around the user's body.

くっつきコンテンツ
・耳
・帽子
・ウィッグ
・しっぽ
・羽
・天使の輪
・くつ
・手のひらに乗せる系(りんご、プレゼント)
・服
Attached content ・Ears ・Hat ・Wig ・Tail ・Wings ・Angel's ring ・Shoes
·clothes

くっつきコンテンツとしての耳は、利用者の頭部を認識し、頭部に重ねて所定の耳の画像を合成するコンテンツである。帽子は、利用者の頭部を認識し、頭部に重ねて所定の帽子の画像を合成するコンテンツである。ウィッグは、利用者の頭部を認識し、頭部に重ねて所定のウィッグの画像を合成するコンテンツである。 The ear as sticky content is content that recognizes the user's head and synthesizes a predetermined ear image superimposed on the head. A hat is content that recognizes the user's head and synthesizes a predetermined hat image over the head. A wig is content that recognizes the user's head and synthesizes a predetermined wig image over the head.

しっぽは、利用者の全身を認識し、尻部付近に重ねて所定のしっぽの画像を合成するコンテンツである。羽は、利用者の肩部を認識し、肩部に重ねて所定の羽の画像を合成するコンテンツである。天使の輪は、利用者の頭部を認識し、頭部の上方に天使の輪の画像を合成するコンテンツである。 The tail is content that recognizes the user's whole body and synthesizes a predetermined tail image overlaid near the buttocks. The wing is content that recognizes the user's shoulder and synthesizes a predetermined wing image over the shoulder. The ring of angels is content that recognizes the user's head and synthesizes an image of the ring of angels above the head.

くつは、利用者の足元を認識し、足元に重ねて所定のくつの画像を合成するコンテンツである。手のひらに乗せる系は、利用者の手を認識し、手に重ねて所定の画像を合成するコンテンツである。服は、利用者の全身を認識し、全身に重ねて所定の服の画像を合成するコンテンツである。 "Shoes" is content that recognizes the user's feet and synthesizes an image of a predetermined pair of shoes over the user's feet. The palm-on-the-palm system is content that recognizes the user's hand and synthesizes a predetermined image by placing it on the hand. Clothing is content that recognizes the user's whole body and synthesizes a predetermined clothing image over the whole body.

コンテンツ合成部415は、このような各種のコンテンツ合成を、受付制御部417により受け付けられた利用者の操作に応じて行う合成処理部として機能する。受付制御部417からは、利用者の操作の内容を表す情報が供給されてくる。コンテンツ合成部415により、利用者により選択されたメイク系のコンテンツなどが編集対象の撮影画像のレイヤL3に配置される。 The content synthesizing unit 415 functions as a synthesizing processing unit that performs such various content syntheses according to user operations received by the reception control unit 417 . Information representing the content of the user's operation is supplied from the reception control unit 417 . The content synthesizing unit 415 arranges makeup-related content selected by the user on the layer L3 of the shot image to be edited.

レタッチ処理部416は、利用者による操作に応じて、編集対象画像バッファ412に記憶されている撮影画像に対してレタッチを行う。レタッチは、撮影画像に写る人物の特定の部位を認識し、認識した部位の形状、大きさ、位置を変更する画像処理である。 The retouch processing unit 416 retouches the captured image stored in the edit target image buffer 412 according to the user's operation. Retouching is image processing for recognizing a specific part of a person in a captured image and changing the shape, size, and position of the recognized part.

レタッチには、アップ画像用のレタッチと全身画像用のレタッチがある。 Retouching includes close-up image retouching and full-body image retouching.

アップ画像用のレタッチ
・輪郭処理
・小顔処理
・目の大きさ処理
・目の形状処理
・小鼻処理
・口角を上げる処理
・口の大きさ処理
・肌の色の処理
・パーツの移動(目をこめかみの方向に動かす等)
・アイブロウ(眉の形を変える)
Retouching for close-up images Contour processing Small face processing Eye size processing Eye shape processing Nostril processing Raising the corners of the mouth Mouth size processing Skin color processing Moving parts (eyes) move it toward the temple, etc.)
・Eyebrow (change the shape of the eyebrows)

輪郭処理は、撮影画像に写る利用者の顔を認識し、輪郭を変更する処理である。小顔処理は、撮影画像に写る利用者の顔を認識し、顔を小さくする処理である。目の大きさ処理は、撮影画像に写る利用者の目を認識し、目を大きくする処理である。 The contour processing is processing for recognizing the user's face in the captured image and changing the contour. Face-slimming processing is processing for recognizing a user's face in a captured image and making the face smaller. The eye size processing is processing for recognizing the user's eyes in the captured image and enlarging the eyes.

目の形状処理は、撮影画像に写る利用者の目を認識し、目の形状を変更する処理である。小鼻処理は、撮影画像に写る利用者の鼻を認識し、鼻を小さくする処理である。口角を上げる処理は、撮影画像に写る利用者の口を認識し、口角を上げる処理である。 The eye shape processing is processing for recognizing the user's eyes in the captured image and changing the eye shape. The nostril processing is processing for recognizing the user's nose in the captured image and making the nose smaller. The process of raising the corners of the mouth is a process of recognizing the user's mouth in the photographed image and raising the corners of the mouth.

口の大きさ処理は、撮影画像に写る利用者の口を認識し、口の大きさを変更する処理である。肌の色の処理は、撮影画像に写る利用者の肌の色を認識し、肌の色を変更する処理である。パーツの移動は、撮影画像に写る利用者の顔のパーツ(部位)を認識し、パーツを移動する処理である。例えば、目の上下方向への移動、内側への移動、口の移動などがパーツの移動に含まれる。アイブロウは、撮影画像に写る利用者の眉を認識し、眉の形を変更する処理である。 Mouth size processing is processing for recognizing the user's mouth in the captured image and changing the size of the mouth. The skin color processing is processing for recognizing the skin color of the user appearing in the captured image and changing the skin color. The movement of parts is a process of recognizing the parts (parts) of the user's face shown in the captured image and moving the parts. For example, movements of parts include upward and downward movements of the eyes, inward movements, and movements of the mouth. Eyebrow is a process of recognizing the user's eyebrows in a captured image and changing the shape of the eyebrows.

全身画像用のレタッチ
・脚長処理
・脚の細さ処理
・身長処理
・二の腕処理
・くびれ処理
・首の長さ処理
・ウエストの位置を上げる処理
・指を細くする処理
・爪の形を変形する処理
・爪の長さ処理
Retouching for full-body images ・Leg length processing ・Leg thinness processing ・Height processing ・Upper arm processing ・Constriction processing ・Neck length processing ・Waist position raising processing・Nail length processing

脚長処理は、撮影画像に写る利用者の脚を認識し、脚を長くする処理である。脚の細さ処理は、撮影画像に写る利用者の脚を認識し、脚を細くする処理である。身長処理は、撮影画像に写る利用者の全身を認識し、身長を高くする処理である。 The leg lengthening process is a process of recognizing the legs of the user appearing in the captured image and lengthening the legs. The thin leg processing is processing for recognizing the leg of the user in the photographed image and thinning the leg. The height processing is processing for recognizing the whole body of the user appearing in the photographed image and increasing the height of the user.

二の腕処理は、撮影画像に写る利用者の二の腕を認識し、二の腕を細くする処理である。くびれ処理は、撮影画像に写る利用者の腰を認識し、くびれを強調する処理である。首の長さ処理は、撮影画像に写る利用者の首を認識し、首を長くする処理である。 The upper arm processing is processing for recognizing the user's upper arms in the captured image and thinning the upper arms. Constriction processing is processing for recognizing the waist of the user in the photographed image and emphasizing the constriction. Neck length processing is processing for recognizing the user's neck in the captured image and lengthening the neck.

ウエストの位置を上げる処理は、撮影画像に写る利用者の腰を認識し、ウエストの位置を上げる処理である。指を細くする処理は、撮影画像に写る利用者の手を認識し、指を細くする処理である。爪の形を変形する処理は、撮影画像に写る利用者の手を認識し、爪の形を変形する処理である。爪の長さ処理は、撮影画像に写る利用者の手を認識し、爪の長さを変更する処理である。 The process of raising the waist position is a process of recognizing the waist of the user in the captured image and raising the waist position. The finger thinning process is a process of recognizing the user's hand in the captured image and thinning the finger. The process of deforming the nail shape is a process of recognizing the user's hand in the photographed image and deforming the shape of the nail. The nail length processing is processing for recognizing the user's hand in the photographed image and changing the length of the nail.

レタッチ処理部416は、このような各種のレタッチ処理を、受付制御部417により受け付けられた利用者の操作に応じて行う画像処理部として機能する。受付制御部417からは、利用者の操作の内容を表す情報が供給されてくる。レタッチ処理部416により特定の部位の形状、大きさ、位置などが変形された人物画像が、編集対象の撮影画像を構成するレイヤL2の画像として配置される。 The retouching processing unit 416 functions as an image processing unit that performs such various retouching processes according to user operations received by the reception control unit 417 . Information representing the content of the user's operation is supplied from the reception control unit 417 . A person image in which the shape, size, position, etc. of a specific part has been modified by the retouch processing unit 416 is arranged as an image of the layer L2 that constitutes the shot image to be edited.

受付制御部417は、編集画面に対する利用者の操作の受け付けを制御する。 The reception control unit 417 controls reception of user operations on the editing screen.

例えば、受付制御部417は、所定の編集ツールを用いた編集操作が行われた場合、利用者による編集操作を受け付け、利用者の操作の内容を表す情報を編集制御部414に出力する。 For example, when an editing operation is performed using a predetermined editing tool, the reception control unit 417 receives the editing operation by the user and outputs information representing the details of the user's operation to the editing control unit 414 .

また、受付制御部417は、コンテンツ合成に用いる所定のコンテンツが選択された場合、利用者による操作を受け付け、利用者の操作の内容を表す情報をコンテンツ合成部415に出力する。 Further, when predetermined content to be used for content synthesis is selected, reception control unit 417 receives an operation by the user and outputs information representing the content of the user's operation to content synthesis unit 415 .

受付制御部417は、所定の種類のレタッチが選択された場合、利用者による操作を受け付け、利用者の操作の内容を表す情報をレタッチ処理部416に出力する。 When a predetermined type of retouching is selected, the reception control unit 417 receives an operation by the user and outputs information representing the content of the user's operation to the retouching processing unit 416 .

ここで、受付制御部417は、ある撮影画像を対象としたレタッチの操作については、同じ撮影画像を対象としたコンテンツ合成が先に行われている場合には、受け付けない。 Here, the acceptance control unit 417 does not accept a retouching operation for a certain captured image if content composition for the same captured image is performed first.

図14は、操作の受け付けの制限の例を示す図である。 FIG. 14 is a diagram illustrating an example of restrictions on acceptance of operations.

図14において、第1操作は先に行われた操作を表し、第2操作は、第1操作の後に行われた操作を表す。 In FIG. 14, the first operation represents the operation performed earlier, and the second operation represents the operation performed after the first operation.

図14の上段に示すように、第1操作としてメイク系のコンテンツを用いたコンテンツ合成が行われた場合において、第2操作として顔に関するレタッチが行われたとき、その第2操作は受け付けられない。顔に関するレタッチには、上述したアップ画像用のレタッチが含まれる。 As shown in the upper part of FIG. 14 , when content composition using makeup-related content is performed as the first operation, and retouching regarding the face is performed as the second operation, the second operation is not accepted. . Face retouching includes the above-described close-up image retouching.

操作を受け付けなかったことを表す情報が受付制御部417から表示制御部413に出力され、例えば、編集画面の表示に反映される。 Information indicating that the operation has not been accepted is output from the acceptance control unit 417 to the display control unit 413 and reflected in the display of the edit screen, for example.

第2操作が行われることに応じて、例えば以下のような制御が行われる。
(1)顔に関するレタッチの操作に用いられるボタンがグレーアウトして表示される。
(2)顔に関するレタッチの操作に用いられるボタンを押下しても、その操作を編集対象の撮影画像に反映しない。
(3)顔に関するレタッチの操作を行うことができないことを通知するメッセージをポップアップ表示させる。
For example, the following control is performed in response to the second operation being performed.
(1) Buttons used for face retouching operations are grayed out.
(2) Even if a button used for face retouching operation is pressed, the operation is not reflected in the shot image to be edited.
(3) Display a pop-up message notifying that face-related retouching operations cannot be performed.

また、図14の下段に示すように、第1操作として全身系のコンテンツを用いたコンテンツ合成が行われた場合において、第2操作として全身に関するレタッチが行われたとき、その第2操作は受け付けられない。全身に関するレタッチには、上述した全身画像用のレタッチが含まれる。 Further, as shown in the lower part of FIG. 14 , in the case where content composition using whole-body content is performed as the first operation, and retouching regarding the whole body is performed as the second operation, the second operation is accepted. can't Retouching for the whole body includes retouching for the whole-body image described above.

操作を受け付けなかったことを表す情報が受付制御部417から表示制御部413に出力され、例えば、編集画面の表示に反映される。 Information indicating that the operation has not been accepted is output from the acceptance control unit 417 to the display control unit 413 and reflected in the display of the edit screen, for example.

第2操作が行われることに応じて、例えば以下のような制御が行われる。
(1)全身に関するレタッチの操作に用いられるボタンがグレーアウトして表示される。
(2)全身に関するレタッチの操作に用いられるボタンを押下しても、その操作を編集対象の撮影画像に反映しない。
(3)全身に関するレタッチの操作を行うことができないことを通知するメッセージをポップアップ表示させる。
For example, the following control is performed in response to the second operation being performed.
(1) Buttons used for retouching the whole body are grayed out.
(2) Even if a button used for retouching the whole body is pressed, the operation is not reflected in the captured image to be edited.
(3) Display a pop-up message notifying that retouching operations related to the whole body cannot be performed.

このように、コンテンツ合成が行われた後のレタッチの受け付けを制限することにより、利用者は、バランスのよい画像処理を撮影画像に施すことが可能となる。 In this way, by restricting acceptance of retouching after content composition is performed, the user can perform well-balanced image processing on the captured image.

例えば、アイラインのコンテンツを合成する操作を行った後、さらに、目を大きくするレタッチを行うことができるとした場合、目を大きくすることによってバランスが崩れ、違和感のある写りになることがあるが、そのようなことを防ぐことが可能となる。 For example, if retouching to enlarge the eyes can be performed after the operation of synthesizing eyeliner content, the enlargement of the eyes may result in an unbalanced image, resulting in an unnatural image. However, it is possible to prevent such a thing.

また、メイク系のコンテンツの合成を行った後に顔の部位の形状を変更する場合、合成済みのコンテンツの位置や形状などを、顔の部位の形状の変更に合わせて変更しなければバランスが崩れる可能性がある。コンテンツの位置や形状などを変更する場合には、顔の部位の形状の変更後の画像に基づいてマスク画像を再度生成する必要があり、処理の負担となるが、レタッチの受け付けを制限することにより、そのような負担を生じさせないで済む。すなわち、写真シール作成装置1の処理負担を軽減させることが可能となる。 Also, when changing the shape of the face after compositing makeup-related content, the balance will be lost unless the position and shape of the composited content are changed in accordance with the change in the shape of the face. there is a possibility. When changing the position or shape of the content, it is necessary to regenerate the mask image based on the image after the shape of the facial part has been changed. This avoids such a burden. That is, it is possible to reduce the processing load of the photo sticker creating apparatus 1 .

図15は、操作の受け付けの制限の例を示す図である。 FIG. 15 is a diagram illustrating an example of restrictions on acceptance of operations.

図15の上段に示すように、第1操作としてメイク系のコンテンツを用いたコンテンツ合成が行われた場合において、第2操作として全身に関するレタッチが行われたとき、その第2操作が受け付けられるようにしてもよい。 As shown in the upper part of FIG. 15 , when content composition using makeup-based content is performed as the first operation, and retouching of the whole body is performed as the second operation, the second operation can be accepted. can be

また、図15の下段に示すように、第1操作として全身系のコンテンツを用いたコンテンツ合成が行われた場合において、第2操作として顔に関するレタッチが行われたとき、その第2操作が受け付けられるようにしてもよい。 Further, as shown in the lower part of FIG. 15 , in the case where content synthesis using whole-body content is performed as the first operation, and retouching regarding the face is performed as the second operation, the second operation is accepted. may be made available.

このように、レタッチの受け付けを制限するか否かは、レタッチの対象が全身であるか、顔であるかに応じて設定される。 In this way, whether or not to restrict acceptance of retouching is set according to whether the retouching target is the whole body or the face.

図12の説明に戻り、印刷データ生成部418は、編集終了後、編集対象画像バッファ412に記憶されている撮影画像を読み出し、編集画像として取得する。印刷データ生成部418は、編集画像を所定のレイアウトで配置することによって印刷データを生成し、印刷処理部404に出力して印刷させる。 Returning to the description of FIG. 12, the print data generation unit 418 reads out the captured image stored in the edit target image buffer 412 after finishing the editing, and acquires it as an edited image. The print data generation unit 418 generates print data by arranging the edited images in a predetermined layout, and outputs the print data to the print processing unit 404 for printing.

<写真シール作成装置の動作>
ここで、図16のフローチャートを参照して、写真シール作成ゲームを提供する写真シール作成装置1の動作について説明する。
<Operation of photo sticker creation device>
Here, the operation of the photo sticker creating apparatus 1 that provides the photo sticker creating game will be described with reference to the flowchart of FIG.

ステップS1において、事前選択処理部401は、所定の金額分の硬貨が投入されたか否かを、硬貨処理部321から供給される起動信号に基づいて判定し、硬貨が投入されたと判定するまで待機する。硬貨が投入されたとステップS1において判定された場合、処理はステップS2に進む。 In step S1, the pre-selection processing unit 401 determines whether or not a predetermined amount of coins has been inserted based on the activation signal supplied from the coin processing unit 321, and waits until it is determined that coins have been inserted. do. If it is determined in step S1 that a coin has been inserted, the process proceeds to step S2.

ステップS2において、事前選択処理部401は、事前選択部302を制御することで、事前選択処理を行う。事前選択処理により、例えば、利用者の人数の選択、撮影画像に合成する背景画像の選択などが行われる。いずれの選択も、タッチパネルモニタ71に表示される画面を用いて行われる。 In step S<b>2 , the pre-selection processing unit 401 performs pre-selection processing by controlling the pre-selection unit 302 . By the pre-selection process, for example, selection of the number of users, selection of a background image to be combined with the captured image, and the like are performed. Any selection is made using the screen displayed on the touch panel monitor 71 .

ステップS3において、撮影処理部402は、撮影部304を制御することで、撮影処理を行う。例えば、撮影処理部402は、カメラ91により取り込まれた動画像に基づいてライブビュー画面をタッチパネルモニタ92に表示させ、撮影空間A1にいる利用者を被写体として撮影を行う。 In step S<b>3 , the imaging processing unit 402 performs imaging processing by controlling the imaging unit 304 . For example, the photographing processing unit 402 displays a live view screen on the touch panel monitor 92 based on the moving image captured by the camera 91, and photographs the user in the photographing space A1 as a subject.

ステップS4において、編集処理部403は、編集空間A2-1と編集空間A2-2のうち、撮影処理を終えた利用者の移動先とした方の編集空間に対応する編集部を制御することで、編集処理を行う。例えば、編集処理部403は、タブレット内蔵モニタ131に編集画面を表示させ、撮影処理により得られた撮影画像に対して利用者に編集作業を行わせる。 In step S4, the editing processing unit 403 controls the editing unit corresponding to the editing space to which the user who has completed the shooting process is moved, out of the editing space A2-1 and the editing space A2-2. , edit processing. For example, the editing processing unit 403 causes the tablet built-in monitor 131 to display an editing screen, and allows the user to edit the photographed image obtained by the photographing process.

ステップS5において、印刷処理部404は、プリンタ351を制御することで、印刷処理を行う。印刷処理部404は、編集処理部403により生成された印刷データをプリンタ351に出力してシール紙363に印刷させる。 In step S<b>5 , the print processing unit 404 performs print processing by controlling the printer 351 . The print processing unit 404 outputs the print data generated by the editing processing unit 403 to the printer 351 to print it on the sticker paper 363 .

印刷が終了した場合、ステップS6において、プリンタ351は、カッター362で切り離したシール紙363をシール紙排出口161に排出する。 When printing is completed, the printer 351 ejects the sticker paper 363 cut by the cutter 362 to the sticker paper outlet 161 in step S6.

写真シール作成装置1の利用者の各グループに対しては、以上のような一連の処理からなる写真作成ゲームが提供される。あるグループに続けて他のグループが写真シール作成装置1の利用を開始した場合、写真シール作成装置1の利用を先に始めたグループの写真作成ゲームと、後から始めたグループの写真作成ゲームとが適宜並行して行われることになる。 Each group of users of the photo sticker creating apparatus 1 is provided with a photo creating game consisting of a series of processes as described above. When another group starts using the photo sticker creating device 1 following a certain group, the photo creating game of the group that started using the photo sticker creating device 1 first and the photo creating game of the group that started later. will be performed in parallel as appropriate.

<編集処理>
次に、図17のフローチャートを参照して、図16のステップS4において行われる編集処理について説明する。
<Editing process>
Next, the editing process performed in step S4 of FIG. 16 will be described with reference to the flowchart of FIG.

ステップS31において、表示制御部413は、編集画面をタブレット内蔵モニタ131に表示させる。 In step S31, the display control unit 413 causes the tablet built-in monitor 131 to display an edit screen.

図18は、タブレット内蔵モニタ131に表示される編集画面の例を示す図である。 FIG. 18 is a diagram showing an example of an edit screen displayed on the tablet built-in monitor 131. As shown in FIG.

編集画面は、基本的に、主な構成が左右対称に設けられることによって構成される。左半分の領域は、タブレット内蔵モニタ131に向かって左側にいる利用者により用いられる領域である。右半分の領域は、タブレット内蔵モニタ131に向かって右側にいる利用者により用いられる領域である。このような編集画面の構成により、主に2人の利用者が同時に編集作業を行うことができる。なお、図18に示される編集画面上の各領域を囲む破線は、画面に実際に表示されるものではない。 The edit screen is basically configured by symmetrically providing main components. The left half area is used by the user on the left side of the tablet built-in monitor 131 . The right half area is used by the user on the right side of the tablet built-in monitor 131 . With such an editing screen configuration, mainly two users can perform editing work at the same time. It should be noted that the dashed lines surrounding each area on the edit screen shown in FIG. 18 are not actually displayed on the screen.

編集画面の左半分の領域の中央上方には、サムネイル表示領域511Lが設けられる。サムネイル表示領域511Lは、撮影画像を表すサムネイル画像の表示領域である。サムネイル画像は、例えば、背景画像が合成された撮影画像をそれぞれ縮小することによって生成される。利用者(タブレット内蔵モニタ131に向かって左側にいる利用者)は、サムネイル表示領域511Lに表示されているサムネイル画像を選択することによって、編集対象とする撮影画像を選択する。 A thumbnail display area 511L is provided above the center of the left half area of the editing screen. The thumbnail display area 511L is a display area for thumbnail images representing captured images. A thumbnail image is generated, for example, by reducing each of the shot images combined with the background image. The user (the user on the left side of the tablet built-in monitor 131) selects a captured image to be edited by selecting a thumbnail image displayed in the thumbnail display area 511L.

図18の例では、5枚のアップ画像のサムネイル画像P51乃至P55と、1枚の全身画像のサムネイル画像P56が、サムネイル表示領域511Lに並べて表示されている。 In the example of FIG. 18, five close-up thumbnail images P51 to P55 and one full-body thumbnail image P56 are displayed side by side in the thumbnail display area 511L.

左半分の領域の略中央には編集領域512Lが設けられる。編集領域512Lは、サムネイル画像を用いて選択された、編集対象となる撮影画像の表示領域である。利用者は、タッチペン132Aを用いて編集ツールを選択し、編集領域512Lに表示された撮影画像の編集を行うことができる。 An editing area 512L is provided substantially in the center of the left half area. The editing area 512L is a display area for a captured image to be edited, selected using a thumbnail image. The user can select an editing tool using the touch pen 132A and edit the captured image displayed in the editing area 512L.

編集領域512Lの下方には、横長の編集パレット513Lが表示される。編集パレット513Lは、編集領域512Lに表示されている撮影画像に合成されるペンツール(ペン画像)、スタンプツール(スタンプ画像)などの各種の編集ツール(合成用画像)の選択に用いられるボタンなどが表示される領域である。 A horizontally long editing palette 513L is displayed below the editing area 512L. The editing palette 513L includes buttons for selecting various editing tools (compositing images) such as a pen tool (pen image) and a stamp tool (stamp image) that are combined with the captured image displayed in the editing area 512L. This is the displayed area.

編集パレット513Lの上方には、編集ツールのカテゴリの選択に用いられる5種類のタブが表示される。編集パレット513Lの右には、編集ツールの種類の選択に用いられる6種類のタブが表示される。利用者は、編集パレット513Lに表示させる編集ツールの種類とカテゴリを、これらのタブを用いて切り替えることができる。 Above the editing palette 513L, five types of tabs used for selecting categories of editing tools are displayed. Six types of tabs used for selecting the type of editing tool are displayed on the right side of the editing palette 513L. The user can switch the types and categories of editing tools displayed on the editing palette 513L using these tabs.

編集領域512Lの左方には、手動レタッチ領域514Lとメイクパレット515Lが設けられる。 A manual retouching area 514L and a makeup palette 515L are provided to the left of the editing area 512L.

手動レタッチ領域514Lは、編集対象となる撮影画像のレタッチに用いられる情報の表示領域である。 The manual retouching area 514L is a display area for information used for retouching the captured image to be edited.

図18の例においては、利用者の目の大きさのレタッチに用いられる、「小さめ拡大」ボタン521、「大きめ拡大」ボタン522、および「初めから」ボタン523が手動レタッチ領域514Lに表示されている。 In the example of FIG. 18, a "slightly enlarged" button 521, a "largely enlarged" button 522, and a "from the beginning" button 523 used for retouching the size of the user's eyes are displayed in the manual retouching area 514L. there is

「小さめ拡大」ボタン521は、所定の拡大率で目を拡大するときに操作されるボタンである。「大きめ拡大」ボタン522は、「小さめ拡大」ボタン521より大きい拡大率で目を拡大するときに操作されるボタンである。「初めから」ボタン523は、拡大された目の大きさを元の大きさに戻すときに操作されるボタンである。 A “small enlargement” button 521 is a button operated when the eyes are enlarged at a predetermined magnification. The “larger enlargement” button 522 is a button operated when the eyes are enlarged at a magnification higher than that of the “smaller enlargement” button 521 . A "from the beginning" button 523 is a button operated to restore the enlarged eye size to the original size.

メイクパレット515Lは、編集対象となる撮影画像のコンテンツ合成に用いられる情報の表示領域である。 The makeup palette 515L is a display area of information used for content composition of the captured image to be edited.

図18の例においては、メイク系のコンテンツを選択するために用いられる、マスカラボタン531、リップボタン532、およびチークボタン533がメイクパレット515Lに表示されている。メイクパレット515Lの下方には、色の選択に用いられる色選択ボタン534が表示される。 In the example of FIG. 18, mascara button 531, lip button 532, and cheek button 533, which are used to select makeup-related content, are displayed in makeup palette 515L. A color selection button 534 used for color selection is displayed below makeup palette 515L.

マスカラボタン531は、メイク系のコンテンツである眉マスカラを用いたコンテンツ合成を行うときに操作されるボタンである。リップボタン532は、リップを用いたコンテンツ合成を行うときに操作されるボタンである。チークボタン533は、チークを用いたコンテンツ合成を行うときに操作されるボタンである。 The mascara button 531 is a button that is operated when performing content synthesis using eyebrow mascara, which is makeup-related content. The rip button 532 is a button that is operated when synthesizing content using rip. The cheek button 533 is a button that is operated when synthesizing content using cheek.

利用者は、例えばマスカラボタン531を操作した後、眉マスカラの好みの色を、色選択ボタン534を用いて選択することができる。 After operating the mascara button 531 , for example, the user can select the desired color of the eyebrow mascara using the color selection button 534 .

このように、編集画面には、編集の操作に用いられる編集パレット513L、レタッチの操作に用いられる手動レタッチ領域514L、および、コンテンツ合成に用いられるメイクパレット515Lが設けられる。 Thus, the editing screen is provided with an editing palette 513L used for editing operations, a manual retouching area 514L used for retouching operations, and a makeup palette 515L used for content synthesis.

利用者は、編集対象の撮影画像に対して、任意のタイミングで、編集、レタッチ、コンテンツ合成のいずれの画像処理をも施すことができる。 The user can apply any image processing such as editing, retouching, and content composition to the captured image to be edited at any timing.

編集領域512Lの右方には、修正ツール選択領域516Lが形成される。修正ツール選択領域516Lは、消しゴムツールの選択に用いられるボタン、「戻る」ボタン、「進む」ボタン、「最初から」ボタンなどが縦に並んで表示される領域である。 A correction tool selection area 516L is formed to the right of the edit area 512L. The correction tool selection area 516L is an area in which a button used to select an eraser tool, a "back" button, a "forward" button, a "from the beginning" button, etc. are displayed vertically.

消しゴムツールは、合成された編集ツールを消すときに用いられるツールである。「戻る」ボタンおよび「進む」ボタンは、編集ツールの選択操作を1つ戻す、または、1つ進めるときに操作されるボタンであり、「最初から」ボタンは、編集ツールの選択操作を全てキャンセルし、いずれの編集もされていない状態に戻すときに操作されるボタンである。また、修正ツール選択領域516Lには、「1set戻る」ボタンも表示される。「1set戻る」ボタンを押すことにより、所定の時間の間に合成された編集ツールをまとめて消すことができる。 The eraser tool is a tool used when erasing a synthesized editing tool. The "back" button and the "forward" button are buttons that are operated to return or advance the selection operation of the editing tool by one, and the "from the beginning" button cancels all the selection operations of the editing tool. This button is operated when returning to a state in which none of the editing has been performed. A "1set back" button is also displayed in the correction tool selection area 516L. By pressing the "Return 1set" button, it is possible to collectively erase the editing tools synthesized during a predetermined period of time.

修正ツール選択領域516Lの右方には、携帯送信用画像を作成するときに操作される作成ボタン517Lが表示される。図18の編集画面に表示されている「ケータイおまけ」の文字は携帯送信用画像を表す。携帯送信用画像は、管理サーバに送信するための画像であり、シール紙363には印刷されない。作成ボタン517Lが押下された場合、携帯送信用画像の作成画面が編集画面に重ねて表示される。 On the right side of the correction tool selection area 516L, a creation button 517L that is operated when creating an image for mobile transmission is displayed. The characters "mobile phone bonus" displayed on the edit screen of FIG. 18 represent images for mobile transmission. The image for portable transmission is an image to be transmitted to the management server and is not printed on the seal paper 363 . When the creation button 517L is pressed, the creation screen of the image for mobile transmission is displayed superimposed on the edit screen.

修正ツール選択領域516Lの上方には、編集処理を終了するときに操作される終了ボタン518Lが表示される。 An end button 518L is displayed above the correction tool selection area 516L to be operated when the editing process is to be ended.

タブレット内蔵モニタ131に向かって右側にいる利用者により用いられる右半分の領域には、上述した左半分の領域の構成と同じ構成が、位置を対称にして配置される。 In the right half area used by the user on the right side of the tablet built-in monitor 131, the same configuration as the left half area described above is arranged symmetrically.

図18の例においては、目の大きさのレタッチに用いられるボタンが表示されるものとしたが、上述した他の種類のレタッチに用いられるボタンが編集画面に表示されるようにしてもよい。 In the example of FIG. 18, buttons used for eye size retouching are displayed, but buttons used for other types of retouching described above may be displayed on the editing screen.

また、眉マスカラ、リップ、チークのそれぞれのコンテンツ合成に用いられるボタンが表示されるものとしたが、上述した他の種類のコンテンツ合成に用いられるボタンが編集画面に表示されるようにしてもよい。 In addition, although the buttons used for synthesizing the contents of eyebrow mascara, lips, and cheeks are displayed, the buttons used for synthesizing other types of contents described above may be displayed on the editing screen. .

編集対象として選択されている撮影画像の画角に応じて、コンテンツ合成に用いられるボタンとレタッチに用いられるボタンの表示が切り替えられるようにしてもよい。 The display of the button used for content composition and the button used for retouching may be switched according to the angle of view of the captured image selected as the edit target.

例えば、編集対象の撮影画像としてアップ画像が選択されている場合には、アップ画像用のコンテンツ合成に用いられるボタンと、アップ画像用のレタッチに用いられるボタンが表示される。これらのボタンとともに、全身画像用のコンテンツ合成に用いられるボタンと、全身画像用のレタッチに用いられるボタンが表示されるようにしてもよい。 For example, when a close-up image is selected as a shot image to be edited, a button used for composition of content for the close-up image and a button used for retouching the close-up image are displayed. Along with these buttons, a button used for synthesizing content for the whole body image and a button used for retouching the whole body image may be displayed.

また、編集対象の撮影画像として全身画像が選択されている場合には、全身画像用のコンテンツ合成に用いられるボタンと、全身画像用のレタッチに用いられるボタンが表示される。これらのボタンとともに、アップ画像用のコンテンツ合成に用いられるボタンと、アップ画像用のレタッチに用いられるボタンが表示されるようにしてもよい。 Also, when a whole-body image is selected as the shot image to be edited, a button used for synthesizing content for the whole-body image and a button used for retouching the whole-body image are displayed. Along with these buttons, a button used for synthesizing content for close-up images and a button used for retouching for close-up images may be displayed.

図17の説明に戻り、編集画面の表示が開始された後、ステップS32において操作受付制御処理が行われる。操作受付制御処理は、編集対象の撮影画像に対する画像処理の操作の受け付けを制御する処理である。操作受付制御処理の詳細については図19のフローチャートを参照して後述する。 Returning to the description of FIG. 17, after the editing screen is started to be displayed, an operation acceptance control process is performed in step S32. The operation acceptance control process is a process of controlling acceptance of an image processing operation for a captured image to be edited. Details of the operation acceptance control process will be described later with reference to the flowchart of FIG.

ステップS33において、受付制御部417により受け付けられた操作に応じた画像処理が行われる。 In step S<b>33 , image processing is performed according to the operation accepted by the acceptance control unit 417 .

すなわち、編集制御部414は、利用者による操作に応じて撮影画像の編集を行う。 That is, the editing control unit 414 edits the captured image according to the user's operation.

また、コンテンツ合成部415は、利用者による操作に応じて、撮影画像に対してコンテンツ合成を行う。 Also, the content synthesizing unit 415 performs content synthesizing on the captured image according to the user's operation.

レタッチ処理部416は、レタッチの操作が受付制御部417により受け付けられた場合には、利用者による操作に応じて、撮影画像に対してレタッチを行う。 When the reception control unit 417 receives a retouch operation, the retouch processing unit 416 retouches the captured image in accordance with the user's operation.

ステップS34において、表示制御部413は、編集終了か否かを判定する。終了ボタン518L,518Rが押下された場合、または、制限時間が経過した場合、編集終了として判定される。編集終了ではないとステップS34において判定された場合、ステップS31に戻り、編集画面の表示を用いた編集等が続けられる。 In step S34, the display control unit 413 determines whether or not the editing is finished. When the end button 518L, 518R is pressed, or when the time limit has passed, it is determined that the editing is finished. If it is determined in step S34 that editing is not finished, the process returns to step S31 to continue editing using the display of the editing screen.

一方、終了ボタン518L,518Rが押下されるなどして編集終了であるとステップS34において判定した場合、ステップS35において、表示制御部413は、分割数選択画面をタブレット内蔵モニタ131に表示させる。 On the other hand, if it is determined in step S34 that the editing is finished by pressing the end buttons 518L, 518R or the like, the display control unit 413 causes the tablet built-in monitor 131 to display a division number selection screen in step S35.

分割数選択画面は、シールレイアウトの選択に用いられる画面である。シールレイアウトは、1枚の写真シールに配置される編集画像の枚数や位置、大きさを決定するレイアウト(配置パターン)である。シール紙363には、利用者により選択されたシールレイアウトに従って配置された編集画像が印刷される。 The division number selection screen is a screen used to select a seal layout. A sticker layout is a layout (arrangement pattern) that determines the number, positions, and sizes of edited images to be arranged on one photo sticker. Edited images arranged according to the sticker layout selected by the user are printed on the sticker paper 363 .

ステップS36において、印刷データ生成部435は、利用者により選択されたレイアウトで編集画像を配置することによって印刷データを生成する。印刷データは印刷処理部404に供給され、編集画像の印刷に用いられる。 In step S36, the print data generation unit 435 generates print data by arranging the edited image in the layout selected by the user. The print data is supplied to the print processing unit 404 and used to print the edited image.

ステップS37において、表示制御部413は、案内画面をタブレット内蔵モニタ131に表示させることによって、編集作業を終えた利用者に対して、印刷待ち空間A3への移動を案内する。印刷待ち空間A3への移動の案内は、スピーカ341から音声を出力することによっても行われる。その後、図16のステップS4に戻り、それ以降の処理が行われる。 In step S37, the display control unit 413 displays a guide screen on the tablet built-in monitor 131 to guide the user who has finished the editing work to move to the print waiting space A3. Guidance to move to the print waiting space A3 is also provided by outputting a voice from the speaker 341. FIG. After that, the process returns to step S4 in FIG. 16 and the subsequent processes are performed.

<操作受付制御処理>
次に、図19のフローチャートを参照して、図17のステップS32において行われる操作受付制御処理について説明する。図19の処理は、編集画面の表示を用いた所定の操作が利用者により行われたときに開始される。
<Operation reception control processing>
Next, the operation acceptance control process performed in step S32 of FIG. 17 will be described with reference to the flowchart of FIG. The process of FIG. 19 is started when the user performs a predetermined operation using the display of the editing screen.

ステップS51において、受付制御部417は、利用者により行われた操作が編集操作であるか否かを判定する。 In step S51, the reception control unit 417 determines whether or not the operation performed by the user is an editing operation.

利用者により行われた操作が編集操作であるとステップS51において判定した場合、ステップS52において、受付制御部417は、編集操作を受け付ける。ここで受け付けられた編集操作の内容を表す情報が受付制御部417から編集制御部414に供給される。 If it is determined in step S51 that the operation performed by the user is an editing operation, the acceptance control unit 417 accepts the editing operation in step S52. Information representing the content of the editing operation received here is supplied from the reception control unit 417 to the editing control unit 414 .

一方、利用者により行われた操作が編集操作ではないとステップS51において判定した場合、ステップS53において、受付制御部417は、利用者により行われた操作がコンテンツ合成の操作であるか否かを判定する。 On the other hand, if it is determined in step S51 that the operation performed by the user is not an editing operation, in step S53 the reception control unit 417 determines whether or not the operation performed by the user is an operation for synthesizing content. judge.

利用者により行われた操作がコンテンツ合成の操作であるとステップS53において判定した場合、ステップS52において、受付制御部417は、コンテンツ合成の操作を受け付ける。ここで受け付けられたコンテンツ合成の操作の内容を表す情報が受付制御部417からコンテンツ合成部415に供給される。 If it is determined in step S53 that the operation performed by the user is an operation for synthesizing content, the acceptance control unit 417 accepts an operation for synthesizing content in step S52. Information representing the details of the content synthesis operation received here is supplied from the reception control unit 417 to the content synthesis unit 415 .

一方、利用者により行われた操作がコンテンツ合成の操作ではないとステップS53において判定された場合、すなわち、利用者により行われた操作がレタッチの操作であると判定された場合、処理はステップS54に進む。 On the other hand, if it is determined in step S53 that the operation performed by the user is not content composition operation, that is, if it is determined that the operation performed by the user is retouching operation, the process proceeds to step S54. proceed to

ステップS54において、受付制御部417は、コンテンツ合成が先に行われているか否かを判定する。 In step S54, the reception control unit 417 determines whether or not content composition is performed first.

コンテンツ合成がまだ行われていないとステップS54において判定した場合、ステップS52において、受付制御部417は、レタッチの操作を受け付ける。ここで受け付けられたレタッチの操作の内容を表す情報が受付制御部417からレタッチ処理部416に供給される。 If it is determined in step S54 that content composition has not yet been performed, the acceptance control unit 417 accepts a retouching operation in step S52. Information representing the content of the retouching operation accepted here is supplied from the acceptance control unit 417 to the retouching processing unit 416 .

一方、コンテンツ合成が先に行われているとステップS54において判定した場合、ステップS55において、受付制御部417は、レタッチの操作を受け付けない。 On the other hand, if it is determined in step S54 that content synthesis has been performed first, the acceptance control unit 417 does not accept retouching operations in step S55.

編集操作、コンテンツ合成の操作、またはレタッチの操作がステップS52において受け付けられた場合、または、レタッチの操作がステップS55において受け付けられなかった場合、図17のステップS32に戻り、それ以降の処理が行われる。 If an editing operation, a content composition operation, or a retouching operation is accepted in step S52, or if a retouching operation is not accepted in step S55, the process returns to step S32 in FIG. 17, and the subsequent processes are performed. will be

以上のように、コンテンツ合成が行われた後のレタッチの受け付けを制限することにより、利用者は、バランスのよい画像処理を撮影画像に施すことが可能となる。 As described above, by restricting acceptance of retouching after content composition is performed, the user can apply well-balanced image processing to the captured image.

また、マスク画像の再生成などが不要となるため、写真シール作成装置1の処理負担を軽減させることが可能となる。 In addition, since the mask image needs not be regenerated, the processing load on the photo sticker creating apparatus 1 can be reduced.

<<変形例1>>
・レタッチ後のコンテンツ合成の受け付けを制限する例
コンテンツ合成が行われた後のレタッチの受け付けが制限されるものとしたが、反対に、レタッチが行われた後のコンテンツ合成の受け付けが制限されるようにしてもよい。
<<Modification 1>>
・Example of restricting acceptance of content composition after retouching Although it was assumed that acceptance of retouching after content composition was performed was restricted, on the contrary, acceptance of content composition after retouching was restricted. You may do so.

図20は、操作の受け付けの制限の例を示す図である。 FIG. 20 is a diagram illustrating an example of restrictions on acceptance of operations.

図20の上段に示すように、第1操作として顔に関するレタッチが行われた場合において、第2操作としてメイク系のコンテンツを用いたコンテンツ合成が行われたとき、その第2操作は受け付けられない。 As shown in the upper part of FIG. 20 , when face retouching is performed as the first operation and content composition using makeup-related content is performed as the second operation, the second operation is not accepted. .

操作を受け付けなかったことを表す情報が受付制御部417から表示制御部413に出力され、例えば、編集画面の表示に反映される。 Information indicating that the operation has not been accepted is output from the acceptance control unit 417 to the display control unit 413 and reflected in the display of the edit screen, for example.

第2操作が行われることに応じて、例えば以下のような制御が行われる。
(1)メイク系のコンテンツの操作に用いられるボタンがグレーアウトして表示される。
(2)メイク系のコンテンツの操作に用いられるボタンを押下しても、その操作を編集対象の撮影画像に反映しない。
(3)メイク系のコンテンツの操作を行うことができないことを通知するメッセージをポップアップ表示させる。
For example, the following control is performed in response to the second operation being performed.
(1) Buttons used for operating makeup-related content are displayed grayed out.
(2) Even if a button used for operating makeup-related content is pressed, the operation is not reflected in the shot image to be edited.
(3) Pop-up display of a message notifying that operation of makeup-related content cannot be performed.

また、図20の下段に示すように、第1操作として全身に関するレタッチが行われた場合において、第2操作として全身系のコンテンツを用いたコンテンツ合成が行われたとき、その第2操作は受け付けられない。 Further, as shown in the lower part of FIG. 20, when retouching related to the whole body is performed as the first operation, and content composition using whole-body content is performed as the second operation, the second operation is accepted. can't

操作を受け付けなかったことを表す情報が受付制御部417から表示制御部413に出力され、例えば、編集画面の表示に反映される。 Information indicating that the operation has not been accepted is output from the acceptance control unit 417 to the display control unit 413 and reflected in the display of the edit screen, for example.

第2操作が行われることに応じて、例えば以下のような制御が行われる。
(1)全身系のコンテンツの操作に用いられるボタンがグレーアウトして表示される。
(2)全身系のコンテンツの操作に用いられるボタンを押下しても、その操作を編集対象の撮影画像に反映しない。
(3)全身系のコンテンツの操作を行うことができないことを通知するメッセージをポップアップ表示させる。
For example, the following control is performed in response to the second operation being performed.
(1) Buttons used for operating content for the whole body are grayed out.
(2) Even if a button used to operate contents of the whole body is pressed, the operation is not reflected in the shot image to be edited.
(3) Pop-up display of a message notifying that operation of system content cannot be performed.

このように、レタッチが行われた後のコンテンツ合成の受け付けを制限することによっても、利用者は、バランスのよい画像処理を撮影画像に施すことが可能となる。 In this way, by restricting the acceptance of content composition after retouching, the user can apply well-balanced image processing to the captured image.

<<変形例2>>
・編集後のレタッチを制限する例
編集後のレタッチの受け付けが制限されるようにしてもよい。
<<Modification 2>>
- Example of restricting retouching after editing Acceptance of retouching after editing may be restricted.

アップ画像を対象とした編集後のレタッチの受け付けは、例えば以下のような場合に制限される。 Acceptance of post-editing retouching for close-up images is limited, for example, in the following cases.

(1)顔近傍に編集が行われた後のレタッチの受け付けが制限される。
(2)顔近傍にフレームが配置されていたり、フィルタ処理の対象となる領域がある場合、その後のレタッチの受け付けが制限される。レイヤL5を対象とした画像処理が先に行われている場合、レタッチの受け付けが制限されることになる。
(1) Acceptance of retouching after editing near the face is restricted.
(2) If a frame is placed near the face or if there is an area to be filtered, acceptance of subsequent retouching is restricted. If the image processing targeting the layer L5 is performed first, acceptance of retouching is restricted.

レタッチの受け付けを制限することにより、編集結果、フレームの合成結果、フィルタ処理結果の変形を防ぐことが可能となる。 By restricting acceptance of retouching, it is possible to prevent deformation of editing results, frame synthesis results, and filter processing results.

全身画像を対象とした編集後のレタッチの受け付けは、例えば以下のような場合に制限される。 Acceptance of post-editing retouching for whole-body images is limited, for example, in the following cases.

(1)全身近傍に編集が行われた後のレタッチの受け付けが制限される。
(2)全身近傍にフレームが配置されていたり、フィルタ処理の対象となる領域がある場合、その後のレタッチの受け付けが制限される。
(1) Acceptance of retouching after editing is performed on the vicinity of the whole body is restricted.
(2) If a frame is placed near the whole body or if there is an area to be filtered, acceptance of subsequent retouching is restricted.

<<変形例3>>
・レタッチ後の編集を制限する例
レタッチ後の編集の受け付けが制限されるようにしてもよい。
<<Modification 3>>
- Example of restricting editing after retouching Acceptance of editing after retouching may be restricted.

また、編集後のコンテンツ合成の受け付けが制限されるようにしてもよいし、コンテンツ合成後の編集の受け付けが制限されるようにしてもよい。 Further, acceptance of content synthesis after editing may be restricted, or acceptance of editing after content synthesis may be restricted.

<<変形例4>>
・例外的に第2操作を受け付ける場合
第2操作としてのコンテンツ合成の操作を例外的に受け付ける条件が予め設定されるようにしてもよい。
<<Modification 4>>
- When the Second Operation is Exceptionally Accepted A condition for exceptionally accepting the operation of synthesizing content as the second operation may be set in advance.

例えば以下のような条件を満たす場合、第2操作としてのコンテンツ合成の操作は例外的に受け付けられる。 For example, if the following conditions are satisfied, the content composition operation as the second operation is exceptionally accepted.

(1)アップ画像用のレタッチの前後でマスク画像の人物領域の形状に変更がない場合、全身に関するコンテンツ合成の操作は受け付けられる。 (1) If there is no change in the shape of the person region of the mask image before and after retouching for a close-up image, an operation for synthesizing contents relating to the whole body is accepted.

例えば、目を拡大するレタッチを行った場合でも、全身系のコンテンツ合成に用いるマスク画像の人物領域の形状には変更がない。この場合、オーラなどの、第2操作としての全身に関するコンテンツ合成の操作は受け付け可能とされる。 For example, even if retouching is performed to enlarge the eyes, the shape of the person region of the mask image used for synthesizing the whole-body content is not changed. In this case, it is possible to accept an operation for synthesizing contents relating to the whole body as the second operation, such as an aura.

(2)全身画像用のレタッチの前後でマスク画像の顔の部位の領域の形状に変更がない場合、メイク系のコンテンツ合成の操作は受け付けられる。 (2) If there is no change in the shape of the region of the face of the mask image before and after retouching for the full-body image, the makeup-related content composition operation is accepted.

例えば、脚を長くするレタッチを行った場合でも、メイク系のコンテンツ合成に用いるマスク画像の顔の部位の領域の形状には変更がない。この場合、チークなどの、第2操作としてのメイク系のコンテンツ合成の操作は受け付け可能とされる。 For example, even when retouching is performed to lengthen the legs, the shape of the face region of the mask image used for composition of makeup content is not changed. In this case, an operation for synthesizing makeup-related content as a second operation, such as blushing, can be accepted.

操作の自由度が高いため、利用者は、編集の完成度を高めることができる。 Since the degree of freedom of operation is high, the user can improve the completeness of editing.

・第1操作の種類に応じて第2操作の受け付けが制限される例
図21は、操作の受け付けの制限の例を示す図である。
- Example in which acceptance of the second operation is restricted according to the type of the first operation Fig. 21 is a diagram showing an example of restrictions on acceptance of the operation.

図21に示すように、第2操作の種類によらずに、第2操作を受け付けるか否かが、第1操作の種類に応じて予め決められているようにしてもよい。 As shown in FIG. 21, whether or not to accept the second operation may be determined in advance according to the type of the first operation, regardless of the type of the second operation.

2段目と3段目に示すように、第1操作として顔に関するレタッチが行われた場合、第2操作が全て受け付けられるようにしてもよいし、受け付けられないようにしてもよい。 As shown in the second and third stages, when face retouching is performed as the first operation, all the second operations may be accepted or may not be accepted.

4段目と5段目に示すように、第1操作として全身に関するレタッチが行われた場合、第2操作が全て受け付けられるようにしてもよいし、受け付けられないようにしてもよい。 As shown in the 4th and 5th rows, when the whole body is retouched as the first operation, all the second operations may be accepted or may not be accepted.

6段目と7段目に示すように、第1操作としてメイク系のコンテンツ合成が行われた場合、第2操作が全て受け付けられるようにしてもよいし、受け付けられないようにしてもよい。 As shown in the 6th and 7th rows, when makeup-related content composition is performed as the first operation, all the second operations may be accepted or may not be accepted.

8段目と9段目に示すように、第1操作として全身系のコンテンツ合成が行われた場合、第2操作が全て受け付けられるようにしてもよいし、受け付けられないようにしてもよい。 As shown in the eighth and ninth levels, when the whole-body content composition is performed as the first operation, the second operation may be accepted entirely or may not be accepted.

<<変形例5>>
・利用者が複数人である場合の受け付けの制限
図22は、編集画面の一部の表示を示す図である。
<<Modification 5>>
Restrictions on acceptance when there are multiple users FIG. 22 is a diagram showing a display of part of the edit screen.

図22の例においては、コンテンツ合成やレタッチの対象となる人物を、撮影画像に写る人物の中から指定することが可能とされる。 In the example of FIG. 22, it is possible to designate a person to be subjected to content synthesis or retouching from among persons appearing in the captured image.

編集対象の撮影画像がアップ画像である場合において、コンテンツ合成やレタッチの対象となる人物が指定されたとき、指定された人物の顔には、図22に示すように枠画像F11が表示される。枠画像F11は、コンテンツ合成やレタッチの対象となる人物を表す。 In the case where the shot image to be edited is a close-up image, when a person to be subjected to content composition or retouching is specified, a frame image F11 is displayed on the face of the specified person as shown in FIG. . The frame image F11 represents a person who is subject to content composition or retouching.

このように、複数人の利用者が撮影画像に写り、コンテンツ合成やレタッチの対象となる人物を指定することができるようになされている場合、第2操作としてのレタッチの受け付けは以下のようにして制限される。 In this way, when multiple users appear in the captured image and it is possible to designate a person for content composition or retouching, acceptance of retouching as the second operation is as follows. limited by

(1)撮影画像に写る複数の利用者のうちのいずれかの利用者を対象としたコンテンツの合成が行われた場合、全ての利用者を対象としたレタッチの操作の受け付けは制限される。 (1) When content is synthesized for one of a plurality of users appearing in a captured image, acceptance of retouching operations for all users is restricted.

すなわち、2人の利用者が写っている場合、一方の利用者を対象としてコンテンツの合成が行われた場合、その一方の利用者を対象としたレタッチの操作と、他方の利用者を対象としたレタッチの操作の両方の操作の受け付けが制限される。 That is, when two users are photographed, and when content is synthesized for one user, retouching operations for one user and retouching operations for the other user are performed. Acceptance of both retouching operations is restricted.

(2)撮影画像に写る複数の利用者のうちのいずれかの利用者を対象としたコンテンツ合成が行われた場合、コンテンツ合成の対象となった利用者と同じ利用者を対象としたレタッチの操作の受け付けは制限される。 (2) When content synthesis is performed for one of multiple users appearing in a captured image, retouching is performed for the same user as the target user for content synthesis. Acceptance of operations is restricted.

すなわち、2人の利用者が写っている場合、一方の利用者を対象としてコンテンツ合成が行われた場合、その一方の利用者を対象としたレタッチの操作のみ、受け付けが制限され、他方の利用者を対象としたレタッチの操作は受け付けられる。利用者が複数人である場合、利用者毎に、意図する処理を施すことができる。
In other words, when two users are photographed, and content is synthesized for one of the users, acceptance of only retouching operations for one of the users is restricted, and use of the other user is restricted. A retouching operation targeting a person is accepted. When there are multiple users, intended processing can be performed for each user.

第1操作がレタッチであり、第2操作がコンテンツ合成である場合も、同様にしてコンテンツ合成の受け付けが制限されるようにしてもよい。 Similarly, when the first operation is retouching and the second operation is content synthesis, acceptance of content synthesis may be restricted.

<<変形例6>>
・画面表示の例
(1)レタッチの操作が行われた後、メイク系のコンテンツの操作に用いられるボタンなどを表示するように、編集画面の表示が切り替えられるようにしてもよい。
<<Modification 6>>
Screen Display Example (1) After a retouching operation is performed, the display of the editing screen may be switched so as to display buttons and the like used for operating makeup-related content.

(2)レタッチの操作が行われた後、全身系のコンテンツの操作に用いられるボタンなどを表示するように、編集画面の表示が切り替えられるようにしてもよい。 (2) After the retouching operation is performed, the display of the editing screen may be switched so as to display buttons and the like used for operating the contents of the whole body system.

<<変形例7>>
写真シール作成装置1において行われる操作の受け付けを制限する場合について説明したが、スマートフォンなどの携帯端末における操作の受け付けが同様にして制限されるようにしてもよい。利用者の携帯端末には、管理サーバからダウンロードして取り込んだ撮影画像の画像処理に用いられるアプリケーションがインストールされている。
<<Modification 7>>
Although the case of restricting acceptance of operations performed in the photo sticker creating apparatus 1 has been described, acceptance of operations in a portable terminal such as a smartphone may be similarly restricted. An application that is downloaded from the management server and used for image processing of captured images is installed in the mobile terminal of the user.

(1)写真シール作成装置1においてレタッチが行われ、携帯端末上でコンテンツ合成が行われる例 (1) Example in which retouching is performed in the photo sticker creation device 1 and content synthesis is performed on a mobile terminal

第1操作としてレタッチが行われているから、携帯端末上での、フレームの合成、フィルタ処理の受け付け、編集の受け付け、メイク系のコンテンツの合成、背景画像の合成などの第2操作の受け付けがそれぞれ制限されるようにしてもよい。 Since retouching is performed as the first operation, second operations such as compositing frames, accepting filter processing, accepting edits, compositing makeup-related content, and compositing background images on the mobile terminal are accepted. Each may be restricted.

(2)写真シール作成装置1においてコンテンツ合成が行われ、携帯端末上でレタッチが行われる例 (2) Example in which contents are synthesized in the photo sticker creation device 1 and retouched on a mobile terminal

第1操作としてコンテンツ合成が行われているから、携帯端末上での、顔に関するレタッチ、全身に関するレタッチなどの第2操作の受け付けがそれぞれ制限されるようにしてもよい。 Since content composition is performed as the first operation, reception of second operations such as retouching on the face and retouching on the whole body on the mobile terminal may be restricted.

携帯端末に取り込まれた撮影画像は、レイヤ結合の上、圧縮されているため、コンテンツや背景等がある部分の近傍にレタッチが施されるとした場合、コンテンツが歪んでしまい、違和感のある画像になる。レタッチの受け付けを制限することにより、そのような違和感のある画像になってしまうことを防ぐことが可能となる。 Captured images captured by mobile devices are layered and compressed, so if retouching is applied to the vicinity of the content or background, the content will be distorted and the image will look strange. become. By limiting acceptance of retouching, it is possible to prevent the image from becoming such a strange image.

(3)写真シール作成装置1において撮影された画像に対するコンテンツ合成とレタッチの両方が携帯端末上で行われるようにしてもよい。この場合、第2操作の受け付けが以上のようにして制限されるようにすることが可能である。 (3) Both content synthesis and retouching of images taken by the photo sticker creating apparatus 1 may be performed on the mobile terminal. In this case, it is possible to restrict acceptance of the second operation as described above.

(4)携帯端末に送信される画像は、撮影画像、プレビュー画像、レタッチ画像、編集画像、携帯送信用画像のいずれの画像であってもよい。 (4) The image to be transmitted to the mobile terminal may be any of a photographed image, a preview image, a retouched image, an edited image, and an image for mobile transmission.

<<変形例8>>
一方の操作を受け付けた後に他方の操作が行われた場合、先に行われた一方の操作を取り消し、後から行われた他方の操作を受け付けるようにしてもよい。
<<Modification 8>>
When one operation is accepted and then the other operation is performed, the first operation may be canceled and the other operation performed later may be accepted.

・レタッチの後にコンテンツ合成が行われた場合
(1)アップ画像用のレタッチが行われた後に、メイク系のコンテンツ合成が選択された場合、先に受け付けたアップ画像用のレタッチを取り消し、後から選択されたメイク系のコンテンツ合成を受け付ける。
(2)全身画像用のレタッチが行われた後に、全身系のコンテンツ合成が選択された場合、先に受け付けた全身画像用のレタッチを取り消し、後から選択された全身系のコンテンツ合成を受け付ける。
(3)レタッチが行われた後に、コンテンツ合成が選択された場合、先に受け付けたレタッチを取り消し、後から選択されたコンテンツ合成を受け付ける。
・When content composition is performed after retouching (1) If makeup-type content composition is selected after close-up image retouching is performed, the previously accepted close-up image retouching is canceled, and is performed later. Accepts composition of selected makeup-based content.
(2) When whole-body content synthesis is selected after whole-body image retouching is performed, the previously accepted full-body image retouching is canceled, and the subsequently selected whole-body content synthesis is accepted.
(3) If content synthesis is selected after retouching, the previously accepted retouching is cancelled, and the subsequently selected content synthesis is accepted.

・制御の内容
第1操作としてのレタッチを取り消し、第2操作としてのコンテンツ合成を受け付ける場合、例えば以下のような制御が行われる。
(1)メイク系のコンテンツ合成のボタンが押下された場合、先に受け付けたアップ画像用のレタッチを自動的に取り消す。
(2)先に受け付けたアップ画像用のレタッチを取り消すことを通知するメッセージをポップアップ表示させる。
(3)全身系のコンテンツ合成のボタンが押下された場合、先に受け付けた全身画像用のレタッチを自動的に取り消す。
(4)先に受け付けた全身画像用のレタッチを取り消すことを通知するメッセージをポップアップ表示させる。
(5)コンテンツ合成のボタンが押下された場合、先に受け付けたレタッチを自動的に取り消す。
(6)先に受け付けたレタッチを取り消すことを通知するメッセージをポップアップ表示させる。
(7)先に受け付けたレタッチを取り消すか否かをユーザに選択させるためのメッセージをポップアップ表示させる。
Contents of Control When canceling retouching as the first operation and accepting content composition as the second operation, for example, the following control is performed.
(1) When a button for synthesizing makeup-related content is pressed, retouching for a close-up image previously accepted is automatically canceled.
(2) Pop-up display a message notifying that the retouching for the close-up image previously accepted is to be cancelled.
(3) When the button for synthesizing the contents of the whole body system is pressed, the retouching for the whole body image previously received is automatically canceled.
(4) Pop-up display a message notifying that the previously accepted retouching for the whole-body image is to be cancelled.
(5) When the content composition button is pressed, the previously received retouching is automatically canceled.
(6) Display a pop-up message notifying that the previously accepted retouch will be cancelled.
(7) Display a pop-up message for allowing the user to select whether or not to cancel the previously accepted retouch.

・コンテンツ合成の後にレタッチが行われた場合
(1)メイク系のコンテンツ合成が行われた後に、アップ画像用のレタッチが選択された場合、先に受け付けたメイク系のコンテンツ合成を取り消し、後から選択されたアップ画像用のレタッチを受け付ける。
(2)全身系のコンテンツ合成が行われた後に、全身画像用のレタッチが選択された場合、先に受け付けた全身系のコンテンツ合成を取り消し、後から選択された全身画像用のレタッチを受け付ける。
(3)コンテンツ合成が行われた後に、レタッチが選択された場合、先に受け付けたコンテンツ合成を取り消し、後から選択されたレタッチを受け付ける。
・When retouching is performed after content composition (1) If retouching for a close-up image is selected after makeup-related content composition is performed, the previously received makeup-type content composition is canceled, and then retouched later. Accepts retouching for the selected close-up image.
(2) When retouching for a whole-body image is selected after synthesizing contents of the whole-body system, the composition of contents of the whole-body system previously accepted is canceled, and retouching for the whole-body image selected later is accepted.
(3) If retouching is selected after content synthesis is performed, the previously received content synthesis is cancelled, and the retouching selected later is accepted.

・制御の内容
第1操作としてのコンテンツ合成を取り消し、第2操作としてのレタッチを受け付ける場合、例えば以下のような制御が行われる。
(1)アップ画像用のレタッチのボタンが押下された場合、先に受け付けたメイク系のコンテンツ合成を自動的に取り消す。
(2)先に受け付けたメイク系のコンテンツ合成を取り消すことを通知するメッセージをポップアップ表示させる。
(3)全身画像用のレタッチのボタンが押下された場合、先に受け付けた全身系のコンテンツ合成を自動的に取り消す。
(4)先に受け付けた全身系のコンテンツ合成を取り消すことを通知するメッセージをポップアップ表示させる。
(5)レタッチのボタンが押下された場合、先に受け付けたコンテンツ合成を自動的に取り消す。
(6)先に受け付けたコンテンツ合成を取り消すことを通知するメッセージをポップアップ表示させる。
(7)先に受け付けたコンテンツ合成を取り消すか否かをユーザに選択させるためのメッセージをポップアップ表示させる。
Contents of Control When canceling content synthesis as the first operation and accepting retouching as the second operation, for example, the following control is performed.
(1) When the close-up image retouching button is pressed, the composition of makeup-related content received in advance is automatically canceled.
(2) Pop-up display a message notifying that the composition of makeup-related content that has been previously accepted will be cancelled.
(3) When a button for retouching a whole-body image is pressed, the system automatically cancels the received synthesis of whole-body content.
(4) Pop-up display a message notifying that the previously accepted whole-body content synthesis is to be cancelled.
(5) When the retouch button is pressed, the previously received content composition is automatically canceled.
(6) Display a pop-up message notifying that the previously received content synthesis is cancelled.
(7) Display a pop-up message for allowing the user to select whether or not to cancel the previously received content synthesis.

<<その他の例>>
上述した一連の処理は、ハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または、汎用のパーソナルコンピュータなどにインストールされる。
<<other examples>>
The series of processes described above can be executed by hardware or by software. When a series of processes is executed by software, a program that constitutes the software is installed in a computer built into dedicated hardware or a general-purpose personal computer.

インストールされるプログラムは、光ディスク(CD-ROM(Compact Disc-Read Only Memory),DVD(Digital Versatile Disc)等)や半導体メモリなどよりなる図10に示されるリムーバブルメディア319に記録して提供される。また、ローカルエリアネットワーク、インターネット、デジタル放送といった、有線または無線の伝送媒体を介して提供されるようにしてもよい。プログラムは、ROM312や記憶部316に、あらかじめインストールしておくことができる。 The program to be installed is provided by being recorded on removable media 319 shown in FIG. Alternatively, it may be provided via a wired or wireless transmission medium such as a local area network, the Internet, or digital broadcasting. The program can be pre-installed in the ROM 312 or storage unit 316 .

なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。 The program executed by the computer may be a program that is processed in chronological order according to the order described in this specification, or may be executed in parallel or at a necessary timing such as when a call is made. It may be a program in which processing is performed.

1 写真シール作成装置, 91 カメラ, 92 タッチパネルモニタ, 131 タブレット内蔵モニタ, 402 撮影処理部, 403 編集処理部, 411 撮影画像取得部, 412 編集対象画像バッファ, 413 表示制御部, 414 編集制御部, 415 コンテンツ合成部, 416 レタッチ処理部, 417 受付制御部 1 photo sticker creation device, 91 camera, 92 touch panel monitor, 131 tablet built-in monitor, 402 photographing processing unit, 403 editing processing unit, 411 photographed image acquisition unit, 412 edit target image buffer, 413 display control unit, 414 editing control unit, 415 content synthesizing unit, 416 retouch processing unit, 417 acceptance control unit

Claims (11)

利用者を被写体とした撮影画像に対するレタッチ操作用の第1の情報と、コンテンツ合成操作用の第2の情報とが設けられた編集画面を表示させる表示制御部と、
前記第1の情報を用いた 前記利用者の操作に応じて、前記撮影画像に対してレタッチを施す画像処理部と、
前記第2の情報を用いた 前記利用者の操作に応じて、前記撮影画像に対してコンテンツを合成する合成処理部と、
前記レタッチと前記コンテンツの合成とのうちの一方の操作を受け付けた後に他方の操作を受け付けないように、前記編集画面に対する前記利用者の操作の受け付けを制御する制御部と
を備える画像処理装置
Photographed image with the user as the subjecta display control unit for displaying an editing screen provided with first information for retouching operation and second information for content synthesizing operation;
using the first information an image processing unit that retouches the captured image in accordance with the user's operation;
using the second information a synthesis processing unit that synthesizes content with the captured image in accordance with the user's operation;
After accepting one operation of retouching and synthesizing the content, the other operation is not accepted,for the edit screena control unit that controls acceptance of the user's operation;
haveImage processing device.
前記制御部は、前記撮影画像に写る前記利用者の顔の少なくとも一部の領域に対して前記コンテンツを合成する操作を受け付けた後に、前記顔の形状または前記顔の一部の形状に関する前記レタッチの操作を受け付けない
請求項1に記載の画像処理装置
The control unit receives an operation of synthesizing the content with at least a partial area of the face of the user captured in the captured image, and then performs the retouching on the shape of the face or the shape of the part of the face. The image processing apparatus according to claim 1, wherein the operation of is not accepted.
前記制御部は、前記撮影画像に写る前記利用者の顔の形状または前記顔の一部の形状に関する前記レタッチの操作を受け付けた後に、前記顔の少なくとも一部の領域に対して前記コンテンツを合成する操作を受け付けない
請求項1に記載の画像処理装置
After receiving the retouching operation regarding the shape of the user's face or the shape of the part of the face appearing in the captured image, the control unit synthesizes the content with at least a part of the face. The image processing apparatus according to claim 1, wherein an operation to do is not accepted.
前記制御部は、前記撮影画像に写る前記利用者の全身の少なくとも一部の領域に対して前記コンテンツを合成する操作を受け付けた後に、前記全身の形状または前記全身の一部の形状に関する前記レタッチの操作を受け付けない
請求項1に記載の画像処理装置
The control unit, after receiving an operation of synthesizing the content with at least a partial region of the whole body of the user captured in the captured image, performs the retouching on the shape of the whole body or the shape of the part of the whole body. The image processing apparatus according to claim 1, wherein the operation of is not accepted.
前記制御部は、前記撮影画像に写る前記利用者の全身の形状または前記全身の一部の形状に関する前記レタッチの操作を受け付けた後に、前記全身の少なくとも一部の領域に対して前記コンテンツを合成する操作を受け付けない
請求項1に記載の画像処理装置
The control unit synthesizes the content with at least a partial region of the whole body after receiving the retouching operation regarding the shape of the user's whole body or the shape of the part of the whole body appearing in the captured image. The image processing apparatus according to claim 1, wherein an operation to do is not accepted.
前記制御部は、前記撮影画像に写る複数の前記利用者のうちのいずれかの前記利用者を対象とした前記一方の操作を受け付けた場合、全ての前記利用者を対象とした前記他方の操作を受け付けない
請求項1乃至5のいずれかに記載の画像処理装置
When the control unit receives the one operation targeting one of the plurality of users appearing in the photographed image, the control unit performs the other operation targeting all the users. 6. The image processing apparatus according to any one of claims 1 to 5, wherein the image processing apparatus does not accept the .
前記制御部は、前記撮影画像に写る複数の前記利用者のうちのいずれかの前記利用者を対象とした前記一方の操作を受け付けた場合、前記一方の操作の対象となった前記利用者と同じ前記利用者を対象とした前記他方の操作を受け付けない
請求項1乃至5のいずれかに記載の画像処理装置
When receiving the one operation targeting one of the plurality of users appearing in the photographed image, the control unit is configured to: 6. The image processing apparatus according to any one of claims 1 to 5, wherein the other operation directed to the same user is not accepted.
前記表示制御部は、 前記一方の操作を受け付けた場合、前記他方の操作を受け付けることができないことを表すように、前記編集画面の表示を制御する
請求項1乃至7のいずれかに記載の画像処理装置
The display control unit If one of the operations is accepted, the other operation cannot be accepted.Editing screento control the display of
Any one of claims 1 to 7Image processing device.
前記表示制御部は、前記他方の操作に用いられる表示をグレーアウトさせるか、前記他方の操作を受け付けることができないことを表す情報をポップアップ表示させる
請求項8に記載の画像処理装置
The image processing apparatus according to claim 8, wherein the display control unit grays out the display used for the other operation, or pops up information indicating that the other operation cannot be accepted.
画像処理装置が、
利用者を被写体とした撮影画像に対するレタッチ操作用の第1の情報と、コンテンツ合成操作用の第2の情報とが設けられた編集画面を表示させ、
前記第1の情報を用いた レタッチと前記第2の情報を用いたコンテンツの合成とのうちの一方の操作を受け付けた後に他方の操作を受け付けないように、前記編集画面に対する前記利用者の操作の受け付けを制御する
制御方法。
The image processing device
Photographed image with the user as the subjectdisplaying an editing screen provided with first information for retouching operations and second information for content synthesizing operations;
using the first information retouch andusing the second informationso as not to accept the other operation after accepting one operation of content synthesis,for the edit screenControl acceptance of operations by said user
control method.
コンピュータに、
利用者を被写体とした撮影画像に対するレタッチ操作用の第1の情報と、コンテンツ合成操作用の第2の情報とが設けられた編集画面を表示させ、
前記第1の情報を用いた レタッチと前記第2の情報を用いたコンテンツの合成とのうちの一方の操作を受け付けた後に他方の操作を受け付けないように、前記編集画面に対する前記利用者の操作の受け付けを制御する
処理を実行させるプログラム。
to the computer,
Photographed image with the user as the subjectdisplaying an editing screen provided with first information for retouching operations and second information for content synthesizing operations;
using the first information retouch andusing the second informationso as not to accept the other operation after accepting one operation of content synthesis,for the edit screenControl acceptance of operations by said user
A program that causes an action to take place.
JP2018086204A 2018-04-27 2018-04-27 Image processing device, control method, and program Active JP7140962B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018086204A JP7140962B2 (en) 2018-04-27 2018-04-27 Image processing device, control method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018086204A JP7140962B2 (en) 2018-04-27 2018-04-27 Image processing device, control method, and program

Publications (2)

Publication Number Publication Date
JP2019192061A JP2019192061A (en) 2019-10-31
JP7140962B2 true JP7140962B2 (en) 2022-09-22

Family

ID=68390202

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018086204A Active JP7140962B2 (en) 2018-04-27 2018-04-27 Image processing device, control method, and program

Country Status (1)

Country Link
JP (1) JP7140962B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113315924A (en) * 2020-02-27 2021-08-27 北京字节跳动网络技术有限公司 Image special effect processing method and device

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015004751A (en) 2013-06-19 2015-01-08 辰巳電子工業株式会社 Photography game device, image generation method, and image generation program
JP2015118330A (en) 2013-12-19 2015-06-25 フリュー株式会社 Image processor and image processing method
JP2016028463A (en) 2014-07-10 2016-02-25 フリュー株式会社 Photograph seal creation device and display method
JP2018064220A (en) 2016-10-14 2018-04-19 フリュー株式会社 Photograph preparation game machine and display method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015004751A (en) 2013-06-19 2015-01-08 辰巳電子工業株式会社 Photography game device, image generation method, and image generation program
JP2015118330A (en) 2013-12-19 2015-06-25 フリュー株式会社 Image processor and image processing method
JP2016028463A (en) 2014-07-10 2016-02-25 フリュー株式会社 Photograph seal creation device and display method
JP2018064220A (en) 2016-10-14 2018-04-19 フリュー株式会社 Photograph preparation game machine and display method

Also Published As

Publication number Publication date
JP2019192061A (en) 2019-10-31

Similar Documents

Publication Publication Date Title
JP5488526B2 (en) Image processing apparatus and image processing method
JP5748651B2 (en) Image processing apparatus, image processing method, and program
JP6810336B2 (en) Photo creation game console and display method
JP7140962B2 (en) Image processing device, control method, and program
JP5825542B1 (en) Photo sticker creation apparatus and display method
JP7152687B2 (en) Display control device, display control method, program
JP6712047B2 (en) Photo creation game machine and image generation method
JP7132492B2 (en) Image processing device, display control method, and program
JP7074994B2 (en) Photographing game console and image processing method
JP2018107515A (en) Photograph formation game machine and image processing method
JP6853475B2 (en) Photo creation game console and display method
JP2021043797A (en) Image processing device, image processing method, and image processing program
JP6376421B1 (en) Photo creation game machine, display method, and program
JP2021044734A (en) Image processing device, image processing method, and program
JP7121256B2 (en) PHOTO-CREATION GAME MACHINE, IMAGE PROCESSING METHOD, AND PROGRAM
JP5970013B2 (en) Photo sticker making apparatus and photo sticker making method
JP6867587B2 (en) Photographing game consoles, information processing methods, and programs
JP6465333B2 (en) Image processing apparatus and image processing method
JP5482948B2 (en) Image processing apparatus and image processing method
JP6982230B2 (en) Photographing game console and image processing method
JP7339515B2 (en) Image processing device, image processing method, and program
JP7032642B2 (en) Photo-creating game consoles, editing methods, and programs
JP2021182104A (en) Photograph creation game machine, editing method and program
JP2020053831A (en) Photo-creating game machine, image processing method, and program
JP2016197222A (en) Photograph sticker creating apparatus and display method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210325

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211224

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220118

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220322

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220809

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220822

R150 Certificate of patent or registration of utility model

Ref document number: 7140962

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150