JP2019186903A - Photo creation game machine, image display method, and program - Google Patents

Photo creation game machine, image display method, and program Download PDF

Info

Publication number
JP2019186903A
JP2019186903A JP2018154986A JP2018154986A JP2019186903A JP 2019186903 A JP2019186903 A JP 2019186903A JP 2018154986 A JP2018154986 A JP 2018154986A JP 2018154986 A JP2018154986 A JP 2018154986A JP 2019186903 A JP2019186903 A JP 2019186903A
Authority
JP
Japan
Prior art keywords
image
processing
content
user
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018154986A
Other languages
Japanese (ja)
Inventor
妥美 呉屋
Yasumi Kureya
妥美 呉屋
実穂 白子
Miho Shirako
実穂 白子
聡 井内
Satoshi Iuchi
聡 井内
神野貴代
Takayo Jinno
貴代 神野
里香 笹野
Rika Sasano
里香 笹野
麻未 筒井
Asami Tsutsui
麻未 筒井
雅典 住永
Masanori Suminaga
雅典 住永
和貴子 角
Wakiko Sumi
和貴子 角
悠里 溝口
Yuri Mizoguchi
悠里 溝口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Furyu Corp
Original Assignee
Furyu Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Furyu Corp filed Critical Furyu Corp
Publication of JP2019186903A publication Critical patent/JP2019186903A/en
Pending legal-status Critical Current

Links

Images

Abstract

To provide users with various variations of images.SOLUTION: A photographing processing unit obtains a photographed image by photographing a user as a subject, and a display control unit combines different contents according to the recognition result of a person with the photographed image, and in at least one of the photographed images, a plurality of processed images subjected to different retouching processes are displayed. The present technology can be applied to a photo sticker creating apparatus.SELECTED DRAWING: Figure 20

Description

本技術は、写真作成ゲーム機、画像表示方法、およびプログラムに関し、特に、利用者に様々なバリエーションの画像を提供することができるようにする写真作成ゲーム機、画像表示方法、およびプログラムに関する。   The present technology relates to a photo creation game machine, an image display method, and a program, and more particularly, to a photo creation game machine, an image display method, and a program that can provide various variations of images to a user.

従来、アミューズメント施設等に設置される写真シール機が知られている。写真シール機は、利用者を撮影し、利用者の操作に応じて撮影画像に対して編集を施す。写真シール機は、編集が施された撮影画像をシール紙に印刷する。   Conventionally, a photo sticker installed in an amusement facility or the like is known. The photo sticker machine photographs a user and edits the photographed image according to the user's operation. The photo sticker prints the edited photographed image on sticker paper.

近年、写真シール機においては、撮影画像に写る利用者の顔をより良くみせるための画像処理を施すことが行われている。   In recent years, in a photo sticker, image processing for better showing a user's face in a captured image has been performed.

例えば、特許文献1には、ブログや携帯端末の待ち受け画面に表示するためのブログ画像として、元の撮影画像をトリミングして、元の撮影画像とは異なる目の大きさや写りに変更した画像を作成することが開示されている。   For example, Patent Document 1 discloses an image obtained by trimming an original captured image as a blog image to be displayed on a standby screen of a blog or a portable terminal, and changing the image to an eye size or image different from the original captured image. Making is disclosed.

また、特許文献2には、撮影画像における顔の部位を認識し、目の大きさ、明るさ、顔の大きさ、髪の毛の色、化粧の濃淡、肌の色などを変更する画像処理を施すことが開示されている。   Japanese Patent Application Laid-Open No. 2004-228688 performs image processing for recognizing a facial part in a photographed image and changing the size of eyes, brightness, face size, hair color, makeup shade, skin color, and the like. It is disclosed.

さらに、顔認識を用いた処理として、特許文献3には、撮影画像において認識された顔の大きさや向きに応じて、利用者に選択されたスタンプ画像の大きさや向きを調整して、撮影画像における顔の部位に合成することが開示されている。   Further, as processing using face recognition, Patent Document 3 discloses a photographed image obtained by adjusting the size and orientation of a stamp image selected by the user in accordance with the size and orientation of the face recognized in the photographed image. It is disclosed to synthesize to a facial part.

また近年、スマートフォンなどの携帯端末で人物の顔を撮影する際、顔の認識結果に応じて、動物の顔パーツ(鼻や耳など)を模した合成用画像を合成して撮影する撮影用アプリケーションが知られている。近年の写真シール機においても、動物の顔パーツを模したスタンプ画像を撮影画像に合成することが行われている。   In recent years, when shooting a person's face with a mobile terminal such as a smartphone, a shooting application that synthesizes and shoots a composite image simulating animal face parts (nose, ears, etc.) according to the face recognition result. It has been known. In recent photo stickers, stamp images imitating animal face parts are combined with photographed images.

特開2012−141440号公報JP 2012-141440 A 特開2013−243648号公報JP 2013-243648 A 特開2015−148641号公報Japanese Patent Laying-Open No. 2015-148641

ところで、写真シール機において、撮影画像に、互いに異なるスタンプ画像が合成されて表示される複数の画像には、顔などの人物の領域に施される画像処理として、一様な画像処理しか施されていなかった。そのため、表示されるそれぞれの画像は、見た目上、スタンプ画像が違うだけであった。   By the way, in a photo sticker, only uniform image processing is applied to a plurality of images displayed by combining different stamp images with a photographed image as image processing applied to a person region such as a face. It wasn't. For this reason, the displayed images differ only in the stamp image.

本技術は、このような状況に鑑みてなされたものであり、利用者に様々なバリエーションの画像を提供することができるようにするものである。   This technique is made in view of such a situation, and makes it possible to provide various variations of images to the user.

本技術の写真作成ゲーム機は、利用者を被写体とした撮影を行うことで撮影画像を取得する撮影処理部と、前記撮影画像に、人物の認識結果に応じた互いに異なるコンテンツが合成され、その少なくともいずれかに、互いに異なるレタッチ処理が施された複数の処理後画像を表示する表示制御部とを備える。   In the photo creation game machine of the present technology, a shooting processing unit that acquires a shot image by shooting a user as a subject, and the shot image are combined with different contents according to a person recognition result. At least one of them includes a display control unit that displays a plurality of processed images that have been subjected to different retouching processes.

本技術の画像表示方法は、写真作成ゲーム機が、利用者を被写体とした撮影を行うことで撮影画像を取得し、前記撮影画像に、人物の認識結果に応じた互いに異なるコンテンツが合成され、その少なくともいずれかに、互いに異なるレタッチ処理が施された複数の処理後画像を表示する画像表示方法である。   In the image display method of the present technology, a photo creation game machine acquires a shot image by shooting a user as a subject, and different contents according to a person recognition result are combined with the shot image, This is an image display method for displaying a plurality of processed images that have been subjected to mutually different retouching processes on at least one of them.

本技術のプログラムは、コンピュータに、利用者を被写体とした撮影を行うことで撮影画像を取得し、前記撮影画像に、人物の認識結果に応じた互いに異なるコンテンツが合成され、その少なくともいずれかに、互いに異なるレタッチ処理が施された複数の処理後画像を表示する処理を実行させるためのプログラムである。   The program of the present technology acquires a photographed image by photographing a user as a subject on a computer, and different contents according to a person recognition result are combined with the photographed image, and at least one of them is combined. This is a program for executing a process of displaying a plurality of post-process images subjected to different retouch processes.

本技術においては、利用者を被写体とした撮影を行うことで撮影画像が取得され、前記撮影画像に、人物の認識結果に応じた互いに異なるコンテンツが合成され、その少なくともいずれかに、互いに異なるレタッチ処理が施された複数の処理後画像が表示される。   In the present technology, a photographed image is acquired by photographing a user as a subject, and different contents according to a person recognition result are combined with the photographed image, and at least one of them is retouched differently. A plurality of processed images that have been processed are displayed.

本技術によれば、利用者に様々なバリエーションの画像を提供することが可能となる。   According to the present technology, it is possible to provide various variations of images to the user.

本技術の写真シール作成装置の外観の構成例を示す斜視図である。It is a perspective view which shows the structural example of the external appearance of the photo sticker production apparatus of this technique. 写真シール作成装置の外観を他の角度からみた斜視図である。It is the perspective view which looked at the external appearance of the photograph sticker production apparatus from another angle. 利用者の移動について説明する図である。It is a figure explaining a user's movement. 事前選択部の構成例を示す図である。It is a figure which shows the structural example of a preselection part. 撮影部の構成例を示す図である。It is a figure which shows the structural example of an imaging | photography part. 背景部の構成例を示す図である。It is a figure which shows the structural example of a background part. 床材を示す斜視図である。It is a perspective view which shows a flooring. 編集ユニットの正面の構成例を示す図である。It is a figure which shows the structural example of the front of an edit unit. 編集ユニットの側面の構成例を示す図である。It is a figure which shows the structural example of the side surface of an edit unit. シール紙の例を示す図である。It is a figure which shows the example of a sticker paper. 編集画像のレイヤ構成の例を示す図である。It is a figure which shows the example of a layer structure of an edit image. 写真シール作成装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of a photograph sticker production apparatus. 写真シール作成装置の機能構成例を示すブロック図である。It is a block diagram which shows the function structural example of a photograph sticker production apparatus. 写真シール作成ゲーム処理について説明するフローチャートである。It is a flowchart explaining a photograph sticker creation game process. 編集処理について説明するフローチャートである。It is a flowchart explaining an edit process. 編集画面の例を示す図である。It is a figure which shows the example of an edit screen. 携帯おまけ作成処理について説明するフローチャートである。It is a flowchart explaining a portable bonus creation process. 加工画面の例を示す図である。It is a figure which shows the example of a process screen. 加工画像の詳細について説明する図である。It is a figure explaining the detail of a process image. 本技術の写真シール作成装置の機能構成例を示すブロック図である。It is a block diagram which shows the function structural example of the photograph sticker production apparatus of this technique. 処理後画像表示処理について説明するフローチャートである。It is a flowchart explaining the post-process image display process. レタッチ処理のパターンの例を示す図である。It is a figure which shows the example of the pattern of a retouch process. レタッチ処理のパターンの例を示す図である。It is a figure which shows the example of the pattern of a retouch process. レタッチ処理のパターンの例を示す図である。It is a figure which shows the example of the pattern of a retouch process. レタッチ処理のパターンの例を示す図である。It is a figure which shows the example of the pattern of a retouch process. 画像処理の強さについて説明する図である。It is a figure explaining the strength of image processing. 複製パターンの例を示す図である。It is a figure which shows the example of a duplication pattern. 複製パターンの例を示す図である。It is a figure which shows the example of a duplication pattern. 複製パターンの例を示す図である。It is a figure which shows the example of a duplication pattern. 複製パターンの例を示す図である。It is a figure which shows the example of a duplication pattern. 複製パターンの例を示す図である。It is a figure which shows the example of a duplication pattern. 編集画面の他の例を示す図である。It is a figure which shows the other example of an edit screen. 小顔処理の例について説明する図である。It is a figure explaining the example of a small face process. 小顔処理の例について説明する図である。It is a figure explaining the example of a small face process. 全身画像に施される画像処理の例について説明する図である。It is a figure explaining the example of the image process performed to a whole body image. 全身画像に施される画像処理の他の例について説明する図である。It is a figure explaining the other example of the image processing performed to a whole body image. 全身画像に施される画像処理のさらに他の例について説明する図である。It is a figure explaining the further another example of the image processing performed to a whole body image. 編集パレットの例を示す図である。It is a figure which shows the example of an edit palette. 変身スタンプ画像と背景画像の合成について説明する図である。It is a figure explaining the synthesis | combination of a transformation stamp image and a background image. 個別に合成する場合の編集パレットの表示について説明する図である。It is a figure explaining the display of the edit palette in the case of combining individually. 個別に合成する場合の編集パレットの表示について説明する図である。It is a figure explaining the display of the edit palette in the case of combining individually. コンテンツの色の変更について説明する図である。It is a figure explaining the change of the color of a content. コンテンツの例を示す図である。It is a figure which shows the example of a content. コンテンツの例を示す図である。It is a figure which shows the example of a content. コンテンツの例を示す図である。It is a figure which shows the example of a content. コンテンツの例を示す図である。It is a figure which shows the example of a content. コンテンツを構成する画像が回転するアニメーションの例を示す図である。It is a figure which shows the example of the animation which the image which comprises a content rotates. コンテンツを構成する画像の位置が変化するアニメーションの例を示す図である。It is a figure which shows the example of the animation which the position of the image which comprises a content changes. 回転の例を示す図である。It is a figure which shows the example of rotation. 上下の移動の例を示す図である。It is a figure which shows the example of a vertical movement. 拡縮の例を示す図である。It is a figure which shows the example of expansion / contraction. 拡縮の他の例を示す図である。It is a figure which shows the other example of expansion / contraction. 左右の移動の例を示す図である。It is a figure which shows the example of a left-right movement. 透過度変更の例を示す図である。It is a figure which shows the example of a transmittance | permeability change. 色変更の例を示す図である。It is a figure which shows the example of a color change. 色変更の他の例を示す図である。It is a figure which shows the other example of a color change. その他の移動の例を示す図である。It is a figure which shows the example of another movement. その他の移動の例を示す図である。It is a figure which shows the example of another movement. その他の移動の例を示す図である。It is a figure which shows the example of another movement. 編集画面のさらに他の例を示す図である。It is a figure which shows the further another example of an edit screen. 編集画面のさらに他の例を示す図である。It is a figure which shows the further another example of an edit screen. 目を合成対象としたコンテンツの合成について説明する図である。It is a figure explaining composition of contents made into eyes composition object. コンテンツの組み合わせについて説明する図である。It is a figure explaining the combination of content. 疑似キャッチライトの配置の例について説明する図である。It is a figure explaining the example of arrangement | positioning of a pseudo catch light. 疑似キャッチライトの配置の例について説明する図である。It is a figure explaining the example of arrangement | positioning of a pseudo catch light. 目を合成対象としたメイク系のコンテンツの種類を示す図である。It is a figure which shows the kind of contents of makeup type | system | group which made eyes synthetic | combination object. テイストに応じたコンテンツの組み合わせについて説明する図である。It is a figure explaining the combination of the content according to a taste. 合成対象の色に応じたコンテンツの色について説明する図である。It is a figure explaining the color of the content according to the color of composition object. 合成対象の色に応じたコンテンツの色について説明する図である。It is a figure explaining the color of the content according to the color of composition object. 合成対象の色に応じたコンテンツの色について説明する図である。It is a figure explaining the color of the content according to the color of composition object. 合成対象の大きさに応じたコンテンツの大きさについて説明する図である。It is a figure explaining the magnitude | size of the content according to the magnitude | size of the synthetic | combination object. 合成対象の大きさに応じたコンテンツの大きさについて説明する図である。It is a figure explaining the magnitude | size of the content according to the magnitude | size of the synthetic | combination object. 合成対象の大きさに応じたコンテンツの大きさについて説明する図である。It is a figure explaining the magnitude | size of the content according to the magnitude | size of the synthetic | combination object. 編集画面のさらに他の例を示す図である。It is a figure which shows the further another example of an edit screen. コンテンツとレタッチ処理の組み合わせについて説明する図である。It is a figure explaining the combination of a content and a retouch process. コンテンツとレタッチ処理の組み合わせについて説明する図である。It is a figure explaining the combination of a content and a retouch process. コンテンツとレタッチ処理の組み合わせについて説明する図である。It is a figure explaining the combination of a content and a retouch process. コンテンツとレタッチ処理の組み合わせについて説明する図である。It is a figure explaining the combination of a content and a retouch process. コンテンツとレタッチ処理の組み合わせについて説明する図である。It is a figure explaining the combination of a content and a retouch process. コンテンツとレタッチ処理の組み合わせについて説明する図である。It is a figure explaining the combination of a content and a retouch process. コンテンツとレタッチ処理の組み合わせについて説明する図である。It is a figure explaining the combination of a content and a retouch process. 編集画面のさらに他の例を示す図である。It is a figure which shows the further another example of an edit screen. ツヤ画像の例を示す図である。It is a figure which shows the example of a glossy image.

<写真シール作成装置の外観>
図1および図2は、写真シール作成装置1の外観の構成例を示す斜視図である。
<Appearance of photo sticker creation device>
FIG. 1 and FIG. 2 are perspective views showing a configuration example of the appearance of the photographic sticker creating apparatus 1.

写真シール作成装置1は、撮影画像や編集画像を提供する写真作成ゲーム機である。写真シール作成装置1は、画像をシール紙に印刷したり、画像を利用者の携帯端末上で閲覧可能にしたりすることで、利用者に画像を提供する。写真シール作成装置1は、ゲームセンターなどのアミューズメント施設や店舗に設置される。   The photo sticker creating apparatus 1 is a photo creating game machine that provides a photographed image and an edited image. The photo sticker creating apparatus 1 provides an image to the user by printing the image on a sticker sheet or making the image viewable on the user's mobile terminal. The photo sticker creating apparatus 1 is installed in an amusement facility or a store such as a game center.

写真シール作成装置1の利用者は、主に女子高生や若い女性が中心とされる。写真シール作成装置1において、1組あたり主に2人や3人などの複数人の利用者がゲームを楽しむことができる。もちろん、写真シール作成装置1において、1人の利用者がゲームを楽しむこともできる。   The users of the photo sticker creating apparatus 1 are mainly high school girls and young women. In the photo sticker creating apparatus 1, a plurality of users such as two or three people can mainly enjoy the game per group. Of course, in the photo sticker creating apparatus 1, one user can enjoy the game.

写真シール作成装置1において、利用者は、自身が被写体となって撮影作業を行う。利用者は、編集作業により、撮影によって得られた撮影画像の中から選択した画像に、手書きの文字やスタンプ画像などの合成用画像を合成させる。これにより、撮影画像が彩り豊かな画像に編集される。利用者は、編集済みの画像である編集画像が印刷されたシール紙を受け取って一連のゲームを終了させる。   In the photo sticker creating apparatus 1, the user performs photographing work with himself / herself as a subject. The user synthesizes an image for synthesis such as a handwritten character or a stamp image with an image selected from the captured images obtained by shooting through an editing operation. As a result, the captured image is edited into a rich image. The user receives a sticker sheet on which an edited image that is an edited image is printed, and ends a series of games.

写真シール作成装置1は、写真作成ゲームを提供する写真作成ゲーム機ということができる。   The photo sticker creating apparatus 1 can be said to be a photo creating game machine that provides a photo creating game.

図1に示すように、写真シール作成装置1は、基本的に、撮影ユニット11と編集ユニット12が接した状態で設置されることによって構成される。撮影ユニット11と編集ユニット12は電気的に接続される。   As shown in FIG. 1, the photo sticker creating apparatus 1 is basically configured by being installed in a state where a photographing unit 11 and an editing unit 12 are in contact with each other. The photographing unit 11 and the editing unit 12 are electrically connected.

撮影ユニット11は、人が中に入ることができる程度の大きさを有する箱形状の筐体を有し、事前選択部20、撮影部21、および背景部22から構成される。事前選択部20は、撮影部21の側面に設置される。事前選択部20の前方の空間が、事前選択処理が行われる事前選択空間となる。また、撮影部21と背景部22は所定の距離だけ離して設置される。撮影部21と背景部22の間に形成される空間が、撮影処理が行われる撮影空間となる。   The photographing unit 11 has a box-shaped housing having a size that allows a person to enter inside, and includes a pre-selection unit 20, a photographing unit 21, and a background unit 22. The pre-selection unit 20 is installed on the side surface of the imaging unit 21. The space ahead of the preselection unit 20 is a preselection space in which preselection processing is performed. In addition, the photographing unit 21 and the background unit 22 are set apart by a predetermined distance. A space formed between the imaging unit 21 and the background unit 22 is an imaging space in which imaging processing is performed.

事前選択部20は、事前選択処理として、写真シール作成装置1によって提供されるゲームを紹介するガイダンスを行ったり、撮影空間で行われる撮影処理における各種の設定を行ったりする。事前選択部20には、利用者が代金を投入する硬貨投入返却口や、各種の操作に用いられるタッチパネルモニタなどが設けられる。事前選択部20は、撮影空間の空き状況に応じて、適宜、事前選択空間にいる利用者を撮影空間へと案内する。   The pre-selection unit 20 performs guidance for introducing a game provided by the photo sticker creating apparatus 1 as pre-selection processing, and performs various settings in shooting processing performed in the shooting space. The pre-selection unit 20 is provided with a coin insertion / return port through which a user inserts a price, a touch panel monitor used for various operations, and the like. The pre-selection unit 20 guides the user in the pre-selection space to the shooting space as appropriate according to the availability of the shooting space.

撮影部21は、利用者を被写体として撮影するための装置である。撮影部21は、撮影空間に入った利用者の正面に位置する。撮影空間に臨む撮影部21の正面には、カメラや、各種の操作に用いられるタッチパネルモニタなどが設けられる。   The photographing unit 21 is a device for photographing a user as a subject. The photographing unit 21 is located in front of the user who has entered the photographing space. A camera, a touch panel monitor used for various operations, and the like are provided in front of the photographing unit 21 facing the photographing space.

撮影空間において正面を向いている利用者からみて左側の面を左側面、右側の面を右側面とすると、撮影部21の左側面が側面パネル41Aにより構成され、右側面が側面パネル41Bにより構成される。さらに、撮影部21の正面が正面パネル42により構成される。側面パネル41Aには、上述した事前選択部20が設置される。なお、事前選択部20が、側面パネル41Bに設置されるようにしてもよい。   If the left side is the left side and the right side is the right side as viewed from the user facing the front in the imaging space, the left side of the imaging unit 21 is configured by the side panel 41A, and the right side is configured by the side panel 41B. Is done. Further, the front surface of the photographing unit 21 is constituted by a front panel 42. The pre-selection unit 20 described above is installed on the side panel 41A. The pre-selection unit 20 may be installed on the side panel 41B.

背景部22は、背面パネル51、側面パネル52A、および側面パネル52Bから構成される。背面パネル51は、正面を向いている利用者の背面側に位置する板状の部材である。側面パネル52Aは、背面パネル51の左端に取り付けられ、側面パネル41Aより横幅の狭い板状の部材である。側面パネル52Bは、背面パネル51の右端に取り付けられ、側面パネル41Bより横幅の狭い板状の部材である。   The background portion 22 includes a back panel 51, a side panel 52A, and a side panel 52B. The back panel 51 is a plate-like member located on the back side of the user facing the front. The side panel 52A is a plate-like member attached to the left end of the back panel 51 and having a narrower width than the side panel 41A. The side panel 52B is a plate-like member that is attached to the right end of the back panel 51 and has a narrower width than the side panel 41B.

側面パネル41Aと側面パネル52Aは、ほぼ同一平面に設けられる。側面パネル41Aと側面パネル52Aの上部は、板状の部材である連結部23Aによって連結される。側面パネル41Aと側面パネル52Aの下部は、床面に設けた例えば金属製の部材である連結部23A’によって連結される。側面パネル41Bと側面パネル52Bも同様に、ほぼ同一平面に設けられる。側面パネル41Bと側面パネル52Bの上部は、連結部23Bによって連結される。側面パネル41Bと側面パネル52Bの下部は、連結部23B’によって連結される。   The side panel 41A and the side panel 52A are provided on substantially the same plane. The upper portions of the side panel 41A and the side panel 52A are connected by a connecting portion 23A that is a plate-like member. The lower portions of the side panel 41A and the side panel 52A are connected by a connecting portion 23A 'that is a metal member provided on the floor surface. Similarly, the side panel 41B and the side panel 52B are provided on substantially the same plane. The upper portions of the side panel 41B and the side panel 52B are connected by a connecting portion 23B. The lower portions of the side panel 41B and the side panel 52B are connected by a connecting portion 23B '.

撮影空間の床には、板状の部材である床材27が敷かれる。   A floor material 27, which is a plate-like member, is laid on the floor of the imaging space.

なお、背面パネル51の撮影空間側の面には、例えば緑色のクロマキー用のシートが貼り付けられる。写真シール作成装置1は、クロマキー用のシートを背景として撮影することで、撮影処理や編集処理においてクロマキー合成を行う。これにより、所望の背景画像が、シートが写っている利用者の背景の部分に合成される。   For example, a green chroma key sheet is attached to the surface of the rear panel 51 on the photographing space side. The photo sticker creating apparatus 1 performs chroma key composition in photographing processing and editing processing by photographing a chroma key sheet as a background. As a result, a desired background image is synthesized with the background portion of the user in which the sheet is reflected.

側面パネル41A、連結部23A、および側面パネル52Aに囲まれることによって形成される開口が撮影空間の出入り口となる。また、側面パネル41B、連結部23B、および側面パネル52Bに囲まれることによって形成される開口も撮影空間の出入り口となる。   An opening formed by being surrounded by the side panel 41A, the connecting portion 23A, and the side panel 52A serves as an entrance / exit of the imaging space. An opening formed by being surrounded by the side panel 41B, the connecting portion 23B, and the side panel 52B also serves as an entrance / exit of the imaging space.

撮影空間の上方には、撮影部21の正面、連結部23A、および連結部23Bに囲まれた天井が形成される。その天井の一部に、天井ストロボユニット24が設けられる。天井ストロボユニット24の一端が連結部23Aに固定され、他端が連結部23Bに固定される。   A ceiling surrounded by the front surface of the photographing unit 21, the connecting portion 23A, and the connecting portion 23B is formed above the photographing space. A ceiling strobe unit 24 is provided in a part of the ceiling. One end of the ceiling strobe unit 24 is fixed to the connecting portion 23A, and the other end is fixed to the connecting portion 23B.

天井ストロボユニット24は、撮影に合わせて撮影空間内に向けて光を照射するストロボを内蔵する。天井ストロボユニット24の内部には、ストロボの他に蛍光灯が設けられている。これにより、天井ストロボユニット24は、撮影空間の照明としても機能する。   The ceiling strobe unit 24 has a built-in strobe that emits light toward the photographing space in accordance with photographing. In addition to the strobe, a fluorescent lamp is provided inside the ceiling strobe unit 24. Thereby, the ceiling strobe unit 24 also functions as illumination of the photographing space.

編集ユニット12は、撮影画像に編集を施すための装置である。編集ユニット12は、一方の側面が撮影部21の正面パネル42に接するようにして、撮影ユニット11に連結している。   The editing unit 12 is a device for editing a captured image. The editing unit 12 is connected to the photographing unit 11 such that one side surface is in contact with the front panel 42 of the photographing unit 21.

図1に示される編集ユニット12の構成を正面側の構成とすると、編集ユニット12の正面側と背面側のそれぞれに、編集作業で用いられる構成が設けられる。この構成により、2組の利用者が同時に編集作業を行うことができる。   If the configuration of the editing unit 12 shown in FIG. 1 is a front side configuration, a configuration used for editing work is provided on each of the front side and the back side of the editing unit 12. With this configuration, two sets of users can perform editing work simultaneously.

編集ユニット12の正面側は、面61と、面61の上方に形成された斜面62から構成される。面61は、床面に対して垂直で、撮影部21の側面パネル41Aとほぼ平行な面である。斜面62には、編集作業に用いられる構成として、タブレット内蔵モニタやタッチペンが設けられる。斜面62の左側には、照明装置64の一端を支持する柱状の支持部63Aが設けられる。斜面62の右側には、照明装置64の他端を支持する柱状の支持部63Bが設けられる。支持部63Aの上面にはカーテンレール26を支持する支持部65が設けられる。   The front side of the editing unit 12 includes a surface 61 and a slope 62 formed above the surface 61. The surface 61 is a surface perpendicular to the floor surface and substantially parallel to the side panel 41A of the photographing unit 21. The slope 62 is provided with a tablet built-in monitor and a touch pen as a configuration used for editing work. On the left side of the slope 62, a columnar support portion 63A that supports one end of the lighting device 64 is provided. A columnar support portion 63B that supports the other end of the lighting device 64 is provided on the right side of the slope 62. A support portion 65 that supports the curtain rail 26 is provided on the upper surface of the support portion 63A.

編集ユニット12の上方にはカーテンレール26が取り付けられる。カーテンレール26は、3本のレール26A乃至26Cを、組み合わせて構成される。3本のレール26A乃至26Cは、上から見たときの形状がコの字状となるように組み合わせられる。平行に設けられるレール26Aとレール26Bの一端は、連結部23Aと連結部23Bにそれぞれ固定され、レール26Aとレール26Bの他端は、レール26Cの両端にそれぞれ接合される。   A curtain rail 26 is attached above the editing unit 12. The curtain rail 26 is configured by combining three rails 26A to 26C. The three rails 26A to 26C are combined so that the shape when viewed from above becomes a U-shape. One end of the rail 26A and the rail 26B provided in parallel is fixed to the connecting portion 23A and the connecting portion 23B, respectively, and the other end of the rail 26A and the rail 26B is joined to both ends of the rail 26C.

カーテンレール26には、編集ユニット12の正面前方の空間と背面前方の空間が外から見えないようにカーテンが取り付けられる。そのカーテンにより囲まれる編集ユニット12の正面前方の空間と背面後方の空間が、利用者が編集作業を行う編集空間となる。   A curtain is attached to the curtain rail 26 so that the space in front of the editing unit 12 and the space in front of the back are not visible from the outside. A space in front of the editing unit 12 surrounded by the curtain and a space in the rear rear of the editing unit 12 are editing spaces in which the user performs editing operations.

後述するが、編集ユニット12の左側面には、印刷済みのシール紙が排出される排出口が設けられる。編集ユニット12の左側面前方の空間が、利用者が印刷済みのシール紙が排出されるのを待つ印刷待ち空間となる。   As will be described later, the left side surface of the editing unit 12 is provided with a discharge port through which printed sticker paper is discharged. The space in front of the left side surface of the editing unit 12 becomes a print waiting space where the user waits for the printed sticker paper to be discharged.

<利用者の移動について>
ここで、写真シール作成ゲームの流れと、それに伴う利用者の移動について説明する。
<About user movement>
Here, the flow of the photo sticker creation game and the accompanying movement of the user will be described.

図3は、写真シール作成装置1を上から見た平面図である。   FIG. 3 is a plan view of the photo sticker creating apparatus 1 as viewed from above.

利用者は、事前選択部20の前方の空間である事前選択空間A0において硬貨投入口に代金を投入する。次に、利用者は、タッチパネルモニタに表示される画面に従って各種の設定を行う。利用者は、例えば、撮影空間で行われる撮影に関するコースの選択などを事前選択作業として行う。   The user inserts money into the coin slot in the pre-selected space A0 that is the space in front of the pre-selecting unit 20. Next, the user performs various settings according to the screen displayed on the touch panel monitor. The user performs, for example, selection of a course related to shooting performed in the shooting space as a pre-selection operation.

事前選択作業を終えた利用者は、白抜き矢印#1で示すように、側面パネル41Aと側面パネル52Aの間の出入り口G1から、撮影部21と背景部22の間に形成された撮影空間A1に入る。利用者は、撮影部21に設けられたカメラやタッチパネルモニタなど利用して撮影作業を行う。   The user who has completed the pre-selection operation, as indicated by the white arrow # 1, has a shooting space A1 formed between the shooting unit 21 and the background unit 22 from the entrance G1 between the side panel 41A and the side panel 52A. to go into. A user performs a shooting operation using a camera or a touch panel monitor provided in the shooting unit 21.

撮影作業を終えた利用者は、白抜き矢印#2で示すように出入り口G1から撮影空間A1を出て編集空間A2−1に移動するか、または、白抜き矢印#3で示すように出入り口G2から撮影空間A1を出て編集空間A2−2に移動する。   The user who has finished the shooting work exits the shooting space A1 from the doorway G1 as indicated by the white arrow # 2 and moves to the editing space A2-1, or the doorway G2 as indicated by the white arrow # 3. Exits the shooting space A1 and moves to the editing space A2-2.

編集空間A2−1は、編集ユニット12の正面側の編集空間である。一方、編集空間A2−2は、編集ユニット12の背面側の編集空間である。利用者が編集空間A2−1と編集空間A2−2のいずれの空間に移動するのかは、撮影部21のタッチパネルモニタの画面表示などによって案内される。例えば2つの編集空間のうちの空いている方が移動先として案内される。編集空間A2−1または編集空間A2−2に移動した利用者は、編集作業を開始する。編集空間A2−1の利用者と、編集空間A2−2の利用者は同時に編集作業を行うことができる。   The editing space A2-1 is an editing space on the front side of the editing unit 12. On the other hand, the editing space A2-2 is an editing space on the back side of the editing unit 12. Whether the user moves to the editing space A2-1 or the editing space A2-2 is guided by the screen display of the touch panel monitor of the photographing unit 21 or the like. For example, the free one of the two editing spaces is guided as the destination. The user who has moved to the editing space A2-1 or the editing space A2-2 starts editing work. The user of the editing space A2-1 and the user of the editing space A2-2 can perform editing work at the same time.

編集作業が終了した後、編集画像の印刷が開始される。印刷が開始されると、編集空間A2−1での編集作業を終えた利用者は、白抜き矢印#4で示すように編集空間A2−1から印刷待ち空間A3に移動する。また、編集空間A2−2での編集作業を終えた利用者は、白抜き矢印#5で示すように編集空間A2−2から印刷待ち空間A3に移動する。   After the editing operation is finished, printing of the edited image is started. When printing is started, the user who has finished the editing work in the editing space A2-1 moves from the editing space A2-1 to the print waiting space A3 as indicated by a white arrow # 4. Further, the user who has finished the editing work in the editing space A2-2 moves from the editing space A2-2 to the print waiting space A3 as indicated by the white arrow # 5.

印刷待ち空間A3に移動した利用者は、印刷が終わるのを待つ。印刷が終了すると、利用者は、編集ユニット12の右側面に設けられた排出口から排出されたシール紙を受け取り、一連の写真シール作成ゲームを終える。   The user who has moved to the print waiting space A3 waits for the printing to end. When printing is completed, the user receives the sticker paper discharged from the discharge port provided on the right side of the editing unit 12 and finishes a series of photo sticker creation games.

次に、各装置の構成について説明する。   Next, the configuration of each device will be described.

<事前選択部の構成>
図4は、事前選択部20の構成例を示す図である。
<Configuration of preselection unit>
FIG. 4 is a diagram illustrating a configuration example of the preselection unit 20.

事前選択部20の上側にはタッチパネルモニタ71が設けられる。タッチパネルモニタ71は、LCD(Liquid Crystal Display)などのモニタと、それに積層されたタッチパネルにより構成される。タッチパネルモニタ71は、各種のGUI(Graphical User Interface)を表示し、利用者の選択操作を受け付ける機能を備えている。タッチパネルモニタ71には、利用者の人数の選択などに用いられる画面が表示される。   A touch panel monitor 71 is provided above the preselection unit 20. The touch panel monitor 71 includes a monitor such as an LCD (Liquid Crystal Display) and a touch panel laminated thereon. The touch panel monitor 71 has a function of displaying various GUIs (Graphical User Interfaces) and accepting a user's selection operation. The touch panel monitor 71 displays a screen used for selecting the number of users.

タッチパネルモニタ71の下方には、スピーカ72が設けられる。スピーカ72は、事前選択処理の案内音声、BGM(Back Ground Music)、効果音などを出力する。スピーカ72に隣接するようにして、利用者が硬貨を入れる硬貨投入返却口73が設けられる。   A speaker 72 is provided below the touch panel monitor 71. The speaker 72 outputs guidance voice, BGM (Back Ground Music), sound effects, etc. for the pre-selection process. A coin insertion / return port 73 into which a user inserts coins is provided so as to be adjacent to the speaker 72.

<撮影部の構成>
図5は、撮影部21の正面の構成例を示す図である。撮影部21は、側面パネル41A、側面パネル41B、および正面パネル42に囲まれるようにして構成される。
<Configuration of the shooting unit>
FIG. 5 is a diagram illustrating a configuration example of the front of the photographing unit 21. The photographing unit 21 is configured to be surrounded by the side panel 41A, the side panel 41B, and the front panel 42.

正面パネル42の中央よりやや上側には、カメラユニット81が設けられる。カメラユニット81の正面には、カメラ91、タッチパネルモニタ92、および正面ストロボ93が設けられる。   A camera unit 81 is provided slightly above the center of the front panel 42. In front of the camera unit 81, a camera 91, a touch panel monitor 92, and a front strobe 93 are provided.

カメラ91は、例えば一眼レフカメラであり、レンズが露出するようにカメラユニット81の内部に取り付けられる。カメラ91は、CCD(Charge Coupled Device)イメージセンサやCMOS(Complementary Metal Oxide Semiconductor)イメージセンサなどの撮像素子を有し、撮影空間A1にいる利用者を撮影する。カメラ91は、利用者を被写体として撮影を行う撮影部として機能する。   The camera 91 is a single-lens reflex camera, for example, and is attached inside the camera unit 81 so that the lens is exposed. The camera 91 includes an image sensor such as a CCD (Charge Coupled Device) image sensor or a CMOS (Complementary Metal Oxide Semiconductor) image sensor, and photographs a user in the photographing space A1. The camera 91 functions as a photographing unit that performs photographing using a user as a subject.

カメラ91により取り込まれた動画像(以下、ライブビュー画像ともいう)は、タッチパネルモニタ92にリアルタイムで表示される。撮影が指示されたときなどの所定のタイミングでカメラ91により取り込まれた静止画像は、撮影画像として保存される。   A moving image (hereinafter also referred to as a live view image) captured by the camera 91 is displayed on the touch panel monitor 92 in real time. A still image captured by the camera 91 at a predetermined timing such as when shooting is instructed is saved as a captured image.

タッチパネルモニタ92は、カメラ91の下方に設けられる。タッチパネルモニタ92は、LCDなどのモニタと、それに積層されたタッチパネルにより構成される。タッチパネルモニタ92は、カメラ91により取り込まれた動画像を表示するライブビューモニタとしての機能と、各種のGUIを表示し利用者の選択操作を受け付ける機能を備えている。   The touch panel monitor 92 is provided below the camera 91. The touch panel monitor 92 includes a monitor such as an LCD and a touch panel laminated thereon. The touch panel monitor 92 has a function as a live view monitor that displays a moving image captured by the camera 91 and a function that displays various GUIs and accepts a user's selection operation.

正面ストロボ93は、カメラ91の上方に設けられる。正面ストロボ93は、乳白アクリル板よりなる、半月状の発光面を有する。正面ストロボ93は、カメラ91による撮影に合わせて発光することで、被写体としての利用者の顔付近を正面から照射する。   The front strobe 93 is provided above the camera 91. The front strobe 93 has a half-moon shaped light emitting surface made of a milky white acrylic plate. The front strobe 93 illuminates the vicinity of the user's face as a subject from the front by emitting light in accordance with shooting by the camera 91.

カメラユニット81の上方には、曲面の発光面を利用者に向けた上ストロボユニット82が設置される。上ストロボユニット82は、利用者の正面上方から、利用者の顔および上半身に光を照射する。   Above the camera unit 81, an upper strobe unit 82 with a curved light emitting surface facing the user is installed. The upper strobe unit 82 irradiates light on the user's face and upper body from the upper front of the user.

カメラユニット81の下方には、利用者の下半身および足元に光を照射する足元ストロボユニット83が設けられる。   Below the camera unit 81, a foot strobe unit 83 that irradiates light to the lower body and feet of the user is provided.

上ストロボユニット82および足元ストロボユニット83は、蛍光灯とストロボ発光可能な照明機器とにより構成される。上ストロボユニット82および足元ストロボユニット83は、撮影空間を明るくして、利用者の操作性や安全性を確保するために、撮影空間内を常時照らすとともに、撮影画像の画質を向上させるために、撮影タイミングでストロボ発光し、被写体となる利用者に光を照射する。   The upper strobe unit 82 and the foot strobe unit 83 are configured by a fluorescent lamp and an illumination device capable of strobe light emission. The upper strobe unit 82 and the foot strobe unit 83 illuminate the shooting space to ensure the user's operability and safety, and to constantly illuminate the shooting space and improve the image quality of the shot image. Strobe light is emitted at the shooting timing to illuminate the user who is the subject.

足元ストロボユニット83と側面パネル41Aとの間には、箱状部84が設けられる。また、足元ストロボユニット83と側面パネル41Bとの間には、箱状部85が設けられる。箱状部84,85の上面は、写真シール作成装置1の設置面と略水平な面をなし、撮影作業を行う利用者が手荷物などを置くための荷物置き場として用いられる。   A box-shaped portion 84 is provided between the foot strobe unit 83 and the side panel 41A. A box-shaped portion 85 is provided between the foot strobe unit 83 and the side panel 41B. The upper surfaces of the box-shaped portions 84 and 85 form a surface that is substantially horizontal to the installation surface of the photo sticker creating apparatus 1 and is used as a luggage storage place for a user who performs a photographing operation to place baggage.

なお、図示はしないが、正面パネル42の例えば天井付近には、スピーカが設けられる。そのスピーカは、撮影処理の案内音声、BGM、効果音などを出力する。   Although not shown, a speaker is provided near the ceiling of the front panel 42, for example. The speaker outputs shooting process guidance voice, BGM, sound effects, and the like.

<背景部の構成>
図6は、背景部22の撮影空間A1側の構成例を示す図である。
<Configuration of background part>
FIG. 6 is a diagram illustrating a configuration example of the background portion 22 on the photographing space A1 side.

背面パネル51の上方には、背面上ストロボ101が設置される。背面上ストロボ101は、背面上方から利用者に光を照射する。   Above the rear panel 51, a rear upper strobe 101 is installed. The rear upper strobe 101 irradiates the user with light from the upper rear side.

図中、背面パネル51の左方には、背面左ストロボ102が設置される。背面左ストロボ102は、背面右方から利用者を照射する。図中、背面パネル51の右方には、背面右ストロボ103が設置される。背面右ストロボ103は、背面左方から利用者を照射する。   In the drawing, a rear left strobe 102 is installed on the left side of the rear panel 51. The back left strobe 102 irradiates the user from the right side of the back. In the drawing, a rear right strobe 103 is installed on the right side of the rear panel 51. The rear right strobe 103 irradiates the user from the left rear side.

また、背面パネル51の撮影空間A1側(図中、手前側)の面には、クロマキーシート121が貼り付けられる。クロマキーシート121の色は、例えば緑色とされる。   A chroma key sheet 121 is attached to the surface of the rear panel 51 on the photographing space A1 side (the front side in the drawing). The color of the chroma key sheet 121 is, for example, green.

なお、図示はしないが、側面パネル52A,52Bの撮影空間A1側の面の下側(床面側)にも、クロマキーシート121と同様に、クロマキーシートが貼り付けられる。   Although not shown, a chroma key sheet is also attached to the lower side (floor side) of the surface of the side panels 52A and 52B on the photographing space A1 side in the same manner as the chroma key sheet 121.

図7は、床材27を示す斜視図である。説明の便宜上、撮影部21、側面パネル41Aなどの図示を省略している。   FIG. 7 is a perspective view showing the flooring 27. For convenience of explanation, illustration of the photographing unit 21, the side panel 41A, and the like is omitted.

床材27の後方寄りの位置には、横長長方形の床シート27Aが、その長辺が背面パネル51と略平行になるように貼り付けられる。図7において、背面パネル51のある方向が撮影空間A1の後方となり、白抜き矢印で示す、撮影部21のある方向が撮影空間A1の前方となる。   At a position closer to the rear of the flooring 27, a horizontally long rectangular floor sheet 27 </ b> A is attached so that its long side is substantially parallel to the back panel 51. In FIG. 7, the direction in which the rear panel 51 is located is the rear of the photographing space A1, and the direction in which the photographing unit 21 is indicated by the white arrow is the front of the photographing space A1.

床シート27Aの前方寄りには、目印図形28−1乃至28−4が並べて印刷され、その後方に、目印図形28−5乃至28−8が並べて印刷される。2行×4列に配置された目印図形28−1乃至28−8は、それぞれ視覚的に異なる図形であり、全体が例えば黒色で塗りつぶされている。   Mark figures 28-1 to 28-4 are printed side by side on the front side of the floor sheet 27A, and mark figures 28-5 to 28-8 are printed side by side behind them. The landmark figures 28-1 to 28-8 arranged in 2 rows × 4 columns are visually different figures, and the whole is painted black, for example.

1行目の目印図形28−1は菱形の目印であり、目印図形28−2はハート型の目印である。目印図形28−3は四つ葉のクローバー型の目印であり、目印図形28−4は正方形の目印である。   The mark figure 28-1 in the first line is a diamond-shaped mark, and the mark figure 28-2 is a heart-shaped mark. The mark figure 28-3 is a four-leaf clover type mark, and the mark figure 28-4 is a square mark.

また、2行目の目印図形28−5は四枚の花びらからなる花状の目印であり、目印図形28−6は星型の目印である。目印図形28−7は円形の目印であり、目印図形28−8はチューリップの花びら状の目印である。   The mark figure 28-5 in the second row is a flower-shaped mark composed of four petals, and the mark figure 28-6 is a star-shaped mark. The mark figure 28-7 is a circular mark, and the mark figure 28-8 is a petal-like mark of a tulip.

それぞれの目印図形は、1人の利用者がその両足を載せることが出来るような、略30cm×30cmの範囲内に収まる程度の大きさを有している。それぞれの大きさが異なるようにしてもよい。   Each mark figure has a size that fits within a range of about 30 cm × 30 cm so that one user can put both feet on it. Each size may be different.

目印図形28−1乃至28−8は、撮影時の立ち位置を利用者毎に誘導するための目印として用いられる。   The mark figures 28-1 to 28-8 are used as marks for guiding the standing position at the time of photographing for each user.

例えば、利用者の人数が2人であり、上半身が大きく写る画像を撮影する場合、カメラ91に向かって右側に立っている利用者の立ち位置として、四つ葉のクローバー型の目印図形28−3が指定され、左側に立っている利用者の立ち位置として、ハート型の目印図形28−2が指定される。   For example, when the number of users is two and an image of a large upper body is taken, a four-leaf clover-type landmark figure 28-is used as the standing position of the user standing on the right side of the camera 91. 3 is designated, and a heart-shaped landmark figure 28-2 is designated as the standing position of the user standing on the left side.

目印図形28−1乃至28−8は、それぞれ、利用者の人数、撮影する画像の画角(範囲)などに応じて、最適な立ち位置を指定することができるような位置に印刷されている。なお、最適な立ち位置は、ストロボからの光が被写体に対して十分に照射される位置、カメラ91の撮影範囲から外れない位置、背景と顔の大きさのバランスがよくなる位置等を意味する。   Each of the mark figures 28-1 to 28-8 is printed at a position where an optimum standing position can be designated according to the number of users, the angle of view (range) of the image to be taken, and the like. . Note that the optimal standing position means a position where the light from the strobe is sufficiently irradiated to the subject, a position that does not deviate from the shooting range of the camera 91, a position where the balance between the background and the face size is improved, and the like.

目印図形として、黒色以外の色を付した図形、所定の模様を付した図形、または、色と模様を付した図形を用いるようにしてもよい。目印図形毎に、形状、大きさ、模様、および色のうちの少なくともいずれかを変えるようにすることも可能である。図7に示す目印図形28−1乃至28−8は、色は黒色として同じ色であるが、それぞれ形状を変えた図形である。   As the mark figure, a figure with a color other than black, a figure with a predetermined pattern, or a figure with a color and a pattern may be used. It is also possible to change at least one of the shape, size, pattern, and color for each mark figure. The mark figures 28-1 to 28-8 shown in FIG. 7 are figures that are the same color as black, but have different shapes.

<編集ユニットの構成>
図8は、編集ユニット12の正面側(編集空間A2−1側)の構成例を示す図である。
<Configuration of editing unit>
FIG. 8 is a diagram illustrating a configuration example of the editing unit 12 on the front side (editing space A2-1 side).

斜面62のほぼ中央には、タブレット内蔵モニタ131が設けられる。タブレット内蔵モニタ131の左側にはタッチペン132Aが設けられる。タブレット内蔵モニタ131の右側にはタッチペン132Bが設けられる。   A tablet built-in monitor 131 is provided in the approximate center of the slope 62. On the left side of the tablet built-in monitor 131, a touch pen 132A is provided. On the right side of the tablet built-in monitor 131, a touch pen 132B is provided.

タブレット内蔵モニタ131は、タブレットとディスプレイを積層して構成される。タブレットは、タッチペン132Aまたはタッチペン132Bを用いた操作入力を可能とする。タブレット内蔵モニタ131には、例えば、編集作業に用いられる編集画面が表示される。2人の利用者が同時に編集作業を行う場合、タッチペン132Aはタブレット内蔵モニタ131に向かって左側にいる利用者により用いられ、タッチペン132Bはタブレット内蔵モニタ131に向かって右側にいる利用者により用いられる。   The tablet built-in monitor 131 is configured by stacking a tablet and a display. The tablet enables operation input using the touch pen 132A or the touch pen 132B. On the tablet built-in monitor 131, for example, an editing screen used for editing work is displayed. When two users perform editing work at the same time, the touch pen 132A is used by a user on the left side of the tablet built-in monitor 131, and the touch pen 132B is used by a user on the right side of the tablet built-in monitor 131. .

なお、タッチペン132Aを用いた操作とタッチペン132Bを用いた操作は識別される。適宜、タブレット内蔵モニタ131の左側の表示に対してはタッチペン132Aを用いた操作のみが可能とされ、右側の表示に対してはタッチペン132Bを用いた操作のみが可能とされる。以下、適宜、タッチペン132Aとタッチペン132Bを区別する必要がない場合、まとめてタッチペン132という。   The operation using the touch pen 132A and the operation using the touch pen 132B are distinguished. As appropriate, only the operation using the touch pen 132A is possible for the left side display of the tablet built-in monitor 131, and only the operation using the touch pen 132B is possible for the right side display. Hereinafter, when it is not necessary to distinguish the touch pen 132A and the touch pen 132B as appropriate, they are collectively referred to as the touch pen 132.

図9は、編集ユニット12の左側面の構成例を示す図である。   FIG. 9 is a diagram illustrating a configuration example of the left side surface of the editing unit 12.

編集ユニット12の左側面の下側にはシール紙排出口161が設けられる。編集ユニット12の内部にはプリンタが設けられている。そのプリンタにより、編集空間A2−1の利用者が写る画像、または、編集空間A2−2の利用者が写る画像が所定のレイアウトでシール紙に印刷され、シール紙排出口161から排出される。   A sticker paper discharge port 161 is provided below the left side surface of the editing unit 12. A printer is provided inside the editing unit 12. The printer prints an image showing the user of the editing space A2-1 or an image showing the user of the editing space A2-2 on a sticker sheet with a predetermined layout, and discharges it from the sticker paper outlet 161.

<シール紙の例>
図10は、写真シール作成装置1により作成されるシール紙の例を示す図である。
<Example of sticker paper>
FIG. 10 is a diagram illustrating an example of a sticker sheet created by the photographic sticker creator 1.

利用者が例えば2人である場合、図10に示すようなレイアウトで写真(編集画像)が印刷されたシール紙が2枚分作成され、利用者に提供される。図10に示すレイアウトは複数種類用意されているレイアウトのうちの1つであり、利用者は好みのレイアウトを選択することができる。   For example, when there are two users, two sticker sheets on which photographs (edited images) are printed in a layout as shown in FIG. 10 are created and provided to the user. The layout shown in FIG. 10 is one of a plurality of layouts prepared, and the user can select a favorite layout.

1枚のシール紙には、略名刺サイズの編集画像印刷領域181Aと、横長帯状のおまけ画像印刷領域181Bが形成される。編集画像印刷領域181Aの略左半分には編集画像191−1が大きく印刷され、その右側に、4枚の編集画像191−2乃至191−5が、編集画像191−1より小さいサイズで2行×2列に並べて印刷される。   An edit image printing area 181A having a substantially business card size and a bonus image printing area 181B having a horizontally long strip shape are formed on one sticker sheet. The edited image 191-1 is printed largely in the left half of the edited image printing area 181A, and four edited images 191-2 to 191-5 are displayed on the right side of the edited image 191-1. X Printed in two rows.

編集画像191−1乃至191−5は、被写体の顔と上半身が大きく写る画像であるアップ画像に対して編集が施されることによって生成された画像である。実際には、適宜、利用者の背景には、所定の色や柄の画像である背景画像が合成され、利用者の前景には、手書きの文字やスタンプ画像などの前景画像が合成される。   The edited images 191-1 to 191-5 are images generated by performing editing on the up image, which is an image in which the face and upper body of the subject are large. In practice, a background image that is an image of a predetermined color or pattern is appropriately combined with the background of the user, and a foreground image such as a handwritten character or a stamp image is combined with the foreground of the user.

おまけ画像印刷領域181Bには、床シート27Aに印刷された目印図形28−1乃至28−8と同じようなシンプルな形状にトリミングされた撮影画像192−1乃至192−5が横に並べて印刷される。おまけ画像印刷領域181Bに印刷されている画像は、例えばはさみで切り取って用いられる。   In the bonus image print area 181B, the captured images 192-1 to 192-5 trimmed in a simple shape similar to the mark figures 28-1 to 28-8 printed on the floor sheet 27A are printed side by side. The The image printed in the bonus image printing area 181B is cut out with scissors, for example.

編集前の画像ではなく、編集済みの画像(編集画像191−1乃至191−5と同じ画像)がトリミングされて撮影画像192−1乃至192−5として印刷されるようにしてもよい。   The edited image (the same image as the edited images 191-1 to 191-5) may be trimmed and printed as the captured images 192-1 to 192-5 instead of the image before editing.

おまけ画像印刷領域181Bの余白にはシールIDなどが印刷される。シールIDは、写真シール作成装置1からサーバに送信された画像をスマートフォンなどの携帯端末で閲覧するときに利用される。   A seal ID or the like is printed in the margin of the bonus image print area 181B. The seal ID is used when an image transmitted from the photo sticker creating apparatus 1 to the server is viewed on a mobile terminal such as a smartphone.

携帯端末に対する画像の送信は、写真シール作成装置1から送信された画像を携帯端末に取り込む(保存する)ためのWebサイトである画像取得サイトを管理するサーバを介して行われることになる。利用者は、携帯端末に取り込んだ画像をSNS(Social Networking Service)に投稿したり、壁紙に設定したりして利用することができる。以下、適宜、画像取得サイトを管理するサーバを画像取得サイト管理サーバという。   The transmission of the image to the portable terminal is performed via a server that manages an image acquisition site that is a Web site for taking (saving) the image transmitted from the photo sticker creating apparatus 1 into the portable terminal. Users can use images captured on mobile devices by posting them on SNS (Social Networking Service) or setting them as wallpaper. Hereinafter, the server that manages the image acquisition site is referred to as an image acquisition site management server as appropriate.

図11は、編集画像のレイヤ構造の例を示す図である。   FIG. 11 is a diagram illustrating an example of a layer structure of an edited image.

左端の編集画像P1が編集によって生成される画像である。編集画像P1は、背景画像P11、人物画像P12、前景画像P13の各レイヤの画像から構成される。   The leftmost edited image P1 is an image generated by editing. The edited image P1 is composed of images of each layer of a background image P11, a person image P12, and a foreground image P13.

図11の例において、背景画像P11は、レンガを重ねた壁面の柄の画像である。前景画像P13は、「Love my friend」の手書き文字の画像とハート型の画像を含む画像である。「Love my friend」の手書き文字の画像は、ペンツールを用いて利用者によって入力されたペン画像である。また、ハート型の画像は、スタンプツールを用いて利用者によって入力されたスタンプ画像である。   In the example of FIG. 11, the background image P <b> 11 is an image of a wall pattern on which bricks are stacked. The foreground image P13 is an image including a handwritten character image of “Love my friend” and a heart-shaped image. The handwritten character image of “Love my friend” is a pen image input by the user using the pen tool. The heart-shaped image is a stamp image input by a user using a stamp tool.

このように、編集画像P1は、撮影画像からクロマキー処理によって抽出した人物の領域の画像である人物画像P12を背景画像P11に重ね、その上に前景画像P13を重ねることによって生成される。ペン画像やスタンプ画像を背景画像P11上に入力し、被写体の背景に表示させるようにすることも可能とされる。撮影画像に対しては、前景画像や背景画像が合成されることもあるし、編集処理を経たとしても利用者の操作によっては合成されないこともある。   As described above, the edited image P1 is generated by superimposing the person image P12, which is an image of the person region extracted from the captured image by the chroma key process, on the background image P11 and superimposing the foreground image P13 thereon. It is also possible to input a pen image or a stamp image on the background image P11 and display it on the background of the subject. Foreground images and background images may be combined with the photographed image, and even after editing processing, it may not be combined depending on the operation of the user.

<写真シール作成装置の内部構成>
図12は、写真シール作成装置1の構成例を示すブロック図である。図12において、上述した構成と同じ構成には同じ符号を付してある。重複する説明については適宜省略する。
<Internal configuration of photo sticker creation device>
FIG. 12 is a block diagram illustrating a configuration example of the photo sticker creating apparatus 1. In FIG. 12, the same components as those described above are denoted by the same reference numerals. The overlapping description will be omitted as appropriate.

図12に示すように、写真シール作成装置1は、PC(Personal Computer)部301に対して、事前選択部302、撮影部304、編集部305A,305B、および印刷部306が外部入出力インタフェース303を介して接続されることによって構成される。情報処理部であるPC部301は、例えば編集ユニット12の筐体内部に収納される。   As shown in FIG. 12, the photo sticker creating apparatus 1 has a PC (Personal Computer) unit 301 with a pre-selection unit 302, an imaging unit 304, editing units 305 </ b> A and 305 </ b> B, and a printing unit 306. It is configured by being connected via The PC unit 301 serving as an information processing unit is housed inside the casing of the editing unit 12, for example.

PC部301を構成するCPU(Central Processing Unit)311、ROM(Read Only Memory)312、RAM(Random Access Memory)313は、バス314により相互に接続される。   A CPU (Central Processing Unit) 311, a ROM (Read Only Memory) 312, and a RAM (Random Access Memory) 313 that constitute the PC unit 301 are connected to each other via a bus 314.

CPU311は、所定のプログラムを実行し、写真シール作成装置1の全体の動作を制御する。ROM312は、CPU311が実行するプログラムやデータを記憶する。RAM312は、CPU311が処理するデータやプログラムを一時的に記憶する。   The CPU 311 executes a predetermined program and controls the overall operation of the photo sticker creating apparatus 1. The ROM 312 stores programs and data executed by the CPU 311. The RAM 312 temporarily stores data and programs processed by the CPU 311.

バス314には、さらに、入出力インタフェース315が接続される。入出力インタフェース315には、記憶部316、通信部317、およびドライブ318が接続される。   An input / output interface 315 is further connected to the bus 314. A storage unit 316, a communication unit 317, and a drive 318 are connected to the input / output interface 315.

記憶部316は、ハードディスクやフラッシュメモリなどの不揮発性の記憶媒体である。記憶部316は、CPU311から供給された各種の設定情報などを記憶する。記憶部316に記憶されている情報はCPU311により適宜読み出される。   The storage unit 316 is a non-volatile storage medium such as a hard disk or a flash memory. The storage unit 316 stores various setting information supplied from the CPU 311. Information stored in the storage unit 316 is appropriately read out by the CPU 311.

通信部317は、インターネットなどのネットワークのインタフェースである。通信部317は、CPU311による制御に従って外部の装置と通信を行う。通信部317は、利用者により選択された画像を、例えば写真シール作成装置1の製造メーカが管理する画像取得サイト管理サーバに送信する。通信部317から送信された画像は、所定の記憶領域が割り当てられて保存され、画像取得サイト管理サーバにアクセスしてきた携帯端末上で表示されたり、その携帯端末にダウンロードされたりする。   The communication unit 317 is a network interface such as the Internet. The communication unit 317 communicates with an external device according to control by the CPU 311. The communication unit 317 transmits the image selected by the user to, for example, an image acquisition site management server managed by the manufacturer of the photo sticker creating apparatus 1. The image transmitted from the communication unit 317 is allocated and stored with a predetermined storage area, and is displayed on a portable terminal that has accessed the image acquisition site management server or downloaded to the portable terminal.

ドライブ318には、光ディスクや半導体メモリなどよりなるリムーバブルメディア319が適宜装着される。ドライブ318によりリムーバブルメディア319から読み出されたプログラムやデータは、CPU311に供給され、記憶部316に記憶されたり、インストールされたりする。   A removable medium 319 made of an optical disk, a semiconductor memory, or the like is appropriately attached to the drive 318. Programs and data read from the removable medium 319 by the drive 318 are supplied to the CPU 311 and stored in the storage unit 316 or installed.

入出力インタフェース315には外部入出力インタフェース303が接続される。PC部301による各部の制御が、外部入出力インタフェース303を介して行われる。   An external input / output interface 303 is connected to the input / output interface 315. Control of each unit by the PC unit 301 is performed via the external input / output interface 303.

事前選択部302は、事前選択空間A0にいる利用者を対象とした事前選択処理を実現する。事前選択部302は、タッチパネルモニタ71、スピーカ72、および硬貨処理部321から構成される。   The preselection unit 302 realizes a preselection process for the user in the preselection space A0. The preselection unit 302 includes a touch panel monitor 71, a speaker 72, and a coin processing unit 321.

タッチパネルモニタ71は、PC部301による制御に従って各種の選択画面を表示し、選択画面に対する利用者の操作を受け付ける。利用者の操作の内容を表す入力信号はPC部301に供給され、各種の設定が行われる。   The touch panel monitor 71 displays various selection screens according to control by the PC unit 301 and accepts user operations on the selection screens. An input signal representing the content of the user's operation is supplied to the PC unit 301 and various settings are performed.

硬貨処理部321は、硬貨投入返却口73への硬貨の投入を検出する。硬貨処理部321は、所定の金額分の硬貨が投入されたことを検出した場合、ゲームの開始を指示する起動信号をPC部301に出力する。   The coin processing unit 321 detects the insertion of coins into the coin insertion / return port 73. When the coin processing unit 321 detects that a predetermined amount of coins has been inserted, the coin processing unit 321 outputs an activation signal instructing the start of the game to the PC unit 301.

撮影部304は、撮影空間A1にいる利用者を対象とした撮影処理を実現する。撮影部304は、照明装置331、カメラ91、タッチパネルモニタ92、およびスピーカ332から構成される。   The photographing unit 304 realizes photographing processing for a user in the photographing space A1. The photographing unit 304 includes a lighting device 331, a camera 91, a touch panel monitor 92, and a speaker 332.

照明装置331は、撮影空間A1内の各ストロボユニットであり、PC部301から供給される照明制御信号に従って発光する。   The illumination device 331 is each strobe unit in the imaging space A1, and emits light according to an illumination control signal supplied from the PC unit 301.

カメラ91は、PC部301によるシャッタ制御に従って撮影を行い、撮影によって得られた撮影画像(画像データ)をPC部301に出力する。   The camera 91 shoots according to shutter control by the PC unit 301, and outputs a captured image (image data) obtained by the shooting to the PC unit 301.

編集部305Aは、編集空間A2−1にいる利用者を対象とした編集処理を実現する。編集部305Aは、タブレット内蔵モニタ131、タッチペン132A,132B、およびスピーカ341から構成される。編集部305Bは、編集空間A2−2にいる利用者を対象とした編集処理を実現し、編集部305Aと同一の構成を有する。なお、以下、編集部305A,305Bを特に区別しない場合には、単に、編集部305という。   The editing unit 305A realizes editing processing for users in the editing space A2-1. The editing unit 305A includes a tablet built-in monitor 131, touch pens 132A and 132B, and a speaker 341. The editing unit 305B realizes editing processing for users in the editing space A2-2, and has the same configuration as the editing unit 305A. Hereinafter, the editing units 305A and 305B are simply referred to as the editing unit 305 unless they are particularly distinguished.

タブレット内蔵モニタ131は、PC部301による制御に従って編集画面を表示し、編集画面に対する利用者の操作を受け付ける。利用者の操作の内容を表す入力信号はPC部301に供給され、編集対象となる撮影画像が編集される。   The tablet built-in monitor 131 displays an editing screen according to control by the PC unit 301 and accepts a user operation on the editing screen. An input signal representing the content of the user's operation is supplied to the PC unit 301, and the captured image to be edited is edited.

印刷部306は、プリンタ351を含むように構成される。プリンタ351にはシール紙ユニット352が装着される。   The printing unit 306 is configured to include a printer 351. A sticker unit 352 is attached to the printer 351.

プリンタ351は、内蔵するヘッド361を駆動し、PC部301から供給された印刷データに基づいて、シール紙ユニット352に収納されているロール状のシール紙363に画像を印刷する。また、プリンタ351は、画像を印刷したシール紙363をカッター362によって所定のカット位置でカットして、シール紙排出口161に排出する。   The printer 351 drives the built-in head 361 and prints an image on a roll-shaped sticker sheet 363 stored in the sticker sheet unit 352 based on print data supplied from the PC unit 301. Further, the printer 351 cuts the sticker paper 363 on which an image is printed at a predetermined cutting position by the cutter 362 and discharges the sticker paper 363 to the sticker paper discharge port 161.

<写真シール作成装置の機能構成例>
図13は、写真シール作成装置1の機能構成例を示すブロック図である。図13に示す機能部のうちの少なくとも一部は、CPU311により所定のプログラムが実行されることによって実現される。
<Example of functional configuration of photo sticker creation device>
FIG. 13 is a block diagram illustrating a functional configuration example of the photo sticker creating apparatus 1. At least a part of the functional units shown in FIG. 13 is realized by the CPU 311 executing a predetermined program.

写真シール作成装置1においては、事前選択処理部401、撮影処理部402、編集処理部403、および印刷処理部404が実現される。   In the photo sticker creating apparatus 1, a pre-selection processing unit 401, a photographing processing unit 402, an editing processing unit 403, and a print processing unit 404 are realized.

事前選択処理部401は、事前選択部302の各部を制御することで、事前選択処理を実行する。事前選択処理により、利用者の人数の選択、撮影画像の写りの選択、背景画像の選択などが行われる。利用者による選択内容を表す情報は撮影処理部402に供給される。   The preselection processing unit 401 executes the preselection processing by controlling each unit of the preselection unit 302. By the pre-selection process, selection of the number of users, selection of a captured image, selection of a background image, and the like are performed. Information representing the content selected by the user is supplied to the imaging processing unit 402.

撮影処理部402は、撮影部304の各部を制御することで撮影処理を行う。撮影処理部402は、撮影処理を行うことによって得られた撮影画像のデータを編集処理部403に出力する。撮影処理部402から編集処理部403に対しては、撮影を複数回行うことによって得られた複数枚の撮影画像のデータが供給される。   The imaging processing unit 402 performs imaging processing by controlling each unit of the imaging unit 304. The imaging processing unit 402 outputs the captured image data obtained by performing the imaging process to the editing processing unit 403. Data of a plurality of photographed images obtained by performing photographing a plurality of times is supplied from the photographing processing unit 402 to the editing processing unit 403.

編集処理部403は、編集部305の各部を制御することで編集処理を行う。編集処理には、撮影画像に写る利用者の目の形状や大きさを調整する処理、撮影画像に対して編集を施す処理などが含まれる。   The editing processing unit 403 performs editing processing by controlling each unit of the editing unit 305. The editing process includes a process of adjusting the shape and size of the user's eyes shown in the captured image, a process of editing the captured image, and the like.

編集処理部403は、撮影画像の編集を終えた後、編集画像を所定のレイアウトで配置することによって印刷データを生成し、印刷処理部404に出力する。   After finishing editing the captured image, the edit processing unit 403 generates print data by arranging the edited image in a predetermined layout, and outputs the print data to the print processing unit 404.

印刷処理部404は、プリンタ351に印刷データを出力し、編集画像の印刷を行う。   The print processing unit 404 outputs print data to the printer 351 and prints an edited image.

<写真シール作成装置の動作>
ここで、図14のフローチャートを参照して、写真シール作成ゲームを提供する写真シール作成装置1の動作について説明する。
<Operation of photo sticker creation device>
Here, with reference to the flowchart of FIG. 14, operation | movement of the photo sticker production apparatus 1 which provides a photo sticker production game is demonstrated.

ステップS1において、事前選択処理部401は、所定の金額分の硬貨が投入されたか否かを、硬貨処理部321から供給される起動信号に基づいて判定し、硬貨が投入されたと判定するまで待機する。   In step S1, the preselection processing unit 401 determines whether or not a predetermined amount of coins has been inserted based on an activation signal supplied from the coin processing unit 321 and waits until it is determined that coins have been inserted. To do.

ステップS1において、硬貨が投入されたと判定された場合、処理はステップS2に進む。ステップS2において、事前選択処理部401は、事前選択部302を制御することで、事前選択処理を行う。具体的には、事前選択処理部401は、撮影空間で行われる撮影に関するコースとして、人数コースや写りコースの選択の他、撮影空間で行われる撮影により得られる撮影画像の背景となる背景画像の選択などを利用者に行わせることで、各種の設定を行う。人数コースは、利用者の人数に応じて行われるゲームの種類を決定するものであり、写りコースは、撮影画像の被写体の写りを決定するものである。   If it is determined in step S1 that a coin has been inserted, the process proceeds to step S2. In step S <b> 2, the preselection processing unit 401 performs the preselection process by controlling the preselection unit 302. Specifically, the pre-selection processing unit 401 selects a background image as a background of a photographed image obtained by photographing performed in the photographing space in addition to selection of the number of people course and the photographing course as a course relating to photographing performed in the photographing space. Various settings are made by allowing the user to make selections. The number of people course determines the type of game to be performed according to the number of users, and the shooting course determines the shooting of the subject of the photographed image.

ステップS3において、撮影処理部402は、撮影部304を制御することで、撮影処理を行う。具体的には、撮影処理部402は、カメラ91に取り込まれた被写体の動画像をタッチパネルモニタ92にライブビュー表示させ、撮影空間A1にいる利用者を被写体として撮影し、撮影画像を生成する。生成された撮影画像は、事前選択処理において選択された写りコースに応じた画像処理が施されて、確認用の画像としてタッチパネルモニタ92に表示される。   In step S <b> 3, the photographing processing unit 402 performs photographing processing by controlling the photographing unit 304. Specifically, the shooting processing unit 402 displays a moving image of the subject captured by the camera 91 on the touch panel monitor 92, captures a user in the shooting space A1 as a subject, and generates a shot image. The generated photographed image is subjected to image processing corresponding to the shooting course selected in the pre-selection processing, and is displayed on the touch panel monitor 92 as a confirmation image.

本実施の形態の撮影処理においては、タッチパネルモニタ92に対する操作により、利用者の所望のタイミングで撮影(セルフシャッタ撮影)が行われる。ここでは、撮影可能な時間内で、例えば最大9回の撮影が行われる。また、タッチパネルモニタ92に対する操作により、セルフシャッタ撮影ではなく、所定の時間間隔毎の繰り返し撮影(自動撮影)が行われるようにすることもできる。利用者は、得られた複数枚の撮影画像のうち5枚を、編集処理の対象として選択することができる。このようして得られる5枚の撮影画像は、編集処理の対象とされてシール紙に印刷されることはもちろん、携帯端末に送信される対象にもなり得る。   In the shooting process of the present embodiment, shooting (self-shutter shooting) is performed at a timing desired by the user by an operation on the touch panel monitor 92. Here, for example, a maximum of nine times of photographing are performed within the time that can be photographed. Further, it is possible to perform not only self-shutter shooting but also repeated shooting (automatic shooting) at predetermined time intervals by an operation on the touch panel monitor 92. The user can select five of the obtained captured images as targets for editing processing. The five photographed images obtained in this way are subject to editing processing and printed on sticker paper, and can also be subject to transmission to a mobile terminal.

本実施の形態の撮影処理においては、アップ撮影のみが行われるものとするが、アップ撮影に加えて全身撮影が行われるようにしてもよい。   In the imaging process of the present embodiment, only up imaging is performed, but whole body imaging may be performed in addition to up imaging.

アップ撮影とは、被写体の顔および上半身を撮影範囲とした撮影である。アップ撮影により、撮影画像として、被写体の顔および上半身が写るアップ画像が得られる。一方、全身撮影とは、被写体の全身を撮影範囲とした撮影である。全身撮影により、撮影画像として、被写体の全身が写る全身画像が得られる。全身撮影においては、斜め上から見た被写体の全身が写る全身画像が得られるようにしてもよいし、正面から見た被写体の全身が写る全身画像が得られるようにしてもよい。   The up-shooting is a shooting with the subject's face and upper body in the shooting range. By the up-shooting, an up-image that captures the face and upper body of the subject is obtained as a captured image. On the other hand, whole body imaging is imaging in which the entire body of the subject is captured. Whole body imaging provides a whole body image that shows the entire body of the subject as a captured image. In whole body photography, a whole body image showing the whole body of the subject viewed from diagonally above may be obtained, or a whole body image showing the whole body of the subject seen from the front may be obtained.

このようにして、撮影処理において、5枚の撮影画像が取得される。   In this way, five photographed images are acquired in the photographing process.

ステップS4において、編集処理部403は、編集空間A2−1と編集空間A2−2のうち、撮影処理を終えた利用者の移動先とした方の編集空間に対応する編集部305を制御することで、編集処理を行う。具体的には、編集処理部403は、撮影処理により得られた撮影画像に対して利用者に編集作業を行わせることで、編集が施された編集画像を生成する。   In step S4, the editing processing unit 403 controls the editing unit 305 corresponding to the editing space of the editing space A2-1 and the editing space A2-2 that is the destination of the user who has finished the shooting process. Then, edit processing is performed. Specifically, the editing processing unit 403 generates an edited image that has been edited by causing the user to perform an editing operation on the captured image obtained by the imaging process.

ステップS5において、印刷処理部404は、プリンタ351を制御することで、印刷処理を行う(開始する)。具体的には、印刷処理部404は、編集処理により得られた編集画像をプリンタ351に出力してシール紙に印刷する。なお、撮影処理により得られた撮影画像が、シール紙に印刷されるようにしてもよい。   In step S <b> 5, the print processing unit 404 performs (starts) print processing by controlling the printer 351. Specifically, the print processing unit 404 outputs the edited image obtained by the editing process to the printer 351 and prints it on a sticker sheet. Note that a photographed image obtained by the photographing process may be printed on sticker paper.

印刷が終了すると、ステップS6において、プリンタ351は、画像が印刷されたシール紙をシール紙排出口161に排出し、処理を終了させる。   When the printing is completed, in step S6, the printer 351 discharges the sticker paper on which the image is printed to the sticker paper discharge port 161, and ends the processing.

<編集処理の詳細>
次に、図15のフローチャートを参照して、上述した写真シール作成ゲームの一連の処理におけるステップS4の編集処理の詳細について説明する。
<Details of editing process>
Next, details of the editing process in step S4 in the series of processes of the above-described photo sticker creation game will be described with reference to the flowchart of FIG.

編集処理が開始されると、ステップS31において、編集処理部403は、タブレット内蔵モニタ131にレタッチ画面を表示させる。   When the editing process is started, the editing processing unit 403 displays a retouch screen on the tablet built-in monitor 131 in step S31.

レタッチ画面は、撮影画像(この例ではアップ画像)に写る人物の認識結果に基づいて、人物やその一部を加工(拡大/縮小、変形、色の変更など)したり修整する画像処理(以下、レタッチ処理という)種類の選択に用いられる画面である。ここでは、目の大きさと肌の明るさを選択するためのGUIが配置されたレタッチ画面が表示される。   The retouch screen is an image process that modifies (enlarges / reduces, transforms, changes colors, etc.) or modifies a person or part of the person based on the recognition result of the person in the captured image (up image in this example) This is a screen used for selecting a type). Here, a retouch screen on which a GUI for selecting an eye size and skin brightness is arranged is displayed.

利用者は、目の大きさと肌の明るさを選択するためのGUIを操作する。これにより、撮影画像に写る利用者の目の大きさと肌の明るさが決定され、処理はステップS32に進む。   The user operates a GUI for selecting the size of the eyes and the brightness of the skin. As a result, the size of the user's eyes and the brightness of the skin appearing in the captured image are determined, and the process proceeds to step S32.

ステップS32において、編集処理部403は、タブレット内蔵モニタ131に見たままモード選択画面を表示させる。   In step S <b> 32, the edit processing unit 403 displays the mode selection screen while watching the tablet built-in monitor 131.

見たままモード選択画面は、撮影画像の左右反転の有無の選択に用いられる画面である。見たままモード選択画面には、撮影画像を左右反転させない(何もしない)「反転なし」を選択するためのボタンと、撮影画像を左右反転させ、利用者自身が鏡に写ったような状態を再現する「反転あり」を選択するためのボタンとが表示される。   The mode selection screen as it is viewed is a screen used for selecting whether or not the captured image is horizontally reversed. On the mode selection screen as it is seen, a button for selecting “No inversion” that does not flip the captured image left and right, and a state in which the user is reflected in the mirror by flipping the captured image left and right A button for selecting “with inversion” is displayed.

見たままモード選択画面において、「反転あり」のボタンが選択されると、編集処理部403は、全ての撮影画像に左右反転させる画像処理を施し、処理はステップS33に進む。「反転なし」のボタンが選択された場合、いずれの撮影画像にも左右反転させる画像処理は施されない。   When the “inverted” button is selected on the mode selection screen as it is seen, the editing processing unit 403 performs image processing for horizontally inverting all captured images, and the process proceeds to step S33. When the “no inversion” button is selected, any captured image is not subjected to image processing for horizontally inversion.

ステップS33において、編集処理部403は、タブレット内蔵モニタ131にアドレス入力画面を表示させる。   In step S <b> 33, the editing processing unit 403 displays an address input screen on the tablet built-in monitor 131.

アドレス入力画面は、利用者の所有する携帯端末のメールアドレスの入力に用いられる画面である。アドレス入力画面は、メールアドレスに用いることが可能なアルファベットや記号、携帯端末のキャリアを選択するためのボタンと、選択されたボタンに対応する文字列が表示されるテキストボックスが表示される。   The address input screen is a screen used for inputting a mail address of a mobile terminal owned by the user. The address input screen displays an alphabet or symbol that can be used for the mail address, a button for selecting a carrier of the mobile terminal, and a text box that displays a character string corresponding to the selected button.

アドレス入力画面において、メールアドレスの入力が終了すると、処理はステップS34に進む。   When the input of the mail address is completed on the address input screen, the process proceeds to step S34.

ステップS34において、編集処理部403は、タブレット内蔵モニタ131に編集画面を表示させる。   In step S34, the edit processing unit 403 displays an edit screen on the tablet built-in monitor 131.

編集画面は、編集対象となる撮影画像の編集に用いられる画面である。編集画面には、編集対象となる撮影画像と、編集に用いられるスタンプ画像やペン画像などの各種の編集ツール(合成用画像)が表示される。   The editing screen is a screen used for editing a captured image to be edited. On the editing screen, a captured image to be edited and various editing tools (compositing images) such as a stamp image and a pen image used for editing are displayed.

利用者は、タッチペン132を用いて、スタンプ画像やペン画像などを編集対象となる撮影画像上の所定の位置へ重畳することで、編集対象となる撮影画像に対する合成用画像の合成が行われる。   The user uses the touch pen 132 to superimpose a stamp image, a pen image, or the like at a predetermined position on the photographed image to be edited, thereby synthesizing the composition image with the photographed image to be edited.

すなわち、ステップS35において、編集処理部403は、利用者の操作に応じて、編集対象となる撮影画像に編集を施す。   That is, in step S35, the editing processing unit 403 edits the captured image to be edited in accordance with the user's operation.

編集作業が終了すると、ステップS36において、編集処理部403は、タブレット内蔵モニタ131に分割数選択画面を表示させる。   When the editing operation is completed, in step S36, the editing processing unit 403 displays a division number selection screen on the tablet built-in monitor 131.

分割数選択画面は、最終的に出力されるシール紙の分割数やシールレイアウトの選択に用いられる画面である。シールレイアウトは、1枚のシール紙に配置される編集画像(撮影画像)の枚数や位置、大きさを決定するレイアウト(配置パターン)である。ここで、利用者により選択されたシールレイアウトに従って編集画像が配置されてなる画像、すなわち、最終的にシール紙に印刷されて出力される画像をレイアウト画像という。このレイアウト画像のイメージを表すシール紙イメージは、記憶部316に記憶される。   The division number selection screen is a screen used to select the number of divisions of sticker paper to be finally output and the sticker layout. The sticker layout is a layout (placement pattern) that determines the number, position, and size of an edited image (photographed image) placed on one sticker sheet. Here, an image in which an edited image is arranged in accordance with a sticker layout selected by the user, that is, an image that is finally printed on sticker paper and output is called a layout image. The sticker paper image representing the layout image is stored in the storage unit 316.

したがって、分割数選択画面には、例えば5枚の撮影画像それぞれに編集が施された編集画像が、異なるシールレイアウトで配置されたレイアウト画像が複数表示される。   Accordingly, on the division number selection screen, for example, a plurality of layout images in which edited images obtained by editing each of five photographed images are arranged in different sticker layouts are displayed.

分割数選択画面において、レイアウト画像のいずれかが選択されると、処理はステップS37に進む。   When one of the layout images is selected on the division number selection screen, the process proceeds to step S37.

ステップS37において、編集処理部403は、タブレット内蔵モニタ131に携帯送信用画像選択画面を表示させる。   In step S <b> 37, the editing processing unit 403 displays the mobile transmission image selection screen on the tablet built-in monitor 131.

携帯送信用画像選択画面は、携帯送信用画像の選択に用いられる画面である。携帯送信用画像は、上述した画像取得サイト管理サーバを介して、利用者の所有する携帯端末上で表示されたり、その携帯端末にダウンロードされたりする撮影画像である。携帯送信用画像選択画面には、例えば編集が施された後の5枚の編集画像や、編集画面において作成された携帯送信専用の画像が表示される。なお、携帯送信用画像選択画面には、編集画像に代えて、編集が施される前の撮影画像が表示されるようにしてもよい。   The mobile transmission image selection screen is a screen used for selecting a mobile transmission image. The mobile transmission image is a photographed image that is displayed on the mobile terminal owned by the user or downloaded to the mobile terminal via the above-described image acquisition site management server. On the image selection screen for mobile transmission, for example, five edited images after editing and an image dedicated for mobile transmission created on the editing screen are displayed. Note that the captured image before editing may be displayed on the portable transmission image selection screen instead of the edited image.

携帯送信用画像選択画面において、携帯送信用画像として、画像のいずれかが選択されると、処理はステップS38に進む。   When one of the images is selected as the portable transmission image on the portable transmission image selection screen, the process proceeds to step S38.

ステップS38において、編集処理部403は、通信部317を制御することで、インターネットなどのネットワークを介して、利用者により選択された携帯送信用画像を、利用者によりアドレス入力画面に入力されたメールアドレスとともに、画像取得サイト管理サーバに送信する。   In step S38, the edit processing unit 403 controls the communication unit 317, whereby the mobile transmission image selected by the user via the network such as the Internet is input to the address input screen by the user. Along with the address, it is sent to the image acquisition site management server.

画像取得サイト管理サーバは、利用者により入力されたメールアドレス宛てに、携帯端末がサーバにアクセスするのに必要なURLが記載されたメールを送信する。そして、そのURLに基づいて、利用者が所有する携帯端末が、ネットワークを介して画像取得サイト管理サーバにアクセスすることで、画像取得サイト管理サーバに送信された画像が携帯端末に提供される。   The image acquisition site management server transmits a mail describing a URL necessary for the mobile terminal to access the server to the mail address input by the user. Based on the URL, the mobile terminal owned by the user accesses the image acquisition site management server via the network, so that the image transmitted to the image acquisition site management server is provided to the mobile terminal.

その後、ステップS39において、編集処理部403は、編集作業を終えた利用者に対して、印刷待ち空間A3への移動を案内する。印刷待ち空間A3への移動の案内は、編集部305のタブレット内蔵モニタ131に案内画面を表示させることによって、または音声をスピーカ341から出力させることによって行われる。   Thereafter, in step S39, the editing processing unit 403 guides the user who has finished the editing work to move to the print waiting space A3. The guidance for moving to the print waiting space A3 is performed by displaying a guidance screen on the tablet built-in monitor 131 of the editing unit 305 or by outputting sound from the speaker 341.

以上のようにして、編集処理が行われる。   The editing process is performed as described above.

ここで、上述した編集処理のステップS34において表示される編集画面の詳細について説明する。   Here, details of the editing screen displayed in step S34 of the editing process described above will be described.

<編集画面の例>
図16は、タブレット内蔵モニタ131に表示される編集画面の例を示す図である。
<Example of editing screen>
FIG. 16 is a diagram showing an example of an edit screen displayed on the tablet built-in monitor 131.

編集画面は、基本的に、主な構成が左右対称に設けられることによって構成される。左側の領域は、タブレット内蔵モニタ131に向かって左側にいる利用者により用いられる領域である。右側の領域は、タブレット内蔵モニタ131に向かって右側にいる利用者により用いられる領域である。このような編集画面の構成により、主に2人の利用者が同時に編集作業を行うことができる。   The edit screen is basically configured by providing main components symmetrically. The left area is an area used by a user on the left side of the tablet built-in monitor 131. The area on the right side is an area used by the user on the right side toward the tablet built-in monitor 131. With such an editing screen configuration, mainly two users can simultaneously perform editing work.

以下、編集画面の左側の領域(左側領域)について説明する。   Hereinafter, the left area (left area) of the editing screen will be described.

左側領域の中央上方には、サムネイル表示領域511Lが設けられる。サムネイル表示領域511Lは、撮影画像を表すサムネイル画像の表示領域である。利用者は、サムネイル表示領域511Lに表示されているサムネイル画像を選択することによって、編集対象とする撮影画像を選択する。   A thumbnail display area 511L is provided above the center of the left area. The thumbnail display area 511L is a display area for thumbnail images representing captured images. The user selects a captured image to be edited by selecting a thumbnail image displayed in the thumbnail display area 511L.

図16の例では、5枚の撮影画像を表すサムネイル画像がサムネイル表示領域511Lに並んで表示されている。   In the example of FIG. 16, thumbnail images representing five captured images are displayed side by side in the thumbnail display area 511L.

左側領域の略中央には、編集領域512Lが設けられる。編集領域512Lは、編集対象として選択された撮影画像(編集対象画像)の表示領域である。利用者は、タッチペン132を用いて編集ツールを選択し、編集領域512Lに表示された撮影画像の編集を行う。   An edit area 512L is provided substantially at the center of the left area. The edit area 512L is a display area for a captured image (edit target image) selected as an edit target. The user uses the touch pen 132 to select an editing tool, and edits the captured image displayed in the editing area 512L.

編集領域512Lの左側には、メイクパレット513Lが表示される。メイクパレット513Lは、メイクツールを選択するためのアイコンの表示領域である。メイクツールには、涙袋ツール、ふたえ幅ツール、および目のかたちツールがある。涙袋ツールは、編集対象画像に写る人物の目の下方に涙袋を作る(作ったように見せる)ための機能を提供するものであり、ふたえ幅ツールは、編集対象画像に写る人物の目の二重まぶたの幅(厚さ)を強調するための機能を提供するものである。また、目のかたちツールは、編集対象画像に写る人物の目の形状を変更するための機能を提供するものである。   On the left side of editing area 512L, makeup palette 513L is displayed. The makeup palette 513L is an icon display area for selecting a makeup tool. The makeup tools include a tear bag tool, a lid width tool, and an eye shape tool. The tear bag tool provides a function for creating a tear bag underneath the person's eye in the image to be edited (showing it as it was made), and the cover width tool is the person's eye in the image to be edited. The function for emphasizing the width (thickness) of the double eyelid is provided. The eye shape tool provides a function for changing the shape of a person's eye in the image to be edited.

編集領域512Lの下方には、編集パレット514Lが表示される。編集パレット514Lは、ペン画像やスタンプ画像などの各種の編集ツール(合成用画像)の選択に用いられる。   An editing palette 514L is displayed below the editing area 512L. The edit palette 514L is used to select various editing tools (composition images) such as pen images and stamp images.

編集パレット514Lにおいては、編集パレット514Lの編集画面中央側に設けられたボタン毎に各編集ツールが表示される。利用者は、それぞれのボタンを選択することによって、編集パレット514Lに表示される編集ツールを切り替える。例えば、「ペン」の名前が付されたボタンは、ペン画像を選択するときに操作されるボタンであり、「スタンプ」の名前が付されたボタンは、スタンプ画像を選択するときに操作されるボタンである。   In the editing palette 514L, each editing tool is displayed for each button provided on the editing screen center side of the editing palette 514L. The user switches the editing tool displayed on the editing palette 514L by selecting each button. For example, a button with the name “pen” is a button operated when selecting a pen image, and a button with a name “stamp” is operated when selecting a stamp image. Button.

編集画面の右側の領域(右側領域)には、以上のような左側領域の構成と同じ構成511R乃至514Rが、それぞれ位置を対称にして配置される。   In the right area (right area) of the editing screen, the same configurations 511R to 514R as the configuration of the left area as described above are arranged symmetrically.

編集画面において、左側領域と右側領域に挟まれた中央の領域(中央領域)には、スマートフォンの外観を模した2つの携帯おまけボタン515L,515Rが左右に並んで表示される。左側の携帯おまけボタン515Lは、タブレット内蔵モニタ131に向かって左側にいる利用者により操作され、右側の携帯おまけボタン515Rは、タブレット内蔵モニタ131に向かって右側にいる利用者により操作される。携帯おまけボタン515L,515Rが操作されると、携帯おまけの作成を行うことができる。携帯おまけは、携帯端末の待ち受け画面に表示されたり、メールに添付されたり、ブログを含むSNS(Social Networking System)にアップロードされたりする画像など、携帯端末上で用いられることを前提とした画像である。作成された携帯おまけは、携帯端末への送信専用の画像として、画像取得サイト管理サーバに送信される。   In the editing screen, two mobile bonus buttons 515L and 515R simulating the appearance of a smartphone are displayed side by side in the center area (center area) between the left area and the right area. The left portable bonus button 515L is operated by a user on the left side toward the tablet built-in monitor 131, and the right portable bonus button 515R is operated by a user on the right side toward the tablet built-in monitor 131. When the portable bonus buttons 515L and 515R are operated, a portable bonus can be created. Mobile bonuses are images that are assumed to be used on mobile devices, such as images that are displayed on the standby screen of mobile devices, attached to emails, or uploaded to social networking systems (SNS) including blogs. is there. The created mobile bonus is transmitted to the image acquisition site management server as an image dedicated to transmission to the mobile terminal.

携帯おまけボタン515L,515Rの下方には、編集作業中のBGMの設定を行うときに操作されるボタンなども表示される。   Below the portable bonus buttons 515L and 515R, buttons operated when setting the BGM during editing work are also displayed.

このような編集画面により、主に2人の利用者が同時に編集作業を行うことができる。   With such an editing screen, mainly two users can perform editing work simultaneously.

<携帯おまけ作成処理について>
次に、図17のフローチャートを参照して、編集画面において、携帯おまけボタン515Lまたは515Rが操作されたときに実行される携帯おまけ作成処理について説明する。以下においては、タブレット内蔵モニタ131に向かって左側の利用者により携帯おまけボタン515Lが操作された場合の処理について説明する。
<About the mobile bonus creation process>
Next, with reference to the flowchart of FIG. 17, a portable bonus creation process executed when the portable bonus button 515L or 515R is operated on the editing screen will be described. In the following, processing when the portable bonus button 515L is operated by the user on the left side toward the tablet built-in monitor 131 will be described.

携帯おまけボタン515Lが操作されると、ステップS51において、編集処理部403は、編集画面の左側領域上に、加工画面を表示させる。加工画面は、携帯おまけとなる撮影画像を選択させたり、選択された撮影画像に施される各種の加工処理を選択するための画面である。   When the portable bonus button 515L is operated, in step S51, the editing processing unit 403 displays a processing screen on the left area of the editing screen. The processing screen is a screen for selecting a picked-up image to be carried and selecting various kinds of processing to be performed on the selected picked-up image.

図18は、加工画面の例を示す図である。   FIG. 18 is a diagram illustrating an example of a processing screen.

加工画面の上部には、画像選択領域531が設けられる。画像選択領域531は、携帯おまけの選択候補となる例えば5枚の撮影画像のサムネイル画像が表示される領域である。画像選択領域531から選択された撮影画像が、携帯おまけとなる。なお、携帯おまけの選択候補は、いずれの編集も施されていない撮影画像とされる。   An image selection area 531 is provided at the top of the processing screen. The image selection area 531 is an area where thumbnail images of, for example, five photographed images that are candidates for selection of mobile bonuses are displayed. The captured image selected from the image selection area 531 becomes a portable bonus. Note that the selection candidate for the mobile bonus is a captured image that has not been subjected to any editing.

画像選択領域531の下方には、加工画像表示領域532が設けられる。加工画像表示領域532には、画像選択領域531において選択された携帯おまけとなる撮影画像に対して、各種の加工処理を施した画像(以下、加工画像という)が複数表示される。図18の例では、加工画像表示領域532に、9枚の加工画像が表示されているが、左上の画像を除いた画像それぞれに、異なる加工処理が施されている。なお、加工画像表示領域532に表示される加工画像は、画像選択領域531において他の撮影画像が選択される毎に、選択されたその撮影画像に加工処理を施した画像に切り替わる。   A processed image display area 532 is provided below the image selection area 531. In the processed image display area 532, a plurality of images (hereinafter referred to as processed images) obtained by performing various types of processing on the captured image selected as the portable extra selected in the image selection area 531 are displayed. In the example of FIG. 18, nine processed images are displayed in the processed image display area 532, but different processing processes are performed on each image except the upper left image. The processed image displayed in the processed image display area 532 is switched to an image obtained by processing the selected captured image every time another captured image is selected in the image selection area 531.

加工画面において選択される加工処理には、携帯おまけとなる撮影画像に対する顔の認識結果に応じた処理が含まれる。   The processing selected on the processing screen includes processing according to the recognition result of the face with respect to the captured image that is a portable bonus.

具体的には、加工画像表示領域532に表示される9枚の加工画像のうち、下段の3枚の加工画像には、顔の認識結果に応じた互いに異なるスタンプ画像が合成されるとともに、互いに異なるレタッチ処理(顔の認識結果に基づいた画像処理)が施されている。   Specifically, among the nine processed images displayed in the processed image display area 532, the lower three processed images are combined with different stamp images corresponding to the face recognition results, and Different retouching processes (image processing based on face recognition results) are performed.

図19は、加工画面(加工画像表示領域532)に表示される、顔の認識結果に応じたスタンプ画像が合成され、レタッチ処理が施された3枚の加工画像の詳細について説明する図である。   FIG. 19 is a diagram for explaining details of three processed images that are displayed on the processed screen (processed image display area 532) and combined with a stamp image corresponding to the face recognition result and subjected to the retouching process. .

図19には、3枚の加工画像541,542,543が示されている。これらの加工画像はいずれも画像選択領域531から選択された撮影画像をもとに生成される。   FIG. 19 shows three processed images 541, 542, and 543. All of these processed images are generated based on the captured image selected from the image selection area 531.

図中左に示される加工画像541は、画像選択領域531において選択された撮影画像に、スタンプ画像551a,551b,561,562が合成された画像である。   A processed image 541 shown on the left in the drawing is an image in which stamp images 551a, 551b, 561, and 562 are combined with a captured image selected in the image selection area 531.

スタンプ画像551a,551bは、顔の認識結果に基づいた位置に合成されるスタンプ画像(以下、変身スタンプ画像という)であり、撮影画像に写る2人の利用者の顔にそれぞれ合成される。スタンプ画像551a,551bは、猫の顔(具体的には猫の鼻、耳、ひげ)を模した画像であり、認識された顔の大きさと向きに合わせて、その大きさと向きが調整されて、2人の利用者それぞれの顔の対応する位置に配置される。   The stamp images 551a and 551b are stamp images (hereinafter referred to as “transformation stamp images”) that are combined at positions based on face recognition results, and are combined with the faces of two users that appear in the captured image. The stamp images 551a and 551b are images imitating a cat's face (specifically, the cat's nose, ears, and whiskers), and the size and orientation are adjusted according to the size and orientation of the recognized face. It is arranged at a position corresponding to the face of each of the two users.

スタンプ画像561,562は、ハート型のスタンプ画像であり、顔の認識結果に基づいた位置によらない、あらかじめ決められた位置に配置される。   The stamp images 561 and 562 are heart-shaped stamp images, and are arranged at predetermined positions independent of the positions based on the face recognition results.

図中中央に示される加工画像542は、画像選択領域531において選択された撮影画像に、スタンプ画像552a,552b,571,572が合成された画像である。   The processed image 542 shown in the center of the drawing is an image obtained by combining the stamp images 552a, 552b, 571, and 572 with the photographed image selected in the image selection area 531.

スタンプ画像552a,552bは、変身スタンプ画像であり、撮影画像に写る2人の利用者の顔にそれぞれ合成される。スタンプ画像552a,552bは、うさぎの顔(具体的にはうさぎの鼻、耳、ひげ)を模した画像であり、認識された顔の大きさと向きに合わせて、その大きさと向きが調整されて、2人の利用者それぞれの顔の対応する位置に配置される。   The stamp images 552a and 552b are transformation stamp images and are respectively combined with the faces of two users shown in the photographed image. The stamp images 552a and 552b are images imitating a rabbit's face (specifically, a rabbit's nose, ears, and whiskers). The size and orientation of the stamp images 552a and 552b are adjusted according to the size and orientation of the recognized face. The two users are arranged at corresponding positions on the faces of the two users.

スタンプ画像571,572は、三日月型のスタンプ画像であり、顔の認識結果に基づいた位置によらない、あらかじめ決められた位置に配置される。   The stamp images 571 and 572 are crescent-shaped stamp images, and are arranged at predetermined positions independent of the positions based on the face recognition results.

図中右に示される加工画像543は、画像選択領域531において選択された撮影画像に、スタンプ画像553a,553b,581,582,583が合成された画像である。   A processed image 543 shown on the right in the drawing is an image obtained by combining stamp images 553 a, 553 b, 581, 582, and 583 with the photographed image selected in the image selection area 531.

スタンプ画像553a,553bは、変身スタンプ画像であり、撮影画像に写る2人の利用者の顔にそれぞれ合成される。スタンプ画像553a,553bは、犬の顔(具体的には犬の鼻、耳、ひげ)を模した画像であり、認識された顔の大きさと向きに合わせて、その大きさと向きが調整されて、2人の利用者それぞれの顔の対応する位置に配置される。   The stamp images 553a and 553b are transformation stamp images and are respectively combined with the faces of two users shown in the photographed image. The stamp images 553a and 553b are images imitating the dog's face (specifically, the dog's nose, ears, and whiskers), and the size and direction are adjusted according to the size and direction of the recognized face. It is arranged at a position corresponding to the face of each of the two users.

スタンプ画像581,582,583は、星型のスタンプ画像であり、顔の認識結果に基づいた位置によらない、あらかじめ決められた位置に配置される。   The stamp images 581, 582, and 583 are star-shaped stamp images, and are arranged at predetermined positions that do not depend on the positions based on the face recognition results.

さらに、加工画像541,542,543には、合成された変身スタンプ画像に対応して、それぞれ異なるレタッチ処理が施されている。ここでは、レタッチ処理として、目の大きさを変える処理と、顔の形を変える処理が施される。   Further, the processed images 541, 542, and 543 are subjected to different retouching processes corresponding to the combined transformation stamp images. Here, as the retouching process, a process of changing the size of the eyes and a process of changing the shape of the face are performed.

例えば、加工画像541には、猫の顔を模した変身スタンプ画像551a,551bに対応したレタッチ処理として、目の大きさを特に大きくする処理と、顔の形を三角形型にする処理が施される。   For example, the processed image 541 is subjected to a process of particularly increasing the size of the eyes and a process of making the face shape triangular as retouching processes corresponding to the transformation stamp images 551a and 551b that imitate the face of a cat. The

また、加工画像542には、うさぎの顔を模した変身スタンプ画像552a,552bに対応したレタッチ処理として、目の大きさを中程度に大きくする処理と、顔を面長にする処理が施される。   The processed image 542 is subjected to a process of enlarging the size of the eyes and a process of making the face length as retouch processes corresponding to the transformation stamp images 552a and 552b imitating a rabbit face. The

そして、加工画像543には、犬の顔を模した変身スタンプ画像553a,553bに対応したレタッチ処理として、目の大きさをわずかに大きくする処理と、顔を卵型にする処理が施される。なお、目の大きさをわずかに大きくする処理は施されないようにしてもよい。   The processed image 543 is subjected to a process of slightly increasing the size of the eyes and a process of making the face an egg shape as a retouch process corresponding to the transformation stamp images 553a and 553b imitating the face of a dog. . Note that the process of slightly increasing the size of the eyes may not be performed.

このように、加工画面において、互いに異なるスタンプ画像が合成されるとともに、互いに異なるレタッチ処理が施された加工画像を表示することで、利用者に様々なバリエーションの画像を提供することができる。   As described above, different stamp images are combined on the processing screen, and the processed images subjected to different retouching processes are displayed, so that various variations of images can be provided to the user.

なお、レタッチ処理として施される顔の形を変える処理は、顔認識により2つの顔が認識された場合にのみ、その2つの顔に対して施される。ただし、認識された複数の顔同士(具体的には2つの顔同士)の距離が所定距離より近い場合には、互いの顔に対する処理が干渉し、適切に顔の形を変えられない可能性があることから、顔の形を変える処理は施されないようにする。   Note that the process of changing the shape of the face performed as the retouch process is performed on the two faces only when the two faces are recognized by the face recognition. However, if the distance between the recognized faces (specifically, two faces) is closer than the predetermined distance, the processing on each other's faces may interfere and the face shape may not be changed appropriately. Therefore, the processing to change the shape of the face should not be performed.

したがって、顔認識により2つの顔が認識された場合に限らず、1つの顔のみが認識された場合にも、その1つの顔に対して、顔の形を変える処理が施されるようにしてもよい。   Therefore, not only when two faces are recognized by face recognition, but also when only one face is recognized, a process for changing the shape of the face is performed on the one face. Also good.

この例では、レタッチ処理として、目の大きさを変える処理と顔の形を変える処理の2種類の画像処理が加工画像に施されるものとしたが、他の種類の画像処理が施されるようにしてもよい。   In this example, two types of image processing, that is, processing for changing the size of the eyes and processing for changing the shape of the face, are performed on the processed image as retouching processing, but other types of image processing are performed. You may do it.

さらに、加工画像に合成されている変身スタンプ画像に応じて、レタッチ処理として、それぞれ異なる種類の画像処理が施されるようにしてもよい。例えば、猫の顔を模した変身スタンプ画像に対応したレタッチ処理として、目の形を変える画像処理が施され、うさぎの顔を模した変身スタンプ画像に対応したレタッチ処理として、肌を明るくする画像処理が施されるようにする。   Further, different types of image processing may be performed as retouching processing in accordance with the transformation stamp image combined with the processed image. For example, image processing that changes the shape of the eyes as a retouching process that corresponds to a transformation stamp image that imitates the face of a cat, and an image that brightens the skin as a retouching process that corresponds to a transformation stamp image that imitates the face of a rabbit Allow processing to be performed.

また、上述した例では、撮影画像に写る2人の利用者の顔それぞれに、同じ種類の変身スタンプ画像が合成されるものとしたが、異なる種類の変身スタンプ画像が合成されるようにしてもよい。   In the above-described example, the same type of transformation stamp image is synthesized with each of the faces of two users shown in the photographed image. However, different types of transformation stamp images may be synthesized. Good.

例えば、撮影画像に写る2人の利用者のうちの一方の顔には、猫の顔を模した変身スタンプ画像が合成され、2人の利用者のうちの他方の顔には、うさぎの顔を模した変身スタンプ画像が合成されるようにする。   For example, a transformation stamp image imitating a cat's face is synthesized with one of the two users in the photographed image, and a rabbit's face is synthesized with the other of the two users. Make a transformation stamp image that mimics the above.

この場合、一方の利用者の顔には、猫の顔を模した変身スタンプ画像に対応したレタッチ処理(目の大きさを特に大きくする処理と、顔の形を三角形型にする処理)が施されるようにする。また、他方の利用者の顔には、うさぎの顔を模した変身スタンプ画像に対応したレタッチ処理(目の大きさを中程度に大きくする処理と、顔を面長にする処理)が施されるようにする。   In this case, one user's face is subjected to a retouching process (a process that increases the size of the eyes and a process that makes the face shape triangular) corresponding to a transformation stamp image that imitates the face of a cat. To be. In addition, the face of the other user is subjected to retouching processing (processing for enlarging the size of the eyes to a medium level and processing for making the face length) corresponding to a transformation stamp image simulating a rabbit face. So that

さらに、このような加工画像が表示される加工画面において、撮影画像(加工画像)に写る2人の利用者の顔それぞれに合成された異なる種類の変身スタンプ画像と、その変身スタンプ画像に対応して施されたレタッチ処理を入れ替えるための入れ替えボタンが設けられるようにしてもよい。   Furthermore, in the processing screen on which such processed images are displayed, different types of transformation stamp images synthesized on the faces of the two users shown in the photographed image (modified image) and the transformation stamp images are supported. An exchange button for exchanging the retouching process performed in this manner may be provided.

これにより、利用者により豊かなバリエーションの画像を提供することができる。   Thereby, a richer variation image can be provided to the user.

さて、図17のフローチャートに戻り、ステップS51の後、処理はステップS52に進み、編集処理部403は、加工画面に続いて、ぼかし画面を表示させる。ぼかし画面は、携帯おまけとなる撮影画像に、ぼかし処理を施すための画面である。   Returning to the flowchart of FIG. 17, after step S51, the process proceeds to step S52, and the edit processing unit 403 displays a blur screen following the processing screen. The blur screen is a screen for performing blur processing on a captured image that is a mobile bonus.

ここで、加工画面において、上述した変身スタンプ画像が合成された加工画像が選択されている場合、その加工画像にぼかし処理が施されることになるが、そのぼかし処理は、加工画像のもととなっている撮影画像とともに、変身スタンプ画像にも施される。なお、ぼかし処理が、変身スタンプ画像には施されず、加工画像のもとになっている撮影画像のみに施されるようにしてもよい。   Here, when a processed image in which the above-described transformation stamp image is combined is selected on the processed screen, the processed image is subjected to a blurring process. The blurring process is performed based on the processed image. Along with the captured image, it is also applied to the transformation stamp image. Note that the blurring process may not be performed on the transformation stamp image, but only on the captured image that is the basis of the processed image.

ステップS52の後、処理はステップS53に進み、編集処理部403は、ぼかし画面に続いて、トリミング画面を表示させる。トリミング画面は、携帯おまけとなる撮影画像においてトリミングされる領域(トリミング領域)を選択させる画面である。   After step S52, the process proceeds to step S53, and the edit processing unit 403 displays a trimming screen following the blur screen. The trimming screen is a screen for selecting a region to be trimmed (trimming region) in a captured image that is a mobile bonus.

ステップS53の後、処理はステップS54に進み、編集処理部403は、トリミング画面に続いて、背景選択画面を表示させる。背景選択画面は、携帯おまけとなる撮影画像の背景となる背景画像を選択させる画面である。   After step S53, the process proceeds to step S54, and the edit processing unit 403 displays a background selection screen following the trimming screen. The background selection screen is a screen for selecting a background image that is a background of a photographed image that is a mobile bonus.

なお、ステップS54の処理は、加工画面(図18)の加工画像表示領域532において、左上の加工画像(加工処理が施されていない撮影画像)が選択された場合にのみ実行される。したがって、加工画面の加工画像表示領域532において、左上の加工画像以外の加工画像(何らかの加工処理が施されている撮影画像)が選択された場合、ステップS54においては何も実行されない。   Note that the processing in step S54 is executed only when the upper left processed image (the captured image that has not been processed) is selected in the processed image display area 532 of the processed screen (FIG. 18). Accordingly, in the processed image display area 532 of the processed screen, when a processed image other than the upper left processed image (a captured image subjected to some processing process) is selected, nothing is executed in step S54.

また、加工画面において、上述した変身スタンプ画像が合成された加工画像が選択された場合には、背景選択画面が表示されるようにしてもよい。この場合、背景選択画面には、加工画像に合成されている変身スタンプ画像に対応した背景画像が複数表示されるようにしてもよい。   In addition, when a processed image in which the above-described transformation stamp image is combined is selected on the processed screen, a background selection screen may be displayed. In this case, a plurality of background images corresponding to the transformation stamp image combined with the processed image may be displayed on the background selection screen.

ステップS54の後、処理はステップS55に進み、編集処理部403は、携帯おまけ落書き画面を表示させる。携帯おまけ落書き画面は、携帯おまけとなる撮影画像の編集に用いられる画面である。携帯おまけ落書き画面は、加工画面(図18)などのように、編集画面の左側領域全体の上に表示されるのではなく、編集画面の左側領域の編集パレット514Lを隠さないようにして表示される。したがって、ここでは、編集パレット514Lにおいて選択可能なペン画像やスタンプ画像などの各種の編集ツールを用いた編集が行われる。   After step S54, the process proceeds to step S55, and the edit processing unit 403 displays a portable bonus graffiti screen. The mobile bonus graffiti screen is a screen used for editing a captured image that is a mobile bonus. The mobile bonus graffiti screen is not displayed on the entire left area of the editing screen as in the processing screen (FIG. 18), but is displayed so as not to hide the editing palette 514L in the left area of the editing screen. The Therefore, here, editing is performed using various editing tools such as a pen image and a stamp image that can be selected in the editing palette 514L.

ここで、加工画面において、上述した変身スタンプ画像が合成された加工画像が選択されている場合、その加工画像に編集が施されることになるが、携帯おまけ落書き画面においては、加工画像に合成されている変身スタンプ画像は、削除されないものとする。なお、これとは逆に、携帯おまけ落書き画面において、加工画像に合成されている変身スタンプ画像が、削除されるようにしてもよい。   Here, when a processed image in which the above-described transformation stamp image is combined is selected on the processed screen, the processed image is edited, but on the portable bonus graffiti screen, it is combined with the processed image. It is assumed that the transformed stamp image is not deleted. On the contrary, the transformation stamp image combined with the processed image may be deleted on the portable bonus graffiti screen.

なお、携帯おまけとして、編集画面においてペン画像やスタンプ画像などを用いた編集が施された撮影画像が選択されるようにしてもよい。この場合、加工画面(加工画像表示領域532)には、既に編集が施された撮影画像に、変身スタンプ画像を合成し、変身スタンプ画像に対応したレタッチ処理を施した加工画像が表示されるようにする。   As a portable bonus, a captured image that has been edited using a pen image, a stamp image, or the like on the editing screen may be selected. In this case, the processed image (processed image display area 532) displays a processed image obtained by synthesizing a transformation stamp image with a photographed image that has already been edited and performing a retouching process corresponding to the transformation stamp image. To.

また、編集画面において所定のレタッチ処理を選択して施すことができるようにし、携帯おまけとして、そのレタッチ処理が施された撮影画像が選択されるようにしてもよい。この場合、加工画面(加工画像表示領域532)には、既にレタッチ処理が施された撮影画像に、変身スタンプ画像を合成するものの、変身スタンプ画像に対応したレタッチ処理を施さないようにした加工画像が表示されるようにする。   Alternatively, a predetermined retouching process can be selected and applied on the editing screen, and a captured image subjected to the retouching process may be selected as a portable bonus. In this case, the processed image (processed image display area 532) is a processed image in which a transformation stamp image is synthesized with a photographed image that has already been subjected to the retouching process, but the retouching process corresponding to the transformation stamp image is not performed. Is displayed.

以上のようにして、携帯おまけが作成される。   A mobile bonus is created as described above.

携帯おまけ作成処理において、撮影画像をトリミングした後に、その撮影画像に対して各種の加工処理を施した加工画像を表示するようにした場合、トリミングされた領域によっては、顔の一部が途切れるなどして顔認識に失敗する可能性がある。この場合、その撮影画像に対して顔の認識結果に応じた加工処理を施すことにも失敗するおそれがある。   In the portable bonus creation process, after trimming a captured image, if a modified image obtained by performing various types of processing on the captured image is displayed, a part of the face may be cut off depending on the trimmed area. And face recognition may fail. In this case, there is a possibility that the processing according to the recognition result of the face on the captured image may also fail.

これに対して、上述した処理においては、携帯おまけとなる撮影画像をトリミングする前に、その撮影画像に対して各種の加工処理を施した加工画像を表示するようにした。これにより、トリミングによって顔認識に失敗することなく、撮影画像に対して顔の認識結果に応じた加工処理を適切に施すことが可能となる。   On the other hand, in the above-described processing, before trimming a captured image that is a portable extra, processed images obtained by performing various types of processing on the captured image are displayed. Accordingly, it is possible to appropriately perform a processing process according to the face recognition result on the photographed image without failing the face recognition due to the trimming.

上述した携帯おまけ作成処理においては、1枚の撮影画像に、互いに異なるスタンプ画像が合成され、互いに異なるレタッチ処理が施された複数の加工画像(以下、適宜、処理後画像という)が生成され、表示されるようにした。   In the portable bonus creation process described above, a plurality of processed images (hereinafter referred to as post-processed images as appropriate) are generated by combining different stamp images with a single photographed image and applying different retouch processes, It was made to be displayed.

そこで、以下においては、携帯おまけ作成処理における処理後画像の表示を実現する構成について詳細に説明する。   Therefore, in the following, a configuration for realizing display of the processed image in the portable bonus creation process will be described in detail.

<本技術の写真シール作成装置の機能構成例>
図20は、上述した処理後画像の表示を実現する、本技術の写真シール作成装置1の機能構成例を示すブロック図である。
<Functional configuration example of photo sticker creation device of this technology>
FIG. 20 is a block diagram illustrating a functional configuration example of the photo sticker creation apparatus 1 of the present technology that realizes the display of the processed image described above.

図20に示される写真シール作成装置1は、図13の撮影処理部402に加え、複製部611、合成部612、レタッチ処理部613、および表示制御部614を備えている。   The photo sticker creating apparatus 1 shown in FIG. 20 includes a duplicating unit 611, a combining unit 612, a retouch processing unit 613, and a display control unit 614 in addition to the photographing processing unit 402 of FIG.

撮影処理部402は、利用者を被写体とした撮影を行うことで複数の撮影画像を取得する。   The imaging processing unit 402 acquires a plurality of captured images by performing imaging with a user as a subject.

複製部611は、撮影処理部402によって取得された撮影画像を複製した複製画像を生成する。生成される複製画像の枚数は1枚であってもよいし、複数枚であってもよい。   The duplicating unit 611 generates a duplicate image obtained by duplicating the photographed image acquired by the photographing processing unit 402. One copy image may be generated or a plurality of copy images may be generated.

合成部612は、複製部611によって生成された複製画像や、複製画像の複製元となった撮影画像(以下、複製元画像という)に、それぞれ互いに異なる変身スタンプ画像を合成する。なお、変身スタンプ画像は、顔の認識結果に応じて、顔の部位に合成されるものとするが、顔に限らず、人物の認識結果に応じて、人物の体の部位に合成されるものであればよい。   The synthesizing unit 612 synthesizes different transformation stamp images to the duplicate image generated by the duplication unit 611 and the captured image that is the duplication source of the duplicate image (hereinafter referred to as the duplication source image). The transformation stamp image is combined with the face part according to the face recognition result, but is not limited to the face, and is combined with the person body part according to the person recognition result. If it is.

レタッチ処理部613は、複製画像や複製元画像の少なくともいずれか1枚に、それぞれ互いに異なるレタッチ処理を施す。   The retouch processing unit 613 performs different retouch processes on at least one of the copy image and the copy source image.

表示制御部614は、それぞれ互いに異なるスタンプ画像が合成され、それぞれ互いに異なるレタッチ処理が施された複製画像や複製元画像を、処理後画像として、例えばタブレット内蔵モニタ131などのモニタ(表示部)に表示する。   The display control unit 614 combines a different stamp image and a copy image or a copy source image subjected to different retouch processes on a monitor (display unit) such as the tablet built-in monitor 131 as a processed image. indicate.

<処理後画像表示処理の流れ>
次に、図21のフローチャートを参照して、図20の写真シール作成装置1により実行される処理後画像表示処理の流れについて説明する。
<Flow of post-processing image display processing>
Next, the flow of the post-processing image display process executed by the photo sticker creating apparatus 1 of FIG. 20 will be described with reference to the flowchart of FIG.

ステップS71において、撮影処理部402は、利用者を被写体とした撮影を行うことで、例えば5枚の撮影画像を取得する。   In step S <b> 71, the photographing processing unit 402 obtains, for example, five photographed images by photographing the user as a subject.

ステップS72において、複製部611は、撮影処理部402によって取得された5枚の撮影画像それぞれを複製した複製画像を生成する。   In step S <b> 72, the duplication unit 611 generates a duplicate image obtained by duplicating each of the five photographed images acquired by the photographing processing unit 402.

複製画像が生成されるタイミングは、撮影処理部402によって撮影画像が取得されたタイミングであるものとするが、これに限らず、他のタイミングであってもよい。例えば、撮影画像に対して、事前選択処理において選択された写りコースに応じた画像処理が施され、確認用としてタッチパネルモニタ92に表示される画像が生成された後で、複製画像が生成されてもよい。また、編集画面が表示されたタイミングや、携帯おまけボタン515L,515Rが選択されたタイミングで、複製画像が生成されてもよい。   The timing at which the duplicate image is generated is the timing at which the captured image is acquired by the imaging processing unit 402, but is not limited thereto, and may be at another timing. For example, after a captured image is subjected to image processing corresponding to the shooting course selected in the pre-selection process, and an image displayed on the touch panel monitor 92 for confirmation is generated, a duplicate image is generated. Also good. In addition, a duplicate image may be generated at the timing when the editing screen is displayed or when the portable bonus buttons 515L and 515R are selected.

さらに、編集処理開始後に表示されるレタッチ画面において目の大きさと肌の明るさの選択が完了したタイミングで、複製画像が生成されてもよい。また、加工画面が表示される前の編集画面上に「コピーボタン」を設け、そのコピーボタンが押下されたタイミングで、複製画像が生成されてもよい。   Furthermore, a duplicate image may be generated at the timing when selection of the eye size and skin brightness is completed on the retouch screen displayed after the editing process is started. Further, a “copy button” may be provided on the editing screen before the processing screen is displayed, and a duplicate image may be generated when the copy button is pressed.

また、加工画面の画像選択領域531において携帯おまけの編集対象となる撮影画像が選択されたときに、選択されたその撮影画像のみを複製元画像として、複製画像が生成されてもよい。   Further, when a captured image to be edited as a portable bonus is selected in the image selection area 531 of the processing screen, a replicated image may be generated using only the selected captured image as a replication source image.

なお、ここでは、1枚の複製元画像について、3枚の複製画像が生成されるものとする。   Here, it is assumed that three duplicate images are generated for one duplicate source image.

ステップS73において、合成部612は、生成された複製画像のうちの、携帯おまけとして選択された撮影画像を複製元画像とした3枚の複製画像に、それぞれ異なるコンテンツを合成する。ここでいうコンテンツとは、上述した、顔の認識結果に基づいた位置に合成される変身スタンプ画像と、顔の認識結果に基づいた位置によらない、あらかじめ決められた位置に配置されるスタンプ画像をいう。   In step S <b> 73, the composition unit 612 synthesizes different contents with the three duplicate images having the photographed image selected as the portable bonus among the generated duplicate images. The content here refers to the above-described transformation stamp image synthesized at the position based on the face recognition result, and the stamp image arranged at a predetermined position independent of the position based on the face recognition result. Say.

ステップS74において、レタッチ処理部613は、それぞれ異なるコンテンツが合成された3枚の複製画像に、それぞれ異なるレタッチ処理を施す。ここでは、3枚の複製画像に、それぞれ合成されているコンテンツ(変身スタンプ画像)に対応したレタッチ処理が施される。   In step S <b> 74, the retouch processing unit 613 performs different retouch processes on the three duplicate images in which different contents are combined. Here, a retouch process corresponding to the content (transformation stamp image) synthesized with each of the three duplicate images is performed.

例えば、図22に示されるように、複製元画像630から、3枚の複製画像631,632,633が生成されたとする。   For example, as shown in FIG. 22, it is assumed that three duplicate images 631, 632, and 633 are generated from the duplicate source image 630.

合成部612によって、複製画像631にコンテンツaが合成された場合、複製画像631には、レタッチ処理部613によって、コンテンツaに対応したレタッチ処理Aが施される。また、合成部612によって、複製画像632にコンテンツbが合成された場合、複製画像632には、レタッチ処理部613によって、コンテンツbに対応したレタッチ処理Bが施される。そして、合成部612によって、複製画像633にコンテンツcが合成された場合、複製画像633には、レタッチ処理部613によって、コンテンツcに対応したレタッチ処理Cが施される。   When the content a is combined with the duplicate image 631 by the combining unit 612, the retouch processing A 613 performs retouch processing A corresponding to the content a on the duplicate image 631. Further, when the content b is combined with the duplicate image 632 by the combining unit 612, the retouch processing B 613 is subjected to the retouch processing B corresponding to the content b by the retouch processing unit 613. When the content c is combined with the duplicate image 633 by the combining unit 612, the retouch processing C 613 performs retouch processing C corresponding to the content c on the copy image 633.

この例では、複製元画像630には、いずれのコンテンツも合成されず、いずれのレタッチ処理も施されないものとする。複製元画像630は、携帯おまけ作成以外の用途(編集画面における編集対象や、シール紙に印刷される印刷対象など)として用いられる。   In this example, it is assumed that no content is synthesized with the copy source image 630 and no retouching process is performed. The duplication source image 630 is used for purposes other than creating a portable bonus (such as an edit target on an edit screen or a print target printed on a sticker sheet).

なお、ステップS73におけるコンテンツの合成と、ステップS74におけるレタッチ処理とは、その順番に行われるようにしてもよいし、同時に行われるようにしてもよい。   The content composition in step S73 and the retouching process in step S74 may be performed in that order or may be performed simultaneously.

ステップS75において、表示制御部614は、それぞれ異なるコンテンツが合成され、それぞれ異なるレタッチ処理が施された3枚の複製画像(処理後画像)それぞれを、加工画像として、上述した加工画面の加工画像表示領域532に表示する。   In step S75, the display control unit 614 displays the processed image on the above-described processing screen using the three copied images (processed images), each of which is composed of different contents and subjected to different retouching processing, as a processed image. Displayed in area 532.

以上の処理によれば、それぞれ異なるコンテンツが合成され、それぞれ異なるレタッチ処理が施された複数の処理後画像が表示されるので、コンテンツとレタッチ処理の様々な組み合わせを実現することができる。すなわち、利用者に様々なバリエーションの画像を提供することが可能となり、その結果、利用者は、より好みの画像を簡単に得ることが可能となる。   According to the above processing, different contents are combined and a plurality of post-processing images subjected to different retouch processes are displayed, so that various combinations of contents and retouch processes can be realized. That is, it is possible to provide various variations of images to the user, and as a result, the user can easily obtain a favorite image.

<レタッチ処理のパターン>
以上においては、図22を参照して説明したように、複製画像には、その複製画像に合成されているコンテンツ(変身スタンプ画像)に対応したレタッチ処理が施されるものとした。
<Retouch processing pattern>
In the above, as described with reference to FIG. 22, it is assumed that a retouching process corresponding to the content (transformation stamp image) synthesized with the duplicate image is performed on the duplicate image.

これに限らず、複製画像に合成されているコンテンツによっては、レタッチ処理が施されないようにしてもよい。例えば、図23に示されるように、合成部612によって、複製画像632にコンテンツbが合成された場合、複製画像632には、レタッチ処理が施されないようにする。   However, the present invention is not limited to this, and the retouching process may not be performed depending on the content combined with the duplicate image. For example, as illustrated in FIG. 23, when the content b is combined with the duplicate image 632 by the combining unit 612, the retouch process is not performed on the duplicate image 632.

また、以上においては、複製画像には、合成されているコンテンツに応じたレタッチ処理が施され、複製元画像には、いずれのコンテンツも合成されず、いずれのレタッチ処理も施されないものとしたが、この逆であってもよい。   In the above description, it is assumed that the retouching process is performed on the duplicate image according to the synthesized content, and no content is synthesized on the duplication source image, and any retouching process is not performed. The reverse may also be true.

例えば、図24に示されるように、複製元画像630には、コンテンツdが合成されるとともに、コンテンツdに対応したレタッチ処理Dが施されるようにする。一方、複製画像631には、コンテンツも合成されず、レタッチ処理も施されないようにする。   For example, as shown in FIG. 24, the content d is combined with the copy source image 630 and a retouching process D corresponding to the content d is performed. On the other hand, content is not combined with the duplicate image 631, and retouch processing is not performed.

この場合、複製元画像630が、処理後画像として、加工画面の加工画像表示領域532に表示されるようにすることができる。   In this case, the replication source image 630 can be displayed in the processed image display area 532 of the processed screen as a processed image.

さらに、複製元画像と複製画像それぞれにコンテンツが合成されるとともに、そのコンテンツに応じたレタッチ処理が施されるようにしてもよい。   Furthermore, content may be combined with each of the copy source image and the copy image, and a retouch process corresponding to the content may be performed.

例えば、図25に示されるように、複製元画像630には、コンテンツdが合成されるとともに、コンテンツdに対応したレタッチ処理が施されるようにする。また、複製画像631には、コンテンツaが合成されるとともに、コンテンツaに対応したレタッチ処理Aが施されるようにする。   For example, as shown in FIG. 25, the copy source image 630 is combined with the content d and subjected to a retouch process corresponding to the content d. Further, the copied image 631 is combined with the content a and is subjected to a retouch process A corresponding to the content a.

この場合、複製元画像630と複製画像631が、処理後画像として、加工画面の加工画像表示領域532に表示されるようにすることができる。   In this case, the replication source image 630 and the replication image 631 can be displayed in the processed image display area 532 of the processed screen as processed images.

また、図示はしないが、複製元画像と複製画像それぞれに、合成されているコンテンツによらない同一のレタッチ処理が施されるようにしてもよいし、コンテンツは合成されないようにして、同一のレタッチ処理が施されるようにしてもよい。   Although not shown, the original retouching image and the duplicated image may be subjected to the same retouching process regardless of the synthesized content, or the content may not be synthesized and the same retouching may be performed. Processing may be performed.

以上のように、コンテンツの合成対象は、複製画像と複製元画像のいずれか一方であってもよいし、その両方であってもよい。同様に、レタッチ処理の対象も、複製画像と複製元画像のいずれか一方であってもよいし、その両方であってもよい。   As described above, the content composition target may be either one of the duplicate image and the duplicate source image, or both. Similarly, the target of the retouch process may be either one of the duplicate image and the duplicate source image, or both.

<複製元画像の例>
以上においては、複製画像は、撮影処理において生成された撮影画像を複製元画像として生成されるものとしたが、複製元画像は、以下のいずれかであればよい。
<Example of copy source image>
In the above description, the duplicate image is generated using the photographed image generated in the photographing process as the copy source image, but the copy source image may be any of the following.

具体的には、撮影タイミングでカメラ91に取り込まれた静止画像(以下、原画像という)を複製元画像としてもよい。また、その原画像に対して、事前選択処理において選択された写りコースに応じた画像処理が施され、確認用としてタッチパネルモニタ92に表示される画像(以下、ポストビュー画像という)を複製元画像としてもよい。さらに、編集処理開始後に表示されるレタッチ画面において選択されたレタッチ処理(目の大きさと肌の明るさを変える処理)が施された画像(以下、レタッチ済み画像という)を複製元画像としてもよい。   Specifically, a still image (hereinafter referred to as an original image) captured by the camera 91 at the shooting timing may be used as a replication source image. Further, the original image is subjected to image processing corresponding to the copy course selected in the pre-selection process, and an image (hereinafter referred to as a postview image) displayed on the touch panel monitor 92 for confirmation is reproduced as the original image. It is good. Furthermore, an image (hereinafter referred to as a retouched image) that has been subjected to a retouch process (a process of changing the eye size and skin brightness) selected on the retouch screen displayed after the start of the edit process may be used as a copy source image. .

ここで、図26に示されるように、例えば、原画像M11に50%の強さの画像処理を施すことで、ポストビュー画像M12が得られ、ポストビュー画像M12に50%の強さの画像処理を施すことでレタッチ済み画像M13が得られるものとする。すなわち、レタッチ済み画像M13に施されている画像処理の強さを100%とする。   Here, as shown in FIG. 26, for example, a post-view image M12 is obtained by applying 50% strength image processing to the original image M11, and a 50% strength image is applied to the post-view image M12. It is assumed that the retouched image M13 is obtained by performing the processing. That is, the intensity of image processing applied to the retouched image M13 is set to 100%.

原画像M11を複製元画像とした場合、原画像M11には、いずれの画像処理も施されていないので、その原画像M11が複製されて生成された複製画像に、合成されるコンテンツに応じたレタッチ処理が施されても、その仕上がりは違和感のないものとなる。   When the original image M11 is used as a duplication source image, the original image M11 is not subjected to any image processing. Therefore, the original image M11 is copied to the duplicate image generated by duplicating the original image M11. Even if the retouch process is performed, the finish is not uncomfortable.

しかしながら、ポストビュー画像M12やレタッチ済み画像M13を複製元画像とした場合、それらの画像には既に何らかの画像処理が施されている。そのため、ポストビュー画像M12やレタッチ済み画像M13が複製されて生成された複製画像に、合成されるコンテンツに応じたレタッチ処理が施された場合、その仕上がりは違和感のあるものとなるおそれがある。   However, when the postview image M12 or the retouched image M13 is used as a copy source image, some image processing has already been performed on these images. For this reason, when a retouch process corresponding to the content to be combined is performed on a duplicate image generated by duplicating the postview image M12 or the retouched image M13, the finish may be uncomfortable.

そこで、ポストビュー画像M12やレタッチ済み画像M13を複製元画像とする場合には、それらの画像に既に施されている画像処理の強さに応じて、複製画像に施されるレタッチ処理の強さが調整されるようにしてもよい。   Therefore, when the post-view image M12 or the retouched image M13 is used as a copy source image, the strength of the retouch processing applied to the duplicate image according to the strength of the image processing already applied to those images. May be adjusted.

例えば、ポストビュー画像M12を複製元画像とする場合、そのポストビュー画像M12が複製されて生成された複製画像には、原画像M11を複製元画像とした場合よりも弱いレタッチ処理が施されるようにする。   For example, when the postview image M12 is used as a duplication source image, a weaker retouching process is performed on the duplication image generated by duplicating the postview image M12 than when the original image M11 is used as the duplication source image. Like that.

同様に、レタッチ済み画像M13を複製元画像とする場合にも、そのレタッチ済み画像M13が複製されて生成された複製画像には、原画像M11を複製元画像とした場合よりも弱いレタッチ処理が施されるようにする。   Similarly, when the retouched image M13 is used as a copy source image, the copy image generated by copying the retouched image M13 has a weaker retouch process than when the original image M11 is used as the copy source image. To be applied.

また、レタッチ済み画像M13を複製元画像とする場合、そのレタッチ済み画像M13が複製されて生成された複製画像には、ポストビュー画像M12を複製元画像とした場合よりもさらに弱いレタッチ処理が施されるようにしてもよい。   Further, when the retouched image M13 is used as a copy source image, the copy image generated by copying the retouched image M13 is subjected to a weaker retouch process than when the postview image M12 is used as the copy source image. You may be made to do.

これにより、ポストビュー画像M12やレタッチ済み画像M13を複製元画像として生成された複製画像に、合成されるコンテンツに応じたレタッチ処理が施されても、その仕上がりを違和感のないものとすることができる。   As a result, even if a retouching process corresponding to the content to be combined is performed on the duplicate image generated using the postview image M12 or the retouched image M13 as a duplication source image, the finish may not be uncomfortable. it can.

<複製パターンについて>
複製元画像から複製画像を生成する際の複製パターンとしては、以下のパターンが考えられる。
<Replication pattern>
The following patterns can be considered as a replication pattern when generating a replication image from a replication source image.

第1のパターンにおいては、図27に示されるように、1枚の複製元画像650から、1枚の複製画像651が生成されるようにする。   In the first pattern, as shown in FIG. 27, one copy image 651 is generated from one copy source image 650.

第2のパターンにおいては、図28に示されるように、1枚の複製元画像650から、2枚の複製画像651,652が生成されるようにする。2人の利用者それぞれが携帯おまけの作成を行う場合、複製画像651,652それぞれを、携帯おまけとすることができる。   In the second pattern, as shown in FIG. 28, two duplicate images 651 and 652 are generated from one duplicate original image 650. When each of the two users creates a mobile bonus, each of the duplicate images 651 and 652 can be a mobile bonus.

なお、1枚の複製元画像650から生成される複製画像は、2枚に限らず、3枚以上であってもよい。例えば、図29に示されるように、1枚の複製元画像650から、3枚の複製画像651,652,653が生成されるようにすることもできる。この場合、複製画像651,652,653それぞれに、少しずつ見た目の異なるコンテンツa−1,a−2,a−3を合成し、その複製画像651,652,653それぞれを1フレームとする動画像を生成することもできる。生成された動画像においては、コンテンツa−1,a−2,a−3が、パラパラマンガのように動くコンテンツとなる。   Note that the number of duplicate images generated from one copy source image 650 is not limited to two, and may be three or more. For example, as shown in FIG. 29, three duplicate images 651, 652, and 653 may be generated from one duplicate original image 650. In this case, the copied images 651, 652, and 653 are each synthesized with contents a-1, a-2, and a-3 that are slightly different in appearance, and each of the copied images 651, 652, and 653 is one frame. Can also be generated. In the generated moving image, the contents a-1, a-2, and a-3 are contents that move like a flip book.

第3のパターンとしては、図30に示されるように、2枚の複製元画像650,660から、それぞれ1枚の複製画像651,661が生成されるようにする。この場合、複製元画像650,660とは別に、2枚の複製画像651,661の一部または全部を組み合わせて構成されるコラージュ画像を作成することができる。   As the third pattern, as shown in FIG. 30, one copy image 651, 661 is generated from two copy source images 650, 660, respectively. In this case, a collage image formed by combining a part or all of the two duplicate images 651 and 661 can be created separately from the duplicate original images 650 and 660.

第4のパターンとしては、図31に示されるように、2枚の複製元画像650,660から、それぞれ2枚の複製画像651,652と、2枚の複製画像661,662が生成されるようにする。この場合、複製元画像650,660とは別に、例えば、2枚の複製画像651,661から構成されるコラージュ画像と、2枚の複製画像652,662から構成されるコラージュ画像を作成することができる。また、複製元画像650,660とは別に、4枚の複製画像651,652,661,662から構成されるコラージュ画像を作成するようにしてもよい。   As the fourth pattern, as shown in FIG. 31, two duplicate images 651 and 652 and two duplicate images 661 and 662 are generated from two duplicate original images 650 and 660, respectively. To. In this case, separately from the original images 650 and 660, for example, a collage image composed of two duplicate images 651 and 661 and a collage image composed of two duplicate images 652 and 662 can be created. it can. In addition to the copy source images 650 and 660, a collage image including four copy images 651, 652, 661, and 662 may be created.

<処理後画像の他の表示例>
以上においては、処理後画像(それぞれ互いに異なるスタンプ画像が合成され、それぞれ互いに異なるレタッチ処理が施された複製画像や複製元画像)が、加工画像として、加工画面(加工画像表示領域532)に表示される例について説明した。
<Other display examples of processed image>
In the above, the processed images (replicated images and original images obtained by combining different stamp images and subjected to different retouch processes) are displayed as processed images on the processed screen (processed image display area 532). An example to be described.

例えば、編集画面において、編集対象画像に対して、コンテンツ(変身スタンプ画像)を合成することと、レタッチ処理を施すことを、1回の操作で一括して行うための一発なりきり機能を提供する一発なりきりボタンを設けるようにする。   For example, on the editing screen, a one-shot function is provided for performing a batch of operations in one operation for synthesizing content (transformation stamp image) with an image to be edited and performing retouch processing. Provide a single button.

図32は、一発なりきりボタンが設けられた編集画面の例を示す図である。図32には、編集画面の左側領域のみが示されているが、右側領域も左側領域と同様に構成されるものとする。   FIG. 32 is a diagram illustrating an example of an editing screen provided with a single button. FIG. 32 shows only the left area of the editing screen, but the right area is configured in the same manner as the left area.

図32の編集画面において、編集領域512Lの左側には、図16の編集画面におけるメイクパレット513Lに代えて、一発なりきりボタン671,672,673が設けられている。   In the editing screen of FIG. 32, on the left side of the editing area 512L, one-shot buttons 671, 672, and 673 are provided instead of the makeup palette 513L in the editing screen of FIG.

一発なりきりボタン671,672,673にはそれぞれ、一発なりきり機能のサンプル画像として、編集対象画像に、顔の認識結果に応じた互いに異なるコンテンツが合成され、互いに異なるレタッチ処理が施された処理後画像が表示されている。   Each one-shot button 671, 672, 673 is a sample image of the one-shot function, in which different contents according to the face recognition result are combined with the image to be edited and different retouch processes are performed. The back image is displayed.

具体的には、一発なりきりボタン671には、一発なりきりボタン671を押下した場合のサンプル画像として、編集対象画像に、猫の顔を模した変身スタンプ画像が合成され、その変身スタンプ画像に対応したレタッチ処理が施された処理後画像が表示されている。   More specifically, a transformation stamp image imitating the face of a cat is combined with the image to be edited as a sample image when the one-shot stroke button 671 is pressed. A post-processing image that has been subjected to a corresponding retouching process is displayed.

また、一発なりきりボタン672には、一発なりきりボタン672を押下した場合のサンプル画像として、編集対象画像に、うさぎの顔を模した変身スタンプ画像が合成され、その変身スタンプ画像に対応したレタッチ処理が施された処理後画像が表示されている。   In addition, as a sample image when the one-shot limit button 672 is pressed, a transformation stamp image imitating a rabbit face is combined with the image to be edited as a sample image when the one-shot limit button 672 is pressed, and a retouch corresponding to the transformation stamp image is performed. A post-processed image that has been processed is displayed.

同様に、一発なりきりボタン673には、一発なりきりボタン673を押下した場合のサンプル画像として、編集対象画像に、犬の顔を模した変身スタンプ画像が合成され、その変身スタンプ画像に対応したレタッチ処理が施された処理後画像が表示されている。   Similarly, a transformation stamp image imitating a dog's face is combined with the image to be edited as a sample image when the one-shot stroke button 673 is pressed, and the transformation stamp image corresponding to the transformation stamp image. A post-processing image that has undergone retouching processing is displayed.

一発なりきりボタン671,672,673のいずれかが、利用者により押下されると、押下された一発なりきりボタンにサンプル画像として表示されている処理後画像が、編集対象画像として編集領域512Lに表示されるようになる。   When any one of the one-shot button 671, 672, 673 is pressed by the user, the processed image displayed as the sample image on the pressed one-button button is displayed in the editing area 512L as an image to be edited. It will be displayed.

このように、編集画面において、互いに異なるコンテンツが合成されるとともに、互いに異なるレタッチ処理が施されたサンプル画像を表示することで、利用者は、好みの画像を簡単に選択することができる。   As described above, by displaying the sample images on which the different contents are combined and the different retouch processes are performed on the editing screen, the user can easily select a favorite image.

<レタッチ処理のバリエーション>
上述したレタッチ処理は、撮影画像における人物(被写体)の顔、目や鼻、口などの顔パーツ、さらには全身が認識されることで適切に施される。
<Retouch processing variations>
The retouching process described above is appropriately performed by recognizing the face of a person (subject), face parts such as eyes, nose, and mouth in the captured image, and also the whole body.

ここでは、レタッチ処理として施される画像処理の種類について説明する。   Here, the types of image processing performed as retouch processing will be described.

(1)顔認識に関する画像処理
目の大きさ、肌の明るさ、肌の色、顔の大きさ、髪の色、メイクの濃淡などを変える処理がある。これらの処理は、編集対象となる撮影画像における利用者の顔を認識することで、実現可能とされる。具体的には、以下のような画像処理が挙げられる。
(1) Image processing related to face recognition There is a process for changing the size of eyes, skin brightness, skin color, face size, hair color, makeup shade, and the like. These processes can be realized by recognizing the user's face in the captured image to be edited. Specifically, the following image processing is exemplified.

(1−1)小顔処理
例えば、まず、図33左に示されるように、撮影画像711に写る2人の被写体の顔の輪郭点p11乃至p15,p21乃至p25を抽出する。次に、図33中央に示されるように、抽出された輪郭点に基づいて、それらを含む矩形領域F1,F2を設定する。そして、図33右に示されるように、設定された矩形領域を、その上辺を固定した状態で縮小する処理を施す。
(1-1) Small Face Processing For example, first, as shown on the left side of FIG. 33, face contour points p11 to p15 and p21 to p25 of two subjects appearing in a captured image 711 are extracted. Next, as shown in the center of FIG. 33, based on the extracted contour points, rectangular regions F1 and F2 including them are set. Then, as shown in the right side of FIG. 33, processing is performed to reduce the set rectangular area with its upper side fixed.

具体的には、矩形領域の境界近傍の領域に対して、矩形領域の内側の領域を縮めるように、矩形領域の外側の領域を伸ばすようにして変形処理を施す。このようにして、矩形領域の境界近傍の領域において、画素の欠損を生じることなく、矩形領域を縮小する。   Specifically, a deformation process is performed on the area near the boundary of the rectangular area so that the area outside the rectangular area is extended so that the area inside the rectangular area is contracted. In this manner, the rectangular area is reduced without causing pixel loss in the area near the boundary of the rectangular area.

その他には、まず、図34左に示されるように、撮影画像711に写る2人の被写体の顔の輪郭線L1,L2を特定する。そして、図34右に示されるように、特定された輪郭線L1,L2を顔領域の内側に移動することで、新たな輪郭線C1,C2を設定する。   In addition, first, as shown in the left of FIG. 34, the face contour lines L1 and L2 of the two subjects appearing in the captured image 711 are specified. Then, as shown on the right side of FIG. 34, new contour lines C1 and C2 are set by moving the identified contour lines L1 and L2 to the inside of the face area.

具体的には、輪郭線L1,L2を中心にして所定の幅をもつ境界領域に対して、境界領域の内側の領域を縮めるように、境界領域の外側の領域を伸ばすようにして変形処理を施す。このようにして、境界領域において、画素の欠損を生じることなく、輪郭線C1,C2を設定する。   Specifically, with respect to the boundary area having a predetermined width centered on the contour lines L1 and L2, the deformation process is performed by extending the area outside the boundary area so as to reduce the area inside the boundary area. Apply. In this way, the contour lines C1 and C2 are set in the boundary region without causing pixel loss.

以上のような処理により、被写体の顔を小さくする。   The face of the subject is reduced by the processing as described above.

(1−2)目サイズ変更処理
まず、撮影画像に写る被写体の顔領域において目領域の画像を抽出する。そして、抽出された目領域の画像を、所定の拡大率で拡大する。数パターンの拡大率が用意されるようにしてもよい。
(1-2) Eye Size Changing Process First, an image of the eye area is extracted from the face area of the subject in the captured image. Then, the extracted image of the eye area is enlarged at a predetermined enlargement ratio. You may make it prepare the expansion rate of several patterns.

このような処理により、目のサイズを変更する。   The eye size is changed by such processing.

(1−3)美鼻処理
まず、撮影画像に写る被写体の顔領域において鼻領域の画像を抽出する。そして、抽出された鼻領域の画像の一部または全部を、所定の縮小率で縮小する。数パターンの縮小率が用意されるようにしてもよい。
(1-3) Beautiful nose processing First, an image of the nose region is extracted from the face region of the subject in the captured image. Then, part or all of the extracted image of the nose region is reduced at a predetermined reduction rate. Several pattern reduction rates may be prepared.

このような処理により、鼻の大きさや形状を変更する。   By such processing, the size and shape of the nose are changed.

(1−4)口サイズ変更処理
まず、撮影画像に写る被写体の顔領域において口領域の画像を抽出する。そして、抽出された口領域の画像を、所定の拡大率で拡大するか、または、所定の縮小率で縮小する。数パターンの拡大率や縮小率が用意されるようにしてもよい。
(1-4) Mouth Size Changing Process First, an image of the mouth area is extracted from the face area of the subject in the captured image. Then, the extracted image of the mouth area is enlarged at a predetermined enlargement ratio or reduced at a predetermined reduction ratio. Several patterns of enlargement rate and reduction rate may be prepared.

このような処理により、口のサイズを変更する。   The mouth size is changed by such processing.

(1−5)目形状変更処理
まず、撮影画像に写る被写体の顔領域において目尻部分または目頭部分を特定する。そして、特定された目尻部分または目頭部分を、所定距離だけ上方向(頭の方向)や下方向(顎の方向)、その他の方向に移動する。
(1-5) Eye shape changing process First, the eye corner part or the eye head part is specified in the face area of the subject in the photographed image. Then, the specified corner of the eye or part of the eye is moved upward (head direction), downward (jaw direction), and other directions by a predetermined distance.

このような処理により、目の形状を変更し、たれ目やつり目など、目元の印象を変える。   By such processing, the shape of the eyes is changed, and the impression of the eyes, such as the leaning eyes and the hanging eyes, is changed.

(1−6)口元変更処理
まず、撮影画像に写る被写体の顔領域において口角部分を特定する。そして、特定された口角部分を、所定距離だけ上方向(頭の方向)に移動する。
(1-6) Mouth Change Processing First, the mouth corner portion is specified in the face area of the subject that appears in the photographed image. Then, the specified mouth corner portion is moved upward (head direction) by a predetermined distance.

このような処理により、口元の形を変更し、微笑んだときの口元に変える。また、口角が上がりすぎている場合には、口角部分を下方向に移動することで、口元の形を変更するようにしてもよい。   By such processing, the shape of the mouth is changed to change to the mouth when smiling. Further, when the mouth corner is too high, the shape of the mouth may be changed by moving the mouth corner portion downward.

(1−7)肌色変更処理
まず、肌領域を特定する。そして、特定された肌領域の色を調整する。
(1-7) Skin Color Change Process First, a skin area is specified. Then, the color of the specified skin area is adjusted.

このような処理により、肌の色を変更する。   The skin color is changed by such processing.

(1−8)髪色変更処理
まず、髪領域を特定する。そして、特定された髪領域の色を調整する。
(1-8) Hair color changing process First, a hair region is specified. Then, the color of the identified hair region is adjusted.

このような処理により、髪の色を変更する。   The hair color is changed by such processing.

(1−9)化粧処理
まず、撮影画像に写る被写体の顔領域において頬部分や唇部分を特定する。そして、特定された頬部分や唇部分の領域の色を、ピンク色や赤色などに変更する。
(1-9) Makeup Process First, a cheek part and a lip part are specified in the face area of the subject in the photographed image. And the color of the area | region of the identified cheek part and lip | rip part is changed into pink, red, etc.

このような処理により、チークや口紅などの化粧を施した顔に変更する。   By such processing, the face is changed to a face with makeup such as teak or lipstick.

(1−10)美肌処理
撮影画像全体や、撮影画像に写る被写体の肌領域に対して、ぼかし処理を施す。
(1-10) Skin softening process Blur processing is performed on the entire captured image and on the skin area of the subject in the captured image.

このような処理により、肌をきれいに見えるようにする。   Such a process makes the skin look beautiful.

以上においては、顔の認識結果を利用した画像処理が顔領域に施されるものとした。   In the above, it is assumed that the image processing using the face recognition result is performed on the face area.

これに限らず、顔領域や肌色領域を取得するマスク画像を生成し、そのマスク画像を利用した画像処理が顔領域に対して施されるようにしてもよい。   However, the present invention is not limited thereto, and a mask image for acquiring a face area or a skin color area may be generated, and image processing using the mask image may be performed on the face area.

一方、撮影画像として全身画像が取得されるようにした場合、全身画像に対するレタッチ処理においては、人物領域全体を取得するマスク画像を生成し、そのマスク画像を利用した画像処理が人物領域に対して施されるようにしてもよい。人物領域全体のマスク画像を利用した画像処理としては、被写体の脚を長くする脚長処理や、被写体の身体を細くする痩身処理などがある。   On the other hand, when a whole-body image is acquired as a captured image, in the retouch processing for the whole-body image, a mask image for acquiring the entire person region is generated, and image processing using the mask image is performed on the person region. You may make it give. Image processing using the mask image of the entire person area includes leg length processing for lengthening the subject's leg and slimming processing for narrowing the subject's body.

(2)全身認識に関する画像処理
全身画像に対して施されるレタッチ処理としては、以下のような、全身認識に関する画像処理が挙げられる。
(2) Image processing related to whole body recognition The retouch processing performed on a whole body image includes the following image processing related to whole body recognition.

(2−1)脚の長さ・脚の細さ
脚の長さを変える処理は、足先から腰の領域を特定し、その領域を上下方向に伸長することで実現される。また、脚の細さを変える処理は、足先から腰の領域を特定し、その領域の境界部分を内側に向かう方向に移動することで実現される。
(2-1) Leg Length / Leg Thinness The process of changing the leg length is realized by specifying the waist region from the foot tip and extending the region in the vertical direction. Further, the process of changing the leg thinness is realized by specifying the waist region from the toes and moving the boundary portion of the region inward.

これらの処理は、利用者が直立し脚が真っ直ぐな状態でなければ、適切に施されない。例えば、膝から足先が水平になるように、片方の脚の膝を曲げるようなポーズで写った場合、脚の長さや脚の細さを変える処理により、曲げた方の膝から足先が太くなったり短くなってしまう。そこで、全身の輪郭点に基づいて、脚が真っ直ぐな状態でないと判定された場合には、脚の長さや脚の細さを変える処理が施されないようにしてもよい。   These processes are not properly performed unless the user stands upright and the legs are straight. For example, if you are in a pose that bends the knee of one leg so that the toe is horizontal from the knee, the toe is moved from the bent knee by a process that changes the length of the leg or the thinness of the leg. Becomes thicker or shorter. Therefore, when it is determined that the leg is not straight based on the contour points of the whole body, the process of changing the length of the leg or the thinness of the leg may not be performed.

また、これらの処理は、利用者がロングスカートなどを着用している場合にも、適切に施されない。この場合、脚の長さや脚の細さを変える処理により、ロングスカートの柄や模様が長くなったり細くなってしまう。そこで、肌色領域を特定し、その領域のみに脚の長さや脚の細さを変える処理が施されるようにしてもよい。さらに、スカートの柄の有無などに応じて、長くする量や細くする量が変更されるようにしてもよい。   Moreover, these processes are not appropriately performed even when the user wears a long skirt or the like. In this case, the pattern or pattern of the long skirt becomes longer or thinner due to the process of changing the length of the legs or the thinness of the legs. Therefore, the skin color area may be specified, and the process of changing the leg length or leg thinness may be performed only on the area. Furthermore, the length to be lengthened or the amount to be thinned may be changed according to the presence or absence of the pattern of the skirt.

さらに、これらの処理が、足先にまで施されることで、利用者が着用している靴やサンダルなどが変形してしまうおそれがある。そこで、足首からつま先までの領域をさらに特定し、その領域については、脚の長さや脚の細さを変える処理が施されないようにしたり、処理の度合いを弱めるようにしてもよい。   Furthermore, shoes and sandals worn by the user may be deformed by applying these treatments to the feet. Therefore, an area from the ankle to the toe may be further specified, and the area may not be subjected to the process of changing the leg length or leg thinness, or the degree of the process may be weakened.

(2−2)身長
身長を変える処理は、頭から足先までの人物領域を特定し、その領域を上下方向に伸長または短縮することで実現される。人物領域は、クロマキー処理により人物マスク画像を生成することで特定されるようにすることもできる。身長を変える処理によれば、低身長の利用者の身長を高くすることはもちろん、高身長の利用者の身長を低くすることもできる。
(2-2) Height The process of changing height is realized by specifying a person area from the head to the toes and extending or shortening the area in the vertical direction. The person area can also be specified by generating a person mask image by chroma key processing. According to the process of changing the height, it is possible to raise the height of a user with a short height as well as to raise the height of a user with a short height.

(2−3)二の腕
上腕(いわゆる二の腕)を細くする処理は、肌色領域と顔領域の位置から上腕が含まれる領域を推定し、その境界部分を内側に向かう方向に移動することで実現される。この処理によれば、撮影画像における利用者の上腕を細くすることができる。
(2-3) Second arm The process of thinning the upper arm (so-called second arm) is realized by estimating a region including the upper arm from the position of the skin color region and the face region, and moving the boundary portion inward. . According to this processing, the upper arm of the user in the photographed image can be thinned.

(2−4)腰のくびれ
腰のくびれを強調する処理は、撮影画像における顔を除いた人物領域の略全ての領域を、人物領域の内側(中心)に向かう方向に移動することで実現される。この処理によれば、撮影画像に写る利用者のスタイルのより良いものにすることができる。
(2-4) Waist Constriction The process of emphasizing the waist constriction is realized by moving almost all areas of the person area excluding the face in the captured image in a direction toward the inside (center) of the person area. The According to this process, it is possible to improve the user's style in the captured image.

(2−5)首の長さ
全身画像に対して、人物の顔を小さくする小顔処理が施された場合、相対的に首が長く見えてしまう。そこで、人物の全身に対する顔の大きさ(長さ)に応じて、首の長さを変更する処理を施すことができるようにする。
(2-5) Neck Length When small face processing is performed on the whole body image to reduce the face of a person, the neck looks relatively long. Therefore, it is possible to perform processing for changing the length of the neck according to the size (length) of the face with respect to the whole body of the person.

(2−6)背面と床面との境界線
撮影画像(全身画像)に写る利用者の背景領域に、背面(背面パネル51)と床面との境界を模した境界線を含む背景画像を合成することができるようにしてもよい。この場合、さらに、その境界線の高さ(上下方向の位置)を変える処理が施されるようにしてもよい。
(2-6) Boundary line between the back surface and the floor surface A background image including a boundary line imitating the boundary between the back surface (back panel 51) and the floor surface in the background area of the user shown in the captured image (whole body image). It may be possible to synthesize. In this case, a process for changing the height (position in the vertical direction) of the boundary line may be further performed.

例えば、図35左側に示される全身画像P21には、背面と床面との境界を模した境界線b11を含む背景画像が合成されているものとする。この全身画像P21に、図35右側に示されるように、境界線b11より高い位置にある境界線b12を含む背景画像が合成されることで、画像の奥行き感を強調することができる。この境界線が、全身画像において高い位置にあるほど、背面と床面との境界が遠くにあるように見え、画像の奥行き感を増すことができる。   For example, it is assumed that a background image including a boundary line b11 simulating the boundary between the back surface and the floor surface is synthesized with the whole body image P21 shown on the left side of FIG. As shown in the right side of FIG. 35, the background image including the boundary line b12 at a position higher than the boundary line b11 is combined with the whole body image P21, thereby enhancing the sense of depth of the image. The higher this boundary line is in the whole body image, the farther the boundary between the back surface and the floor surface is, the more the depth of the image can be increased.

(2−7)合成用画像
合成用画像のうち、利用者の全身に合成される合成用画像の位置や大きさを変える処理を、利用者毎に施すようにしてもよい。
(2-7) Composition Image Among the composition images, processing for changing the position and size of the composition image synthesized on the whole body of the user may be performed for each user.

例えば、利用者の腰回りに合成される浮き輪を模した合成用画像が、利用者の身長に応じた位置に合成されるようにする。具体的には、図36に示されるように、利用者の身長が低い場合、浮き輪を模した合成用画像f11は、低い位置に合成される。利用者の身長が中程度の場合、浮き輪を模した合成用画像f12は、中程度の位置に合成される。そして、利用者の身長が高い場合、浮き輪を模した合成用画像f13は、高い位置に合成される。   For example, an image for synthesis imitating a floating ring synthesized around the waist of the user is synthesized at a position corresponding to the height of the user. Specifically, as shown in FIG. 36, when the height of the user is low, the synthesis image f11 that imitates a floating ring is synthesized at a low position. When the height of the user is medium, the composition image f12 simulating a floating ring is composed at a medium position. When the height of the user is high, the composition image f13 that imitates a floating ring is synthesized at a high position.

また、利用者の腰回りに合成される浮き輪を模した合成用画像が、利用者の体型に応じたサイズで合成されるようにしてもよい。具体的には、図37に示されるように、利用者の体型が小さい場合、浮き輪を模した合成用画像f21は、小さいサイズで合成される。利用者の体型が中程度の場合、浮き輪を模した合成用画像f22は、中程度のサイズで合成される。そして、利用者の体型が大きい場合、浮き輪を模した合成用画像f23は、大きいサイズで合成される。   Further, an image for synthesis imitating a floating ring synthesized around the user's waist may be synthesized with a size corresponding to the body shape of the user. Specifically, as shown in FIG. 37, when the user's body shape is small, the composition image f21 simulating a floating ring is composed with a small size. When the body shape of the user is medium, the composition image f22 simulating a floating ring is composed with a medium size. When the user's body shape is large, the composition image f23 simulating a floating ring is composed with a large size.

(2−8)写り方
被写体となる利用者に照射される光の光量や向き、瞳に写り込むキャッチライトの大きさなど、撮影空間A1内に設けられている照明装置(各ストロボ)により実現される光学環境に依存する写り方を、画像処理により変えるようにしてもよい。
(2-8) How to shoot Realized by the illumination device (each strobe) provided in the shooting space A1, such as the amount and direction of light irradiating the user who is the subject, the size of the catch light reflected in the pupil, etc. The way of capturing depending on the optical environment may be changed by image processing.

なお、上述した画像処理は、それぞれ単独で撮影画像に施されてもよいし、互いに組み合わされて撮影画像に施されてもよい。後者の場合、組み合わされる画像処理それぞれを、利用者に選択させるようにしてもよいし、あらかじめ決められた画像処理の組み合わせを利用者に選択させるようにしてもよい。   Note that the above-described image processing may be performed on a captured image alone or in combination with each other on a captured image. In the latter case, the user may select each image processing to be combined, or the user may select a predetermined combination of image processing.

<変形例>
以下においては、本実施の形態の変形例について説明する。
<Modification>
Below, the modification of this Embodiment is demonstrated.

(複製枚数の上限について)
複製元画像から生成される複製画像の枚数に上限を設けることで、写真シール作成ゲームを実行するPC部301(CPU311)の負荷を軽減するようにしてもよい。
(About the maximum number of copies)
By placing an upper limit on the number of duplicate images generated from the duplicate original image, the load on the PC unit 301 (CPU 311) executing the photo sticker creation game may be reduced.

例えば、複製画像が最大3枚まで生成されるように、複製画像の枚数に上限を設けるようにした場合、以下のような複製パターンが考えられる。   For example, when an upper limit is set for the number of duplicate images so that a maximum of three duplicate images are generated, the following duplication patterns can be considered.

第1のパターンにおいては、複数の撮影画像のうちの1枚のみを複製元画像として、その複製元画像から、3枚の複製画像が生成されるようにする。   In the first pattern, only one of a plurality of photographed images is used as a copy source image, and three copy images are generated from the copy source image.

第2のパターンにおいては、複数の撮影画像のうちの2枚を複製元画像として、一方の複製元画像から、2枚の複製画像が生成されるようにし、他方の複製元画像から、1枚の複製画像が生成されるようにする。   In the second pattern, two of the plurality of captured images are used as a copy source image, two copy images are generated from one copy source image, and one copy is generated from the other copy source image. A duplicate image is generated.

第3のパターンにおいては、複数の撮影画像のうちの3枚を複製元画像として、それぞれの複製元画像から、1枚ずつの複製画像が生成されるようにする。   In the third pattern, three copies of a plurality of photographed images are used as copy source images, and one copy image is generated from each copy source image.

また、複製元画像から生成される複製画像の枚数に、複製元画像毎に上限を設けることで、写真シール作成ゲームを実行するPC部301(CPU311)の負荷を軽減するようにしてもよい。   Further, by placing an upper limit on the number of duplicate images generated from the duplicate source image for each duplicate source image, the load on the PC unit 301 (CPU 311) that executes the photo sticker creation game may be reduced.

例えば、複製元画像毎に複製画像が最大3枚まで生成されるように、複製画像の枚数に上限を設けるようにした場合、複数の撮影画像のうちの3枚を複製元画像として、それぞれの複製元画像から、3枚ずつの複製画像が生成されるようにする。   For example, when an upper limit is set on the number of duplicate images so that a maximum of three duplicate images are generated for each duplicate source image, three of the plurality of captured images are used as the duplicate source images. Three copy images are generated from the copy source image.

(複製画像の削除)
以上のようにして生成された複製画像が、利用者の操作に基づいて削除されるようにしてもよい。
(Delete duplicate images)
The duplicate image generated as described above may be deleted based on a user operation.

例えば、複製画像が1枚ずつ順に表示される画面を表示し、複製画像が表示される毎に、その複製画像を削除するか否かを利用者に選択させることで、複製画像が1枚ずつ削除されるようにする。   For example, by displaying a screen in which duplicate images are displayed one by one in sequence, each time a duplicate image is displayed, the user can select whether or not to delete the duplicate image, so that the duplicate image is one by one To be deleted.

また、複製画像の一覧が表示される画面を表示し、その一覧において削除対象とする複製画像を利用者に選択させることで、複数の複製画像が削除されるようにしてもよい。   Alternatively, a plurality of duplicate images may be deleted by displaying a screen on which a list of duplicate images is displayed and allowing the user to select a duplicate image to be deleted from the list.

さらに、全ての複製画像を一括して削除するためのボタンを備える画面を表示し、そのボタンを利用者に押下させることで、全ての複製画像が削除されるようにしてもよい。   Further, a screen including a button for deleting all the duplicate images at once may be displayed, and the user may press the button to delete all the duplicate images.

なお、上述した例において、複製画像が削除される前に、本当に削除してよいかを利用者に確認させるためのメッセージとボタンを有するダイアログボックスが表示されるようにしてもよい。   In the above-described example, before the duplicate image is deleted, a dialog box having a message and a button for prompting the user to confirm whether or not to delete the duplicate image may be displayed.

(携帯端末での処理)
上述した処理後画像表示処理が、携帯端末上で動作するアプリケーションによって実現されるようにしてもよい。
(Processing on mobile device)
The post-process image display process described above may be realized by an application operating on the mobile terminal.

この場合、写真シール作成装置1から画像取得サイト管理サーバを介して携帯端末に提供された撮影画像を複製元画像として、処理後画像表示処理が実行されるようにする。   In this case, the post-process image display process is executed using the photographed image provided from the photo sticker creating apparatus 1 to the portable terminal via the image acquisition site management server as a copy source image.

例えば、画像取得サイトにおいて所定金額の課金を行うことで、1回の写真シール作成ゲームによって得られた複数の撮影画像全てが提供される有料会員の携帯端末では、複数の撮影画像の中から1枚の撮影画像を選択できるようにする。この場合、選択された撮影画像を複製元画像として、処理後画像表示処理が実行されるようにする。   For example, in a paying member's mobile terminal that provides all of a plurality of photographed images obtained by a single photo sticker creation game by charging a predetermined amount at an image acquisition site, one of the plurality of photographed images is selected. Enable to select one shot image. In this case, the post-process image display process is executed with the selected photographed image as the copy source image.

一方、画像取得サイトにおいて課金を行わず、1回の写真シール作成ゲームによって得られた複数の撮影画像のうちの1枚のみが提供される無料会員の携帯端末では、その1枚撮影画像を複製元画像として、処理後画像表示処理が実行されるようにする。   On the other hand, for a free member's mobile terminal in which only one of a plurality of photographed images obtained by one photo sticker creation game is provided without charging at the image acquisition site, the one photographed image is duplicated. A post-processing image display process is executed as the original image.

これにより、携帯端末においても、利用者に様々なバリエーションの画像を提供することが可能となる。   Thereby, also in a portable terminal, it becomes possible to provide a user with various variations of images.

以上においては、主に、携帯おまけ作成処理におけるコンテンツの合成の例について説明してきたが、以下においては、編集画面上での編集処理におけるコンテンツの合成の例について説明する。   In the above, an example of content synthesis in the mobile bonus creation processing has been mainly described, but in the following, an example of content synthesis in the editing processing on the editing screen will be described.

<複数のコンテンツを一括して合成する例>
まず、編集画面において、コンテンツとして、顔の認識結果に基づいた位置に合成される変身スタンプ画像と、顔の認識結果に基づいた位置によらずに合成される合成用画像を合成する例について説明する。
<Example of combining multiple contents at once>
First, an example of synthesizing a transformation stamp image synthesized at a position based on a face recognition result and a composition image synthesized regardless of the position based on the face recognition result as contents on the editing screen will be described. To do.

(変身スタンプ画像と背景画像の合成)
図38は、編集パレットの例を示す図である。
(Composition of transformation stamp image and background image)
FIG. 38 is a diagram illustrating an example of an editing palette.

図38の編集パレット800においては、「イマドキ盛り」のタブが選択され、3枚のサンプル画像811,812,813が表示されている。   In the editing palette 800 of FIG. 38, the “immediate” tab is selected, and three sample images 811, 812, and 813 are displayed.

サンプル画像811,812,813は、モデルを被写体としたモデル画像に、顔の認識結果に応じた互いに異なる変身スタンプ画像とともに、互いに異なる背景画像が合成された画像である。   The sample images 811, 812, and 813 are images in which different background images are combined with different transformation stamp images according to face recognition results on a model image with a model as a subject.

具体的には、サンプル画像811においては、2人のモデルの顔に、犬の鼻と耳を模した変身スタンプ画像が合成されるとともに、その変身スタンプ画像に対応した、犬の足跡を模した図形が複数配置された背景画像が合成されている。   Specifically, in the sample image 811, a transformation stamp image simulating a dog's nose and ear is synthesized with the faces of two models, and the footprint of the dog corresponding to the transformation stamp image is imitated. A background image in which a plurality of figures are arranged is synthesized.

サンプル画像812においては、2人のモデルの顔に、サンプル画像812とは異なる犬の耳を模した変身スタンプ画像が合成されるとともに、その変身スタンプ画像に対応した、ハート型の図形が複数配置された背景画像が合成されている。   In the sample image 812, a transformation stamp image simulating a dog ear different from the sample image 812 is synthesized on the faces of the two models, and a plurality of heart-shaped figures corresponding to the transformation stamp image are arranged. The background image is synthesized.

サンプル画像813においては、2人のモデルの顔に、猫の耳を模した変身スタンプ画像が合成されるとともに、その変身スタンプ画像に対応した、ハート型の図形が複数配置された背景画像が合成されている。   In the sample image 813, a transformation stamp image simulating a cat's ear is synthesized with the faces of two models, and a background image in which a plurality of heart-shaped figures corresponding to the transformation stamp image are arranged is synthesized. Has been.

編集パレット800の右端には、一発合成ボタン821、個別合成ボタン822、およびOFFボタン823が設けられる。   At the right end of the editing palette 800, a one-shot composition button 821, an individual composition button 822, and an OFF button 823 are provided.

一発合成ボタン821は、サンプル画像811,812,813で示される変身スタンプ画像と背景画像とを一括して、編集対象画像に合成する際に選択されるボタンである。   The one-shot composition button 821 is a button that is selected when the transformation stamp image indicated by the sample images 811, 812, and 813 and the background image are combined into an image to be edited.

個別合成ボタン822は、サンプル画像811,812,813で示される変身スタンプ画像と背景画像とを個別に、編集対象画像に合成する際に選択されるボタンである。   The individual composition button 822 is a button that is selected when the transformation stamp image and the background image indicated by the sample images 811, 812, and 813 are individually synthesized with the editing target image.

OFFボタン823は、編集対象画像に合成された変身スタンプ画像や背景画像を消去する際に選択されるボタンである。   The OFF button 823 is a button that is selected when deleting the transformation stamp image or background image combined with the image to be edited.

一発合成ボタン821が選択された状態で、例えば、サンプル画像811が押下されると、図39に示されるように、編集対象画像830に、犬の鼻と耳を模した変身スタンプ画像831と、犬の足跡を模した図形が複数配置された背景画像832が合成された合成画像833が得られる。特に、変身スタンプ画像831は、編集対象画像830に写る2人の利用者の顔それぞれに合成される。   For example, when the sample image 811 is pressed in a state where the one-shot composition button 821 is selected, as shown in FIG. 39, a transformation stamp image 831 simulating a dog's nose and ears is displayed on the editing target image 830. A synthesized image 833 is obtained by synthesizing a background image 832 in which a plurality of figures imitating the footprints of a dog are arranged. In particular, the transformation stamp image 831 is combined with each of the faces of two users shown in the editing target image 830.

このようにして、利用者は、一発合成ボタン821を選択することによって、変身スタンプ画像と背景画像を一括して、編集対象画像に合成することができる。特に、変身スタンプ画像831と背景画像832は、互いに「犬」というテーマに対応づけられているので、合成画像833を、統一感のある仕上がりの画像とすることができる。   In this way, the user can synthesize the transformation stamp image and the background image together with the image to be edited by selecting the one-shot composition button 821. In particular, since the transformation stamp image 831 and the background image 832 are associated with each other with the theme “dog”, the composite image 833 can be a finished image with a sense of unity.

また、例えば、サンプル画像811が選択された状態で、一発合成ボタン821が押下されることで、編集対象画像830に、変身スタンプ画像831と背景画像832が合成された合成画像833が得られるようにしてもよい。   Further, for example, when the one-shot composition button 821 is pressed in a state where the sample image 811 is selected, a composite image 833 in which the transformation stamp image 831 and the background image 832 are combined with the editing target image 830 is obtained. You may do it.

なお、編集パレット800においては、サンプル画像811の左側と、サンプル画像813の右側に表示されている三角矢印が押下されることで、サンプル画像811,812,813以外のサンプル画像が表示され、選択可能となる。   In the editing palette 800, when the triangle arrows displayed on the left side of the sample image 811 and the right side of the sample image 813 are pressed, sample images other than the sample images 811, 812, and 813 are displayed and selected. It becomes possible.

一方、個別合成ボタン822が選択された状態で、例えば、サンプル画像813が押下されると、図40に示されるように、サンプル画像813上には、選択ボタン813a,813bが重畳表示される。   On the other hand, for example, when the sample image 813 is pressed while the individual composition button 822 is selected, the selection buttons 813a and 813b are superimposed on the sample image 813 as shown in FIG.

選択ボタン813aには、サンプル画像813に合成されている変身スタンプ画像が表示され、選択ボタン813bには、サンプル画像813に合成されている背景画像と同じハート型の図形が表示されている。   The selection button 813a displays a transformation stamp image combined with the sample image 813, and the selection button 813b displays the same heart-shaped graphic as the background image combined with the sample image 813.

選択ボタン813aが押下されると、編集対象画像には、猫の耳を模した変身スタンプ画像だけが合成される。選択ボタン813bが押下されると、編集対象画像には、ハート型の図形が複数配置された背景画像だけが合成される。   When the selection button 813a is pressed, only a transformation stamp image imitating a cat's ear is synthesized with the editing target image. When the selection button 813b is pressed, only the background image in which a plurality of heart-shaped figures are arranged is combined with the editing target image.

このようにして、利用者は、個別合成ボタン822を選択することによって、変身スタンプ画像と背景画像を個別に、編集対象画像に合成することができる。   In this way, the user can individually synthesize the transformation stamp image and the background image with the image to be edited by selecting the individual synthesis button 822.

また、例えば、サンプル画像813が選択された状態で、個別合成ボタン822が押下されることで、サンプル画像813上に、選択ボタン813a,813bが重畳表示されるようにしてもよい。   Further, for example, the selection buttons 813a and 813b may be superimposed on the sample image 813 by pressing the individual composition button 822 while the sample image 813 is selected.

なお、図40の例に限らず、個別合成ボタン822が選択された状態で、サンプル画像813が押下されると、図41に示されるように、編集パレット800上に、サンプル画像813のポップアップ840が表示されるようにしてもよい。ポップアップ840上には、図40の例と同様に、選択ボタン813a,813bが重畳表示される。   40, when the sample image 813 is pressed in a state where the individual composition button 822 is selected, a pop-up 840 of the sample image 813 is displayed on the editing palette 800 as shown in FIG. May be displayed. On the pop-up 840, selection buttons 813a and 813b are superimposed and displayed as in the example of FIG.

上述したように、個別合成ボタン822が選択された状態では、編集対象画像に、変身スタンプ画像と背景画像のいずれかを合成することができる。すなわち、変身スタンプ画像と背景画像のいずれかが合成された編集対象画像には、他の背景画像や変身スタンプ画像を合成することができる。   As described above, in the state where the individual composition button 822 is selected, either the transformation stamp image or the background image can be synthesized with the image to be edited. That is, another background image or transformation stamp image can be synthesized with the editing target image obtained by synthesizing either the transformation stamp image or the background image.

例えば、変身スタンプ画像が合成された編集対象画像に、「イマドキ盛り」タブから選択された他のサンプル画像における背景画像が合成されるようにしてもよい。同様に、変身スタンプ画像が合成された編集対象画像に、「イマドキ盛り」タブから選択された他のサンプル画像における変身スタンプ画像がさらに合成されるようにしてもよい。   For example, a background image in another sample image selected from the “immediate height” tab may be combined with the editing target image combined with the transformation stamp image. Similarly, the transformation stamp image in another sample image selected from the “immediately arranged” tab may be further synthesized with the editing target image synthesized with the transformation stamp image.

また、変身スタンプ画像が合成された編集対象画像に、「イマドキ盛り」タブではないタブから選択された背景画像が合成されるようにしてもよい。同様に、背景画像が合成された編集対象画像に、「イマドキ盛り」タブではないタブから選択された変身スタンプ画像が合成されるようにしてもよい。   In addition, a background image selected from a tab other than the “immediate” tab may be combined with the editing target image combined with the transformation stamp image. Similarly, a transformation stamp image selected from a tab other than the “immediate” tab may be combined with the editing target image combined with the background image.

さらに、個別合成ボタン822が選択された状態で、編集対象画像に写る複数の被写体に、個別に、変身スタンプ画像が合成されるようにしてもよい。   Furthermore, with the individual composition button 822 selected, a transformation stamp image may be individually synthesized with a plurality of subjects appearing in the image to be edited.

例えば、個別合成ボタン822が選択された状態で、編集対象画像に写る2人の被写体のうち、利用者に選択された被写体に、変身スタンプ画像が合成されるようにする。これにより、利用者はそれぞれ、「イマドキ盛り」タブや、「イマドキ盛り」タブではないタブから好みの変身スタンプ画像を選択して、編集対象画像に写る自身の顔に合成させることができる。   For example, in a state where the individual composition button 822 is selected, the transformation stamp image is synthesized with the subject selected by the user among the two subjects captured in the editing target image. As a result, each user can select a favorite transformation stamp image from a tab that is not an “immediate” tab or a tab that is not an “immediate” tab, and synthesize it with his / her face that appears in the image to be edited.

なお、以上においては、編集パレット800に、一発合成ボタン821と個別合成ボタン822を設けることで、変身スタンプ画像と背景画像を編集対象画像に一括して合成したり、個別に合成したりできるようにした。   In the above, by providing the one-shot composition button 821 and the individual composition button 822 in the editing palette 800, the transformation stamp image and the background image can be synthesized into the editing target image at once or can be synthesized individually. I did it.

これに限らず、編集パレット800に、一発合成ボタン821と個別合成ボタン822を設けないようにしてもよい。この場合、例えば、単に、サンプル画像811が押下されるだけで、編集対象画像830に、変身スタンプ画像831と背景画像832が合成された合成画像833が得られるようにする。   However, the edit palette 800 may not include the one-shot composition button 821 and the individual composition button 822. In this case, for example, simply by pressing the sample image 811, a composite image 833 in which the transformation stamp image 831 and the background image 832 are combined with the editing target image 830 is obtained.

また、編集パレット800においてサンプル画像が押下される回数に応じて、編集対象画像830に合成されるコンテンツが変わるようにしてもよい。   Further, the content to be combined with the editing target image 830 may be changed according to the number of times the sample image is pressed in the editing palette 800.

例えば、サンプル画像が1回目に押下された場合、編集対象画像830に、変身スタンプ画像と背景画像が合成される。さらに、サンプル画像が2回目に押下された場合には、編集対象画像830に、変身スタンプ画像のみが合成され、サンプル画像が3回目に押下された場合には、編集対象画像830に、背景画像のみが合成されるようにする。   For example, when the sample image is pressed for the first time, the transformation stamp image and the background image are combined with the editing target image 830. Further, when the sample image is pressed for the second time, only the transformation stamp image is combined with the editing target image 830, and when the sample image is pressed for the third time, the background image is added to the editing target image 830. Only to be synthesized.

なお、サンプル画像が4回目以降の押下された場合には、1回目から3回目の合成パターンのサイクルが順番に繰り返されてもよいし、2回目、1回目、2回目、3回目、2回目、1回目・・・と、1回目から3回目の合成パターンのサイクルが往復して繰り返されてもよい。   When the sample image is pressed after the fourth time, the first to third synthesis pattern cycles may be repeated in order, or the second time, the first time, the second time, the third time, the second time. The cycle of the first pattern and the third to third synthesis patterns may be repeated in a reciprocating manner.

ここで、異なる種類のサンプル画像が押下された場合には、上述した合成パターンのサイクルがリセットされ、1回目の合成パターン(変身スタンプ画像と背景画像の合成)から開始されるようにする。   Here, when a different kind of sample image is pressed, the above-described synthesis pattern cycle is reset, and the first synthesis pattern (synthesis of the transformation stamp image and the background image) is started.

例えば、うさぎのサンプル画像が2回押下された後、猫のサンプル画像が押下された場合、それまでの合成パターンのサイクルがリセットされ、編集対象画像830には、猫の背景画像のみではなく、猫の変身スタンプ画像と背景画像が合成される。   For example, when the cat sample image is pressed after the rabbit sample image is pressed twice, the cycle of the previous synthesis pattern is reset, and the editing target image 830 includes not only the cat background image, The cat's transformation stamp image and the background image are combined.

これとは逆に、異なる種類のサンプル画像が押下された場合であっても、それまでの合成パターンのサイクルが引き継がれるようにしてもよい。   On the contrary, even when a different type of sample image is pressed, the cycle of the synthesis pattern so far may be taken over.

例えば、うさぎのサンプル画像が2回押下された後、猫のサンプル画像が押下された場合、それまでの合成パターンのサイクルが引き継がれ、編集対象画像830に、猫の背景画像のみが合成されるようにする。   For example, when the cat sample image is pressed after the rabbit sample image is pressed twice, the cycle of the previous synthesis pattern is taken over, and only the cat background image is combined with the editing target image 830. Like that.

(色の変更)
また、「イマドキ盛り」タブから選択される変身スタンプ画像や背景画像の色が変更されるようにしてもよい。
(Change color)
Further, the color of the transformation stamp image or the background image selected from the “immediate height” tab may be changed.

例えば、図40の例において、サンプル画像813上に重畳表示される選択ボタン813aや選択ボタン813bが連続して押下される毎に、変身スタンプ画像や背景画像の色が変更されるようにしてもよい。   For example, in the example of FIG. 40, each time the selection button 813a or the selection button 813b superimposed on the sample image 813 is continuously pressed, the color of the transformation stamp image or the background image may be changed. Good.

具体的には、選択ボタン813aが押下される毎に、変身スタンプ画像の色が、赤色、ピンク色、青色と順番に変更されるようにする。   Specifically, every time the selection button 813a is pressed, the color of the transformation stamp image is changed in order of red, pink, and blue.

また、選択ボタン813aが押下される毎に、編集対象画像に写る被写体それぞれに合成される変身スタンプ画像それぞれの色が、入れ替わるように変更されるようにしてもよい。例えば、編集対象画像に写る2人の被写体のうち、左側の被写体に合成されている変身スタンプ画像の色が赤色で、右側の被写体に合成されている変身スタンプ画像の色が青色の場合、選択ボタン813aが押下されることで、左側の被写体に合成される変身スタンプ画像の色が青色に、右側の被写体に合成される変身スタンプ画像の色が赤色に変更される(色が入れ替わる)ようにする。   In addition, each time the selection button 813a is pressed, the color of each of the transformation stamp images combined with each subject that appears in the image to be edited may be changed so as to be switched. For example, if the color of the transformation stamp image combined with the subject on the left is red and the color of the transformation stamp image combined with the subject on the right is blue among the two subjects in the image to be edited, select When the button 813a is pressed, the color of the transformation stamp image combined with the left subject is changed to blue, and the color of the transformation stamp image combined with the right subject is changed to red (the color is changed). To do.

さらに、図42に示されるように、サンプル画像813上に重畳表示される選択ボタン813aや選択ボタン813bが表示されている状態で、変身スタンプ画像や背景画像の色を変更するためのカラーパレット851が表示されるようにしてもよい。   Furthermore, as shown in FIG. 42, a color palette 851 for changing the color of the transformation stamp image or the background image in a state where the selection button 813a or the selection button 813b superimposed on the sample image 813 is displayed. May be displayed.

図42の例においては、サンプル画像813上に重畳表示される選択ボタン813a,813bのうち、選択ボタン813aが選択されている。編集パレット800の左端には、選択ボタン813aに対応する変身スタンプ画像の色を選択するためのカラーパレット851が表示されている。利用者は、カラーパレット851から所望の色を選択することで、選択ボタン813aを押下することで合成される変身スタンプ画像の色を所望の色に変更することができる。   In the example of FIG. 42, the selection button 813a is selected from among the selection buttons 813a and 813b displayed superimposed on the sample image 813. At the left end of the edit palette 800, a color palette 851 for selecting the color of the transformation stamp image corresponding to the selection button 813a is displayed. By selecting a desired color from the color palette 851, the user can change the color of the transformation stamp image synthesized by pressing the selection button 813a to the desired color.

(コンテンツの種類)
上述した説明においては、編集対象画像がアップ画像であるものとしたが、撮影画像として全身画像が取得されるようにした場合、編集対象画像は全身画像であってもよい。
(Content type)
In the above description, the editing target image is an up image. However, when a whole body image is acquired as a captured image, the editing target image may be a whole body image.

以下では、編集対象画像(撮影画像)に合成されるコンテンツについて例示する。本実施の形態においては、以下に例示する2以上の種類のコンテンツが、任意の組み合わせで一括して合成されるようにできる。   In the following, content to be combined with an editing target image (captured image) will be exemplified. In the present embodiment, two or more types of content exemplified below can be combined together in an arbitrary combination.

編集対象画像に合成されるコンテンツには、アップ画像用のコンテンツと全身画像用のコンテンツがある。   Content to be combined with the image to be edited includes content for an up image and content for a whole body image.

アップ画像用のコンテンツには、以下のようにメイク系のコンテンツとくっつきコンテンツがある。くっつきコンテンツは、上述した変身スタンプ画像に対応する。   The content for the up image includes makeup-type content and sticking content as follows. The sticking content corresponds to the above-described transformation stamp image.

メイク系のコンテンツ
・アイブロウ
・眉マスカラ
・マスカラ
・アイシャドウ
・アイライン
・二重まぶた
・カラーコンタクトレンズ
・疑似キャッチライト
・つけまつげ
・涙袋
・下まつげ
・ハイライト
・シェーディング
・チーク
・リップ
・肌の色(美白、美黒)
・肌質(マット系、つや系)
・髪色
Makeup content ・ Eyebrow ・ Brow mascara ・ Mascara ・ Eye shadow ・ Eyeline ・ Double eyelids ・ Color contact lenses ・ Pseudo catchlight ・ False eyelash ・ Tear bag ・ Lower eyelash ・ Highlight ・ Shading ・ Cheek ・ Lip ・ Skin color (Whitening, beautiful black)
・ Skin quality (matte, glossy)
・ Hair color

アイブロウは、眉の部分に所定の形状の眉の画像を合成するコンテンツである。眉マスカラは、眉の部分に所定の色の眉の画像を合成するコンテンツである。マスカラは、まつげの部分に所定の色のマスカラの画像を合成するコンテンツである。アイシャドウは、まぶたの部分に所定の色のアイシャドウの画像を合成するコンテンツである。アイラインは、目の縁部分に所定の色のアイラインの画像を合成するコンテンツである。二重まぶたは、まぶたの部分に所定の種類の二重まぶたの画像を合成するコンテンツである。   The eyebrow is content that combines an eyebrow image having a predetermined shape with the eyebrow portion. The eyebrow mascara is content that combines an eyebrow image of a predetermined color with the eyebrow portion. The mascara is content that combines a mascara image of a predetermined color with the eyelash part. The eye shadow is content that combines an eye shadow image of a predetermined color on the eyelid portion. The eyeline is content that synthesizes an eyeline image of a predetermined color on the edge of the eye. The double eyelid is content in which an image of a predetermined type of double eyelid is combined with the eyelid portion.

カラーコンタクトレンズは、目の瞳の部分に所定の色のコンタクトレンズの画像を合成するコンテンツである。疑似キャッチライトは、目の瞳の部分に所定の形状のキャッチライトの画像を合成するコンテンツである。つけまつげは、上まつげの部分に所定の長さのつけまつげの画像を合成するコンテンツである。   The color contact lens is a content that synthesizes an image of a contact lens of a predetermined color with the pupil portion of the eye. The pseudo catchlight is content that synthesizes an image of a catchlight having a predetermined shape on the pupil portion of the eye. False eyelashes are contents that synthesize an image of false eyelashes of a predetermined length with the upper eyelash part.

涙袋は、涙袋の部分に所定の涙袋の画像を合成するコンテンツである。下まつげは、下まつげの部分に所定の長さのつけまつげの画像を合成するコンテンツである。ハイライトは、鼻筋や額、頬の部分に光を表現する画像を合成するコンテンツである。   The tear bag is a content in which an image of a predetermined tear bag is combined with the tear bag portion. The lower eyelash is content that synthesizes an image of a false eyelash having a predetermined length on the lower eyelash part. Highlights are contents that synthesize an image that expresses light on the nose, forehead, and cheeks.

シェーディングは、鼻筋、額、顎の部分などに影を表現する画像を合成するコンテンツである。チークは、頬の部分や鼻の上の部分にチークの画像を合成するコンテンツである。リップは、唇の部分に所定の色のリップの画像を合成するコンテンツである。   Shading is content that synthesizes images that express shadows on the nose, forehead, chin, and the like. The cheek is a content in which a cheek image is synthesized with a cheek portion or a portion above the nose. The lip is content that synthesizes a lip image of a predetermined color with the lip portion.

肌の色は、肌の部分に所定の肌の色の画像を合成するコンテンツである。肌質は、肌の部分に所定の肌の質感を表現する画像を合成するコンテンツである。髪色は、髪の部分に所定の色の髪の画像を合成するコンテンツである。   The skin color is content in which an image of a predetermined skin color is combined with the skin portion. The skin quality is content that synthesizes an image expressing a predetermined skin texture on the skin portion. The hair color is content for synthesizing a hair image of a predetermined color on the hair portion.

くっつきコンテンツ
・サングラス
・メガネ
・鼻
・ひげ
・口
・食べ物
・幾何学図形/記号
・文字列
Sticky content-Sunglasses-Glasses-Nose-Beard-Mouth-Food-Geometric shapes / symbols-Strings

くっつきコンテンツとしてのサングラスは、利用者の目を認識し、目に重ねてサングラスの画像を合成するコンテンツである。メガネは、利用者の目を認識し、目に重ねて所定のメガネの画像を合成するコンテンツである。鼻は、利用者の鼻を認識し、鼻に重ねて所定の鼻の画像を合成するコンテンツである。   Sunglasses as sticky content is content that recognizes the eyes of the user and synthesizes an image of sunglasses over the eyes. Glasses are contents for recognizing a user's eyes and overlaying images of predetermined glasses. The nose is content that recognizes the user's nose and synthesizes a predetermined nose image over the nose.

ひげは、利用者の口を認識し、口の周りに所定のひげの画像を合成するコンテンツである。口は、利用者の口を認識し、口に重ねて所定の口の画像を合成するコンテンツである。   The beard is content that recognizes the mouth of the user and synthesizes a predetermined beard image around the mouth. The mouth is content that recognizes the mouth of the user and synthesizes an image of a predetermined mouth over the mouth.

食べ物は、利用者の両目と鼻を認識し、両目と鼻から推定される左右の頬に所定の食べ物を合成するコンテンツである。例えば、図43に示される撮影画像860には、2人の利用者それぞれの鼻の上の部分に、メイク系のコンテンツのチーク861が合成されるとともに、2人の利用者それぞれの左右の頬に、さくらんぼを模したコンテンツ862が合成されている。   The food is content that recognizes both eyes and nose of the user and synthesizes predetermined food on the left and right cheeks estimated from both eyes and nose. For example, in the photographed image 860 shown in FIG. 43, a makeup type cheek 861 is synthesized on the upper part of each of the two users, and the left and right cheeks of each of the two users are combined. In addition, a content 862 simulating cherry is synthesized.

幾何学図形/記号は、利用者の顔を認識し、顔の左右の領域に所定の幾何学図形や記号を複数合成するコンテンツである。例えば、図44に示される撮影画像870には、2人の利用者それぞれの左右の頬の部分に、メイク系のコンテンツのチーク871が合成されるとともに、2人の利用者それぞれの顔の左右の領域に、複数の幾何学図形からなるコンテンツ872が合成されている。   The geometric figure / symbol is content that recognizes the user's face and synthesizes a plurality of predetermined geometric figures and symbols in the left and right areas of the face. For example, in the photographed image 870 shown in FIG. 44, a makeup-based content cheek 871 is synthesized on the left and right cheeks of each of two users, and the left and right sides of each of the two users' faces are combined. Content 872 composed of a plurality of geometric figures is synthesized in this area.

文字列は、利用者の顔のパーツを認識し、顔のパーツの部分に所定の文字または文字列を複数合成するコンテンツである。例えば、図45に示される撮影画像880には、2人の利用者それぞれの左右の頬の部分に、メイク系のコンテンツのチーク881が合成されるとともに、2人の利用者それぞれの鼻の部分に、「Baby」の文字列からなるコンテンツ882が合成されている。   The character string is content for recognizing a user's face part and synthesizing a plurality of predetermined characters or character strings into the face part. For example, in the photographed image 880 shown in FIG. 45, a makeup type cheek 881 is synthesized on the left and right cheeks of each of the two users, and the nose of each of the two users. In addition, the content 882 composed of the character string “Baby” is synthesized.

全身画像用のコンテンツには、以下のように全身系のコンテンツとくっつきコンテンツがある。   The whole body image content includes the whole body content and the stuck content as follows.

全身系のコンテンツ
・オーラ
・影
・フレーム(被写体を避けるタイプ)
Systemic content ・ Aura ・ Shadow ・ Frame (type to avoid subject)

全身系のコンテンツは、撮影画像に写る利用者の領域の位置や形に応じてコンテンツを合成するものである。オーラ、影、およびフレームは、利用者の体の周りに画像を合成するコンテンツである。   The whole body content is to synthesize the content according to the position and shape of the user's area shown in the photographed image. Aura, shadow, and frame are contents that synthesize an image around the user's body.

くっつきコンテンツ
・耳
・帽子
・ウィッグ
・しっぽ
・羽
・天使の輪
Sticky content ・ Ear ・ Hat ・ Wig ・ Tail ・ Wings ・ Angel's Circle

くっつきコンテンツとしての耳は、利用者の頭部を認識し、頭部に重ねて所定の耳の画像を合成するコンテンツである。帽子は、利用者の頭部を認識し、頭部に重ねて所定の帽子の画像を合成するコンテンツである。ウィッグは、利用者の頭部を認識し、頭部に重ねて所定のウィッグの画像を合成するコンテンツである。   The ear as the sticking content is content that recognizes the user's head and synthesizes an image of a predetermined ear over the head. The hat is content that recognizes the user's head and synthesizes an image of a predetermined hat on the head. The wig is content for recognizing a user's head and overlaying a predetermined wig image on the head.

しっぽは、利用者の全身を認識し、尻部付近に重ねて所定のしっぽの画像を合成するコンテンツである。羽は、利用者の肩部を認識し、肩部に重ねて所定の羽の画像を合成するコンテンツである。天使の輪は、利用者の頭部を認識し、頭部の上方に天使の輪の画像を合成するコンテンツである。   The tail is content that recognizes the user's whole body and synthesizes a predetermined tail image superimposed on the vicinity of the bottom. The wing is content that recognizes the shoulder of the user and synthesizes an image of a predetermined wing over the shoulder. The angel ring is content that recognizes the user's head and synthesizes an image of the angel ring above the head.

さらに、アップ画像、全身画像によらない固定のコンテンツがある。   Furthermore, there is fixed content that does not depend on an up image or a whole body image.

固定のコンテンツには、以下のように前景スタンプ、背景、フレーム、およびフィルムがある。固定のコンテンツは、撮影画像に写る利用者の領域の位置や形によらずにコンテンツを合成するものである。   Fixed content includes foreground stamps, backgrounds, frames, and films as follows. The fixed content is to synthesize the content regardless of the position and shape of the user's area shown in the photographed image.

固定のコンテンツ
・前景スタンプ
・背景
・フレーム
・フィルム
Fixed content-Foreground stamp-Background-Frame-Film

前景スタンプは、前景画像のレイヤで、あらかじめ決められた位置にスタンプ画像を合成するコンテンツである。背景は、背景画像のレイヤで、撮影画像の一部または全部に所定の画像を合成するコンテンツである。   The foreground stamp is a content for combining the stamp image at a predetermined position in the foreground image layer. The background is a background image layer, and is a content that combines a predetermined image with a part or all of a captured image.

フレームは、前景画像のレイヤで、撮影画像の四辺を縁取る領域に所定の画像を合成するコンテンツである。フィルムは、前景画像のレイヤで、撮影画像の任意の領域に半透明の色画像を合成するコンテンツである。   A frame is a layer of a foreground image, and is a content that combines a predetermined image with a region that borders the four sides of the captured image. Film is a layer of a foreground image, and is a content that synthesizes a translucent color image in an arbitrary area of a photographed image.

図46には、撮影画像890に、4パターンのフィルムが合成されている例が示されている。   FIG. 46 shows an example in which four patterns of film are combined with the photographed image 890.

A図に示される撮影画像890には、その下側の領域を色付けするフィルム891が合成されており、B図に示される撮影画像890には、その左上隅の領域を色付けするフィルム892が合成されている。   A film 891 for coloring the lower area is synthesized with the photographed image 890 shown in FIG. A, and a film 892 for coloring the upper left corner area is synthesized with the photographed image 890 shown in FIG. Has been.

C図に示される撮影画像890には、その右辺から一定間隔をおいた領域より左側の領域の一部を色付けするフィルム893が合成されており、D図に示される撮影画像890には、その上辺と左辺から一定範囲の領域を色付けするフィルム894が合成されている。   In the captured image 890 shown in FIG. C, a film 893 for coloring a part of the region on the left side of the region spaced apart from the right side is synthesized, and in the captured image 890 shown in FIG. A film 894 that colors an area within a certain range from the upper side and the left side is synthesized.

上述したコンテンツのうち、同一のテーマやジャンルに対応づけられている2以上のコンテンツが組み合わされて一括して合成されることで、編集対象画像を統一感のある仕上がりの画像とすることができる。   Of the above-mentioned contents, two or more contents associated with the same theme or genre are combined and combined together, so that the image to be edited can be a finished image with a sense of unity. .

また、テーマやジャンルを利用者に選択させるようにした場合、利用者は、編集対象画像を、利用者の好みにあわせてアレンジすることができる。   When the user selects a theme or genre, the user can arrange the image to be edited according to the user's preference.

なお、上述したコンテンツについても、個別に編集対象画像に合成されたり、色が変更されるようにしてもよい。   Note that the above-described content may also be individually combined with the image to be edited or the color may be changed.

(レタッチ処理)
また、上述したコンテンツが合成された編集対象画像において、撮影画像における人物(被写体)の顔、目や鼻、口などの顔パーツ、さらには全身が認識されることで、先述のレタッチ処理が施されるようにしてもよい。
(Retouch processing)
Further, in the image to be edited in which the above-described content is synthesized, the retouching process described above is performed by recognizing the face part of the person (subject), face parts such as eyes, nose, mouth, and the whole body in the captured image. You may be made to do.

レタッチ処理には、アップ画像用のレタッチ処理と全身画像用のレタッチ処理がある。   The retouch process includes a retouch process for an up image and a retouch process for a whole body image.

アップ画像用のレタッチ処理
・輪郭処理
・小顔処理
・目の大きさ処理
・目の形状処理
・小鼻処理
・口角を上げる処理
・口角を下げる処理
・口の大きさ処理
・肌の色の処理
・パーツの移動(目をこめかみの方向に動かす等)
・アイブロウ(眉の形を変える)
Retouch processing for up-images ・ Outline processing ・ Small face processing ・ Eye size processing ・ Eye shape processing ・ Nose processing ・ Nose processing ・ Increase mouth corner processing ・ Lower mouth processing ・ Mouth size processing ・ Skin color processing ・Moving parts (moving eyes toward the temples, etc.)
-Eyebrow (changes the shape of the eyebrows)

輪郭処理は、撮影画像に写る利用者の顔を認識し、輪郭を変更する処理である。小顔処理は、撮影画像に写る利用者の顔を認識し、顔を小さくする処理である。目の大きさ処理は、撮影画像に写る利用者の目を認識し、目を大きくする処理である。   The contour process is a process for recognizing the user's face in the captured image and changing the contour. The small face processing is processing for recognizing a user's face in a captured image and reducing the face. The eye size process is a process for recognizing a user's eyes in a captured image and enlarging the eyes.

目の形状処理は、撮影画像に写る利用者の目を認識し、目の形状を変更する処理である。小鼻処理は、撮影画像に写る利用者の鼻を認識し、鼻を小さくする処理である。口角を上げる処理は、撮影画像に写る利用者の口を認識し、口角を上げる処理である。口角を下げる処理は、撮影画像に写る利用者の口を認識し、口角を下げる処理である。   The eye shape process is a process of recognizing the user's eyes in the captured image and changing the eye shape. The small nose process is a process of recognizing the user's nose in the captured image and reducing the nose. The process for raising the mouth angle is a process for recognizing the user's mouth in the captured image and raising the mouth angle. The process of lowering the mouth angle is a process of recognizing the user's mouth in the captured image and lowering the mouth angle.

口の大きさ処理は、撮影画像に写る利用者の口を認識し、口の大きさを変更する処理である。肌の色の処理は、撮影画像に写る利用者の肌の色を認識し、肌の色を変更する処理である。パーツの移動は、撮影画像に写る利用者の顔のパーツ(部位)を認識し、パーツを移動する処理である。例えば、目の上下方向への移動、内側への移動、口の移動などがパーツの移動に含まれる。アイブロウは、撮影画像に写る利用者の眉を認識し、眉の形を変更する処理である。   The mouth size process is a process for recognizing the user's mouth in the captured image and changing the mouth size. The skin color process is a process of recognizing the user's skin color in the captured image and changing the skin color. The movement of the part is a process of recognizing a part (part) of the user's face shown in the photographed image and moving the part. For example, the movement of the parts includes movement of the eyes in the vertical direction, movement inward, movement of the mouth, and the like. Eyebrow is a process for recognizing the user's eyebrows in the captured image and changing the shape of the eyebrows.

全身画像用のレタッチ処理
・脚長処理
・脚の細さ処理
・身長処理
・二の腕処理
・くびれ処理
・首の長さ処理
・ウエストの位置を上げる処理
・指を細くする処理
・爪の形を変形する処理
・爪の長さ処理
Retouch processing for whole body images ・ Leg length processing ・ Leg thinness processing ・ Height processing ・ Two arms processing ・ Necking processing ・ Neck length processing ・ Waist position raising processing ・ Finger thinning processing ・ Nail shape transformation Processing ・ Claw length processing

脚長処理は、撮影画像に写る利用者の脚を認識し、脚を長くする処理である。脚の細さ処理は、撮影画像に写る利用者の脚を認識し、脚を細くする処理である。身長処理は、撮影画像に写る利用者の全身を認識し、身長を高くする処理である。   The leg length process is a process for recognizing the user's leg in the captured image and lengthening the leg. The leg thinning process is a process for recognizing the user's leg in the captured image and narrowing the leg. The height process is a process for recognizing the whole body of the user in the captured image and increasing the height.

二の腕処理は、撮影画像に写る利用者の二の腕を認識し、二の腕を細くする処理である。くびれ処理は、撮影画像に写る利用者の腰を認識し、くびれを強調する処理である。首の長さ処理は、撮影画像に写る利用者の首を認識し、首を長くする処理である。   The second arm process is a process for recognizing the user's second arm in the captured image and narrowing the second arm. The constriction process is a process for recognizing a user's waist in a captured image and emphasizing the constriction. The neck length process is a process of recognizing the user's neck in the captured image and lengthening the neck.

ウエストの位置を上げる処理は、撮影画像に写る利用者の腰を認識し、ウエストの位置を上げる処理である。指を細くする処理は、撮影画像に写る利用者の手を認識し、指を細くする処理である。爪の形を変形する処理は、撮影画像に写る利用者の手を認識し、爪の形を変形する処理である。爪の長さ処理は、撮影画像に写る利用者の手を認識し、爪の長さを変更する処理である。   The process of raising the waist position is a process of recognizing the user's waist in the captured image and raising the waist position. The process of narrowing the finger is a process of recognizing the user's hand in the captured image and narrowing the finger. The process of deforming the nail shape is a process of recognizing the user's hand in the captured image and deforming the nail shape. The nail length process is a process of recognizing the user's hand in the captured image and changing the nail length.

なお、ここでは、アップ画像用のレタッチ処理と全身画像用のレタッチ処理に分けて説明しているが、アップ画像用のレタッチ処理として説明した各処理が全身画像のレタッチ処理として用いられるようにしてもよい。反対に、全身画像用のレタッチ処理として説明した各処理がアップ画像のレタッチ処理として用いられるようにしてもよい。   Here, the retouching process for the up image and the retouching process for the whole body image are described separately, but each process described as the retouching process for the up image is used as the retouching process of the whole body image. Also good. On the contrary, each process described as the retouch process for the whole body image may be used as the retouch process of the up image.

(既に同じ種類のコンテンツが合成されている場合の処理)
上述したコンテンツが編集対象画像に合成される際、その編集対象画像に、既に同じ種類のコンテンツが合成されている場合、以下に挙げるような処理が行われるようにしてもよい。ここでいう種類は、コンテンツが合成される位置(レイアウト)や、メイク系のコンテンツ、くっつきコンテンツなどのコンテンツのジャンルをいうものとする。
(Processing when content of the same type has already been synthesized)
When the above-described content is combined with the editing target image, if the same type of content has already been combined with the editing target image, the following processing may be performed. The type mentioned here refers to the position (layout) where the content is combined, the genre of the content such as makeup content, and sticky content.

(1)コンテンツを差し替える
例えば、編集対象画像にくっつきスタンプが合成されている状態で、「イマドキ盛り」のタブにおいて変身スタンプ画像が選択された場合、既に合成されているくっつきスタンプが削除され、選択された変身スタンプ画像が合成されるようにする。
(1) Replacing content For example, if a transformation stamp image is selected in the “Imadoki” tab in the state where a sticker stamp is combined with the image to be edited, the already combined sticker stamp is deleted and selected The transformed transformation stamp image is synthesized.

(2)コンテンツを差し替えない
例えば、編集対象画像にくっつきスタンプが合成されている状態で、「イマドキ盛り」のタブにおいて変身スタンプ画像が選択された場合、既に合成されているくっつきスタンプの上(上層のレイヤ)に、選択された変身スタンプ画像が合成されるようにする。
(2) Do not replace the content For example, when a sticker stamp is combined with the image to be edited and a transformation stamp image is selected on the “Imadokimori” tab, the upper part of the sticky stamp already combined (upper layer) The selected transformation stamp image is synthesized with the layer.

これとは逆に、既に合成されているくっつきスタンプの下(下層のレイヤ)に、選択された変身スタンプ画像が合成されるようにしてもよい。   On the contrary, the selected transformation stamp image may be synthesized under the sticking stamp already synthesized (lower layer).

(3)コンテンツの合成を受け付けない
例えば、編集対象画像にくっつきスタンプが合成されている状態で、「イマドキ盛り」のタブにおいて変身スタンプ画像が選択された場合、選択された変身スタンプ画像の合成を受け付けないようにする。
(3) Content composition is not accepted For example, when a transformation stamp image is selected in the “immediate” tab in a state in which a sticker stamp is synthesized with the image to be edited, synthesis of the selected transformation stamp image is performed. Do not accept.

(4)警告を表示する
例えば、編集対象画像にくっつきスタンプが合成されている状態で、「イマドキ盛り」のタブにおいて変身スタンプ画像が選択された場合、『くっつきスタンプを削除して変身スタンプ画像を合成するよ』などの、既に合成されているくっつきスタンプが削除される旨のメッセージが表示されるようにする。
(4) Display a warning. For example, if a transformation stamp image is selected in the “Imadoki-sama” tab in a state where a sticking stamp is combined with an image to be edited, “Delete the sticking stamp and display the transformation stamp image. A message indicating that the sticking stickers that have already been combined will be deleted is displayed.

(コンテンツのアニメーション表示)
上述したコンテンツは、編集領域512L(512R)において、編集対象画像に合成された状態でアニメーション表示されるようにできる。
(Content animation display)
The content described above can be displayed as an animation in a state of being synthesized with the image to be edited in the editing area 512L (512R).

ここで、コンテンツのアニメーションについて説明する。   Here, the animation of content will be described.

図47は、コンテンツを構成する画像が回転するアニメーションの例を示す図である。   FIG. 47 is a diagram illustrating an example of an animation in which images constituting the content rotate.

図47に示されるコンテンツは、上述した変身スタンプ画像の一例として、ウサギの鼻と耳を表現した変身スタンプ画像が選択された場合に合成されるコンテンツである。コンテンツは、ウサギの鼻の画像と耳の画像から構成される。   The content shown in FIG. 47 is a content that is synthesized when a transformation stamp image representing the nose and ears of a rabbit is selected as an example of the transformation stamp image described above. The content is composed of a rabbit nose image and an ear image.

具体的には、図47に示される撮影画像(編集対象画像)においては、左側の利用者の鼻の位置には鼻画像931−1Lが合成され、頭の位置には耳画像931−2L,931−3Lが合成されている。また、右側の利用者の鼻の位置には鼻画像931−1Rが合成され、頭の位置には耳画像931−2R,931−3Rが合成されている。   Specifically, in the captured image (editing target image) shown in FIG. 47, the nose image 931-1L is synthesized at the position of the left user's nose, and the ear image 931-2L, 931-3L has been synthesized. Also, a nose image 931-1R is synthesized at the right user's nose position, and ear images 931-2R and 931-3R are synthesized at the head position.

図47の左側の撮影画像上においては耳の画像が右に傾き、右側の撮影画像上においては耳の画像が左に傾いている。いずれの撮影画像上においても、耳の画像の例えば根元の位置は固定とされている。このように角度が異なる耳の画像が1秒間隔などで交互に表示されることにより、コンテンツが回転するアニメーションが実現される。   The ear image is tilted to the right on the left captured image in FIG. 47, and the ear image is tilted to the left on the right captured image. In any captured image, for example, the position of the root of the ear image is fixed. In this way, the images of the ears having different angles are alternately displayed at intervals of 1 second, thereby realizing an animation in which the content rotates.

なお、シール紙に印刷される印刷対象の撮影画像(印刷画像)においては、傾きのない耳の画像を含むコンテンツが合成され、印刷される。   Note that, in a photographic image to be printed (printed image) printed on a sticker sheet, content including an ear image without inclination is synthesized and printed.

図48は、コンテンツを構成する画像の位置が変化するアニメーションの例を示す図である。   FIG. 48 is a diagram illustrating an example of an animation in which the position of an image constituting the content changes.

図48に示されるコンテンツは、図47に示されるコンテンツと同じコンテンツである。図48の左側の撮影画像上においては耳の画像が頭の上方の位置に配置され、右側の撮影画像上においては耳の画像が頭の下方の位置(略額の位置)に配置されている。このように位置が異なる耳の画像が1秒間隔などで交互に表示されることにより、コンテンツが上下に動くアニメーションが実現される。   The content shown in FIG. 48 is the same content as the content shown in FIG. In the left captured image of FIG. 48, the ear image is disposed at a position above the head, and on the right captured image, the ear image is disposed at a position below the head (an approximate forehead position). . In this way, the images of the ears at different positions are alternately displayed at intervals of 1 second, thereby realizing animation in which the content moves up and down.

なお、印刷画像においては、耳の画像が図48に示される位置と異なる位置に合成され、印刷される。   In the print image, the ear image is synthesized and printed at a position different from the position shown in FIG.

以下、コンテンツを構成する画像の変化についてさらに説明する。   Hereinafter, the change of the image constituting the content will be further described.

(1)回転
図49は、回転の例を示す図である。
(1) Rotation FIG. 49 is a diagram illustrating an example of rotation.

図49の表示1、表示2として示す三角形は、コンテンツを構成する画像を表す。1つの三角形が、例えば上述したウサギの耳を表す1つの画像に相当する。図50乃至図59においても同様である。   The triangles shown as display 1 and display 2 in FIG. 49 represent images constituting the content. One triangle corresponds to one image representing the above-described rabbit ear, for example. The same applies to FIGS. 50 to 59.

表示1、表示2として示すように、所定の位置である位置p1を中心として角度を変える画像が、コンテンツを構成する画像として撮影画像に合成される。表示1においては、位置p1を中心として画像が左に傾いており、表示2においては、位置p1を中心として画像が右に傾いている。   As shown as display 1 and display 2, an image whose angle is changed around a position p1 which is a predetermined position is combined with the captured image as an image constituting the content. In the display 1, the image is tilted to the left with the position p1 as the center, and in the display 2, the image is tilted to the right with the position p1 as the center.

例えば利用者の頭部の位置に合成する画像の場合、頭部と接する、画像の下辺の中点が位置p1として設定される。チークを表す画像、動物の鼻を表す画像、サングラスを表す画像などの、顔の周辺に合成する画像の場合、顔の中心である鼻の位置が、回転の中心として設定される。   For example, in the case of an image to be combined with the position of the user's head, the midpoint of the lower side of the image that touches the head is set as the position p1. In the case of an image to be synthesized around the face, such as an image representing a cheek, an image representing an animal nose, or an image representing sunglasses, the position of the nose, which is the center of the face, is set as the center of rotation.

図49の左側に示されるように、印刷画像においては、位置p1を通る垂直軸L上に頂点がくる向きで配置された画像が合成され、印刷される。   As shown on the left side of FIG. 49, in the print image, an image arranged with the apex on the vertical axis L passing through the position p1 is synthesized and printed.

このように、編集対象画像の表示を行っている場合、位置p1を中心として角度を変える画像が撮影画像に合成され、アニメーション表示が実現される。   In this way, when the image to be edited is displayed, an image whose angle is changed around the position p1 is combined with the captured image, and an animation display is realized.

(2)上下の移動
図50は、上下の移動の例を示す図である。
(2) Vertical movement FIG. 50 is a diagram illustrating an example of vertical movement.

表示1、表示2として示すように、画像の高さを変える画像が、コンテンツを構成する画像として撮影画像に合成される。   As shown as display 1 and display 2, an image whose height is changed is combined with a captured image as an image constituting the content.

例えば利用者の頭部の位置に合成する画像の場合、頭部の所定の位置を通る水平軸L2が設定される。水平軸L2を中心として上下に所定の間隔をあけて水平軸L1,L3が設定され、表示1においては、水平軸L1の高さに下辺がくるように画像が配置され、表示2においては、水平軸L3の高さに下辺がくるように画像が配置される。チークを表す画像、動物の鼻を表す画像、サングラスを表す画像などの、顔の周辺に合成する画像の場合、顔の中心を通るように水平軸L2が設定される。   For example, in the case of an image to be combined with the position of the user's head, a horizontal axis L2 passing through a predetermined position of the head is set. Horizontal axes L1 and L3 are set with a predetermined interval in the vertical direction with the horizontal axis L2 as the center. In the display 1, an image is arranged so that the lower side is at the height of the horizontal axis L1, and in the display 2, The image is arranged so that the lower side comes to the height of the horizontal axis L3. In the case of an image to be synthesized around the face, such as an image representing a cheek, an image representing an animal nose, or an image representing sunglasses, the horizontal axis L2 is set so as to pass through the center of the face.

図50の左側に示されるように、印刷画像においては、下辺が水平軸L2と同じ高さに配置された画像が合成され、印刷される。   As shown on the left side of FIG. 50, in the printed image, an image in which the lower side is arranged at the same height as the horizontal axis L2 is synthesized and printed.

このように、編集対象画像の表示を行っている場合、所定の等しい幅だけ上下に位置を変える画像が撮影画像に合成され、アニメーション表示が実現される。このようなアニメーションは、印刷画像に印刷されるスタンプ画像と見た目の印象の差異が少ない画像を用いたアニメーションといえる。   In this way, when the image to be edited is displayed, an image whose position is changed up and down by a predetermined equal width is combined with the photographed image, and an animation display is realized. Such an animation can be said to be an animation using an image with little difference in visual impression from the stamp image printed on the print image.

(3)拡縮
図51は、拡縮の例を示す図である。
(3) Enlargement / reduction FIG. 51 is a diagram illustrating an example of enlargement / reduction.

表示1、表示2として示すように、画像の所定の位置である位置p1を基準として大きさを変える画像が、コンテンツを構成する画像として撮影画像に合成される。表示1においては、位置p1を基準として画像が縮小し、表示2においては、位置p1を基準として画像が拡大している。   As shown as display 1 and display 2, an image whose size is changed with reference to a position p1, which is a predetermined position of the image, is combined with the captured image as an image constituting the content. In display 1, the image is reduced with reference to position p1, and in display 2, the image is enlarged with reference to position p1.

例えば利用者の頭部の位置に合成する画像の場合、頭部と接する、画像の下辺の中点が位置p1として設定される。   For example, in the case of an image to be combined with the position of the user's head, the midpoint of the lower side of the image that touches the head is set as the position p1.

図51の左側に示されるように、印刷画像においては、表示1、表示2に示される大きさとは異なる大きさの画像が位置p1を基準として配置され、合成される。   As shown on the left side of FIG. 51, in the print image, an image having a size different from the sizes shown in the display 1 and the display 2 is arranged and synthesized with the position p1 as a reference.

このように、編集対象画像の表示を行っている場合、位置p1を基準として大きさを変える画像が撮影画像に合成され、アニメーション表示が実現される。   As described above, when the image to be edited is displayed, an image whose size is changed with the position p1 as a reference is combined with the captured image, and an animation display is realized.

図52は、拡縮の他の例を示す図である。   FIG. 52 is a diagram illustrating another example of enlargement / reduction.

図52に示される画像の拡縮は、拡縮の基準となる位置が異なる点で図51に示される拡縮と異なる。図52の例においては、画像の中心が拡縮の基準となる中点p2として設定されている。   The enlargement / reduction of the image shown in FIG. 52 is different from the enlargement / reduction shown in FIG. 51 in that the position serving as a reference for enlargement / reduction is different. In the example of FIG. 52, the center of the image is set as a midpoint p2 that serves as a scaling reference.

表示1、表示2として示すように、画像の中心である中点p2を中心として大きさを変える画像が、コンテンツを構成する画像として撮影画像に合成される。表示1においては、中点p2を中心として画像が縮小し、表示2においては、中点p2を中心として画像が拡大している。   As shown as display 1 and display 2, an image whose size is changed around the center point p2 that is the center of the image is combined with the captured image as an image constituting the content. In the display 1, the image is reduced around the midpoint p2, and in the display 2, the image is enlarged around the midpoint p2.

このように、拡縮の基準となる位置を任意に設定することが可能である。   In this way, it is possible to arbitrarily set a position serving as a reference for scaling.

(4)左右の移動
図53は、左右の移動の例を示す図である。
(4) Left / Right Movement FIG. 53 is a diagram illustrating an example of left / right movement.

表示1、表示2として示すように、所定の位置である位置p3を中心として左右に位置を変える画像が、コンテンツを構成する画像として撮影画像に合成される。   As shown as display 1 and display 2, an image that changes its position to the left and right with respect to a position p3, which is a predetermined position, is combined with the captured image as an image constituting the content.

例えば利用者の頭部の位置に合成する画像の場合、頭部と接する位置が位置p3として設定される。表示1においては、右端が位置p3にくるように画像が配置され、表示2においては、左端が位置p3にくるように画像が配置される。   For example, in the case of an image to be combined with the position of the user's head, the position in contact with the head is set as the position p3. In display 1, the image is arranged so that the right end is at position p3, and in display 2, the image is arranged so that the left end is at position p3.

図53の左側に示されるように、印刷画像においては、下辺の中心が位置p3にくるように配置された画像が合成され、印刷される。   As shown on the left side of FIG. 53, in the print image, an image arranged so that the center of the lower side is located at the position p3 is synthesized and printed.

このように、編集対象画像の表示を行っている場合、所定の等しい幅だけ左右に位置を変える画像が撮影画像に合成され、アニメーション表示が実現される。   In this way, when the image to be edited is displayed, an image whose position is changed to the left and right by a predetermined equal width is combined with the photographed image, and an animation display is realized.

(5)透過度変更
図54は、透過度変更の例を示す図である。
(5) Transparency Change FIG. 54 is a diagram illustrating an example of the transparency change.

図54に示されるように、透過度を変える画像が、コンテンツを構成する画像として撮影画像に合成される。図54の例においては、0%、50%、80%の3段階の透過度が設定されている。図54において、三角形の濃淡が異なることは、透過度が異なることを表している。   As shown in FIG. 54, the image whose transparency is changed is combined with the photographed image as an image constituting the content. In the example of FIG. 54, three levels of transparency of 0%, 50%, and 80% are set. In FIG. 54, the fact that the shades of the triangles are different means that the transmittances are different.

印刷画像に印刷されるスタンプ画像より透過度が高い画像からなるコンテンツが合成されるようにしてもよいし、透過度が低い画像からなるコンテンツが合成されるようにしてもよい。   Content consisting of an image with higher transparency than the stamp image printed on the print image may be synthesized, or content consisting of an image with low transparency may be synthesized.

図54の左側に示されるように、印刷画像においては、透過度が0%の画像が合成され、印刷される。   As shown on the left side of FIG. 54, in the print image, an image having a transparency of 0% is synthesized and printed.

このように、編集対象画像の表示を行っている場合、透過度が変化する画像が撮影画像に合成され、アニメーション表示が実現される。   As described above, when the image to be edited is displayed, an image whose transparency changes is combined with the captured image, and an animation display is realized.

(6)色変更
図55は、色変更の例を示す図である。
(6) Color Change FIG. 55 is a diagram illustrating an example of color change.

図55に示されるように、色を順次変える画像が、コンテンツを構成する画像として撮影画像に合成される。図55の例においては、色1乃至4として示すように4種類の色が設定されている。色1乃至4は、例えば同系色のグラデーションを構成する色である。図55において、三角形の濃淡が異なることは、色が異なることを表している。例えば、明度が高い色から低い色に色を順に変える画像が表示される。   As shown in FIG. 55, the images whose colors are changed sequentially are combined with the photographed image as an image constituting the content. In the example of FIG. 55, four types of colors are set as shown as colors 1 to 4. Colors 1 to 4 are, for example, colors constituting a similar color gradation. In FIG. 55, different shades of triangles represent different colors. For example, an image is displayed in which the color is changed in order from a color with high brightness to a color with low brightness.

図55の左側に示されるように、印刷画像においては、色1乃至4と同系色であり、明度が色1より低い色の画像が合成され、印刷される。   As shown on the left side of FIG. 55, in the printed image, an image having a color similar to colors 1 to 4 and having a lightness lower than that of color 1 is synthesized and printed.

このように、編集対象画像の表示を行っている場合、色が変化する画像が撮影画像に合成され、アニメーション表示が実現される。   As described above, when the image to be edited is displayed, an image whose color changes is combined with the captured image, and an animation display is realized.

図56は、色変更の他の例を示す図である。   FIG. 56 is a diagram showing another example of color change.

図56に示される色変更は、種類が異なる色が用いられる点で図55に示される色変更と異なる。図56の例においては、色1、色2として示すように、2種類の色が設定されている。色1、色2として交互に色を変える画像が、コンテンツを構成する画像として撮影画像に合成される。   The color change shown in FIG. 56 is different from the color change shown in FIG. 55 in that different types of colors are used. In the example of FIG. 56, two types of colors are set as shown as color 1 and color 2. Images that change colors alternately as color 1 and color 2 are combined with the captured image as an image constituting the content.

図56の左側に示されるように、印刷画像においては、色1、色2のいずれの色とも異なる色の画像が合成される。   As shown on the left side of FIG. 56, in the print image, an image having a color different from both the color 1 and the color 2 is synthesized.

このように、編集対象画像の表示を行っている場合、色が交互に切り替わることによって点滅表示する画像が撮影画像に合成され、アニメーション表示が実現される。例えば、色1は緑色であり、色2は青色である。この場合、印刷画像に対しては例えば赤色のコンテンツが合成される。   In this way, when the image to be edited is displayed, the image that blinks is synthesized with the photographed image by switching the colors alternately, and the animation display is realized. For example, color 1 is green and color 2 is blue. In this case, for example, red content is combined with the print image.

(7)その他の移動
図57は、その他の移動の例を示す図である。
(7) Other Movements FIG. 57 is a diagram illustrating an example of other movements.

表示1、表示2として示すように、斜め方向に位置を変える画像が、コンテンツを構成する画像として撮影画像に合成される。   As shown as display 1 and display 2, images whose positions change in an oblique direction are combined with the captured image as an image constituting the content.

例えば、画像の所定の位置である位置p4と、位置p4に対向する頂点を通る斜めの軸Nが設定される。表示1においては、軸Nに沿って位置p4が左下に移動するように画像が配置され、表示2においては、軸Nに沿って位置p4が右上に移動するように画像が配置される。   For example, a position p4 that is a predetermined position of the image and an oblique axis N that passes through the apex that faces the position p4 are set. In the display 1, the image is arranged so that the position p4 moves to the lower left along the axis N, and in the display 2, the image is arranged so that the position p4 moves to the upper right along the axis N.

図57の左側に示されるように、印刷画像においては、中心が軸Nの中点と略同じ位置に配置された画像が合成され、印刷される。   As shown on the left side of FIG. 57, in the printed image, an image whose center is arranged at substantially the same position as the midpoint of the axis N is synthesized and printed.

このように、編集対象画像の表示を行っている場合、軸Nに沿って斜め方向に位置を変える画像が撮影画像に合成され、アニメーション表示が実現される。   In this way, when the image to be edited is displayed, an image whose position is changed in the oblique direction along the axis N is combined with the captured image, and an animation display is realized.

図58は、その他の移動の他の例を示す図である。   FIG. 58 is a diagram illustrating another example of other movement.

表示1乃至表示4として示すように、V字状に位置を変える画像が、コンテンツを構成する画像として撮影画像に合成される。   As shown as display 1 to display 4, an image whose position is changed to a V-shape is combined with a captured image as an image constituting the content.

例えば、画像の所定の位置である位置p5を通る斜めの軸N1と、画像の所定の位置である位置p6を通る斜めの軸N2が設定される。軸N1,N2は、互いに交差するように設定される。   For example, an oblique axis N1 passing through a position p5 that is a predetermined position of the image and an oblique axis N2 passing through a position p6 that is a predetermined position of the image are set. The axes N1 and N2 are set so as to intersect each other.

表示1,2においては、軸N1に沿って位置p5が右下に移動するように画像が配置される。表示3,4においては、軸N2に沿って位置p6が右上に移動するように画像が配置される。その後、表示4,3,2,1の順に画像が配置され、これが繰り返される。   In the displays 1 and 2, the images are arranged so that the position p5 moves to the lower right along the axis N1. In the displays 3 and 4, the images are arranged so that the position p6 moves to the upper right along the axis N2. Thereafter, images are arranged in the order of displays 4, 3, 2, and 1, and this is repeated.

図58の上側に示されるように、印刷画像においては、位置p5,p6が軸N1,N2それぞれの下端の位置に配置された画像が合成され、印刷される。   As shown in the upper side of FIG. 58, in the print image, an image in which the positions p5 and p6 are arranged at the lower end positions of the axes N1 and N2 is synthesized and printed.

このように、編集対象画像の表示を行っている場合、軸N1,N2に沿ってV字状に位置を変える画像が撮影画像に合成され、アニメーション表示が実現される。   As described above, when the image to be edited is displayed, an image whose position is changed in a V shape along the axes N1 and N2 is combined with the photographed image, and an animation display is realized.

図59は、その他の移動のさらに他の例を示す図である。   FIG. 59 is a diagram showing still another example of other movement.

図59の右側に示されるように、ボールがバウンドするように位置を変える画像が、コンテンツを構成する画像として撮影画像に合成される。   As shown on the right side of FIG. 59, an image whose position is changed so that the ball bounces is combined with the captured image as an image constituting the content.

例えば、画像の所定の位置である位置p7を通る連続する放物線状の軌跡B1が設定される。   For example, a continuous parabolic trajectory B1 passing through the position p7 which is a predetermined position of the image is set.

図59の例においては、軌跡B1に沿って位置p7がバウンドを繰り返して移動するように画像が配置される。   In the example of FIG. 59, the image is arranged so that the position p7 moves by bouncing repeatedly along the trajectory B1.

図59の左側に示されるように、印刷画像においては、位置p7が所定の位置に配置された画像が合成され、印刷される。   As shown on the left side of FIG. 59, in the print image, an image in which the position p7 is arranged at a predetermined position is synthesized and printed.

このように、編集対象画像の表示を行っている場合、軌跡B1に沿ってボールがバウンドするように位置を変える画像が撮影画像に合成され、アニメーション表示が実現される。   In this way, when the image to be edited is displayed, an image whose position is changed so that the ball bounces along the trajectory B1 is combined with the captured image, and an animation display is realized.

なお、軌跡B1は、図59に例示したものに限らず、種々の軌跡を描くようにすることができる。   The trajectory B1 is not limited to that illustrated in FIG. 59, and various trajectories can be drawn.

以上のように、コンテンツのアニメーション表示は、コンテンツを構成する画像の角度、位置、大きさ、透過度、色を変化させることによって実現される。角度の変化、位置の変化、大きさの変化、透過度の変化、色の変化のうち、2種類以上の変化を組み合わせて用いられるようにしてもよい。   As described above, the animation display of content is realized by changing the angle, position, size, transparency, and color of the images constituting the content. Two or more types of changes among angle change, position change, size change, transmittance change, and color change may be used in combination.

コンテンツのアニメーション表示は、合成される被写体の顔のなどの合成対象の向きや大きさに応じて、角度の変化、位置の変化、大きさの変化、透過度の変化、色の変化それぞれの変化量が調整されてもよい。   Depending on the orientation and size of the subject to be synthesized, such as the face of the subject to be synthesized, the animation display of the content changes according to the change in angle, change in position, change in size, change in transparency, and change in color. The amount may be adjusted.

さらに、コンテンツのアニメーション表示は、同一のコンテンツを選択(押下)する毎に、アニメーション表示の態様が変わるようにしてもよい。   Furthermore, the animation display mode may be changed each time the same content is selected (pressed).

例えば、うさぎの顔を模した変身スタンプ画像が繰り返し選択された場合、1回目の選択では、撮影画像に合成されたうさぎの耳が回転して表示され、2回目の選択では、撮影画像に合成されたうさぎの耳が上下に位置を変えて表示されるようにする。   For example, when a transformation stamp image simulating a rabbit face is repeatedly selected, the rabbit ear synthesized with the photographed image is rotated and displayed at the first selection, and the photographed image is synthesized at the second selection. The displayed rabbit ears are moved up and down to be displayed.

また、先に選択したコンテンツと異なるコンテンツを選択したり、「イマドキ盛り」のタブ以外のタブが選択された場合には、先に選択したコンテンツのアニメーション表示がリセット(停止)されるようにしてもよい。   Also, if you select content that is different from the previously selected content, or if a tab other than the “immediate” tab is selected, the animation display of the previously selected content is reset (stopped). Also good.

例えば、うさぎの顔を模した変身スタンプ画像が選択されることで、撮影画像に合成されたうさぎの耳が回転して表示されている状態で、犬の顔を模した変身スタンプ画像が選択された場合、うさぎの耳の回転はリセット(停止)される。このあと、うさぎの顔を模した変身スタンプ画像が再度選択された場合、撮影画像に合成されたうさぎの耳は、例えば上下に位置を変えて表示されるのではなく、再び回転して表示されるようにする。   For example, when a transformation stamp image simulating a rabbit's face is selected, a transformation stamp image simulating a dog's face is selected while the rabbit ear synthesized with the photographed image is rotated and displayed. If this happens, the rabbit ear rotation is reset (stopped). After this, when a transformation stamp image simulating a rabbit's face is selected again, the rabbit ear synthesized with the photographed image is not rotated and displayed, for example, but rotated again. So that

さらに、コンテンツのアニメーション表示は、選択されたコンテンツによらず、選択された順番によって、アニメーション表示の態様が決められていてもよい。具体的には、どの変身スタンプ画像が選択された場合であっても、変身スタンプ画像が選択される毎に、撮影画像に合成された変身スタンプ画像が、回転、上下の移動、拡縮の順番で表示されるようにする。   Furthermore, the animation display mode may be determined according to the selected order, regardless of the selected content. Specifically, regardless of which transformation stamp image is selected, each time a transformation stamp image is selected, the transformation stamp image combined with the photographed image is rotated, moved up and down, and scaled. To be displayed.

例えば、最初に、うさぎの顔を模した変身スタンプ画像が選択された場合、撮影画像に合成されたうさぎの耳が回転して表示される。次に、猫の顔を模した変身スタンプ画像が選択された場合、撮影画像に合成された猫の耳が上下に位置を変えて表示される。そして、犬の顔を模した変身スタンプ画像が選択された場合、撮影画像に合成された犬の耳が拡大・縮小を繰り返して表示される。   For example, when a transformation stamp image imitating a rabbit face is selected first, the rabbit ear synthesized with the photographed image is rotated and displayed. Next, when a transformation stamp image simulating a cat's face is selected, the cat's ear synthesized with the captured image is displayed with its position changed vertically. When a transformation stamp image simulating a dog's face is selected, the dog's ear synthesized with the photographed image is displayed repeatedly with enlargement / reduction.

また、猫の顔を模した変身スタンプ画像が選択された後、再び、うさぎの顔を模した変身スタンプ画像が選択された場合、撮影画像に合成されたうさぎの耳が拡大・縮小を繰り返して表示されてもよい。   Also, if a transformation stamp image simulating a cat's face is selected and then a transformation stamp image simulating a rabbit's face is selected again, the rabbit ear synthesized with the captured image will repeatedly expand and contract. May be displayed.

さらに、最初に、うさぎの顔を模した変身スタンプ画像が選択された後、再び、うさぎの顔を模した変身スタンプ画像が選択された場合、撮影画像に合成されたうさぎの耳が上下に位置を変えて表示されてもよい。その後、また再び、うさぎの顔を模した変身スタンプ画像が選択された場合、撮影画像に合成されたうさぎの耳が拡大・縮小を繰り返して表示される。   Furthermore, if a transformation stamp image simulating a rabbit's face is selected first and then a transformation stamp image simulating a rabbit's face is selected again, the rabbit ears synthesized with the photographed image are positioned vertically. May be displayed. After that, when a transformation stamp image imitating a rabbit face is selected again, the rabbit ears synthesized with the photographed image are repeatedly enlarged and reduced and displayed.

なお、上述した例においても、例えば「イマドキ盛り」のタブ以外のタブが選択された場合には、変身スタンプ画像のアニメーション表示はリセット(停止)されるようにする。   In the above-described example as well, for example, when a tab other than the “immediate” tab is selected, the animation display of the transformation stamp image is reset (stopped).

また、コンテンツが合成される被写体毎に、異なるアニメーション表示が適用されるようにしてもよいし、上述したアニメーション表示が、ライブビュー画像など、編集対象画像以外の画像にも適用されるようにしてもよい。   Further, a different animation display may be applied to each subject to which content is synthesized, and the animation display described above may be applied to an image other than the image to be edited such as a live view image. Also good.

特に、「イマドキ盛り」の変身スタンプ画像を、編集対象画像上ではなく、「イマドキ盛り」のタブに表示されているサンプル画像上で、アニメーション表示させるようにしてもよい。   In particular, the transformation stamp image of “Imadokimori” may be displayed as an animation on the sample image displayed on the “Imadokimori” tab, not on the image to be edited.

この場合、「イマドキ盛り」の変身スタンプ画像のアニメーション表示は、「イマドキ盛り」のタブが表示されたときに開始されてもよいし、「イマドキ盛り」のタブでサンプル画像が選択されたときに開始されてもよい。   In this case, the animation display of the “improving” transformation stamp image may be started when the “improving” tab is displayed, or when a sample image is selected on the “improving” tab. May be started.

また、「イマドキ盛り」の変身スタンプ画像のアニメーション表示が、編集パレット800の一発合成ボタン821が選択されたときに開始されてもよいし、個別合成ボタン822が選択されたときに開始されてもよい。   In addition, the animation display of the “Imadokimori” transformation stamp image may be started when the one-shot composition button 821 of the editing palette 800 is selected, or when the individual composition button 822 is selected. Also good.

最初に編集画面が表示されたときに、編集パレット800が、「イマドキ盛り」のタブが選択された状態で表示されるようにし、そのサンプル画像上で、変身スタンプ画像がアニメーション表示されるようにしてもよい。すなわち、編集作業開始時に、変身スタンプ画像をアニメーション表示させることで、利用者に対して、「イマドキ盛り」の変身スタンプ画像を印象付けることができる。   When the editing screen is displayed for the first time, the editing palette 800 is displayed with the “immediate” tab selected, and the transformation stamp image is animated on the sample image. May be. That is, by displaying an animation of the transformation stamp image at the start of the editing operation, it is possible to impress the transformation stamp image of “immediately” on the user.

また、編集対象画像に合成されたコンテンツのアニメーション表示は、編集領域512L(512R)上に編集対象画像が表示されている間中、継続されてもよいし、所定のタイミングで停止されてもよい。   The animation display of the content combined with the editing target image may be continued while the editing target image is displayed on the editing area 512L (512R), or may be stopped at a predetermined timing. .

例えば、編集対象画像に合成されてから所定時間経過後に、変身スタンプ画像のアニメーション表示が停止されるようにしてもよい。   For example, the animation display of the transformation stamp image may be stopped after a lapse of a predetermined time after being combined with the image to be edited.

また、編集パレット800において、「イマドキ盛り」のタブ以外のタブが選択されたり、「イマドキ盛り」の変身スタンプ画像以外のコンテンツが選択されたときに、変身スタンプ画像のアニメーション表示が停止されるようにしてもよい。   In addition, when a tab other than the “immediate height” tab is selected in the editing palette 800 or content other than the “immediate height” transformation stamp image is selected, the animation display of the transformation stamp image is stopped. It may be.

さらに、編集対象画像に他のコンテンツが合成されたタイミングや、レタッチ処理が施されたタイミングで、変身スタンプ画像のアニメーション表示が停止されるようにしてもよい。   Furthermore, the animation display of the transformation stamp image may be stopped at the timing when another content is combined with the image to be edited or when the retouch processing is performed.

もちろん、編集対象画像として、他の撮影画像が選択されたときには、編集領域512L(512R)には選択された他の撮影画像が表示されるので、編集対象画像におけるコンテンツのアニメーション表示は停止されることになる。   Of course, when another captured image is selected as the editing target image, the selected other captured image is displayed in the editing area 512L (512R), so that the animation display of the content in the editing target image is stopped. It will be.

上述した「イマドキ盛り」のタブには、各テーマに対応づけられたサンプル画像が表示されるものとした。   It is assumed that the sample image associated with each theme is displayed on the above-mentioned “immediate” tab.

そこで、「イマドキ盛り」のタブにおいて選択されたサンプル画像のテーマに応じて、編集作業中のBGMや効果音が設定されたり、編集画面全体のデザインが変更されてもよい。例えば、テーマが「犬」であるサンプル画像が選択された場合、犬に関連するBGMや、犬の鳴き声の効果音が流れたり、編集画面全体のデザインが所定の犬種の柄に変更される。   Therefore, according to the theme of the sample image selected on the “immediately” tab, background music and sound effects during editing may be set, or the design of the entire editing screen may be changed. For example, if a sample image with the theme “Dog” is selected, BGM related to the dog, sound effects of the dog's bark will flow, and the design of the entire editing screen will be changed to the pattern of the specified dog type .

以上においては、「イマドキ盛り」のサンプル画像は、編集パレット800の「イマドキ盛り」のタブに表示されるものとした。これに限らず、図60に示されるように、図16の編集画面におけるメイクパレット513Lに代えて、「イマドキ盛り」パレット950を設け、サンプル画像811,812,813が表示されるようにしてもよい。   In the above description, it is assumed that the “immediate” sample image is displayed on the “immediate” tab of the editing palette 800. Not limited to this, as shown in FIG. 60, instead of the makeup palette 513L in the editing screen of FIG. 16, an “immediate” palette 950 is provided so that sample images 811 812, and 813 are displayed. Good.

これにより、サンプル画像811,812,813は、編集画面において常時表示されるようになるが、時間に応じて、表示されるサンプル画像が変更されるようにしてもよい。   As a result, the sample images 811, 812, and 813 are always displayed on the editing screen, but the displayed sample images may be changed according to time.

例えば、時間帯に応じて、テーマが「犬」であるサンプル画像、テーマが「猫」であるサンプル画像など、表示されるサンプル画像のテーマが変更されるようにしてもよいし、30秒などの所定の時間間隔で、表示されるサンプル画像が変更されるようにしてもよい。   For example, depending on the time zone, the theme of the displayed sample image may be changed, such as a sample image whose theme is “Dog”, a sample image whose theme is “Cat”, or 30 seconds. The displayed sample image may be changed at predetermined time intervals.

さらに、スロットマシンのドラム(リール)のようにサンプル画像を回転表示させるようにしてもよい。この場合、新たにストップボタンを設け、そのストップボタンが押下されることで、サンプル画像が選択されるようにする。   Further, the sample image may be rotated and displayed like a drum (reel) of a slot machine. In this case, a new stop button is provided, and the sample image is selected by pressing the stop button.

また、編集画面の左右において、「イマドキ盛り」のサンプル画像として、異なるテーマのサンプル画像が表示されるようにしてもよい。   Also, sample images of different themes may be displayed on the left and right sides of the editing screen as “immediately” sample images.

なお、以上においては、モデルを被写体としたモデル画像をベースとしたサンプル画像が表示されるものとしたが、利用者を被写体とした撮影画像をベースとしたサンプル画像が表示されるようにしてもよい。   In the above, the sample image based on the model image with the model as the subject is displayed. However, the sample image based on the photographed image with the user as the subject may be displayed. Good.

<同一カテゴリの複数のコンテンツを一括して合成する例>
以上においては、単に、複数のコンテンツを一括して合成する例について説明したが、以下においては、複数のコンテンツとして、同一カテゴリのコンテンツを一括して合成する例について説明する。
<Example of combining multiple contents of the same category at once>
In the above, an example in which a plurality of contents are simply combined together has been described, but in the following, an example in which contents of the same category are combined together as a plurality of contents will be described.

まず、同一カテゴリのコンテンツとして、同一の顔パーツを合成対象としたコンテンツを一括して合成する例について説明する。   First, an example will be described in which contents having the same face part as a synthesis target are synthesized together as contents of the same category.

図61は、編集画面の例を示す図である。   FIG. 61 is a diagram showing an example of the edit screen.

図61の編集画面において、編集領域512Lの左側には、図16の編集画面におけるメイクパレット513Lに代えて、ちゅるアイパレット1010が設けられている。ちゅるアイパレット1010には、選択ボタン1011乃至1013が表示されており、選択ボタン1011乃至1013のいずれかが選択されることで、編集対象画像に写る利用者の目を合成対象とした複数のコンテンツが一括して合成される。   In the editing screen of FIG. 61, a left eye palette 1010 is provided on the left side of the editing area 512L instead of the makeup palette 513L in the editing screen of FIG. Selection buttons 1011 to 1013 are displayed on the crush eye palette 1010. When any one of the selection buttons 1011 to 1013 is selected, a plurality of eyes of the user appearing in the image to be edited are targeted for synthesis. Content is combined at once.

具体的には、選択ボタン1011乃至1013のいずれかが選択されることで、図62に示されるように、編集対象画像に写る利用者の目に、疑似キャッチライト1101と、カラーコンタクトレンズを模したアイカラー画像1102が合成される。   Specifically, when any of the selection buttons 1011 to 1013 is selected, as shown in FIG. 62, the pseudo catchlight 1101 and the color contact lens are simulated to the eyes of the user shown in the image to be edited. The eye color image 1102 thus obtained is synthesized.

疑似キャッチライト1101は、例えば、編集対象画像に写る利用者の目に写り込むキャッチライトCLの位置に応じた配置で合成される。図62の例では、疑似キャッチライト1101は、その一部がキャッチライトCLに重なるように配置され、合成されている。   The pseudo catchlight 1101 is synthesized, for example, in an arrangement corresponding to the position of the catchlight CL that appears in the eyes of the user that appears in the image to be edited. In the example of FIG. 62, the pseudo catchlight 1101 is arranged and synthesized so that a part thereof overlaps the catchlight CL.

アイカラー画像1102は、編集対象画像に写る利用者の目の瞳(虹彩)に重なるように合成される。   The eye color image 1102 is synthesized so as to overlap the pupil (iris) of the user's eye that appears in the image to be edited.

なお、疑似キャッチライト1101とアイカラー画像1102は、選択された選択ボタン1011乃至1013によって、その質感や色の組み合わせが異なる。   The pseudo catchlight 1101 and the eye color image 1102 have different textures and color combinations depending on the selected selection buttons 1011 to 1013.

具体的には、選択ボタン1011が選択された場合、図63の1番目に示されるように、質感が「ちゅるる」の疑似キャッチライト1101と、色が「ピンク」のアイカラー画像1102が編集対象画像に写る利用者の目に合成される。   Specifically, when the selection button 1011 is selected, as shown in the first part of FIG. 63, the pseudo catchlight 1101 whose texture is “Chururu” and the eye color image 1102 whose color is “pink” are edited. It is synthesized in the eyes of the user in the target image.

また、選択ボタン1012が選択された場合、図63の2番目に示されるように、質感が「ときめき」の疑似キャッチライト1101と、色が「ブラウン」のアイカラー画像1102が編集対象画像に写る利用者の目に合成される。   When the selection button 1012 is selected, as shown in the second part of FIG. 63, a pseudo catchlight 1101 whose texture is “Tokimeki” and an eye color image 1102 whose color is “Brown” appear in the editing target image. Synthesized to the user's eyes.

そして、選択ボタン1013が選択された場合、図63の3番目に示されるように、質感が「うるる」の疑似キャッチライト1101と、色が「グレー」のアイカラー画像1102が編集対象画像に写る利用者の目に合成される。   When the selection button 1013 is selected, as shown in the third part of FIG. 63, the pseudo catchlight 1101 having the texture “Uru” and the eye color image 1102 having the color “Gray” appear in the editing target image. Synthesized to the user's eyes.

「ちゅるる」、「ときめき」、「うるる」の疑似キャッチライト1101はそれぞれ、質感の他、例えば、その大きさや合成される配置が互いに異なっていてもよい。   In addition to the texture, the “Chururu”, “Tokimeki”, and “Uru” pseudo catchlights 1101 may be different from each other, for example, in size and composition.

疑似キャッチライト1101の質感とアイカラー画像1102の色は、利用者の目に合成されたときに統一感が醸成されるように組み合わされている。これにより、利用者は、撮影画像に写る自身の目を、統一感があり、かつ利用者の好みの仕上がりにすることができる。   The texture of the pseudo catchlight 1101 and the color of the eye color image 1102 are combined so that a sense of unity is nurtured when they are combined with the eyes of the user. Thereby, the user can have his / her own eyes appearing in the photographed image with a sense of unity and a finish desired by the user.

また、ちゅるアイパレット1010には、OFFボタン1014が設けられており、OFFボタン1014が選択されることで、編集対象画像に一括して合成されたコンテンツが消去される。   In addition, an OFF button 1014 is provided in the cull eye palette 1010, and when the OFF button 1014 is selected, the contents collectively combined with the image to be edited are deleted.

(疑似キャッチライトの配置)
上述した説明では、疑似キャッチライト1101は、その一部がキャッチライトCLに重なるように配置されて合成されるものとしたが、他の配置で合成されるようにしてもよい。
(Place of pseudo catch light)
In the above description, the pseudo catchlight 1101 is arranged and synthesized so that a part thereof overlaps the catchlight CL, but may be synthesized in another arrangement.

図64は、疑似キャッチライト1101の配置の例について説明する図である。   FIG. 64 is a diagram for explaining an example of the arrangement of the pseudo catchlight 1101.

図64の例では、キャッチライトCLの中心点に基づいた位置に、疑似キャッチライト1101が配置される。   In the example of FIG. 64, the pseudo catchlight 1101 is arranged at a position based on the center point of the catchlight CL.

具体的には、まず、図64の左側に示されるように、編集対象画像に写る利用者の目に写り込むキャッチライトCLの中心点CLpが特定される。次に、図64の右側に示されるように、編集対象画像に写る利用者の目の虹彩の中心点Epが特定される。そして、図中、破線で示される、キャッチライトCLの中心点CLpと、虹彩の中心点Epを通る直線上に、疑似キャッチライト1101Aが配置されるようにする。   Specifically, first, as shown on the left side of FIG. 64, the center point CLp of the catchlight CL that appears in the eyes of the user that appears in the image to be edited is specified. Next, as shown on the right side of FIG. 64, the iris center point Ep of the user's eye that appears in the image to be edited is specified. Then, the pseudo catchlight 1101A is arranged on a straight line passing through the center point CLp of the catchlight CL and the center point Ep of the iris, which is indicated by a broken line in the drawing.

図65は、疑似キャッチライト1101の配置の他の例について説明する図である。   FIG. 65 is a diagram for explaining another example of the arrangement of the pseudo catchlight 1101.

図65の例では、あらかじめ用意されたテンプレートに基づいて、疑似キャッチライト1101が配置される。   In the example of FIG. 65, the pseudo catchlight 1101 is arranged based on a template prepared in advance.

図65の左側には、虹彩に対応する円形のテンプレート画像1120が示されている。テンプレート画像1120内には、あらかじめ決められた位置に疑似キャッチライト1121,1122が配置されている。図中、テンプレート画像1120はグレーに色付けられているが、実際には透明であるものとする。   On the left side of FIG. 65, a circular template image 1120 corresponding to the iris is shown. In the template image 1120, pseudo catchlights 1121 and 1122 are arranged at predetermined positions. In the figure, the template image 1120 is colored gray, but is actually transparent.

編集対象画像に写る利用者の目に疑似キャッチライトを合成する際、テンプレート画像1120が、虹彩の大きさに合わせて拡大または縮小されて、合成される。これにより、図65の右側に示されるように、テンプレート画像1120に配置されていた疑似キャッチライト1121,1122が、疑似キャッチライト1101B,1101Cとして配置される。   When synthesizing the pseudo catchlight in the eyes of the user shown in the image to be edited, the template image 1120 is enlarged or reduced in accordance with the size of the iris and synthesized. Thereby, as shown in the right side of FIG. 65, the pseudo catchlights 1121 and 1122 arranged in the template image 1120 are arranged as the pseudo catchlights 1101B and 1101C.

以上においては、目を合成対象としたコンテンツとして、疑似キャッチライトとアイカラー画像(カラーコンタクトレンズ)が一括して合成されるものとした。これに加えて、目を合成対象としたコンテンツとして、アイシャドウ、アイライン、二重まぶた、つけまつげ、涙袋、下まつげなどのメイク系のコンテンツが、任意に組み合わされて、利用者の目に一括して合成されてもよい。   In the above, it is assumed that the pseudo catchlight and the eye color image (color contact lens) are combined together as the contents for which the eyes are to be combined. In addition to this, makeup content such as eye shadow, eyeline, double eyelids, false eyelashes, tear bags, lower eyelashes, etc., can be arbitrarily combined to create eye-targeted content. It may be synthesized in a lump.

これらの目を合成対象としたメイク系のコンテンツは、疑似キャッチライトの質感や、アイカラー画像の色などと同様に、それぞれ複数の種類が用意されている。   A plurality of types of makeup-type content for which the eyes are to be synthesized are prepared, like the texture of the pseudo catchlight and the color of the eye color image.

図66は、メイク系のコンテンツのうち、二重まぶた、アイライン、つけまつげの種類を示す図である。   FIG. 66 is a diagram showing the types of double eyelids, eyelines, and false eyelashes among makeup-type content.

二重まぶたには、ベーシック、タレ目、吊り目、横長目の4種類が用意されており、アイラインには、ナチュラル、タレ目、跳ねあげ、切れ長の4種類が用意されている。また、つけまつげには、ナチュラル、キュート、切れ長、ゴージャスの4種類が用意されている。   There are four types of double eyelids: basic, saucer, hanging eye, and horizontally long, and eyeline is available in four types: natural, saucer, spring-up, and cut length. There are four types of false eyelashes: natural, cute, cut length, and gorgeous.

これら各種類のメイク系のコンテンツもまた、利用者の目に合成されたときに統一感が醸成されるように組み合わされる。これにより、利用者は、撮影画像に写る自身の目を、統一感があり、かつ利用者の好みの仕上がりにすることができる。   These types of makeup content are also combined to create a sense of unity when combined with the eyes of the user. Thereby, the user can have his / her own eyes appearing in the photographed image with a sense of unity and a finish desired by the user.

以上においては、同一の顔パーツを合成対象としたコンテンツとして、目を合成対象としたコンテンツを例に挙げて説明してきたが、他の顔パーツを合成対象としたコンテンツが一括して合成されるようにもできる。   In the above description, the content with the same face part as the synthesis target has been described by taking the content with the eye as the synthesis target as an example. However, the content with the other face parts as the synthesis target is synthesized in a lump. You can also

例えば、眉を合成対象としたコンテンツとして、アイブロウと眉マスカラが一括して、編集対象画像に写る利用者の頬の部分に合成されてもよい。   For example, the eyebrow and the eyebrow mascara may be combined into the cheek portion of the user that appears in the image to be edited as content for which the eyebrows are to be combined.

また、頬を合成対象としたコンテンツとして、チークとハイライトが一括して、編集対象画像に写る利用者の頬の部分に合成されてもよい。唇を合成対象としたコンテンツとして、リップとグロスが一括して、編集対象画像に写る利用者の唇の部分に合成されてもよい。   In addition, as content for which cheeks are to be combined, cheeks and highlights may be combined into a portion of the user's cheek that appears in the image to be edited. As content for which lips are to be combined, lips and gloss may be combined together in the user's lip portion that appears in the image to be edited.

さらに、肌を合成対象としたコンテンツとして、肌の色と肌質が一括して、編集対象画像に写る利用者の肌の部分に合成されてもよい。顔を合成対象としたコンテンツとして、ハイライトとシェーディングが一括して、編集対象画像に写る利用者の顔の鼻筋や額の部分に合成されてもよい。   Furthermore, as the content for which skin is to be synthesized, the color and quality of the skin may be combined into the skin portion of the user that appears in the image to be edited. As content for which the face is to be combined, highlights and shading may be combined together on the nose or forehead of the user's face that appears in the image to be edited.

なお、上述した例において、図38を参照して説明した、一発合成ボタン821や個別合成ボタン822が用いられるようにしてもよい。   In the example described above, the one-shot composition button 821 and the individual composition button 822 described with reference to FIG. 38 may be used.

例えば、ちゅるアイパレット1010に、一発合成ボタン821と個別合成ボタン822を設けるようにする。   For example, a one-shot composition button 821 and an individual composition button 822 are provided on the cull eye palette 1010.

ちゅるアイパレット1010において、一発合成ボタン821が選択されている状態では、選択された選択ボタン1011乃至1013に応じて、編集対象画像に写る利用者の目に、疑似キャッチライト1101とアイカラー画像1102が一括して合成される。一方、個別合成ボタン822が選択されている状態では、疑似キャッチライト1101とアイカラー画像1102が個別に選択されて合成される。この場合、利用者は、図63に示される疑似キャッチライト1101の質感とアイカラー画像1102の色を、任意に組み合わせて合成することができる。   In the state where the one-shot composition button 821 is selected in the Churu eye palette 1010, the pseudo catchlight 1101 and the eye color are displayed to the user's eyes that appear in the image to be edited in accordance with the selected selection buttons 1011 to 1013. Images 1102 are combined together. On the other hand, in a state where the individual composition button 822 is selected, the pseudo catchlight 1101 and the eye color image 1102 are individually selected and synthesized. In this case, the user can combine the texture of the pseudo catchlight 1101 shown in FIG. 63 and the color of the eye color image 1102 in any combination.

以上においては、同一カテゴリのコンテンツとして、同一の顔パーツを合成対象としたコンテンツを一括して合成する例について説明してきたが、同一カテゴリのコンテンツとして、同一のテイストのコンテンツを一括して合成するようにしてもよい。ここでいうテイストは、ファッションや雰囲気を区分するジャンルであり、テイストに応じて、メイク系のコンテンツの種類が分類される。   In the above description, the example of synthesizing the content for the same face part as the synthesis target as the content of the same category has been described. However, as the content of the same category, the content of the same taste is synthesized together. You may do it. The taste here is a genre that classifies fashion and atmosphere, and the type of makeup content is classified according to the taste.

図67は、テイストに応じたコンテンツの組み合わせについて説明する図である。   FIG. 67 is a diagram for explaining a combination of contents according to taste.

図67には、3つのテイスト「かわいい系」、「きれい系」、「ナチュラル系」に対するメイク系のコンテンツ(リップ、チーク、アイシャドウ、アイライン)の種類の組み合わせが示されている。   FIG. 67 shows combinations of types of makeup content (lip, cheek, eye shadow, eyeline) for three tastes “cute”, “beautiful”, and “natural”.

具体的には、テイストが「かわいい系」のコンテンツとしては、「ピンク」のリップ、「ピンク」のチーク、「ピンク」のアイシャドウ、「ナチュラル」のアイラインが組み合わされている。   Specifically, “pink” lip, “pink” teak, “pink” eye shadow, and “natural” eyeline are combined as content with a “cute” taste.

テイストが「きれい系」のコンテンツとしては、「レッド」のリップ、「レッド」のチーク、「ブラウン」のアイシャドウ、「切れ長」のアイラインが組み合わされている。   The content of “beautiful” taste is a combination of “red” lip, “red” teak, “brown” eye shadow, and “cut-length” eyeline.

テイストが「ナチュラル系」のコンテンツとしては、「オレンジ」のリップ、「オレンジ」のチーク、「オレンジ」のアイシャドウ、「タレ目」のアイラインが組み合わされている。   Content with a “natural” taste is a combination of “orange” lip, “orange” teak, “orange” eye shadow, and “sag eye” eyeline.

このようにして組み合わされたメイク系のコンテンツが一括して合成されることで、利用者は、撮影画像に写る自身の顔に、統一感があり、かつ利用者の好みのテイストのメイクを施すことができる。   By combining the makeup-related contents combined in this way, the user has a sense of unity and makes up the user's favorite taste on his / her face in the photographed image. be able to.

なお、上述した例においても、図38を参照して説明した、一発合成ボタン821や個別合成ボタン822が用いられるようにしてもよい。   In the example described above, the one-shot composition button 821 and the individual composition button 822 described with reference to FIG. 38 may be used.

(合成対象に応じたコンテンツの色の濃淡または透過度の変更)
以上においては、合成対象によらず、コンテンツの色の濃淡や透過度は一定であるものとした。
(Change of content color shade or transparency according to composition target)
In the above description, it is assumed that the color tone and transparency of the content are constant regardless of the composition target.

例えば、図68のA図に示されるように、合成対象となる目の虹彩の色が黒色であっても、B図に示されるように、合成対象となる目の虹彩の色が茶色であっても、同一のアイカラー画像1102Aが合成される。   For example, as shown in FIG. 68A, even if the eye iris color to be synthesized is black, the eye iris color to be synthesized is brown as shown in FIG. However, the same eye color image 1102A is synthesized.

これに限らず、合成対象の色に応じて、コンテンツの色の濃淡や透過度が変更されるようにしてもよい。   However, the present invention is not limited to this, and the color density and transparency of the content may be changed according to the color to be synthesized.

例えば、図69のA図に示されるように、合成対象となる目の虹彩の色が黒色の場合には、色の濃いアイカラー画像1102Bが合成されるようにする。一方、図69のB図に示されるように、合成対象となる目の虹彩の色が茶色の場合には、色の淡いアイカラー画像1102Cが合成されるようにする。   For example, as shown in FIG. 69A, when the iris color to be synthesized is black, a dark eye color image 1102B is synthesized. On the other hand, as shown in FIG. 69B, when the iris color to be synthesized is brown, a light eye color image 1102C is synthesized.

また、図70に示されるように、合成対象となる利用者の顔1130の肌の色が色白であるほど、顔1130の左右の頬の部分には、色の淡いチーク1131L,1131Rが合成されるようにする。また、合成対象となる利用者の顔1130の肌の色が色黒であるほど、顔1130の左右の頬の部分には、色の濃いチーク1131L,1131Rが合成されるようにする。   As shown in FIG. 70, lighter cheeks 1131L and 1131R are synthesized on the left and right cheeks of the face 1130 as the skin color of the face 1130 of the user to be synthesized is whiter. So that Further, as the skin color of the face 1130 of the user to be synthesized is black, darker cheeks 1131L and 1131R are synthesized on the left and right cheeks of the face 1130.

このように、合成対象の色に応じて、コンテンツの色の濃淡や透過度を変更して合成することで、編集対象画像を、より馴染んだメイクが施された、違和感の少ない仕上がりの画像とすることができる。   In this way, by changing the composition color shade and transparency according to the color to be combined, the image to be edited can be combined with an image that has a more familiar makeup and a less uncomfortable finish. can do.

逆に、仕上がりの見本となるサンプル画像を提示し、選択されたサンプル画像に応じたコンテンツを合成する構成においては、サンプル画像により近づくように、合成対象の色に応じて、コンテンツの色の濃淡や透過度を変更してもよい。   Conversely, in the configuration in which a sample image as a sample of the finish is presented and the content corresponding to the selected sample image is combined, the content color density varies depending on the color to be combined so that it is closer to the sample image. And the transparency may be changed.

この場合、編集対象画像を、サンプル画像を見た利用者のイメージにより近づけることができる。   In this case, the image to be edited can be brought closer to the image of the user who viewed the sample image.

また、合成対象に関連する部分の色に応じて、コンテンツの色の濃淡や透過度を変更するようにしてもよい。   In addition, the color density and transparency of the content may be changed according to the color of the portion related to the composition target.

例えば、被写体の髪の毛の色に応じて、眉を合成対象とした眉マスカラの色の濃淡が変更されたり、メイク系のコンテンツの髪色により変更された髪の毛の色に応じて、眉マスカラの色の濃淡が変更されるようにする。   For example, depending on the color of the subject's hair, the color of the eyebrow mascara with the eyebrow as the composition target is changed, or the color of the eyebrow mascara is changed according to the color of the hair that is changed by the hair color of the makeup-related content The shade of is changed.

また、被写体の髪の毛の色に応じて、目を合成対象としたアイカラー画像(カラーコンタクトレンズ)の色の濃淡が変更されたり、メイク系のコンテンツの髪色により変更された髪の毛の色に応じて、アイカラー画像の色の濃淡が変更されるようにする。   In addition, depending on the color of the subject's hair, the shade of the color of the eye color image (color contact lens) for which the eye is to be synthesized is changed, or depending on the color of the hair that has been changed by the hair color of the makeup-related content Thus, the shade of the color of the eye color image is changed.

これにより、編集対象画像を、違和感の少ない仕上がりの画像とすることができる。   Thereby, the image to be edited can be a finished image with little discomfort.

(合成対象に応じたコンテンツの大きさの変更)
合成対象の大きさに応じて、コンテンツの大きさが変更されるようにしてもよい。
(Change of content size according to composition target)
The size of the content may be changed according to the size of the composition target.

具体的には、合成対象の高さ(垂直方向の長さ)に応じて、コンテンツの大きさが変更されるようにしてもよい。   Specifically, the size of the content may be changed according to the height of the composition target (the length in the vertical direction).

例えば、図71の左側に示されるように、目の虹彩の高さがHである場合、図71の右側に示されるように、高さH/2の疑似キャッチライト1101Dが合成されるようにする。   For example, as shown in the left side of FIG. 71, when the height of the iris of the eye is H, as shown in the right side of FIG. 71, the pseudo catchlight 1101D having the height H / 2 is synthesized. To do.

また、合成対象の幅(水平方向の長さ)に応じて、コンテンツの大きさが変更されるようにしてもよい。   Further, the size of the content may be changed according to the width of the composition target (the length in the horizontal direction).

例えば、図72の左側に示されるように、目の虹彩の幅がWである場合、図72の右側に示されるように、幅W/2の疑似キャッチライト1101Eが合成されるようにする。   For example, as shown on the left side of FIG. 72, when the width of the iris of the eye is W, a pseudo catchlight 1101E having a width of W / 2 is synthesized as shown on the right side of FIG.

さらに、合成対象の面積に応じて、コンテンツの大きさが変更されるようにしてもよい。   Furthermore, the size of the content may be changed according to the area to be synthesized.

例えば、図73の左側に示されるように、目の虹彩の面積がRiである場合、図73の右側に示されるように、面積Ri/3程度の疑似キャッチライト1101Fが合成されるようにする。   For example, as shown on the left side of FIG. 73, when the area of the iris of the eye is Ri, as shown on the right side of FIG. 73, a pseudo catchlight 1101F having an area of about Ri / 3 is synthesized. .

<コンテンツの合成とレタッチ処理を一括して行う例>
以下においては、コンテンツの合成とレタッチ処理を一括して行う例について説明する。
<Example of performing content composition and retouch processing in a batch>
In the following, an example in which content composition and retouch processing are performed together will be described.

まず、テイストに応じたコンテンツの合成とレタッチ処理を一括して行う例について説明する。   First, an example in which content composition and retouch processing according to taste are performed collectively will be described.

図74は、編集画面の例を示す図である   FIG. 74 is a diagram showing an example of the edit screen

図74の編集画面において、編集領域512Lの左側には、図16の編集画面におけるメイクパレット513Lに代えて、テイストチェンジパレット1210が設けられている。テイストチェンジパレット1210には、選択ボタン1211乃至1213が表示されており、選択ボタン1211乃至1213のいずれかが選択されることで、編集対象画像に、コンテンツを合成することと、レタッチ処理を施すことが一括して行われる。   In the editing screen of FIG. 74, a taste change palette 1210 is provided on the left side of the editing area 512L instead of the makeup palette 513L in the editing screen of FIG. Selection buttons 1211 to 1213 are displayed on the taste change palette 1210. When any of the selection buttons 1211 to 1213 is selected, content is combined with the image to be edited and retouch processing is performed. Is performed at once.

選択ボタン1211は、「かわいい系」のテイストに応じたコンテンツの合成とレタッチ処理を一括して行うためのボタンであり、選択ボタン1212は、「きれい系」のテイストに応じたコンテンツの合成とレタッチ処理を一括して行うためのボタンである。選択ボタン1213は、「ナチュラル系」のテイストに応じたコンテンツの合成とレタッチ処理を一括して行うためのボタンである。   The selection button 1211 is a button for performing the composition and retouch processing of contents corresponding to the “cute” taste at once, and the selection button 1212 is the composition and retouching of contents corresponding to the “beautiful” taste. This button is used for batch processing. The selection button 1213 is a button for collectively performing content synthesis and retouch processing according to a “natural” taste.

また、テイストチェンジパレット1210には、OFFボタン1214が設けられており、OFFボタン1214が選択されることで、編集対象画像に一括して合成されたコンテンツとレタッチ処理は消去される。   The taste change pallet 1210 is provided with an OFF button 1214. When the OFF button 1214 is selected, the contents combined with the editing target image and the retouching process are erased.

図75は、テイストに応じたコンテンツ(リップ、チーク、眉マスカラ)とレタッチ処理(目の形状処理)の組み合わせについて説明する図である。   FIG. 75 is a diagram illustrating a combination of content (lip, cheek, eyebrow mascara) and retouch processing (eye shape processing) according to taste.

具体的には、テイストが「かわいい系」のコンテンツとレタッチ処理としては、「ピンク」のリップ、「ピンク」のチーク、「ダークブラウン」の眉マスカラ、「たれ目変形」の目の形状処理が組み合わされている。   Specifically, content with a “cute” taste and retouch processing includes “pink” lip, “pink” teak, “dark brown” eyebrow mascara, and “eye deformation” eye shape processing. It is combined.

テイストが「きれい系」のコンテンツとレタッチ処理としては、「レッド」のリップ、「レッド」のチーク、「ダークブラウン」の眉マスカラ、「ねこ目変形」の目の形状処理が組み合わされている。   The content with a taste of “beautiful” and the retouching process are a combination of “red” lip, “red” cheek, “dark brown” eyebrow mascara, and “cat eye deformation” eye shape processing.

テイストが「ナチュラル系」のコンテンツとレタッチ処理としては、「オレンジ」のリップ、「オレンジ」のチーク、「ダークブラウン」の眉マスカラ、「まる目変形」の目の形状処理が組み合わされている。   The content with a taste of “natural” and the retouch processing are combined with “orange” lip, “orange” cheek, “dark brown” eyebrow mascara, and “round eye deformation” eye shape processing.

このようにして組み合わされた複数のコンテンツの合成と1種類のレタッチ処理が一括して行われることで、利用者は、撮影画像に写る自身の顔に、統一感があり、かつ利用者の好みのテイストのメイクを施すことができる。   By combining a plurality of contents combined in this way and one type of retouching process, the user has a sense of unity in his / her face appearing in the photographed image and the user's preference. You can apply make-up of the taste.

図76は、テイストに応じたコンテンツ(眉マスカラ)とレタッチ処理(輪郭処理、目の形状処理)の組み合わせについて説明する図である。   FIG. 76 is a diagram illustrating a combination of content (brow mascara) according to taste and retouch processing (contour processing, eye shape processing).

具体的には、テイストが「かわいい系」のコンテンツとレタッチ処理としては、「丸型」の輪郭処理、「ダークブラウン」の眉マスカラ、「たれ目変形」の目の形状処理が組み合わされている。   Specifically, “Cute” content and retouch processing are combined with “round” contour processing, “dark brown” eyebrow mascara, and “eye deformation” eye shape processing. .

テイストが「きれい系」のコンテンツとレタッチ処理としては、「三角型」の輪郭処理、「ダークブラウン」の眉マスカラ、「ねこ目変形」の目の形状処理が組み合わされている。   The content having a taste of “beautiful” and the retouching process are combined with “triangular” contour processing, “dark brown” eyebrow mascara, and “cat deformation” eye shape processing.

テイストが「ナチュラル系」のコンテンツとレタッチ処理としては、「卵型」の輪郭処理、「ダークブラウン」の眉マスカラ、「まる目変形」の目の形状処理が組み合わされている。   The content with the taste “natural” and the retouching process are combined with “oval-shaped” contour processing, “dark brown” eyebrow mascara, and “round eye deformation” eye shape processing.

このようにして組み合わされた1つのコンテンツの合成と複数種類のレタッチ処理が一括して行われることで、利用者は、撮影画像に写る自身の顔に、統一感があり、かつ利用者の好みのテイストのメイクを施すことができる。   By combining a single piece of content combined in this way and a plurality of types of retouch processing, the user has a sense of unity in his / her face appearing in the photographed image and the user's preference. You can apply make-up of the taste.

なお、図示はしないが、複数のコンテンツの合成と複数種類のレタッチ処理が一括して行われるようにすることもできる。   Although not shown, a plurality of contents can be combined and a plurality of types of retouching processes can be performed collectively.

以上においては、テイストに応じたコンテンツの合成とレタッチ処理を一括して行う例について説明したが、季節に応じたコンテンツの合成とレタッチ処理を一括して行うようにしてもよい。   In the above description, an example in which content composition and retouch processing according to taste are performed collectively has been described, but content composition and retouch processing according to seasons may be performed collectively.

例えば、季節には、「イースター」、「サマー」、「ハロウィン」、「クリスマス」、「ウィンター」、「バレンタイン」があり、これらに対応した選択ボタンが設けられるようにする。   For example, in the season, there are “Easter”, “Summer”, “Halloween”, “Christmas”, “Winter”, and “Valentine”, and selection buttons corresponding to these are provided.

例えば、季節が「イースター」のコンテンツとレタッチ処理としては、「ピンク」のチーク、「ピンク」のリップ、「ピンク」のアイシャドウ、「卵型」の輪郭処理が組み合わされるようにする。また、季節が「ハロウィン」のコンテンツとレタッチ処理としては、「レッド」のリップ、「三角型」の輪郭処理、「ねこ目変形」の目の形状処理が組み合わされるようにする。   For example, the content of the season “Easter” and the retouching process are a combination of “pink” teak, “pink” lip, “pink” eye shadow, and “egg” contour processing. In addition, the content of the season “Halloween” and the retouch processing are combined with “red” lip, “triangular” contour processing, and “cat deformation” eye shape processing.

また近年、写真シール機と特定のキャラクターとのコラボレーションが、期間限定のイベントとして行われることがある。そこで、イベントに応じたコンテンツの合成とレタッチ処理を一括して行うようにしてもよい。   In recent years, a collaboration between a photo sticker and a specific character may be held as a limited-time event. Therefore, content composition and retouch processing according to an event may be performed collectively.

この場合、例えば、テイストチェンジパレット1210に表示される選択ボタンの1つを、イベントに応じたコンテンツの合成とレタッチ処理を一括して行うためのボタンとする。この選択ボタンが選択されることで、編集対象画像に、イベントに応じたコンテンツの合成とレタッチ処理が一括して行われる。   In this case, for example, one of the selection buttons displayed on the taste change palette 1210 is a button for collectively performing content composition and retouch processing according to the event. By selecting this selection button, the composition and retouch processing of content corresponding to the event are collectively performed on the editing target image.

イベントに応じたコンテンツの合成とレタッチ処理としては、事前選択部20に設けられるタッチパネルモニタ71に、イベント期間中に表示されるそのイベントの告知画面の背景に応じたコンテンツの合成とレタッチ処理が行われるようにしてもよい。   As the composition and retouch processing of content according to the event, the composition and retouch processing of content according to the background of the notification screen of the event displayed during the event period is performed on the touch panel monitor 71 provided in the preselection unit 20. You may be made to be.

また、イベントの告知画面の背景を利用者に選択させるようにした場合には、選択された告知画面の背景に応じたコンテンツの合成とレタッチ処理が行われるようにしてもよい。   Further, when the user selects the background of the event notification screen, the composition and retouching processing of the content according to the background of the selected notification screen may be performed.

さらに、イベントに合わせてあらかじめ配布されるシリアルナンバーが、例えば告知画面において入力されるようにした場合には、入力されたシリアルナンバーに応じたコンテンツの合成とレタッチ処理が行われるようにしてもよい。   Further, when a serial number distributed in advance according to an event is input on, for example, a notification screen, content composition and retouch processing corresponding to the input serial number may be performed. .

(同一のボタンを複数回押下する例)
以上においては、押下(選択)された選択ボタンに対応したコンテンツの合成とレタッチ処理が一括して行われるものとした。
(Example of pressing the same button multiple times)
In the above, it is assumed that the composition and retouching processing of the content corresponding to the pressed (selected) selection button are performed in a lump.

これ以外にも、同一のボタンを複数回押下することで、合成されるコンテンツや、施されるレタッチ処理の内容が変わるようにしてもよい。   In addition to this, the content to be synthesized and the details of the retouching process to be performed may be changed by pressing the same button a plurality of times.

例えば、ボタンが連続して押下された回数が奇数回の場合には、コンテンツの合成とレタッチ処理が一括して行われ、ボタンが連続して押下された回数が偶数回の場合には、合成されたコンテンツと施されたレタッチ処理が消去されるようにする。すなわち、ボタンを押下する毎に、コンテンツの合成とレタッチ処理のON/OFFが繰り返されるようにしてもよい。   For example, if the number of times the button is pressed continuously is an odd number of times, the composition and retouch processing of the content are performed at once, and if the number of times the button is pressed continuously is an even number of times, The deleted content and the applied retouching process are deleted. That is, each time the button is pressed, composition of content and ON / OFF of the retouch process may be repeated.

また、ボタンを押下する毎に、レタッチ処理の内容を維持したまま、合成されているコンテンツの色が変化するようにしてもよい。   Alternatively, each time the button is pressed, the color of the synthesized content may change while maintaining the details of the retouching process.

例えば、図77に示されるように、1回目のボタンの押下により、「ピンク」のリップ、「ピンク」のチーク、「ダークブラウン」の眉マスカラが合成される。2回目のボタンの押下により、「レッド」のリップ、「レッド」のチーク、「ブラウン」の眉マスカラが合成される。3回目のボタンの押下により、「オレンジ」のリップ、「オレンジ」のチーク、「ライトブラウン」の眉マスカラが合成される。図77の例では、レタッチ処理として「まる目変形」の目の形状処理は施されたままとされる。   For example, as shown in FIG. 77, a “pink” lip, a “pink” cheek, and a “dark brown” eyebrow mascara are synthesized by first pressing the button. By pressing the button for the second time, a “red” lip, a “red” cheek, and a “brown” eyebrow mascara are synthesized. By pressing the button for the third time, an “orange” lip, an “orange” cheek, and a “light brown” eyebrow mascara are synthesized. In the example of FIG. 77, the “round eye deformation” eye shape process is left as the retouch process.

すなわち、図77の例では、ボタンを押下する毎に、リップ、チーク、眉マスカラの色が変化する。   That is, in the example of FIG. 77, each time the button is pressed, the colors of the lip, cheek, and eyebrow mascara change.

また、図78に示されるように、1回目のボタンの押下により、「ピンク」のリップ、「ピンク」のチーク、「ダークブラウン」の眉マスカラが合成される。2回目のボタンの押下により、「レッド」のリップ、「ピンク」のチーク、「ダークブラウン」の眉マスカラが合成される。3回目のボタンの押下により、「オレンジ」のリップ、「ピンク」のチーク、「ダークブラウン」の眉マスカラが合成される。図78の例では、レタッチ処理として「まる目変形」の目の形状処理は施されたままとされる。   In addition, as shown in FIG. 78, by pressing the button for the first time, a “pink” lip, a “pink” cheek, and a “dark brown” eyebrow mascara are synthesized. By pressing the button for the second time, a “red” lip, a “pink” cheek, and a “dark brown” eyebrow mascara are synthesized. By pressing the button for the third time, an “orange” lip, a “pink” cheek, and a “dark brown” eyebrow mascara are synthesized. In the example of FIG. 78, the “round eye deformation” eye shape process is left as the retouch process.

すなわち、図78の例では、ボタンを押下する毎に、リップの色のみが変化する。   That is, in the example of FIG. 78, each time the button is pressed, only the color of the lip changes.

さらに、ボタンを押下する毎に、合成されているコンテンツを維持したまま、レタッチ処理の内容が変化するようにしてもよい。   Further, each time the button is pressed, the content of the retouch process may be changed while maintaining the synthesized content.

例えば、図79に示されるように、1回目のボタンの押下により、「丸型」の輪郭処理、「たれ目変形」の目の形状処理が施される。2回目のボタンの押下により、「三角型」の輪郭処理、「ねこ目変形」の目の形状処理が施される。3回目のボタンの押下により、「卵型」の輪郭処理、「まる目変形」の目の形状処理が施される。図79の例では、合成される眉マスカラは「ダークブラウン」のままとされる。   For example, as shown in FIG. 79, by pressing the button for the first time, “round” contour processing and “sag deformation” eye shape processing are performed. By pressing the button for the second time, the “triangular” contour processing and the “cat deformation” eye shape processing are performed. By pressing the button for the third time, contour processing of “oval” and eye shape processing of “round eye deformation” are performed. In the example of FIG. 79, the eyebrow mascara to be synthesized is left as “dark brown”.

すなわち、図79の例では、ボタンを押下する毎に、輪郭処理と目の形状処理の内容が変化する。   That is, in the example of FIG. 79, the contents of the contour process and the eye shape process change each time the button is pressed.

また、図80に示されるように、1回目のボタンの押下により、「三角型」の輪郭処理、「たれ目変形」の目の形状処理が施される。2回目のボタンの押下により、「三角型」の輪郭処理、「ねこ目変形」の目の形状処理が施される。3回目のボタンの押下により、「三角型」の輪郭処理、「まる目変形」の目の形状処理が施される。図80の例では、レタッチ処理として「三角型」の輪郭処理は施されたままで、合成される眉マスカラは「ダークブラウン」のままとされる。   Also, as shown in FIG. 80, “triangular” contour processing and “sag deformation” eye shape processing are performed by pressing the button for the first time. By pressing the button for the second time, the “triangular” contour processing and the “cat deformation” eye shape processing are performed. By pressing the button for the third time, “triangular” contour processing and “round-eye deformation” eye shape processing are performed. In the example of FIG. 80, the “triangular” contour process is still performed as the retouch process, and the eyebrow mascara to be synthesized remains “dark brown”.

すなわち、図80の例では、ボタンを押下する毎に、目の形状処理の内容のみが変化する。   That is, in the example of FIG. 80, only the content of the eye shape process changes each time the button is pressed.

さらにまた、ボタンを押下する毎に、合成されているコンテンツを維持したまま、レタッチ処理の度合いが変化するようにしてもよい。   Furthermore, each time the button is pressed, the degree of the retouch process may be changed while maintaining the synthesized content.

例えば、図81に示されるように、1回目のボタンの押下により、「ナチュラル」の目の大きさ処理が施される。2回目のボタンの押下により、「ボリューム」の目の大きさ処理が施される。3回目のボタンの押下により、「スーパーボリューム」の目の大きさ処理が施される。図81の例では、レタッチ処理として「三角型」の輪郭処理は施されたままで、合成される眉マスカラは「ダークブラウン」のままとされる。   For example, as shown in FIG. 81, a “natural” eye size process is performed by pressing the button for the first time. By pressing the button for the second time, the size processing of “volume” is performed. By pressing the button for the third time, the size processing of the “super volume” is performed. In the example of FIG. 81, the “triangular” contour process is still performed as the retouch process, and the eyebrow mascara to be synthesized remains “dark brown”.

すなわち、図81の例では、ボタンを押下する毎に、目の大きさ処理の度合いのみが変化する。   That is, in the example of FIG. 81, each time the button is pressed, only the degree of eye size processing changes.

レタッチ処理の度合いとしては、目の大きさ処理の度合い「ナチュラル」、「ボリューム」、「スーパーボリューム」の他にも、例えば「たれ目変形」の目の形状処理の度合い「たれ目30%」、「たれ目50%」、「たれ目80%」などが適用されてもよい。   As the degree of retouching processing, in addition to the degree of eye size processing “natural”, “volume”, and “super volume”, for example, the degree of eye shape processing of “sag deformation” “sag 30%” “Sagging 50%”, “Satting 80%”, etc. may be applied.

また、図示はしないが、ボタンを押下する毎に、合成されているコンテンツの色が変化するとともに、レタッチ処理の度合いが変化するようにしてもよい。   Although not shown, each time the button is pressed, the color of the synthesized content may change and the degree of the retouching process may change.

上述した例において、ボタンの押下回数の1回目から3回目を1サイクルとして、コンテンツの色やレタッチ処理の内容、レタッチ処理の度合いが、繰り返し変化するようにしてもよい。   In the above-described example, the color of the content, the details of the retouching process, and the degree of the retouching process may be repeatedly changed by setting the first to third button pressings as one cycle.

また、ボタンの押下回数が3回目を超えた場合、コンテンツの色やレタッチ処理の内容、レタッチ処理の度合いが、これ以上変化しないようにしてもよい。   Further, when the number of times the button is pressed exceeds the third time, the color of the content, the details of the retouching process, and the degree of the retouching process may not be changed any more.

さらに、ボタンの押下回数が3回目を超えた場合、コンテンツの色やレタッチ処理の内容、レタッチ処理の度合いが、1つ前の組み合わせに戻るようにしてもよい。   Furthermore, when the number of button presses exceeds the third time, the color of the content, the details of the retouching process, and the degree of the retouching process may be returned to the previous combination.

(テイストチェンジパレットと一発なりきりボタンの組み合わせ)
図74を参照して説明したテイストチェンジパレット1210の機能と、図32を参照して説明した一発なりきりボタン671,672,673の機能とを組み合わせて用いるようにしてもよい。
(Combination of taste change palette and single button)
The function of the taste change pallet 1210 described with reference to FIG. 74 and the function of the one-shot button 671, 672, 673 described with reference to FIG. 32 may be used in combination.

例えば、編集画面上の任意の領域に、テイストチェンジパレット1210に加えて、一発なりきりボタン671,672,673が設けられるようにする。この場合、テイストチェンジパレット1210の選択ボタン1211乃至1213のいずれかと、一発なりきりボタン671,672,673のいずれかを、それぞれ選択可能とする。   For example, in addition to the taste change palette 1210, a one-shot button 671, 672, 673 is provided in an arbitrary area on the editing screen. In this case, one of the selection buttons 1211 to 1213 of the taste change pallet 1210 and one of the one-shot buttons 671, 672, and 673 can be selected.

以下においては、テイストチェンジパレット1210の選択ボタンと、一発なりきりボタンのそれぞれが選択された場合の処理パターンについて説明する。   In the following, a processing pattern when each of the selection button of the taste change palette 1210 and the one-shot button is selected will be described.

(1)後に選択されたボタンの処理が優先される (1) Processing of the button selected later is given priority

・全て差し替える
例えば、一発なりきりボタンが選択された後に、テイストチェンジパレット1210の選択ボタンが選択された場合、撮影画像において、先に選択された一発なりきりボタンによるコンテンツとレタッチ処理が全て消去され、後に選択されたテイストチェンジパレット1210の選択ボタンによるコンテンツとレタッチ処理が反映される。
-Replace all For example, if the selection button of the taste change palette 1210 is selected after the one-shot button is selected, all the contents and retouch processing by the previously selected one-button button are erased in the photographed image. Then, the content and retouch processing by the selection button of the taste change palette 1210 selected later are reflected.

・重複している顔パーツのみ、後に選択されたボタンの処理を反映させる
例えば、一発なりきりボタンが選択された後に、テイストチェンジパレット1210の選択ボタンが選択された場合、撮影画像に写る被写体の目の形状は、後に選択されたテイストチェンジパレット1210の選択ボタンによる目の形状に変更され、さらに、対応するテイストに応じたメイク系のコンテンツが合成される。
-Only the overlapping face part reflects the processing of the button selected later. For example, if the selection button of the taste change palette 1210 is selected after the one-shot button is selected, the subject that appears in the captured image will be reflected. The shape of the eye is changed to the shape of the eye by the selection button of the taste change palette 1210 selected later, and makeup content corresponding to the corresponding taste is synthesized.

(2)選択された順番によらず、一発なりきりボタンの処理が優先される
一発なりきりボタンが選択された後は、テイストチェンジパレット1210の選択ボタンの選択を受け付けないようにする。
(2) Processing of one-shot button is prioritized regardless of the order of selection After selection of one-button button is selected, selection of the selection button of the taste change palette 1210 is not accepted.

具体的には、
・テイストチェンジパレット1210の選択ボタンをグレーアウト表示する
・一発なりきりボタンが選択された後に、テイストチェンジパレット1210の選択ボタンは選択できない旨の警告をポップアップ表示する
・一発なりきりボタンが選択された後に、テイストチェンジパレット1210の選択ボタンが選択されたとしても、その内容を反映させない(ポップアップ表示しない)
In particular,
-The selection button of the taste change palette 1210 is displayed in gray.-After the single button is selected, a warning is displayed that the selection button of the taste change palette 1210 cannot be selected.-After the single button is selected. Even if the selection button of the taste change palette 1210 is selected, the contents are not reflected (no pop-up is displayed).

(3)選択された順番によらず、テイストチェンジパレット1210の選択ボタンの処理が優先される
テイストチェンジパレット1210の選択ボタンが選択された後は、一発なりきりボタンの選択を受け付けないようにする。
(3) Regardless of the order of selection, priority is given to the processing of the selection button of the taste change pallet 1210. After the selection button of the taste change pallet 1210 is selected, the selection of a single button is not accepted. .

具体的には、
・一発なりきりボタンをグレーアウト表示する
・テイストチェンジパレット1210の選択ボタンが選択された後に、一発なりきりボタンは選択できない旨の警告をポップアップ表示する
・テイストチェンジパレット1210の選択ボタンが選択された後に、一発なりきりボタンが選択されたとしても、その内容を反映させない(ポップアップ表示しない)
In particular,
-Gray out the one-shot button-After the selection button of the taste change palette 1210 is selected, a pop-up warning that the single button is not selectable-After the selection button of the taste change palette 1210 is selected Even if a single button is selected, its contents are not reflected (no pop-up is displayed)

(4)顔パーツに対する重複している処理の度合いを平均する
・一発なりきりボタンによる「たれ目変形」の目の形状処理の度合いが「たれ目40%」で、テイストチェンジパレット1210の選択ボタンによる「たれ目変形」の目の形状処理の度合いが「たれ目80%」の場合、目の形状処理の度合いを「たれ目60%」とする
・一発なりきりボタンによる目の形状処理が「ねこ目変形」で、テイストチェンジパレット1210の選択ボタンによる目の形状処理が「たれ目変形」の場合、度合いが「ナチュラル」の目の大きさ処理を施す
(4) Averaging the degree of overlapping processing for face parts. The degree of eye shape processing of “sag eye deformation” with a single button is “40% sagging eye”, and a selection button of the taste change palette 1210. When the degree of eye shape processing of “sag deformation” is “sag 80%”, the degree of eye shape processing is “60% sagging eye”. If the eye shape processing by the selection button of the taste change pallet 1210 is “sag deformation” in “cat deformation”, the eye size processing of “natural” is performed.

(5)顔パーツに対する重複している処理を無効にする
・一発なりきりボタンによる「たれ目変形」の目の形状処理の度合いが「たれ目40%」で、テイストチェンジパレット1210の選択ボタンによる「たれ目変形」の目の形状処理の度合いが「たれ目80%」の場合、目の形状処理を無効にする
・一発なりきりボタンによる目の形状処理が「ねこ目変形」で、テイストチェンジパレット1210の選択ボタンによる目の形状処理が「たれ目変形」の場合、目の形状処理を無効にする
(5) Invalidate the overlapping process for the face part. The degree of the shape processing of the “sag deformation” by the single stroke button is “40% dripping” and the selection button of the taste change palette 1210 is used. If the degree of eye shape processing of “sag eye deformation” is “80% sagging eye”, the eye shape processing is invalidated. • Eye shape processing with a single button is “cat eye deformation”, taste change. When the eye shape processing by the selection button of the palette 1210 is “sag deformation”, the eye shape processing is invalidated.

なお、上述した(1),(4),(5)については、レタッチ処理に限らず、コンテンツの合成も同様にして行われる。   Note that the above-described (1), (4), and (5) are not limited to the retouching process, and content synthesis is performed in the same manner.

<メイク系のコンテンツを選択して合成する例>
以下においては、メイク系のコンテンツを選択して合成する例について説明する。
<Example of selecting makeup content and compositing>
In the following, an example in which makeup content is selected and combined will be described.

図82は、編集画面の例を示す図である。   FIG. 82 is a diagram showing an example of the edit screen.

図82の編集画面において、編集領域512Lの左側には、図16の編集画面におけるメイクパレット513Lに代えて、じゅわちゅるパレット1310が設けられている。じゅわちゅるパレット1310には、選択ボタン1311乃至1313が表示されており、選択ボタン1311乃至1313のいずれかが選択されることで、編集対象画像に写る利用者に、選択された選択ボタンに対応するコンテンツが合成される。   In the edit screen of FIG. 82, a left palette 1310 is provided on the left side of the edit area 512L instead of the make palette 513L in the edit screen of FIG. Selection buttons 1311 to 1313 are displayed on the juwachu pallet 1310. By selecting one of the selection buttons 1311 to 1313, the user who appears in the image to be edited can be selected as the selected selection button. Corresponding content is synthesized.

選択ボタン1311は、編集対象画像の被写体全体を明るくするためのボタンである。   The selection button 1311 is a button for brightening the entire subject of the editing target image.

具体的には、選択ボタン1311が押下されると、編集対象画像における人物領域全体を取得する人物マスク画像が生成され、その人物マスク画像を用いた明るさ調整処理が人物領域に対して施される。   Specifically, when the selection button 1311 is pressed, a person mask image that acquires the entire person area in the image to be edited is generated, and brightness adjustment processing using the person mask image is performed on the person area. The

明るさ調整処理においては、編集対象画像における人物領域の輝度、彩度や明度が、RGB値を変更したり、ガンマ補正を行うなどして調整される。また、明るさ調整処理において、コントラストやシャープネスが調整されるようにしてもよい。   In the brightness adjustment process, the brightness, saturation, and brightness of the person area in the image to be edited are adjusted by changing the RGB value or performing gamma correction. In the brightness adjustment process, contrast and sharpness may be adjusted.

明るさ調整処理は、編集対象画像に写る被写体(人物領域)それぞれに施されてもよいし、編集対象画像に写る被写体のうち、利用者に選択された被写体のみの施されてもよい。   The brightness adjustment process may be performed on each subject (person area) that appears in the image to be edited, or only the subject selected by the user among the subjects that appear in the image to be edited.

また、明るさ調整処理が施される領域は、人物領域に限らず、顔マスク画像により取得される顔領域であってもよいし、髪マスク画像により取得される髪領域であってもよい。さらに、これらのマスク画像を用いず、編集対象画像全体に、明るさ調整処理が施されるようにしてもよいし、編集対象画像において検出された影の部分を除いた領域に、明るさ調整処理が施されるようにしてもよい。   Further, the area on which the brightness adjustment process is performed is not limited to a person area, and may be a face area acquired from a face mask image or a hair area acquired from a hair mask image. Further, brightness adjustment processing may be performed on the entire editing target image without using these mask images, or brightness adjustment may be performed on an area excluding a shadow portion detected in the editing target image. Processing may be performed.

選択ボタン1312は、編集対象画像において選択された被写体の目を濃くするためのボタンである。   The selection button 1312 is a button for darkening the eyes of the subject selected in the editing target image.

具体的には、選択ボタン1312が押下されると、編集対象画像において選択された被写体の目(まつ毛)の部分に、上述したマスカラが合成される。このとき、アイライン、涙袋、カラーコンタクトレンズ、疑似キャッチライトなど、目の部分を合成対象としたコンテンツが一括して合成されてもよい。   Specifically, when the selection button 1312 is pressed, the above-described mascara is combined with the eye (eyelash) portion of the subject selected in the editing target image. At this time, the contents for which the eye portion is to be combined, such as an eyeline, a tear bag, a color contact lens, and a pseudo catchlight, may be combined together.

選択ボタン1312により合成されるコンテンツは、人数コースとして、例えば2人コースが選択された場合には、編集対象画像において選択された被写体の目の部分に合成され、3人以上コースが選択された場合には、編集対象画像の被写体それぞれの目の部分に合成されるようにする。   For example, when a two-person course is selected as the number-of-persons course, the content synthesized by the selection button 1312 is synthesized with the eye part of the selected subject in the image to be edited, and three or more courses are selected. In this case, the image is combined with each eye part of the subject of the image to be edited.

選択ボタン1313は、編集対象画像において選択された被写体の唇にツヤを入れるためのボタンである。   The selection button 1313 is a button for glossing the lips of the subject selected in the editing target image.

具体的には、選択ボタン1313が押下されると、編集対象画像において選択された被写体の唇の部分に、唇のツヤを模したツヤ画像が合成される。   Specifically, when the selection button 1313 is pressed, a gloss image simulating the gloss of the lips is combined with the lip portion of the subject selected in the editing target image.

例えば、選択ボタン1313が押下されると、図83の左側に示されるように、編集対象画像において選択された被写体の顔において、唇領域1330が検出される。唇領域1330が検出されると、図83の右側に示されるように、唇領域1330上に、ツヤ画像1341,1342が合成される。図83の例では、唇領域1330の上唇に対応する部分に、ツヤ画像1341が合成され、唇領域1330の下唇に対応する部分に、ツヤ画像132が合成されている。   For example, when the selection button 1313 is pressed, a lip region 1330 is detected in the face of the subject selected in the editing target image, as shown on the left side of FIG. When the lip region 1330 is detected, gloss images 1341 and 1342 are synthesized on the lip region 1330 as shown on the right side of FIG. In the example of FIG. 83, the gloss image 1341 is synthesized with the portion corresponding to the upper lip of the lip region 1330, and the gloss image 132 is synthesized with the portion corresponding to the lower lip of the lip region 1330.

このようなツヤ画像により、編集対象画像に写る利用者の唇を、潤いのある見た目に仕上げることができる。   With such a glossy image, the user's lips reflected in the image to be edited can be finished with a moist appearance.

また、唇領域に、上述したメイク系のコンテンツであるリップが合成される場合、ツヤ画像は、唇領域に合成されたリップの上に重畳して合成される。これは、唇領域にリップが合成された後に、選択ボタン1313が押下された場合はもちろん、選択ボタン1313が押下された後に、唇領域にリップが合成された場合にも適用される。   Further, when the lip that is the makeup content described above is combined with the lip region, the gloss image is combined with the lip combined with the lip region. This applies not only when the selection button 1313 is pressed after the lip is combined with the lip region, but also when the lip is combined with the lip region after the selection button 1313 is pressed.

なお、上述した場合とは逆に、ツヤ画像が、唇領域に合成されたリップの下に合成されるようにしてもよい。この場合、リップのコンテンツに一定の透過度をもたせることで、自然なツヤを出すことができる。   Contrary to the case described above, the gloss image may be synthesized under the lip synthesized in the lip region. In this case, natural gloss can be obtained by giving the lip content a certain degree of transparency.

ツヤ画像の色は、基本的には白色とされるが、合成対象となる唇領域や、唇領域に合成されるリップの色に応じて、その色が変更されるようにしてもよい。例えば、唇領域に合成されるリップの色が赤色の場合には、赤みがかった白色(淡いピンク色)のツヤ画像が合成されるようにする。   The color of the gloss image is basically white, but the color may be changed according to the lip region to be combined or the color of the lip combined with the lip region. For example, when the color of the lip synthesized in the lip region is red, a reddish white (light pink) gloss image is synthesized.

選択ボタン1313により合成されるツヤ画像は、人数コースとして、例えば2人コースが選択された場合には、編集対象画像において選択された被写体の唇の部分に合成され、3人以上コースが選択された場合には、編集対象画像の被写体それぞれの唇の部分に合成されるようにする。   The gloss image synthesized by the selection button 1313 is synthesized with the lip portion of the subject selected in the image to be edited when, for example, a two-person course is selected as the number of people course, and a course of three or more people is selected. In such a case, the image is combined with each lip portion of the subject in the image to be edited.

上述した選択ボタン1311乃至1313には、それぞれが選択されていない状態では、図82に示されるように「つかう」の文字列が表示される。一方、選択ボタン1311乃至1313が押下され選択されている状態では、その選択ボタンには「OFF」の文字列が表示される。「OFF」の文字列が表示されている選択ボタンが押下されると、その選択ボタンにより施された処理(合成されたコンテンツ)は消去される。   When the selection buttons 1311 to 1313 described above are not selected, a character string “use” is displayed as shown in FIG. On the other hand, when the selection buttons 1311 to 1313 are pressed and selected, a character string “OFF” is displayed on the selection button. When the selection button displaying the character string “OFF” is pressed, the processing (synthesized content) performed by the selection button is deleted.

また、上述した選択ボタン1311乃至1313による処理の対象は、編集領域512Lに表示される編集対象画像のみとするが、編集対象画像となり得る撮影画像全てとしてもよい。   In addition, the target of processing by the selection buttons 1311 to 1313 described above is only the editing target image displayed in the editing area 512L, but may be all the captured images that can be the editing target image.

さらに、タブレット内蔵モニタ131に向かって立つ2人の利用者毎に、編集対象とする撮影画像(キープ画像)を選択させるようにした場合、以下のようにしてもよい。ここでは、2人の利用者は、同一の撮影画像を、タブレット内蔵モニタ131の左右で選択できるものとする。   Further, when a photographed image (keep image) to be edited is selected for each of two users standing toward the tablet built-in monitor 131, the following may be performed. Here, it is assumed that two users can select the same captured image on the left and right of the tablet built-in monitor 131.

例えば、左側の利用者が、編集画面において選択ボタン1311乃至1313(以下、単に選択ボタンという)を押下した場合、編集画面左側の編集領域512Lに表示される編集対象画像のみに処理が反映される。   For example, when the user on the left side presses selection buttons 1311 to 1313 (hereinafter simply referred to as selection buttons) on the editing screen, the process is reflected only on the editing target image displayed in the editing area 512L on the left side of the editing screen. .

左側の利用者が、編集画面において選択ボタンを押下した場合、左側の利用者により選択されたキープ画像全てに処理が反映されるようにしてもよい。このとき、右側の利用者により選択されたキープ画像に、同一の撮影画像が含まれていても、その撮影画像に処理は反映されない。   When the user on the left side presses the selection button on the editing screen, the process may be reflected on all the keep images selected by the user on the left side. At this time, even if the same captured image is included in the keep image selected by the right user, the process is not reflected in the captured image.

左側の利用者が、編集画面において選択ボタンを押下した場合、編集画面左側の編集領域512Lに表示される編集対象画像のみに処理が反映され、右側の利用者により選択されたキープ画像に、同一の撮影画像が含まれている場合には、その撮影画像に処理が反映されるようにする。   When the user on the left side presses the selection button on the editing screen, the process is reflected only on the editing target image displayed in the editing area 512L on the left side of the editing screen, and is the same as the keep image selected by the user on the right side. If the captured image is included, the process is reflected on the captured image.

左側の利用者が、編集画面において選択ボタンを押下した場合、左側の利用者により選択されたキープ画像全てに加えて、右側の利用者により選択されたキープ画像全てに処理が反映されるようにしてもよい。   When the user on the left side presses the selection button on the edit screen, the process is reflected in all the keep images selected by the user on the right side in addition to all the keep images selected by the user on the left side. May be.

左側の利用者が、編集画面において選択ボタンを押下した場合、左側の利用者により選択されたキープ画像全てに処理が反映されるようにしてもよい。このとき、右側の利用者により選択されたキープ画像に、同一の撮影画像が含まれている場合には、その撮影画像に処理が反映されるようにする。   When the user on the left side presses the selection button on the editing screen, the process may be reflected on all the keep images selected by the user on the left side. At this time, if the same captured image is included in the keep image selected by the right user, the process is reflected in the captured image.

なお、じゅわちゅるパレット1310上に、選択ボタン1311乃至1313に加えて、一括ボタンを設け、一括ボタンが押下されたときに、選択ボタン1311乃至1313により施される処理とコンテンツの合成とが一括して行われるようにしてもよい。   In addition to the selection buttons 1311 to 1313, a collective button is provided on the juwachu pallet 1310. When the collective button is pressed, processing performed by the selection buttons 1311 to 1313 and content composition are performed. You may make it carry out collectively.

<携帯端末での処理>
上述した、複数のコンテンツを一括して合成する処理、同一カテゴリの複数のコンテンツを一括して合成する処理、コンテンツの合成とレタッチ処理を一括して行う処理、メイク系のコンテンツを選択して合成する処理が、携帯端末上で動作するアプリケーションによって実現されるようにしてもよい。
<Processing on mobile terminal>
The above-mentioned process for combining multiple contents at once, the process for combining multiple contents of the same category at once, the process for combining contents and retouching at once, and selecting and combining make-up contents The processing to be performed may be realized by an application operating on the mobile terminal.

この場合、写真シール作成装置1から画像取得サイト管理サーバを介して携帯端末に提供された撮影画像を編集対象画像として、上述した処理が実行されるようにする。   In this case, the above-described processing is executed with the photographed image provided from the photo sticker creating apparatus 1 to the portable terminal via the image acquisition site management server as an editing target image.

例えば、画像取得サイトにおいて所定金額の課金を行うことで、1回の写真シール作成ゲームによって得られた複数の撮影画像全てが提供される有料会員の携帯端末では、複数の撮影画像の中から1枚の撮影画像を選択できるようにする。この場合、選択された撮影画像を編集対象画像として、上述した処理が実行されるようにする。   For example, in a paying member's mobile terminal that provides all of a plurality of photographed images obtained by a single photo sticker creation game by charging a predetermined amount at an image acquisition site, one of the plurality of photographed images is selected. Enable to select one shot image. In this case, the above-described processing is executed with the selected photographed image as the editing target image.

一方、画像取得サイトにおいて課金を行わず、1回の写真シール作成ゲームによって得られた複数の撮影画像のうちの1枚のみが提供される無料会員の携帯端末では、その1枚撮影画像を編集対象画像として、上述した処理が実行されるようにする。   On the other hand, for a free member's mobile terminal that provides only one of a plurality of photographed images obtained by one photo sticker creation game without charging at the image acquisition site, edit the one photographed image The above-described processing is executed as the target image.

なお、携帯端末上で動作するアプリケーションによって実現される処理の対象は、写真シール作成装置1から携帯端末に提供された撮影画像に限らず、携帯端末が備えるカメラにより撮影された画像であってもよい。   Note that the target of processing realized by the application running on the mobile terminal is not limited to the captured image provided from the photo sticker creating apparatus 1 to the mobile terminal, but may be an image captured by a camera included in the mobile terminal. Good.

上述した実施の形態では、写真シール作成装置1は、得られた撮影画像や編集画像をシール紙に印刷するとともに、画像取得サイト管理サーバに送信することで利用者の携帯端末に提供する構成を採るものとした。これに限らず、撮影画像や編集画像をシール紙に印刷せずに、画像取得サイト管理サーバに送信することで利用者の携帯端末に提供するのみの構成を採ることも可能である。また逆に、撮影画像や編集画像を画像取得サイト管理サーバに送信せずに、シール紙に印刷するのみの構成を採ることも可能である。   In the embodiment described above, the photo sticker creating apparatus 1 prints the obtained photographed image or edited image on the sticker paper, and transmits it to the image acquisition site management server to provide it to the user's mobile terminal. It was supposed to be taken. However, the present invention is not limited to this, and it is also possible to adopt a configuration in which a captured image or an edited image is not printed on a sticker sheet, but is only provided to the user's mobile terminal by transmitting it to the image acquisition site management server. Conversely, it is also possible to adopt a configuration in which the photographed image or the edited image is not printed on the image acquisition site management server, but only printed on sticker paper.

上述した一連の処理は、ハードウェアにより実行させることもできるし、ソフトウェアにより実行させることもできる。上述した一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、ネットワークや記録媒体からインストールされる。   The series of processes described above can be executed by hardware or can be executed by software. When the above-described series of processing is executed by software, a program constituting the software is installed from a network or a recording medium.

この記録媒体は、例えば、図12に示されるように、装置本体とは別に、写真シール作成装置1の管理者にプログラムを配信するために配布される、そのプログラムが記録されている磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROMおよびDVDを含む)、光磁気ディスク、もしくは半導体メモリなどよりなるリムーバブルメディア319により構成される。また、これらだけでなく、記録媒体は、装置本体にあらかじめ組み込まれた状態で管理者に配信されるプログラムが記録されているROM312や、記憶部316に含まれるハードディスクなどで構成される。   For example, as shown in FIG. 12, the recording medium is distributed to distribute the program to the administrator of the photo sticker creating apparatus 1 separately from the main body of the apparatus, and the magnetic disk on which the program is recorded ( A removable medium 319 including a flexible disk, an optical disk (including a CD-ROM and a DVD), a magneto-optical disk, or a semiconductor memory. In addition to these, the recording medium includes a ROM 312 in which a program to be distributed to the administrator in a state of being incorporated in advance in the apparatus main body, a hard disk included in the storage unit 316, and the like.

なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。   In the present specification, the step of describing the program recorded on the recording medium is not limited to the processing performed in chronological order according to the described order, but is not necessarily performed in chronological order. It also includes processes that are executed individually.

以上において、印刷媒体は、シール紙や写真紙に限られるものではない。例えば、所定のサイズの紙やフィルム、プリペイドカードやIC(Integrated Circuit)カードなどのカード、あるいは、Tシャツなどの布地などに、画像を印刷するようにしてもよい。この場合、1または複数の撮影画像が配置されたシールレイアウト画像が、これらの印刷媒体に印刷されるようにしてもよい。   In the above, the printing medium is not limited to sticker paper or photographic paper. For example, an image may be printed on a predetermined size of paper or film, a card such as a prepaid card or an IC (Integrated Circuit) card, or a cloth such as a T-shirt. In this case, a sticker layout image in which one or a plurality of photographed images are arranged may be printed on these print media.

また、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。   The embodiments of the present technology are not limited to the above-described embodiments, and various modifications can be made without departing from the gist of the present technology.

1 写真シール作成装置
401 事前選択処理部
402 撮影処理部
403 編集処理部
404 印刷処理部
611 複製部
612 合成部
613 レタッチ処理部
614 表示制御部
DESCRIPTION OF SYMBOLS 1 Photo sticker production apparatus 401 Pre-selection process part 402 Image | photographing process part 403 Edit process part 404 Print process part 611 Duplicating part 612 Compositing part 613 Retouch process part 614 Display control part

Claims (12)

利用者を被写体とした撮影を行うことで撮影画像を取得する撮影処理部と、
前記撮影画像に、人物の認識結果に応じた互いに異なるコンテンツが合成され、その少なくともいずれかに、互いに異なるレタッチ処理が施された複数の処理後画像を表示する表示制御部と
を備える写真作成ゲーム機。
A shooting processing unit that acquires a shot image by shooting a user as a subject;
A photo creation game comprising: a display control unit that displays a plurality of post-processed images in which different contents according to a person recognition result are combined with the photographed image and at least one of which is subjected to different retouching processes. Machine.
前記表示制御部は、合成された前記コンテンツに対応した前記レタッチ処理が施された前記処理後画像を表示する
請求項1に記載の写真作成ゲーム機。
The photo creation game machine according to claim 1, wherein the display control unit displays the processed image that has been subjected to the retouch processing corresponding to the combined content.
前記表示制御部は、顔の認識結果に応じた前記コンテンツが合成された前記処理後画像を表示する
請求項2に記載の写真作成ゲーム機。
The photo creation game machine according to claim 2, wherein the display control unit displays the processed image in which the content according to a face recognition result is combined.
前記表示制御部は、前記レタッチ処理として、顔の認識結果に基づいて、顔または顔の一部を加工または修整する画像処理が施された前記処理後画像を表示する
請求項3に記載の写真作成ゲーム機。
The photograph according to claim 3, wherein the display control unit displays the post-processed image subjected to image processing for processing or modifying a face or a part of the face based on a face recognition result as the retouching process. Create game machine.
前記コンテンツは、前記撮影画像に写る複数の前記顔に対して一括して合成され、
前記レタッチ処理は、複数の前記顔に対して一括して施される
請求項3または4に記載の写真作成ゲーム機。
The content is combined at once for a plurality of the faces appearing in the captured image,
The photo creation game machine according to claim 3, wherein the retouching process is performed on a plurality of the faces in a lump.
前記レタッチ処理は、2つの前記顔が認識された場合に、2つの前記顔に対して一括して施される
請求項5に記載の写真作成ゲーム機。
The photographic game machine according to claim 5, wherein the retouching process is performed on the two faces in a lump when the two faces are recognized.
前記レタッチ処理は、複数の前記顔同士が所定距離より近い場合には施されない
請求項5または6に記載の写真作成ゲーム機。
The photo creation game machine according to claim 5, wherein the retouching process is not performed when the plurality of faces are closer than a predetermined distance.
前記表示制御部は、前記人物の認識結果に基づいた位置に配置される第1のコンテンツとともに、前記人物の認識結果に基づいた位置によらない、あらかじめ決められた位置に配置される第2のコンテンツが合成された前記処理後画像を表示する
請求項1乃至7のいずれかに記載の写真作成ゲーム機。
The display control unit includes a first content arranged at a position based on the recognition result of the person and a second content arranged at a predetermined position independent of the position based on the recognition result of the person. The photo creation game machine according to claim 1, wherein the processed image combined with content is displayed.
前記表示制御部は、携帯端末への送信専用の画像の選択候補として、複数の前記処理後画像を表示する
請求項1乃至8のいずれかに記載の写真作成ゲーム機。
The photo creation game machine according to claim 1, wherein the display control unit displays a plurality of the processed images as selection candidates for an image dedicated to transmission to a mobile terminal.
前記利用者の操作に応じて前記撮影画像に対して編集を施す編集処理部をさらに備え、
前記表示制御部は、編集対象となる前記撮影画像に対して、前記コンテンツを合成することと、前記レタッチ処理を施すことを、1回の操作で一括して行うためのサンプル画像として、複数の前記処理後画像を表示する
請求項1乃至8のいずれかに記載の写真作成ゲーム機。
An edit processing unit that edits the captured image in response to an operation of the user;
The display control unit combines a plurality of sample images as a sample image for performing the composition of the content and the retouching process on the captured image to be edited in a single operation. The photo creating game machine according to claim 1, wherein the processed image is displayed.
写真作成ゲーム機が、
利用者を被写体とした撮影を行うことで撮影画像を取得し、
前記撮影画像に、人物の認識結果に応じた互いに異なるコンテンツが合成され、その少なくともいずれかに、互いに異なるレタッチ処理が施された複数の処理後画像を表示する
画像表示方法。
A photo creation game machine
By taking a picture of the user as a subject, a photographed image is acquired,
An image display method in which different contents corresponding to a person recognition result are combined with the photographed image, and at least one of the processed images is subjected to different retouch processes.
コンピュータに、
利用者を被写体とした撮影を行うことで撮影画像を取得し、
前記撮影画像に、人物の認識結果に応じた互いに異なるコンテンツが合成され、その少なくともいずれかに、互いに異なるレタッチ処理が施された複数の処理後画像を表示する
処理を実行させるためのプログラム。
On the computer,
By taking a picture of the user as a subject, a photographed image is acquired,
A program for executing processing for displaying a plurality of post-processing images in which different contents corresponding to a recognition result of a person are combined with at least one of the captured images and different retouching processing is performed.
JP2018154986A 2018-04-11 2018-08-21 Photo creation game machine, image display method, and program Pending JP2019186903A (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018075879 2018-04-11
JP2018075879 2018-04-11

Publications (1)

Publication Number Publication Date
JP2019186903A true JP2019186903A (en) 2019-10-24

Family

ID=68337751

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018154986A Pending JP2019186903A (en) 2018-04-11 2018-08-21 Photo creation game machine, image display method, and program

Country Status (1)

Country Link
JP (1) JP2019186903A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7473778B2 (en) 2019-11-18 2024-04-24 フリュー株式会社 IMAGING APPARATUS, DISPLAY CONTROL METHOD, AND PROGRAM

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016095527A (en) * 2016-01-05 2016-05-26 株式会社メイクソフトウェア Photo-taking game machine and control program of the same
JP2016131027A (en) * 2016-02-01 2016-07-21 フリュー株式会社 Image processing apparatus and image processing method
JP2017032780A (en) * 2015-07-31 2017-02-09 株式会社メイクソフトウェア Photograph shooting play machine
JP2018023069A (en) * 2016-08-05 2018-02-08 フリュー株式会社 Game player for creating photograph and display method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017032780A (en) * 2015-07-31 2017-02-09 株式会社メイクソフトウェア Photograph shooting play machine
JP2016095527A (en) * 2016-01-05 2016-05-26 株式会社メイクソフトウェア Photo-taking game machine and control program of the same
JP2016131027A (en) * 2016-02-01 2016-07-21 フリュー株式会社 Image processing apparatus and image processing method
JP2018023069A (en) * 2016-08-05 2018-02-08 フリュー株式会社 Game player for creating photograph and display method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7473778B2 (en) 2019-11-18 2024-04-24 フリュー株式会社 IMAGING APPARATUS, DISPLAY CONTROL METHOD, AND PROGRAM

Similar Documents

Publication Publication Date Title
JP6607281B2 (en) Photo sticker creation apparatus, display method, and program
US20150206310A1 (en) Image generating apparatus and image generating method
JP5664755B1 (en) Photo sticker creation apparatus and method, and program
JP6213791B2 (en) Image processing apparatus and image processing method
JP2019186903A (en) Photo creation game machine, image display method, and program
JP6477780B2 (en) Photo sticker creation apparatus, photo sticker creation method, and photo sticker creation processing program
JP6792154B2 (en) Photographing game console and image processing method
JP7152687B2 (en) Display control device, display control method, program
JP6262643B2 (en) Image processing apparatus and image processing method
JP7140962B2 (en) Image processing device, control method, and program
JP7132492B2 (en) Image processing device, display control method, and program
JP2021043797A (en) Image processing device, image processing method, and image processing program
JP7074994B2 (en) Photographing game console and image processing method
JP6376421B1 (en) Photo creation game machine, display method, and program
JP7121256B2 (en) PHOTO-CREATION GAME MACHINE, IMAGE PROCESSING METHOD, AND PROGRAM
JP7339515B2 (en) Image processing device, image processing method, and program
JP6982230B2 (en) Photographing game console and image processing method
JP7032642B2 (en) Photo-creating game consoles, editing methods, and programs
JP6558136B2 (en) Image processing apparatus and display control method
JP2020053831A (en) Photo-creating game machine, image processing method, and program
Hurter The Best of portrait photography: Techniques and images from the pros
JP2018064220A (en) Photograph preparation game machine and display method
JP6867587B2 (en) Photographing game consoles, information processing methods, and programs
JP2022176755A (en) Image processing device, image processing method and image processing program
JP2021039654A (en) Image processing device, image processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210721

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220412

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220607

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20221129