JP2014131246A - Device and method for generating photograph seal and program - Google Patents

Device and method for generating photograph seal and program Download PDF

Info

Publication number
JP2014131246A
JP2014131246A JP2012289003A JP2012289003A JP2014131246A JP 2014131246 A JP2014131246 A JP 2014131246A JP 2012289003 A JP2012289003 A JP 2012289003A JP 2012289003 A JP2012289003 A JP 2012289003A JP 2014131246 A JP2014131246 A JP 2014131246A
Authority
JP
Japan
Prior art keywords
image
user
editing
feature amount
composition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012289003A
Other languages
Japanese (ja)
Other versions
JP5541545B1 (en
Inventor
Naoko Kaneda
尚子 金田
Riyo Hagiwara
理予 萩原
Ariyoshi Shibuya
有美 澁谷
Reiko Ishii
礼子 石井
Katsuhiko Tamura
克彦 田村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Furyu Corp
Original Assignee
Furyu Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Furyu Corp filed Critical Furyu Corp
Priority to JP2012289003A priority Critical patent/JP5541545B1/en
Application granted granted Critical
Publication of JP5541545B1 publication Critical patent/JP5541545B1/en
Publication of JP2014131246A publication Critical patent/JP2014131246A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To paste a synthesis image without discomfort with simple operation, to improve a satisfaction level of a user, and to shorten time required for editing work.SOLUTION: A synthesis image superposition section 321 superposes a synthesis image which a user selects on an editing screen at a position which a user designates on an image of an editing object. A superposed partial image processing section 322 performs image processing so that a prescribed feature amount of the synthesis image and a prescribed feature amount of the image of the editing object become closer values in the vicinity of the portion where the synthesis image is superposed in the image of the editing object on which the synthesis image is superposed by the synthesis image superposition section 321. An organ image recognition section 323 recognizes prescribed organs (the eyes, the nose, the mouth, the cheek, the chin, and the like, for example) in the face image.

Description

本技術は、写真シール作成装置および方法、並びにプログラムに関し、特に、簡単な操作で違和感のない合成用画像を貼り付けることを可能にし、利用者の満足度を高めるとともに、編集作業に要する時間を短縮することができるようにする写真シール作成装置および方法、並びにプログラムに関する。   The present technology relates to an apparatus and method for creating a photo sticker, and a program. In particular, the present invention makes it possible to paste a compositing image that does not feel uncomfortable with a simple operation, increasing user satisfaction and reducing the time required for editing. The present invention relates to an apparatus and method for creating a photo sticker that can be shortened, and a program.

利用者を撮影し、撮影画像に対して利用者に編集を行わせ、編集後の画像をシール紙に印刷して提供する写真シール機が知られている。このような写真シール機は娯楽(遊戯)施設等に設置される。   There is known a photo sticker that takes a picture of a user, causes the user to edit the shot image, and prints and provides the edited image on sticker paper. Such a photo sticker is installed in an entertainment facility.

写真シール機によって提供される1ゲームの流れは、通常、撮影空間内にいる利用者を被写体として撮影し、利用者を編集空間に移動させ、編集空間内で行われる操作に従って画像を編集し、編集後の画像である編集済み画像をシール紙に印刷して排出するという流れになる。   The flow of one game provided by the photo-seal machine usually shoots a user in the shooting space as a subject, moves the user to the editing space, edits the image according to operations performed in the editing space, The edited image, which is the edited image, is printed on a sticker sheet and discharged.

近年の写真シール機では、例えば、オリジナリティーのある仕上がりにできるように、多様な編集用の合成用画像(例えば、スタンプ画像)が提供される。   In recent photo stickers, for example, various editing composite images (for example, stamp images) are provided so as to achieve an original finish.

例えば、ゲームの流れの中で編集が行われる際に、編集用のGUIとしてパレットが表示され、利用者は、パレットのボタンを操作するなどして選択された編集ツールでの編集内容に応じたスタンプ画像を選択することができる。そして、利用者が、撮影画像上の所望の位置を指定すると、選択したスタンプ画像が、撮影画像上の指定した位置に貼り付けられた画像が合成画像として得られる(例えば、特許文献1参照)。   For example, when editing is performed in the flow of the game, a palette is displayed as an editing GUI, and the user responds to the editing contents with the editing tool selected by operating a button on the palette. A stamp image can be selected. When the user designates a desired position on the photographed image, an image in which the selected stamp image is pasted at the designated position on the photographed image is obtained as a composite image (see, for example, Patent Document 1). .

しかしながら、特許文献1によると、利用者は、撮影画像に、所望の合成用画像を、指位置を指定して貼り付けることができるが、撮影画像に合成用画像を貼り付ける前段階では、撮影画像に貼り付けられた合成用画像の画像イメージを確認できない。つまり、貼り付けた後段階では撮影画像と合成用画像の画像イメージを確認することができるが、撮影画像と合成用画像がなじまない場合がある。   However, according to Patent Document 1, the user can paste a desired composition image on a captured image by designating a finger position. However, in the stage before pasting the composition image on the captured image, I can't confirm the image of the composite image pasted on the image. That is, the image image of the captured image and the composition image can be confirmed at the stage after pasting, but the captured image and the composition image may not be mixed.

画像がなじまない原因としては、例えば、明るさ、シャープネス、写り、輝度、コントラスト 等の画像イメージが相違することなどが考えられる。   Possible causes of unfamiliar images include, for example, differences in image images such as brightness, sharpness, appearance, brightness, and contrast.

そして、撮影画像と合成用画像がなじまない場合は、合成用画像の貼り付けのやり直しボタンを選択し、貼り付ける編集作業を取り消して、別の合成用画像を選択し、所望の位置に貼り付ける編集作業を行わなければならず、利用者にとって手間のかかる作業となる。   If the captured image and the composite image do not match, select the redo button for pasting the composite image, cancel the pasting editing operation, select another composite image, and paste it at the desired position. Editing work must be performed, which is time consuming for the user.

そこで、編集画面上において、合成用画像に関する画像イメージ、(例えば、濃淡、線の太さ)を選択するボタンであって、画像イメージにおいて5段階の度合いを選択できるボタンを表示する写真シール機も提案されている(例えば、特許文献2参照)。   In view of this, there is also a photo sticker that displays a button for selecting an image image (for example, shading, line thickness) related to the image for synthesis on the editing screen, and a button for selecting the degree of five levels in the image image. It has been proposed (see, for example, Patent Document 2).

特許文献2の技術によれば、スタンプ画像を編集対象画像上に表示しながら繰り返し変更することができ、選択したスタンプ画像を取り消すなどの手順を踏まなくても、スタンプ画像と編集対象画像との重なり具合を確認しつつスタンプ画像を変更することができ、イメージに合ったスタンプ画像を選択することができる   According to the technique of Patent Document 2, the stamp image can be repeatedly changed while being displayed on the editing target image, and the stamp image and the editing target image can be changed without performing a procedure such as canceling the selected stamp image. The stamp image can be changed while checking the overlap, and the stamp image that matches the image can be selected.

特開2012−29072号公報JP 2012-29072 A 特開2007−221748号公報JP 2007-221748 A

しかしながら、特許文献2の技術では、合成用画像を5段階で調整することができるが、5段階の調整だけでは不充分な場合があり、撮影画像と合成用画像の画像イメージが合わない場合があった。   However, in the technique of Patent Document 2, the composition image can be adjusted in five stages. However, there are cases where the adjustment in the five stages is not sufficient, and the captured image and the composition image may not match. there were.

また、この調整のためのボタンを押下することを忘れる利用者もいた。   Some users forgot to press the button for this adjustment.

さらに、画像イメージにおいて5段階の度合いを選択するための作業に要する時間についてもより短縮できるようにすることが望ましい。   Furthermore, it is desirable to be able to further shorten the time required for the work for selecting the degree of five steps in the image.

本発明は、このような状況に鑑みてなされたものであり、簡単な操作で違和感のない合成用画像を貼り付けることを可能にし、利用者の満足度を高めるとともに、編集作業に要する時間を短縮することができるようにするものである。   The present invention has been made in view of such a situation, and it is possible to paste a compositing image without a sense of incongruity with a simple operation, increasing user satisfaction and reducing the time required for editing work. It can be shortened.

本発明の一側面の画像処理装置は、利用者を被写体とする撮影作業により得られた前記利用者の画像である撮影画像に対して編集情報を入力する編集入力作業を行わせ、さらに、得られた編集済みの前記利用者の画像を前記利用者に提供する写真シール作成装置において、前記編集入力作業において、前記撮影画像に合成用画像を重畳するか、または、前記撮影画像に重畳された合成用画像にさらに合成用画像を重畳する合成用画像重畳手段と、前記撮影画像または前記合成用画像の少なくとも一方に対して画像処理を施す画像処理手段とを備え、前記撮影画像の特徴量と、前記合成用画像の特徴量が予め対応づけられており、前記画像処理手段は、前記合成用画像の特徴量が前記予め対応付けられた特徴量により近づくように、または、前記撮影画像の特徴量が前記予め対応付けられた特徴量により近づくように、前記画像処理を施す写真シール作成装置である。   An image processing apparatus according to an aspect of the present invention performs an editing input operation for inputting editing information on a captured image that is an image of the user obtained by a shooting operation with a user as a subject. In the photo sticker creating apparatus that provides the user with the edited user image, the composition image is superimposed on the captured image or superimposed on the captured image in the editing input operation. A synthesis image superimposing unit that further superimposes a synthesis image on the synthesis image; and an image processing unit that performs image processing on at least one of the captured image and the synthesis image; The feature amount of the image for synthesis is associated in advance, and the image processing unit is configured so that the feature amount of the image for synthesis approaches the feature amount associated in advance, or before As closer to the feature amount by the feature that said associated in advance of the captured image, a photo sticker creation apparatus for performing the image processing.

前記撮影画像の特徴量は、撮影時に設定される撮影パラメータに応じて定まる特徴量とされるようにすることができる。   The feature amount of the photographed image can be a feature amount determined according to a photographing parameter set at the time of photographing.

前記画像処理手段は、前記合成用画像の全体または一部として構成される画像、および、前記撮影画像において前記合成用画像が重畳される位置の周辺の所定の範囲内の画素により構成される画像の少なくともいずれか一方に前記画像処理を施すようにすることができる。   The image processing means includes an image configured as a whole or a part of the synthesis image, and an image configured with pixels within a predetermined range around a position where the synthesis image is superimposed on the captured image. The image processing can be performed on at least one of the above.

前記画像処理手段は、ぼかし処理を施すようにすることができる。   The image processing means can perform a blurring process.

前記画像処理手段は、前記合成用画像の透過度を高める処理を施すようにすることができる。   The image processing means may perform a process for increasing the transparency of the composition image.

前記画像処理手段は、前記撮影用画像または前記合成用画像のガンマ補正に関するガンマ値を変更する画像処理を施すようにすることができる。   The image processing means may perform image processing for changing a gamma value related to gamma correction of the shooting image or the composition image.

前記画像処理手段は、前記撮影用画像または前記合成用画像のトーンカーブ特性を変更する画像処理を施すようにすることができる。   The image processing means may perform image processing for changing a tone curve characteristic of the shooting image or the composition image.

前記画像処理手段は、前記撮影用画像または前記合成用画像の平均輝度値を変更する画像処理を施すようにすることができる。   The image processing means may perform image processing for changing an average luminance value of the shooting image or the composition image.

前記画像処理手段は、前記撮影用画像または前記合成用画像のコントラスト値を変更する画像処理を施すようにすることができる。   The image processing means may perform image processing for changing a contrast value of the shooting image or the composition image.

前記画像処理部は、前記撮影用画像または前記合成用画像のエッジの強調度を変更する画像処理を施すようにすることができる。   The image processing unit may perform image processing for changing an edge enhancement degree of the shooting image or the composition image.

前記合成用画像の色が、前記撮影画像において前記合成用画像が重畳される位置の周辺の所定の範囲内の画素により構成される画像の色に対応する色となるように画像処理を施す色変更手段をさらに備えるようにすることができる。   A color on which image processing is performed so that the color of the image for synthesis is a color corresponding to the color of an image composed of pixels within a predetermined range around the position where the image for synthesis is superimposed on the captured image A change means can be further provided.

前記撮影画像の中の利用者の顔画像において所定の器官を認識する器官認識手段をさらに備え、前記合成用画像重畳手段が、前記器官認識手段により認識された器官に前記合成用画像を重畳するようにすることができる。   Organ recognition means for recognizing a predetermined organ in the face image of the user in the captured image is further provided, and the composition image superimposing means superimposes the composition image on the organ recognized by the organ recognition means. Can be.

前記合成用画像が前記撮影画像の中の利用者の顔画像に重畳されることで、前記利用者の顔画像に化粧が施されるようにすることができる。   The composition image is superimposed on the user's face image in the captured image, so that makeup can be applied to the user's face image.

本発明の一側面は、利用者を被写体とする撮影作業により得られた前記利用者の画像である撮影画像に対して編集情報を入力する編集入力作業を行わせ、さらに、得られた編集済みの前記利用者の画像を前記利用者に提供する写真シール作成装置の写真シール作成方法において、合成用画像重畳手段が、前記編集入力作業において、前記撮影画像に合成用画像を重畳するか、または、前記撮影画像に重畳された合成用画像にさらに合成用画像を重畳するステップと、画像処理手段が、前記撮影画像または前記合成用画像の少なくとも一方に対して画像処理を施すステップとを含み、前記撮影画像の特徴量と、前記合成用画像の特徴量が予め対応づけられており、前記画像処理手段が、前記合成用画像の特徴量が前記予め対応付けられた特徴量により近づくように、または、前記撮影画像の特徴量が前記予め対応付けられた特徴量により近づくように、前記画像処理を施す写真シール作成方法である。   One aspect of the present invention allows an editing input operation for inputting editing information to a captured image that is an image of the user obtained by a shooting operation with a user as a subject, and further provides an edited image obtained. In the photo sticker creating method of the photo sticker creating device for providing the user image of the user, the composition image superimposing means superimposes the composition image on the photographed image in the editing input operation, or A step of superimposing a composite image on the composite image superimposed on the photographed image, and a step of performing image processing on at least one of the photographed image or the composite image. The feature amount of the photographed image and the feature amount of the composition image are associated in advance, and the image processing unit associates the feature amount of the composition image with the feature amount. So as to approach more or the like characteristic of the photographed image is closer to the feature amount the associated advance, a photo sticker creation method of applying the image processing.

本発明の一側面は、利用者を被写体とする撮影作業により得られた前記利用者の画像である撮影画像に対して編集情報を入力する編集入力作業を行わせ、さらに、得られた編集済みの前記利用者の画像を前記利用者に提供する写真シール作成装置における処理をコンピュータに実行させるプログラムであって、合成用画像重畳手段が、前記編集入力作業において、前記撮影画像に合成用画像を重畳するか、または、前記撮影画像に重畳された合成用画像にさらに合成用画像を重畳するステップと、画像処理手段が、前記撮影画像または前記合成用画像の少なくとも一方に対して画像処理を施すステップとを含む処理をコンピュータに実行させ、前記撮影画像の特徴量と、前記合成用画像の特徴量が予め対応づけられており、前記画像処理手段が、前記合成用画像の特徴量が前記予め対応付けられた特徴量により近づくように、または、前記撮影画像の特徴量が前記予め対応付けられた特徴量により近づくように、前記画像処理を施すプログラムである。   One aspect of the present invention allows an editing input operation for inputting editing information to a captured image that is an image of the user obtained by a shooting operation with a user as a subject, and further provides an edited image obtained. A program for causing a computer to execute processing in the photo sticker creating apparatus that provides the user's image to the user, wherein the composition image superimposing means applies the composition image to the photographed image in the editing input operation. A step of superimposing or superimposing a composition image on a composition image superimposed on the photographed image, and an image processing means performs image processing on at least one of the photographed image or the composition image A process including a step, wherein the feature amount of the photographed image and the feature amount of the image for synthesis are associated in advance, and the image processing means The program for performing the image processing so that the feature amount of the image for synthesis approaches the feature amount associated in advance or the feature amount of the photographed image approaches the feature amount associated in advance. It is.

本発明の一側面においては、前記編集入力作業において、前記撮影画像に合成用画像が重畳されるか、または、前記撮影画像に重畳された合成用画像にさらに合成用画像が重畳され、前記撮影画像または前記合成用画像の少なくとも一方に対して画像処理が施され、前記撮影画像の特徴量と、前記合成用画像の特徴量が予め対応づけられており、前記画像処理手段が、前記合成用画像の特徴量が前記予め対応付けられた特徴量により近づくように、または、前記撮影画像の特徴量が前記予め対応付けられた特徴量により近づくように、前記画像処理が施される。   In one aspect of the present invention, in the editing input operation, a composite image is superimposed on the captured image, or a composite image is further superimposed on the composite image superimposed on the captured image, and the photographing is performed. Image processing is performed on at least one of the image and the composition image, the feature amount of the captured image and the feature amount of the composition image are associated in advance, and the image processing means The image processing is performed so that the feature amount of the image approaches the feature amount associated in advance or the feature amount of the captured image approaches the feature amount associated in advance.

本発明によれば、簡単な操作で違和感のない合成用画像を貼り付けることを可能にし、利用者の満足度を高めるとともに、編集作業に要する時間を短縮することができる。   According to the present invention, it is possible to paste a compositing image without a sense of incongruity by a simple operation, and it is possible to increase the satisfaction of the user and reduce the time required for editing work.

本発明の一実施の形態に係る写真シール作成装置の外観の構成例を示す斜視図である。It is a perspective view which shows the structural example of the external appearance of the photograph sticker production apparatus which concerns on one embodiment of this invention. 写真シール作成装置の外観を他の角度からみた斜視図である。It is the perspective view which looked at the external appearance of the photograph sticker production apparatus from another angle. 利用者の移動について説明する図である。It is a figure explaining a user's movement. 撮影部の構成例を示す図である。It is a figure which shows the structural example of an imaging | photography part. 背景部の構成例を示す図である。It is a figure which shows the structural example of a background part. 編集部の構成例を示す図である。It is a figure which shows the structural example of an edit part. 事後接客部の構成例を示す図である。It is a figure which shows the structural example of a customer service part after the fact. 写真シール作成装置の内部の構成例を示すブロック図である。It is a block diagram which shows the example of an internal structure of a photograph sticker production apparatus. 制御部の詳細な構成例を示す機能ブロック図である。It is a functional block diagram which shows the detailed structural example of a control part. 図9の編集処理部の詳細な構成例を示すブロック図である。It is a block diagram which shows the detailed structural example of the edit process part of FIG. 写真シール作成ゲーム処理の流れの例を説明するフローチャートである。It is a flowchart explaining the example of the flow of photograph sticker creation game processing. 図11の編集処理において表示される編集画面の例を示す図である。It is a figure which shows the example of the edit screen displayed in the edit process of FIG. 合成用画像の反転の例を説明する図である。It is a figure explaining the example of inversion of the image for a synthesis | combination. 合成用画像の奥行回転の例を説明する図である。It is a figure explaining the example of the depth rotation of the image for a synthesis | combination. 図11の編集処理において表示される編集画面の別の例を示す図である。It is a figure which shows another example of the edit screen displayed in the edit process of FIG. ハイライトを詳細に説明する図である。It is a figure explaining a highlight in detail. 鼻筋のハイライトを詳細に説明する図である。It is a figure explaining the highlight of a nasal muscle in detail. シェーディングを詳細に説明する図である。It is a figure explaining a shading in detail. アイラインの一例を説明する図である。It is a figure explaining an example of an eyeline. 画像合成処理の例を説明するフローチャートである。It is a flowchart explaining the example of an image composition process.

以下、本発明を適用した具体的な実施の形態について、図面を参照しながら詳細に説明する。   Hereinafter, specific embodiments to which the present invention is applied will be described in detail with reference to the drawings.

図1は、写真シール作成装置1の外観の構成例を示す斜視図である。   FIG. 1 is a perspective view showing a configuration example of the appearance of the photographic sticker creating apparatus 1.

写真シール作成装置1は、撮影や編集等の作業を利用者にゲームとして行わせ、撮影画像や編集済み画像を提供する代わりに利用者より代金を受け取るゲーム機である。写真シール作成装置1はゲームセンタなどの店舗に設置される。利用者は1人であることもあるが、主に2人または3人等の複数人である。   The photo sticker creating apparatus 1 is a game machine that allows a user to perform operations such as shooting and editing as a game and receives a price from the user instead of providing a shot image or an edited image. The photo sticker creating apparatus 1 is installed in a store such as a game center. There may be one user, but there are mainly two or three users.

写真シール作成装置1が提供するゲームで遊ぶ利用者は、代金を投入し、自身が被写体となって撮影を行い、撮影によって得られた撮影画像の中から選択した編集対象の画像に対して、背景や前景の画像となる合成用画像や手書きの線画やスタンプ画像を合成する編集機能を用いて編集を行うことにより、撮影画像を彩り豊かな画像にする。利用者は、編集済みの画像が印刷されたシール紙を受け取って一連のゲームを終了させることになる。   A user who plays in the game provided by the photo sticker creating apparatus 1 pays the price, takes a picture of himself as a subject, and selects an image to be edited selected from the shot images obtained by shooting. Editing is performed using an editing function for synthesizing a background image or foreground image, a handwritten line drawing, or a stamp image, thereby making the photographed image rich and colorful. The user receives the sticker sheet on which the edited image is printed and ends the series of games.

図1に示すように、写真シール作成装置1は、主に、撮影ユニット11、編集部12、および事後接客部13から構成される。撮影ユニット11と編集部12が接した状態で設置され、編集部12と事後接客部13が接した状態で設置される。   As shown in FIG. 1, the photo sticker creating apparatus 1 mainly includes a photographing unit 11, an editing unit 12, and a subsequent customer service unit 13. The photographing unit 11 and the editing unit 12 are installed in contact with each other, and the editing unit 12 and the subsequent customer service unit 13 are installed in contact with each other.

撮影ユニット11は、撮影部21と背景部22から構成される。撮影部21と背景部22は所定の距離だけ離れて設置され、撮影部21と背景部22の間に形成される空間である撮影空間において撮影処理が行われる。   The photographing unit 11 includes a photographing unit 21 and a background unit 22. The photographing unit 21 and the background unit 22 are installed with a predetermined distance apart, and photographing processing is performed in a photographing space that is a space formed between the photographing unit 21 and the background unit 22.

撮影部21は撮影処理を利用者に行わせる装置である。撮影部21は、撮影空間に入り、撮影処理を行っている利用者の正面に位置する。撮影空間を正面に臨む面を構成する撮影部21の正面パネル41には、撮影処理時に利用者により用いられるタッチパネルモニタなどが設けられる。撮影空間にいる利用者から見て左側の面を左側面、右側の面を右側面とすると、撮影部21の左側面が側面パネル42Aにより構成され、右側面が側面パネル42B(図示せず)により構成される。   The photographing unit 21 is a device that allows a user to perform photographing processing. The photographing unit 21 enters the photographing space and is located in front of the user who is performing the photographing process. The front panel 41 of the photographing unit 21 that constitutes a surface facing the photographing space in front is provided with a touch panel monitor used by the user during photographing processing. When the left side as viewed from the user in the imaging space is the left side and the right side is the right side, the left side of the imaging unit 21 is constituted by a side panel 42A, and the right side is a side panel 42B (not shown). Consists of.

側面パネル42Aには、複数個のLED(Light Emitting Diode)が埋め込まれて構成されるLED発光部42Lが設けられている。側面パネル42Aの表面には、その全体を覆うように、写真シール作成装置1の製造メーカやその製造メーカと提携している企業の商品やサービス等の広告が印刷された、アクリル板等からなるPOP広告が装着される。そのPOP広告においてLED発光部42Lに対応する部分には、広告として特にアピールされる情報が印刷され、LED発光部42Lの発光によりその情報が強調される(目立つ)ようになる。LED発光部42Lは、図示せぬ側面パネル42Bにも設けられるようにしてもよいし、側面パネル42A,側面パネル42Bのいずれか一方のみに設けられるようにしてもよい。   The side panel 42A is provided with an LED light emitting unit 42L configured by embedding a plurality of LEDs (Light Emitting Diodes). The surface of the side panel 42A is made of an acrylic plate or the like on which advertisements such as products and services of the manufacturer of the photo sticker creating apparatus 1 and companies affiliated with the manufacturer are printed so as to cover the entire surface of the side panel 42A. A POP advertisement is attached. In the POP advertisement, information particularly appealing as an advertisement is printed on a portion corresponding to the LED light emitting unit 42L, and the information is emphasized (conspicuous) by the light emission of the LED light emitting unit 42L. The LED light emitting unit 42L may be provided also on the side panel 42B (not shown), or may be provided only on one of the side panel 42A and the side panel 42B.

背景部22は、正面を向いて撮影処理を行っている利用者の背面側に位置する板状の部材である背面パネル51、背面パネル51の左端に取り付けられ、側面パネル42Aより横幅の狭い板状の部材である側面パネル52A、および、背面パネル51の右端に取り付けられ、側面パネル42Bより横幅の狭い板状の部材である側面パネル52B(図示せず)から構成される。   The background unit 22 is attached to the left end of the rear panel 51 and the rear panel 51, which are plate-like members positioned on the rear side of the user who is performing the photographing process facing the front, and is a plate having a narrower width than the side panel 42A. The side panel 52A (not shown) is a plate-like member that is attached to the right end of the rear panel 51 and is narrower than the side panel 42B.

撮影部21の左側面を構成する側面パネル42Aと背景部22の側面パネル52Aは、ほぼ同一平面に設けられ、それぞれの上部が板状の部材である連結部23Aによって、それぞれの下部が、例えば金属製の略コの字型の部材である連結部23A’によって連結される。また、図示されないが、撮影部21の右側面を構成する側面パネル42Bと背景部22の側面パネル52Bは、ほぼ同一平面に設けられ、それぞれの上部が板状の部材である連結部23Bによって、それぞれの下部が、例えば金属製の略コの字型の部材である連結部23B’によって連結される。   The side panel 42A constituting the left side surface of the photographing unit 21 and the side panel 52A of the background unit 22 are provided on substantially the same plane, and each lower part is formed by, for example, a connecting part 23A having a plate-like member. It is connected by a connecting portion 23A ′, which is a metal substantially U-shaped member. Although not shown, the side panel 42B that constitutes the right side surface of the photographing unit 21 and the side panel 52B of the background unit 22 are provided on substantially the same plane, and each upper part is connected by a connecting unit 23B that is a plate-like member. Each lower part is connected by connection part 23B 'which is a substantially U-shaped member made of metal, for example.

撮影部21の側面パネル42A、連結部23A、および背景部22の側面パネル52Aに囲まれることによって形成される開口が撮影空間の出入り口G1となる。図示されないが、撮影部21の側面パネル42B、連結部23B、および背景部22の側面パネル52Bに囲まれることによって形成される開口も撮影空間の出入り口G2となる。   An opening formed by being surrounded by the side panel 42 </ b> A of the photographing unit 21, the connecting part 23 </ b> A, and the side panel 52 </ b> A of the background part 22 becomes an entrance G <b> 1 of the photographing space. Although not shown, an opening formed by being surrounded by the side panel 42B of the photographing unit 21, the connecting part 23B, and the side panel 52B of the background 22 is also an entrance G2 of the photographing space.

背景部22の上部には、背面パネル51、側面パネル52A、および側面パネル52Bに支持される形で背景カーテンユニット25が設けられる。背景カーテンユニット25には、色または柄の異なる、背景に利用される巻き取り式の背景カーテンが複数収納される。背景カーテンユニット25は、撮影部21に設けられたカメラ等による撮影と連動して動作し、撮影の際に、例えば利用者により選択された色のカーテンを下ろし、その他のカーテンを巻き取る。   The background curtain unit 25 is provided above the background portion 22 so as to be supported by the back panel 51, the side panel 52A, and the side panel 52B. The background curtain unit 25 stores a plurality of winding-type background curtains having different colors or patterns and used for the background. The background curtain unit 25 operates in conjunction with photographing by a camera or the like provided in the photographing unit 21. At the time of photographing, for example, the curtain of the color selected by the user is lowered and the other curtains are wound up.

なお、背景カーテンユニット25に収納される背景カーテンとしては、複数枚のカーテンを1枚のクロマキ用のカーテンとして使用する昇降式カーテンを用意してもよい。また、クロマキ用のカーテンを予め撮影空間の背面となる背面パネル51に張り付けるとともに、合成用の背景画像を複数種類用意し、撮影処理や編集処理において、利用者が所望する背景画像をカーテンの部分に合成することができるようにしてもよい。   In addition, as a background curtain accommodated in the background curtain unit 25, you may prepare the raising / lowering curtain which uses several curtains as one curtain for curtains. In addition, a black curtain is pasted on the rear panel 51, which is the back of the shooting space, and a plurality of background images for synthesis are prepared, and the background image desired by the user is captured in the shooting process and editing process. It may be possible to synthesize it into parts.

撮影空間の上方には、撮影部21の正面パネル41、連結部23A、連結部23B、および背景カーテンユニット25に囲まれる開口が形成され、その開口の一部を覆うように天井ストロボユニット24が設けられる。天井ストロボユニット24の一端が連結部23Aに固定され、他端が連結部23Bに固定される。天井ストロボユニット24は、撮影に合わせて撮影空間内に向けて発光するストロボを内蔵する。天井ストロボユニット24を構成するストロボの内部には蛍光灯が設けられており、撮影空間の照明としても機能する。   An opening surrounded by the front panel 41 of the photographing unit 21, the connecting part 23A, the connecting part 23B, and the background curtain unit 25 is formed above the photographing space, and the ceiling strobe unit 24 covers the part of the opening. Provided. One end of the ceiling strobe unit 24 is fixed to the connecting portion 23A, and the other end is fixed to the connecting portion 23B. The ceiling strobe unit 24 has a built-in strobe that emits light toward the photographing space in accordance with photographing. A fluorescent lamp is provided inside the strobe constituting the ceiling strobe unit 24, and also functions as illumination of the photographing space.

なお、撮影処理においては、撮影画像における被写体の写りを変更するための撮影パラメータが設定されるようになされている。   In the shooting process, shooting parameters for changing the image of the subject in the shot image are set.

被写体の写りは、撮影処理において、撮影前または撮影後に利用者により選択され、撮影画像に写る被写体の明るさなどを決定するものであり、例えば、「かわいい系」、「きれい系」等が用意されている。撮影処理において設定された撮影パラメータは、例えば、撮影画像と対応付けられて保存されるようになされている。   The image of the subject is selected by the user before or after shooting in the shooting process, and determines the brightness of the subject in the shot image. For example, “cute” and “beautiful” are available. Has been. The shooting parameters set in the shooting process are stored in association with the shot image, for example.

編集部12は、撮影処理によって得られた画像を編集する処理である編集処理を利用者に行わせる装置である。編集部12は、一方の側面が撮影部21の正面パネル41の背面に接するように撮影ユニット11に連結して設けられる。編集部12には、編集処理時に利用者により用いられるタブレット内蔵モニタなどの構成が設けられる。   The editing unit 12 is a device that allows a user to perform editing processing, which is processing for editing an image obtained by shooting processing. The editing unit 12 is provided so as to be connected to the photographing unit 11 so that one side surface thereof is in contact with the back surface of the front panel 41 of the photographing unit 21. The editing unit 12 is provided with a configuration such as a tablet built-in monitor used by the user during editing processing.

図1に示す編集部12の構成を正面側の構成とすると、2組の利用者が同時に編集処理を行うことができるように、編集部12の正面側と背面側には編集処理に用いられる構成がそれぞれ設けられる。   If the configuration of the editing unit 12 shown in FIG. 1 is a front-side configuration, the editing unit 12 is used for editing processing on the front side and the back side so that two sets of users can perform editing processing simultaneously. Each configuration is provided.

編集部12の正面側は、床面に対して垂直な面であり、側面パネル42Aとほぼ平行な面である面71と、面71の上方に形成された斜面72から構成され、編集処理に用いられる構成が斜面72に設けられる。斜面72の左側には、柱状の形状を有し、照明装置74の一端を支持する支持部73Aが設けられる。支持部73Aの上面にはカーテンレール26を支持する支持部75が設けられる。斜面72の右側にも、照明装置74の他端を支持する支持部73B(図2)が設けられる。   The front side of the editing unit 12 is a surface perpendicular to the floor surface, and is composed of a surface 71 that is substantially parallel to the side panel 42A, and a slope 72 formed above the surface 71. The configuration used is provided on the slope 72. On the left side of the slope 72, a support portion 73A that has a columnar shape and supports one end of the lighting device 74 is provided. A support portion 75 that supports the curtain rail 26 is provided on the upper surface of the support portion 73A. A support portion 73 </ b> B (FIG. 2) that supports the other end of the lighting device 74 is also provided on the right side of the slope 72.

編集部12の上方にはカーテンレール26が取り付けられる。カーテンレール26は、上から見たときの形状がコの字状となるように3本のレール26A乃至26Cを組み合わせて構成される。平行に設けられるレール26Aと26Bの一端は、連結部23Aと連結部23Bにそれぞれ固定され、他端に残りの一本のレール26Cの両端が接合される。   A curtain rail 26 is attached above the editing unit 12. The curtain rail 26 is configured by combining three rails 26A to 26C so that the shape when viewed from above is a U-shape. One end of the rails 26A and 26B provided in parallel is fixed to the connecting portion 23A and the connecting portion 23B, respectively, and both ends of the remaining one rail 26C are joined to the other end.

カーテンレール26には、編集部12の正面前方の空間と背面前方の空間の内部が外から見えないようにカーテンが取り付けられる。カーテンレール26に取り付けられたカーテンにより囲まれる編集部12の正面前方の空間と背面前方の空間が、利用者が編集処理を行う編集空間となる。   A curtain is attached to the curtain rail 26 so that the inside of the space in front of the editing unit 12 and the space in front of the back cannot be seen from the outside. The space in front of the editing unit 12 and the space in front of the back of the editing unit 12 surrounded by the curtain attached to the curtain rail 26 are editing spaces in which the user performs editing processing.

図2は、写真シール作成装置1を別の角度から見た斜視図である。   FIG. 2 is a perspective view of the photo sticker creating apparatus 1 as seen from another angle.

事後接客部13は事後接客処理を利用者に行わせる装置である。事後接客処理には、撮影画像や編集済みの画像を携帯電話機などの携帯端末に送信する処理、ミニゲームを利用者に行わせる処理、アンケートに答えさせる処理などが含まれる。   The subsequent customer service unit 13 is a device that allows the user to perform the subsequent customer service process. Subsequent customer service processing includes processing for transmitting a photographed image or edited image to a mobile terminal such as a mobile phone, processing for allowing a user to play a mini game, processing for answering a questionnaire, and the like.

図2に示すように、事後接客部13は、所定の厚さを有する板状の筐体を有しており、編集部12の左側面に接合されて設けられる。事後接客部13の正面には、事後接客処理時に利用者により用いられるタブレット内蔵モニタや、撮影画像や編集済みの画像が印刷されたシール紙が排出される排出口などが設けられる。事後接客部13の正面前方の空間が、シール紙への印刷が終わるのを待っている利用者が事後接客処理を行う事後接客空間となる。   As shown in FIG. 2, the post-service customer unit 13 has a plate-shaped casing having a predetermined thickness, and is provided by being joined to the left side surface of the editing unit 12. On the front side of the post-service unit 13, there are provided a tablet built-in monitor used by the user at the time of post-service processing, a discharge port through which sticker paper on which a photographed image or an edited image is printed is discharged. The space in front of the front-end customer service unit 13 becomes a rear-end customer service space where a user waiting for printing on the sticker paper to perform post-service processing.

ここで、写真シール作成ゲームの流れと、それに伴う利用者の移動について図3を参照して説明する。図3は、写真シール作成装置1を上から見た平面図である。   Here, the flow of the photo sticker creation game and the accompanying movement of the user will be described with reference to FIG. FIG. 3 is a plan view of the photo sticker creating apparatus 1 as viewed from above.

写真シール作成装置1の利用者は、白抜き矢印#1で示すように出入り口G1から、または白抜き矢印#2で示すように出入り口G2から、撮影部21と背景部22の間に形成された撮影空間A1に入り、撮影部21に設けられたカメラやタッチパネルモニタなど利用して撮影処理を行う。   The user of the photo sticker creating apparatus 1 is formed between the photographing part 21 and the background part 22 from the entrance G1 as indicated by the white arrow # 1 or from the entrance G2 as indicated by the white arrow # 2. The photographing space A1 is entered, and photographing processing is performed using a camera or a touch panel monitor provided in the photographing unit 21.

撮影処理を終えた利用者は、白抜き矢印#3で示すように出入り口G1を使って撮影空間A1から出て編集空間A2−1に移動するか、白抜き矢印#4で示すように出入り口G2を使って撮影空間A1から出て編集空間A2−2に移動する。   The user who has finished the shooting process exits the shooting space A1 and moves to the editing space A2-1 using the doorway G1 as indicated by the white arrow # 3, or moves to the editing space A2-1 as indicated by the white arrow # 4. To leave the shooting space A1 and move to the editing space A2-2.

編集空間A2−1は、編集部12の正面側の編集空間であり、編集空間A2−2は、編集部12の背面側の編集空間である。編集空間A2−1と編集空間A2−2のいずれの空間に移動するのかが、撮影部21のタッチパネルモニタの画面表示などによって案内される。例えば2つの編集空間のうちの空いている方の空間が移動先として案内される。編集空間A2−1または編集空間A2−2に移動した利用者は編集処理を開始する。編集空間A2−1の利用者と、編集空間A2−2の利用者は同時に編集処理を行うことができる。   The editing space A2-1 is an editing space on the front side of the editing unit 12, and the editing space A2-2 is an editing space on the back side of the editing unit 12. Which of the editing space A2-1 and the editing space A2-2 is moved is guided by the screen display of the touch panel monitor of the photographing unit 21 or the like. For example, the empty space of the two editing spaces is guided as the destination. The user who has moved to the editing space A2-1 or the editing space A2-2 starts editing processing. The user of the editing space A2-1 and the user of the editing space A2-2 can perform editing processing at the same time.

編集処理が終了した後、撮影画像や編集済みの画像の中から選択された画像の印刷が開始される。画像の印刷中、編集処理を終えた利用者は、編集空間A2−1で編集処理を行っていた場合には白抜き矢印#5で示すように編集空間A2−1から事後接客空間A3に移動して事後接客処理を行う。また、編集処理を終えた利用者は、編集空間A2−2で編集処理を行っていた場合には白抜き矢印#6で示すように編集空間A2−2から事後接客空間A3に移動し、事後接客空間A3において事後接客処理を行う。   After the editing process is finished, printing of an image selected from the photographed image and the edited image is started. During printing of the image, the user who has finished the editing process moves from the editing space A2-1 to the subsequent customer service space A3 as indicated by the white arrow # 5 if the editing process has been performed in the editing space A2-1. Then, the customer service is processed after the fact. In addition, when the editing process is completed in the editing space A2-2, the user who has finished the editing process moves from the editing space A2-2 to the post-service area A3 as indicated by the white arrow # 6. Post service processing is performed in the customer service space A3.

画像の印刷が終了したとき、利用者は、事後接客部13に設けられた排出口からシール紙を受け取り、一連の写真シール作成ゲームを終えることになる。   When the printing of the image is finished, the user receives the sticker paper from the outlet provided in the post-service section 13 and finishes a series of photo sticker creation games.

次に、写真シール作成装置1を構成する各部の構成について説明する。   Next, the structure of each part which comprises the photograph sticker production apparatus 1 is demonstrated.

図4は、撮影部21の正面の構成例を示す図である。撮影部21は、正面パネル41、側面パネル42A、および側面パネル42Bが、箱状の形状を有するベース部43に取り付けられることによって構成される。   FIG. 4 is a diagram illustrating a configuration example of the front of the photographing unit 21. The photographing unit 21 is configured by attaching a front panel 41, a side panel 42A, and a side panel 42B to a base unit 43 having a box shape.

正面パネル41は撮影空間A1で撮影処理を行う利用者の正面に位置し、側面パネル42Aと側面パネル42Bは、それぞれ、撮影空間A1で撮影処理を行う利用者の左側、右側に位置する。   The front panel 41 is positioned in front of the user who performs the shooting process in the shooting space A1, and the side panel 42A and the side panel 42B are positioned on the left side and the right side of the user who performs the shooting process in the shooting space A1, respectively.

正面パネル41の中央から上側には撮影・表示ユニット81が設けられる。撮影・表示ユニット81は、カメラ91、タッチパネルモニタ92、および正面ストロボ93から構成される。   A photographing / display unit 81 is provided above the center of the front panel 41. The photographing / display unit 81 includes a camera 91, a touch panel monitor 92, and a front strobe 93.

カメラ91は、レンズやCCD(Charge Coupled Device)などの撮像素子により構成され、撮影空間A1にいる利用者を撮影する。カメラ91により取り込まれた動画像は、タッチパネルモニタ92にリアルタイムで表示される。利用者により撮影が指示されたときなどの所定のタイミングでカメラ91により取り込まれた画像は撮影画像(静止画像)として保存される。   The camera 91 is configured by an imaging device such as a lens or a CCD (Charge Coupled Device), and photographs a user in the photographing space A1. The moving image captured by the camera 91 is displayed on the touch panel monitor 92 in real time. An image captured by the camera 91 at a predetermined timing such as when a user gives an instruction to shoot is saved as a photographic image (still image).

また、カメラ91は、従来の写真シール作成装置と比較してより高い位置に設置されている。具体的には、写真シール作成装置1の設置面からカメラ91のレンズ中心までの高さは1630mm、レンズの光軸と水平面とのなす角度(前傾角度)は24°とされる。このような構造により、利用者は前方斜め上から撮影されるようになる。結果として、撮影画像において、利用者はやや上を見上げた状態となり、利用者の目が大きく、かつ顔が小顔に写るようになる。   Further, the camera 91 is installed at a higher position as compared with the conventional photo sticker creating apparatus. Specifically, the height from the installation surface of the photo sticker creating apparatus 1 to the lens center of the camera 91 is 1630 mm, and the angle (forward tilt angle) between the optical axis of the lens and the horizontal plane is 24 °. With such a structure, the user can take an image from diagonally forward. As a result, in the photographed image, the user looks up slightly, the user's eyes are large, and the face appears as a small face.

カメラ91の下側に設けられたタッチパネルモニタ92は、LCD(Liquid Crystal Display)などのモニタと、それに積層されたタッチパネルにより構成される。タッチパネルモニタ92は、カメラ91により取り込まれた動画像を表示するライブビューモニタとしての機能と、各種のGUI(Graphical User Interface)画像を表示し、利用者の選択操作をタッチパネルにより受け付ける機能とを備えている。タッチパネルモニタ92には、適宜、撮影結果としての静止画像や、背景等の画像が合成された後の動画像が表示される。   The touch panel monitor 92 provided on the lower side of the camera 91 includes a monitor such as an LCD (Liquid Crystal Display) and a touch panel laminated thereon. The touch panel monitor 92 has a function as a live view monitor that displays a moving image captured by the camera 91 and a function that displays various GUI (Graphical User Interface) images and accepts a user's selection operation through the touch panel. ing. On the touch panel monitor 92, a still image as a photographing result and a moving image after an image such as a background is combined are displayed as appropriate.

カメラ91の上側および左右を囲むように発光面(複数枚の乳白アクリル板)が設けられた正面ストロボ93は、他のストロボと同様にカメラ91による撮影に合わせて発光し、被写体としての利用者の顔付近を正面から照射する。   A front strobe 93 provided with a light emitting surface (a plurality of milky white acrylic plates) so as to surround the upper and left and right sides of the camera 91 emits light in accordance with the photographing by the camera 91 and is a user as a subject. Irradiate near the face of.

正面パネル41には、撮影・表示ユニット81の上方に上ストロボ82が設置される。上ストロボ82は、利用者を上前方から照射する。   On the front panel 41, an upper strobe 82 is installed above the photographing / display unit 81. The upper strobe 82 irradiates the user from the upper front.

ベース部43には利用者の足元を照射する足元ストロボ83も設けられる。上ストロボ82および足元ストロボ83の内部には蛍光灯が設けられており、天井ストロボユニット24を構成するストロボの内部の蛍光灯と合わせて、撮影空間A1内の照明として用いられる。各蛍光灯の発光量が調整されることによって、または、発光させる蛍光灯の数が調整されることによって、撮影空間A1内の明るさが、利用者が行っている撮影処理の内容に応じて適宜調整される。   The base unit 43 is also provided with a foot strobe 83 that irradiates the user's foot. A fluorescent lamp is provided inside the upper strobe 82 and the foot strobe 83, and is used as illumination in the photographing space A1 together with the fluorescent lamp inside the strobe constituting the ceiling strobe unit 24. By adjusting the light emission amount of each fluorescent lamp, or by adjusting the number of fluorescent lamps to emit light, the brightness in the shooting space A1 depends on the content of the shooting process performed by the user. Adjust as appropriate.

足元ストロボ83の右側には、利用者がお金を投入する硬貨投入返却口84が設けられる。   On the right side of the foot strobe 83, a coin insertion / return port 84 through which a user inserts money is provided.

ベース部43の上面の左右に形成されるスペース43Aおよび43Bは、撮影処理を行う利用者が手荷物等を置くための荷物置き場として用いられる。正面パネル41の例えば天井付近には、撮影処理の案内音声、BGM(Back Ground Music)、効果音等の音を出力するスピーカも設けられる。   Spaces 43A and 43B formed on the left and right sides of the upper surface of the base portion 43 are used as a luggage storage place for a user who performs a photographing process to place baggage and the like. For example, near the ceiling of the front panel 41, a speaker for outputting sound such as guidance sound for photographing processing, BGM (Back Ground Music), and sound effects is also provided.

図5は、背景部22の撮影空間A1側の構成例を示す図である。   FIG. 5 is a diagram illustrating a configuration example of the background portion 22 on the photographing space A1 side.

上述したように、背面パネル51の上方には背景カーテンユニット25が設けられる。背景カーテンユニット25のほぼ中央には、撮影空間A1内で撮影処理を行っている利用者を後方中央から照射する背面中央ストロボ101が取り付けられる。   As described above, the background curtain unit 25 is provided above the back panel 51. Near the center of the background curtain unit 25, a back center strobe 101 that irradiates a user who is performing a photographing process in the photographing space A1 from the rear center is attached.

背面パネル51の、出入り口G1側の位置には、撮影空間A1内で撮影処理を行っている利用者を左後方から照射する背面左ストロボ102が取り付けられる。また、背面パネル51の、出入り口G2側の位置には、撮影空間A1内で撮影処理を行っている利用者を右後方から照射する背面右ストロボ103が取り付けられる。   A rear left strobe 102 for irradiating a user who is performing a photographing process in the photographing space A1 from the left rear is attached to the rear panel 51 on the doorway G1 side. Further, a rear right strobe 103 that irradiates a user who is performing a photographing process in the photographing space A1 from the right rear is attached to a position of the rear panel 51 on the doorway G2 side.

図6は、編集部12の正面側(編集空間A2−1側)の構成例を示す図である。   FIG. 6 is a diagram illustrating a configuration example of the editing unit 12 on the front side (editing space A2-1 side).

斜面72のほぼ中央には、タブレット内蔵モニタ131が設けられる。タブレット内蔵モニタ131を挟んで左側にタッチペン132Aが設けられ、右側にタッチペン132Bが設けられる。   A tablet built-in monitor 131 is provided at substantially the center of the slope 72. A touch pen 132A is provided on the left side of the tablet built-in monitor 131, and a touch pen 132B is provided on the right side.

タブレット内蔵モニタ131は、タッチペン132Aまたは132Bを用いて操作入力が可能なタブレットがLCDなどのモニタに重畳して設けられることによって構成される。タブレット内蔵モニタ131には、例えば、編集対象画像として選択された撮影画像の編集に用いられる画面である編集画面が表示される。2人で同時に編集作業を行う場合、タッチペン132Aは一方の利用者により用いられ、タッチペン132Bは他方の利用者により用いられる。   The tablet built-in monitor 131 is configured by superimposing a tablet capable of operation input using the touch pen 132A or 132B on a monitor such as an LCD. On the tablet built-in monitor 131, for example, an editing screen that is a screen used for editing a captured image selected as an image to be edited is displayed. When two people perform editing work simultaneously, the touch pen 132A is used by one user, and the touch pen 132B is used by the other user.

編集部12の左側には事後接客部13が設けられる。   On the left side of the editing unit 12, a post-service unit 13 is provided.

図7は、事後接客部13の正面側の構成例を示す図である。   FIG. 7 is a diagram illustrating a configuration example of the front side of the post-service unit 13.

事後接客部13の上方中央にはタブレット内蔵モニタ161が設けられる。タブレット内蔵モニタ161を挟んで左側にタッチペン162Aが設けられ、右側にタッチペン162Bが設けられる。タブレット内蔵モニタ161もタブレット内蔵モニタ131と同様に、タッチペン162Aまたは162Bを用いて操作入力が可能なタブレットがLCDなどのモニタに重畳して設けられることによって構成される。タブレット内蔵モニタ161には、ミニゲームなどの事後接客処理に用いられる画面が表示される。   A monitor 161 with a built-in tablet is provided at the upper center of the post-service section 13. A touch pen 162A is provided on the left side of the tablet built-in monitor 161, and a touch pen 162B is provided on the right side. Similarly to the tablet built-in monitor 131, the tablet built-in monitor 161 is configured by superimposing a tablet capable of performing an operation input using the touch pen 162A or 162B on a monitor such as an LCD. On the tablet built-in monitor 161, a screen used for post-service processing such as a mini game is displayed.

タブレット内蔵モニタ161の下にはシール紙排出口163が設けられ、タブレット内蔵モニタ161の上にはスピーカ164が設けられる。   A sticker paper discharge port 163 is provided below the tablet built-in monitor 161, and a speaker 164 is provided above the tablet built-in monitor 161.

シール紙排出口163には、編集空間A2−1の利用者が編集処理を行うことによって作成した画像が印刷されたシール紙、または、編集空間A2−2の利用者が編集処理を行うことによって作成した画像が印刷されたシール紙が排出される。編集部12の内部にはプリンタが設けられており、画像の印刷がそのプリンタにより行われる。   In the sticker paper outlet 163, sticker paper on which an image created by the user of the editing space A2-1 is edited or printed by the user of the editing space A2-2 is edited. The sticker paper on which the created image is printed is discharged. A printer is provided inside the editing unit 12, and printing of images is performed by the printer.

スピーカ164は、事後接客処理の案内音声、BGM、効果音等の音を出力する。   The speaker 164 outputs sounds such as guidance voice, BGM, and sound effects for post-service processing.

次に、写真シール作成装置1の内部構成について説明する。図8は、写真シール作成装置1の内部の構成例を示すブロック図である。上述した構成と同じ構成には同じ符号を付してある。重複する説明については適宜省略する。   Next, the internal configuration of the photo sticker creating apparatus 1 will be described. FIG. 8 is a block diagram illustrating an internal configuration example of the photo sticker creating apparatus 1. The same code | symbol is attached | subjected to the same structure as the structure mentioned above. The overlapping description will be omitted as appropriate.

制御部201はCPU(Central Processing Unit)などよりなり、ROM(Read Only Memory)206や記憶部202に記憶されているプログラムを実行し、写真シール作成装置1の全体の動作を制御する。制御部201には、記憶部202、通信部203、ドライブ204、ROM206、RAM(Random Access Memory)207が接続される。制御部201には、撮影部208、編集部209、および事後接客部210の各構成も接続される。   The control unit 201 includes a CPU (Central Processing Unit) and the like, executes a program stored in a ROM (Read Only Memory) 206 and a storage unit 202, and controls the overall operation of the photo sticker creating apparatus 1. A storage unit 202, a communication unit 203, a drive 204, a ROM 206, and a RAM (Random Access Memory) 207 are connected to the control unit 201. The control unit 201 is also connected with each configuration of the photographing unit 208, the editing unit 209, and the post-service unit 210.

記憶部202は、ハードディスクやフラッシュメモリなどの不揮発性の記憶媒体からなり、制御部201から供給された各種の設定情報等を記憶する。記憶部202に記憶されている情報は制御部201により適宜読み出される。   The storage unit 202 includes a nonvolatile storage medium such as a hard disk or a flash memory, and stores various setting information supplied from the control unit 201. Information stored in the storage unit 202 is appropriately read out by the control unit 201.

通信部203は、インターネットなどのネットワークのインタフェースであり、制御部201による制御に従って外部の装置と通信を行う。   A communication unit 203 is an interface of a network such as the Internet, and communicates with an external device according to control by the control unit 201.

ドライブ204には、光ディスクや半導体メモリなどよりなるリムーバブルメディア205が適宜装着される。ドライブ204によりリムーバブルメディア205から読み出されたコンピュータプログラムやデータは、制御部201に供給され、記憶部202に記憶されたり、インストールされたりする。   A removable medium 205 made of an optical disk, a semiconductor memory, or the like is appropriately attached to the drive 204. Computer programs and data read from the removable medium 205 by the drive 204 are supplied to the control unit 201 and stored in the storage unit 202 or installed.

ROM206には、制御部201において実行されるプログラムやデータが記憶されている。RAM207は、制御部201が処理するデータやプログラムを一時的に記憶する。   The ROM 206 stores programs and data executed by the control unit 201. The RAM 207 temporarily stores data and programs processed by the control unit 201.

撮影部208は、撮影空間A1における撮影処理を行う構成である硬貨処理部221、背景制御部222、照明装置223、カメラ91、タッチパネルモニタ92、およびスピーカ224から構成される。   The imaging unit 208 includes a coin processing unit 221, a background control unit 222, a lighting device 223, a camera 91, a touch panel monitor 92, and a speaker 224 that are configured to perform imaging processing in the imaging space A1.

硬貨処理部221は、硬貨投入返却口84に対する硬貨の投入を検出する。硬貨処理部221は、例えば400円などの所定の金額分の硬貨が投入されたことを検出した場合、そのことを表す起動信号を制御部201に出力する。   The coin processing unit 221 detects the insertion of coins into the coin insertion / return port 84. When the coin processing unit 221 detects that a predetermined amount of coins such as 400 yen has been inserted, the coin processing unit 221 outputs an activation signal indicating that to the control unit 201.

背景制御部222は、制御部201より供給される背景制御信号に従って背景カーテンユニット25に収納されている背景カーテンの上げ下ろしを行う。背景カーテンの選択が利用者により手動で行われるようにしてもよい。   The background control unit 222 raises and lowers the background curtain stored in the background curtain unit 25 according to the background control signal supplied from the control unit 201. The background curtain may be manually selected by the user.

照明装置223は、撮影空間A1内の各ストロボの内部に設けられる蛍光灯であり、制御部201より供給される照明制御信号に従って発光する。上述したように、撮影空間A1には、天井ストロボユニット24のストロボの他に、撮影部21に設けられる上ストロボ82、足元ストロボ83、正面ストロボ93、背景部22に設けられる背面中央ストロボ101、背面左ストロボ102、背面右ストロボ103が設けられている。   The illumination device 223 is a fluorescent lamp provided inside each strobe in the imaging space A1, and emits light according to an illumination control signal supplied from the control unit 201. As described above, in the photographing space A1, in addition to the strobe of the ceiling strobe unit 24, the upper strobe 82 provided in the photographing unit 21, the foot strobe 83, the front strobe 93, the back center strobe 101 provided in the background unit 22, A back left strobe 102 and a back right strobe 103 are provided.

また、照明装置223は、制御部201による制御に従って発光量を調整することによって、利用者が行っている撮影作業の段階に応じて撮影空間A1内の明るさを調整する。   Further, the lighting device 223 adjusts the brightness in the shooting space A1 according to the stage of the shooting work performed by the user by adjusting the light emission amount according to the control by the control unit 201.

カメラ91は、制御部201による制御に従って撮影を行い、撮影によって得られた画像を制御部201に出力する。   The camera 91 shoots according to the control by the control unit 201 and outputs an image obtained by the shooting to the control unit 201.

編集部209Aは、編集空間A2−1における編集処理を行う構成として編集部12の正面側に設けられるタブレット内蔵モニタ131、タッチペン132A,132B、およびスピーカ231から構成される。編集部209Bも編集部209Aと同一の構成を有しており、編集空間A2−2における編集処理を行う。   The editing unit 209A includes a tablet built-in monitor 131, touch pens 132A and 132B, and a speaker 231 provided on the front side of the editing unit 12 as a configuration for performing editing processing in the editing space A2-1. The editing unit 209B has the same configuration as the editing unit 209A, and performs editing processing in the editing space A2-2.

タブレット内蔵モニタ131は、制御部201による制御に従って編集画面を表示し、編集画面に対する利用者の操作を検出する。利用者の操作の内容を表す信号は制御部201に供給され、編集対象の撮影画像の編集が行われる。   The tablet built-in monitor 131 displays an editing screen according to control by the control unit 201, and detects a user operation on the editing screen. A signal representing the content of the user's operation is supplied to the control unit 201, and the captured image to be edited is edited.

事後接客部210は、事後接客空間A3における事後接客処理を行う構成であるタブレット内蔵モニタ161、タッチペン162A,162B、スピーカ164、印刷処理を行う構成であるプリンタ241、およびシール紙ユニット242から構成される。   The subsequent customer service unit 210 includes a tablet built-in monitor 161 that is configured to perform subsequent customer service in the subsequent customer service space A3, touch pens 162A and 162B, a speaker 164, a printer 241 that performs print processing, and a sticker unit 242. The

プリンタ241は、撮影画像、または編集処理によって得られた編集済みの画像を、プリンタ241に装着されたシール紙ユニット242に収納されているシール紙に印刷し、シール紙排出口163に排出する。   The printer 241 prints the photographed image or the edited image obtained by the editing process on the sticker paper stored in the sticker paper unit 242 attached to the printer 241 and discharges it to the sticker paper discharge port 163.

次に、制御部201について説明する。図9は、制御部201がROM206などに格納されているプログラムを実行することにより実現される機能ブロックの構成例を示している。   Next, the control unit 201 will be described. FIG. 9 shows an example of the functional block configuration realized by the control unit 201 executing a program stored in the ROM 206 or the like.

制御部201は、写真シール作成ゲームを開始する際に投入される代金に関する処理や利用者グループを撮影する等の写真シール作成ゲームの撮影作業の工程に関する処理を行う撮影処理部301、撮影画像に対する落書き編集等の写真シール作成ゲームの編集作業の工程に関する処理を行う編集処理部302、シール紙の印刷等の写真シール作成ゲームの印刷の工程に関する処理を行う印刷処理部303、および、編集作業を終了した利用者グループを接客する写真シール作成ゲームの事後接客の工程に関する処理を行う事後接客処理部304を有する。   The control unit 201 performs a process related to a charge input when starting the photo sticker creation game and a process related to a photographing work process of the photo sticker creation game such as photographing a user group. An editing processing unit 302 that performs processing related to the editing work process of the photo sticker creation game such as graffiti editing, a printing processing unit 303 that performs processing related to the printing process of the photo sticker creation game such as printing of sticker paper, and editing work. A post-service processing unit 304 is provided for performing processing related to the post-service process of the photo sticker creation game that serves the finished user group.

つまり、制御部201は、写真シール作成ゲームの各工程に関する処理の制御を行う。   That is, the control unit 201 controls processing related to each process of the photo sticker creation game.

図10は、図9の編集処理部302の詳細な構成例を示すブロック図である。同図に示されるように、編集処理部302は、合成用画像重畳部321、重畳部分画像処理部322、器官画像認識部323、および、編集制御部324を有する構成とされている。   FIG. 10 is a block diagram illustrating a detailed configuration example of the editing processing unit 302 of FIG. As shown in the figure, the edit processing unit 302 has a composition image superimposing unit 321, a superimposed partial image processing unit 322, an organ image recognizing unit 323, and an edit control unit 324.

合成用画像重畳部321は、合成用画像を編集対象画像に重畳する処理を制御する。ここで、合成用画像は、例えば、利用者により選択されたスタンプ画像、フレーム画像などとされる。あるいはまた、文字画像、線画像などが合成用画像とされるようにしてもよい。   The composition image superimposing unit 321 controls processing for superimposing the composition image on the editing target image. Here, the composition image is, for example, a stamp image or a frame image selected by the user. Alternatively, a character image, a line image, or the like may be used as the composition image.

合成用画像重畳部321は、タブレット内蔵モニタ131に表示された編集画面上で、利用者が選択した合成用画像を、編集対象画像上の利用者が指定した位置に重畳させる。   The composition image superimposing unit 321 superimposes the composition image selected by the user on the editing screen displayed on the tablet built-in monitor 131 at the position designated by the user on the editing target image.

重畳部分画像処理部322は、合成用画像重畳部321により合成用画像が重畳された編集対象画像において、合成用画像が重畳された部分またはその付近の画像処理を行う。重畳部分画像処理部322は、例えば、重畳された合成用画像が、編集対象画像の中で違和感がないものとなるように、合成用画像の所定の特徴量と編集対象画像の所定の特徴量がより近い値となるような画像処理を施す。   The superimposed partial image processing unit 322 performs image processing on or near the portion where the synthesis image is superimposed on the editing target image on which the synthesis image is superimposed by the synthesis image superimposing unit 321. The superimposed partial image processing unit 322, for example, the predetermined feature amount of the synthesis image and the predetermined feature amount of the editing target image so that the superimposed synthesis image does not feel uncomfortable in the editing target image. Image processing is performed so that becomes a closer value.

ここで、特徴量は、例えば、画像を解析して得られる輝度値やコントラスト値などの値とされてもよいし、複数の値から成るベクトル量とされてもよい。なお、具体的な特徴量としては、例えば、透過度、エッジの強調度、ガンマ補正に係るガンマ値、色味の変更に用いられる各値等、一般的な画像処理の程度を示すものであればよい。なお、エッジの強弱を表す度合について、適宜、エッジの強調度と称することにする。   Here, the feature amount may be a value such as a luminance value or a contrast value obtained by analyzing the image, or may be a vector amount composed of a plurality of values. Note that specific feature amounts may indicate the degree of general image processing such as transparency, edge enhancement, gamma value for gamma correction, values used for color change, and the like. That's fine. Note that the degree of edge strength is appropriately referred to as edge enhancement.

上述した撮影処理部301によって行われる撮影処理では、例えば、撮影前または撮影後に利用者により選択される撮影パラメータであって、例えば、「かわいい系」、「きれい系」等とされる撮影パラメータが用意されている。例えば、「きれい系」の撮影パラメータが設定されて撮影された画像は、エッジの強調度が高い画像とされ、「かわいい系」の撮影パラメータが設定されて撮影された画像は、エッジの強調度が低い画像とされる。重畳部分画像処理部322による画像処理が施されることにより、例えば、撮影処理において設定された撮影パラメータとよくなじむ色合いや明るさの合成用画像が生成されることになる。   In the photographing process performed by the photographing processing unit 301 described above, for example, photographing parameters selected by the user before or after photographing, for example, photographing parameters such as “cute” and “beautiful” are set. It is prepared. For example, an image shot with “clean” shooting parameters set is an image with high edge enhancement, and an image shot with “cute” shooting parameters set is edge enhancement. Is a low image. By performing the image processing by the superimposed partial image processing unit 322, for example, a synthesis image having a hue and brightness that is well suited to the shooting parameters set in the shooting processing is generated.

すなわち、「かわいい系」、「きれい系」などのそれぞれの撮影パラメータ(または、撮影画像の特徴量であるエッジの強調度)と、合成用画像の特徴量(例えば、透過度)が予め対応づけられている。例えば、「かわいい系」の撮影パラメータには、所定の高い値の透過度が対応づけられており、「きれい系」の撮影パラメータには、所定の低い値の透過度が対応づけられている。   That is, each shooting parameter (or edge enhancement, which is a feature amount of the shot image) such as “cute” and “beautiful”, and a feature amount (for example, transparency) of the composite image are associated in advance. It has been. For example, a predetermined high value of transparency is associated with the “cute” imaging parameter, and a predetermined low value of transparency is associated with the “clean” imaging parameter.

この場合、重畳部分画像処理部322は、「かわいい系」の撮影パラメータで撮影された利用者の画像である編集対象画像に合成される(重畳される)合成用画像の透過度を高める画像処理を施す。または、重畳部分画像処理部322は、「きれい系」の撮影パラメータで撮影された利用者の画像である編集対象画像に合成される(重畳される)合成用画像の透過度を低くする画像処理を施す。   In this case, the superimposed partial image processing unit 322 increases the transparency of the composition image to be combined (superposed) with the editing target image that is the user's image captured with the “cute” imaging parameter. Apply. Alternatively, the superimposing partial image processing unit 322 reduces the transparency of the compositing image that is synthesized (superimposed) on the editing target image that is the user's image captured with the “clean” imaging parameter. Apply.

なお、重畳部分画像処理部322は、上述のように、合成用画像を構成する画素の値を変更する画像処理を実行するようにしてもよいし、編集対象画像において合成用画像が重畳される位置の周辺の所定の範囲内の画素の値を変更する画像処理を実行するようにしてもよい。   Note that, as described above, the superimposed partial image processing unit 322 may execute image processing for changing the values of pixels constituting the composition image, or the composition image is superimposed on the editing target image. You may make it perform the image process which changes the value of the pixel in the predetermined range around a position.

例えば、透過度の高い合成用画像が「きれい系」の撮影パラメータが設定された編集対象画像に重畳された場合、編集対象画像において合成用画像が重畳された位置の周辺の所定の範囲内の画素により構成される画像が、「かわいい系」の撮影パラメータで撮影された画像に応じたものとなるような画像処理が施されるようにしてもよい。このような画像処理として、例えば、エッジ処理(例えば、エッジを強くするシャープネス処理や、エッジを弱くするぼかし処理)や色調変更処理などがあげられる。後述では、エッジ処理の例として、ぼかし処理について詳細に説明する。   For example, when a compositing image with high transparency is superimposed on an editing target image for which a “clean” shooting parameter is set, it is within a predetermined range around the position where the compositing image is superimposed on the editing target image. Image processing may be performed so that an image composed of pixels corresponds to an image shot with “cute system” shooting parameters. Examples of such image processing include edge processing (for example, sharpness processing for strengthening edges and blurring processing for weakening edges), color tone changing processing, and the like. In the following, blur processing will be described in detail as an example of edge processing.

あるいはまた、合成用画像を構成する画素の値、および、編集対象画像において合成用画像が重畳される位置の周辺の所定の範囲内の画素の値を変更する画像処理が実行されるようにしてもよい。   Alternatively, image processing for changing the values of the pixels constituting the image for synthesis and the values of pixels within a predetermined range around the position where the image for synthesis is superimposed on the editing target image is executed. Also good.

例えば、透過度の高い合成用画像が「きれい系」の撮影パラメータが設定された編集対象画像に重畳された場合、編集対象画像において合成用画像が重畳された位置の周辺の所定の範囲内の画素により構成される画像のエッジが弱くなるような画像処理とともに、合成用画像の透過度を低くする画像処理が施されるようにしてもよい。   For example, when a compositing image with high transparency is superimposed on an editing target image for which a “clean” shooting parameter is set, it is within a predetermined range around the position where the compositing image is superimposed on the editing target image. Image processing that lowers the transparency of the image for synthesis may be performed in addition to image processing that weakens the edge of the image composed of pixels.

器官画像認識部323は、例えば、編集対象画像の中の顔画像および顔の向き(方向)を認識する。そして、器官画像認識部323は、顔画像の中の所定の器官(例えば、目、鼻、口、頬、顎など)を認識する。   For example, the organ image recognition unit 323 recognizes the face image and the face direction (direction) in the image to be edited. Then, the organ image recognition unit 323 recognizes a predetermined organ (for example, eyes, nose, mouth, cheek, jaw) in the face image.

また、器官画像認識部323は、認識された器官を基準として所定の領域を認識するようになされている。ここで、認識された所定の領域は、例えば、後述するように、ハイライトされるハイライト領域とされたり、シェーディングされるシェーディング領域とされる。   The organ image recognition unit 323 is configured to recognize a predetermined region with the recognized organ as a reference. Here, the recognized predetermined area is, for example, a highlighted area to be highlighted or a shading area to be shaded, as will be described later.

なお、合成用画像重畳部321が重畳する合成用画像には、例えば、利用者の顔画像の目の周囲に描かれるアイラインや、つけまつげなどの画像も含まれるものとし、このような合成用画像が重畳される場合、合成用画像重畳部321は、器官画像認識部323により認識された器官の大きさ、位置に対応させた合成用画像を生成することで、合成用画像を重畳するようになされている。   Note that the composition image superimposed by the composition image superimposing unit 321 includes, for example, images such as eyelines and false eyelashes drawn around the eyes of the user's face image. When the images are superimposed, the composition image superimposing unit 321 generates a composition image corresponding to the size and position of the organ recognized by the organ image recognition unit 323 so that the composition image is superimposed. Has been made.

さらに、合成用画像重畳部321が重畳する合成用画像には、例えば、利用者の顔画像の中の額から鼻にかけてのハイライト領域を構成する化粧用画像(後述)、頬から顎にかけてのシェーディング領域を構成する化粧用画像も含まれるものとし、このような合成用画像が重畳される場合、合成用画像重畳部321は、器官画像認識部323により認識されたハイライト領域またはシェーディング領域の大きさ、位置に対応させた化粧用画像を生成することで、合成用画像を重畳するようになされている。   Furthermore, the composition image superimposed by the composition image superimposing unit 321 includes, for example, a makeup image (described later) that forms a highlight area from the forehead to the nose in the user's face image, and from the cheek to the chin. It is assumed that a makeup image constituting the shading area is also included, and when such a composition image is superimposed, the composition image superimposing unit 321 includes a highlight region or a shading region recognized by the organ image recognition unit 323. By generating a makeup image corresponding to the size and position, the composition image is superimposed.

編集制御部324は、編集作業に係るその他の処理を制御するようになされている。   The editing control unit 324 controls other processing related to editing work.

次に、図11のフローチャートを参照して、写真シール作成ゲームを提供する写真シール作成装置1の処理について説明する。   Next, processing of the photo sticker creating apparatus 1 that provides a photo sticker creating game will be described with reference to the flowchart of FIG.

ステップS1において、写真シール作成装置1の撮影処理部301は、所定の金額分の硬貨が投入されたか否かを硬貨処理部221から供給される信号に基づいて判定し、投入されたと判定するまで待機する。   In step S1, the imaging processing unit 301 of the photo sticker creating apparatus 1 determines whether or not a predetermined amount of coins has been inserted based on a signal supplied from the coin processing unit 221 until it is determined that the coins have been inserted. stand by.

ステップS1において、硬貨が投入されたと判定された場合、ステップS2において、撮影処理部301は、撮影部208を制御し、カメラ91に取り込まれた被写体の動画像をタッチパネルモニタ92にライブビュー表示させ、撮影空間A1にいる利用者を被写体として撮影する撮影処理を行う。撮影処理では、利用者の顔または上半身を撮影するアップ撮影が行われるが、利用者の全身を撮影する全身撮影が行われるようにしてもよい。   If it is determined in step S1 that a coin has been inserted, in step S2, the imaging processing unit 301 controls the imaging unit 208 to display a moving image of the subject captured by the camera 91 on the touch panel monitor 92 in a live view. Then, a photographing process for photographing a user in the photographing space A1 as a subject is performed. In the photographing process, an up-photographing for photographing the user's face or upper body is performed, but a full-body photographing for photographing the whole body of the user may be performed.

ステップS3において、撮影処理部301は、撮影空間A1にいる利用者に対して、編集空間A2−1または編集空間A2−2への移動を案内する。編集空間A2−1または編集空間A2−2への移動の案内は、撮影部208のタッチパネルモニタ92に画面を表示させることによって、または音声をスピーカ224から出力させることによって行われる。   In step S3, the imaging processing unit 301 guides the user in the imaging space A1 to move to the editing space A2-1 or the editing space A2-2. The guidance for movement to the editing space A2-1 or the editing space A2-2 is performed by displaying a screen on the touch panel monitor 92 of the photographing unit 208 or by outputting sound from the speaker 224.

ステップS4において、編集処理部302は、編集空間A2−1と編集空間A2−2のうち、撮影処理を終えた利用者の移動先とした方の編集空間に対応する編集部209を制御し、編集処理を行う。具体的には、編集処理部302は、編集対象画像として選択された撮影画像に合成する合成用画像を利用者に選択させ、選択された合成用画像を撮影画像に合成させ、得られた合成画像に対して、利用者による編集操作に従って編集を行う。   In step S4, the editing processing unit 302 controls the editing unit 209 corresponding to the editing space of the editing space A2-1 and the editing space A2-2 that is the destination of the user who has finished the shooting process, Edit processing. Specifically, the editing processing unit 302 causes the user to select a synthesis image to be synthesized with the captured image selected as the editing target image, synthesizes the selected synthesis image with the captured image, and obtains the obtained synthesis. The image is edited according to the editing operation by the user.

ステップS5において、編集処理部302は、編集空間A2−1または編集空間A2−2で編集処理を終えた利用者に対して事後接客空間A3への移動を案内する。事後接客空間A3への移動の案内は、タブレット内蔵モニタ131に画面を表示させることによって、または音声をスピーカ231から出力させることによって行われる。   In step S5, the editing processing unit 302 guides the user who has finished the editing process in the editing space A2-1 or the editing space A2-2 to move to the post-service space A3. The guidance of the movement to the post-service space A3 is performed by displaying a screen on the tablet built-in monitor 131 or by outputting sound from the speaker 231.

ステップS6において、印刷処理部303は、利用者により選択された画像をプリンタ241に出力してシール紙に印刷させる印刷処理を行う(開始する)。   In step S <b> 6, the print processing unit 303 performs (starts) a print process in which the image selected by the user is output to the printer 241 and printed on a sticker sheet.

また、タブレット内蔵モニタ161に表示される、事後接客処理の開始ボタンが選択されると、ステップS7において、事後接客処理部304は、印刷終了待機中の利用者に対する事後接客処理を行う。具体的には、事後接客処理部304は、撮影画像や編集済みの画像を携帯端末に送信する携帯送信ゲーム処理を事後接客処理として行い、携帯端末の電子メールアドレスを直接入力することで画像を携帯端末に送信するか、非接触型ICと通信することで画像を携帯端末に送信するかを利用者に選択させる送信方法の選択画面や、送信する画像の選択画面をタブレット内蔵モニタ161に表示させ、利用者による操作に応じて画像を送信する。   Further, when the post-service processing start button displayed on the tablet built-in monitor 161 is selected, in step S7, the post-service processing unit 304 performs post-service processing for a user who is waiting for completion of printing. Specifically, the post-service processing unit 304 performs a mobile transmission game process for transmitting a captured image or an edited image to the mobile terminal as the post-service processing, and directly inputs the e-mail address of the mobile terminal. Display on the tablet built-in monitor 161 a selection screen for a transmission method that allows a user to select whether to transmit an image to a portable terminal by transmitting to a portable terminal or by communicating with a non-contact type IC. The image is transmitted according to the operation by the user.

印刷が終了すると、ステップS8において、事後接客処理部304は、印刷が終了した旨をタブレット内蔵モニタ161に表示させ、プリンタ241は、画像が印刷されたシール紙をシール紙排出口163に排出し、処理を終了させる。   When the printing is completed, in step S8, the post-service processing unit 304 displays that the printing has been completed on the tablet built-in monitor 161, and the printer 241 discharges the sticker paper on which the image is printed to the sticker paper discharge port 163. The process is terminated.

このようにして、写真シール作成ゲーム処理が実行される。   In this way, the photo sticker creation game process is executed.

上述したステップS4で実行される編集処理では、タブレット内蔵モニタ131に編集画面が表示され、編集画面のGUIに基づいて、利用者が、タッチペン132Aまたはタッチペン132Bを用いて操作入力を行うことにより、編集対象画像に対する編集処理が施される。   In the editing process executed in step S4 described above, an editing screen is displayed on the tablet built-in monitor 131, and the user performs an operation input using the touch pen 132A or the touch pen 132B based on the GUI of the editing screen. Editing processing is performed on the image to be edited.

このとき、例えば、図12に示されるような編集画面がタブレット内蔵モニタ131に、表示される。なお、実際には、編集部209Aまたは編集部209Bにおいて左右に並んだ2人の利用者が同時に編集作業を行えるように、「右の人」用の編集画面と「左の人」用の編集画面が表示される。図12では、説明を簡単にするために「左の人」用の編集画面のみが表示されている。   At this time, for example, an editing screen as shown in FIG. 12 is displayed on the tablet built-in monitor 131. Actually, the editing screen for the “right person” and the editing for the “left person” so that two users who are lined up on the left and right in the editing section 209A or the editing section 209B can perform editing work simultaneously. A screen is displayed. In FIG. 12, only the editing screen for “left person” is displayed to simplify the description.

図12に示されるように、編集画面には、編集対象画像351が表示されている。編集対象画像は、図11のステップS2の処理で撮影された複数の画像の中から選択される所定数の画像とされ、その所定数の画像の1枚が図12の編集対象画像351として表示されている。   As shown in FIG. 12, an editing target image 351 is displayed on the editing screen. The editing target images are a predetermined number of images selected from a plurality of images captured in the process of step S2 in FIG. 11, and one of the predetermined number of images is displayed as the editing target image 351 in FIG. Has been.

図12の編集画面の下部に示されるGUIは、編集パレットと称される。編集パレット352には、編集作業において用いるスタンプ画像に対応するアイコンなどが多数配置される。利用者が、タッチペン132Aまたはタッチペン132Bにより編集パレット352の中の所望のアイコンをタップするで、そのアイコンに対応するスタンプ画像を、合成用画像として編集対象画像351に重畳することが可能となる。   The GUI shown at the bottom of the editing screen in FIG. 12 is referred to as an editing palette. In the editing palette 352, a large number of icons corresponding to stamp images used in editing work are arranged. When the user taps a desired icon in the editing palette 352 with the touch pen 132A or the touch pen 132B, a stamp image corresponding to the icon can be superimposed on the editing target image 351 as a composition image.

図12の例では、ハート形のスタンプ画像361−1およびスタンプ画像361−2が編集対象画像351に重畳されている。このとき、合成用画像重畳部321が、タッチペン132Aまたはタッチペン132Bの操作に基づいて、スタンプ画像361−1およびスタンプ画像361−2の編集対象画像351に重畳する処理を制御する。   In the example of FIG. 12, a heart-shaped stamp image 361-1 and a stamp image 361-2 are superimposed on the editing target image 351. At this time, the composition image superimposing unit 321 controls the process of superimposing the stamp image 361-1 and the stamp image 361-2 on the editing target image 351 based on the operation of the touch pen 132A or the touch pen 132B.

なお、図12に示される編集対象画像351は、例えば、撮影時に「かわいい系」の撮影パラメータが設定されて得られた画像とされ、画像全体としてふんわりとした色合いの画像とされている。   Note that the editing target image 351 shown in FIG. 12 is, for example, an image obtained by setting a “cute system” shooting parameter at the time of shooting, and is an image having a soft color as a whole.

なお、例えば、「きれい系」の撮影パラメータが設定されて撮影された画像は、エッジが弱い画像とされ、「かわいい系」の撮影パラメータが設定されて撮影された画像は、エッジが強い画像とされるものとする。   For example, an image shot with a “clean” shooting parameter set is an image with a weak edge, and an image shot with a “cute” shooting parameter set is an image with a strong edge. Shall be.

図12Aは、合成用画像重畳部321によりスタンプ画像361−1およびスタンプ画像361−2が重畳され、重畳部分画像処理部322による画像処理が実行されていない状態を示した図である。   FIG. 12A is a diagram showing a state in which the stamp image 361-1 and the stamp image 361-2 are superimposed by the compositing image superimposing unit 321 and the image processing by the superimposed partial image processing unit 322 is not executed.

一方、図12Bは、合成用画像重畳部321によりスタンプ画像361−1およびスタンプ画像361−2が重畳され、重畳部分画像処理部322による画像処理が実行された後の状態を示した図である。   On the other hand, FIG. 12B is a diagram illustrating a state after the stamp image 361-1 and the stamp image 361-2 are superimposed by the compositing image superimposing unit 321 and the image processing by the superimposed partial image processing unit 322 is performed. .

図12Aの場合、ハート形のスタンプ画像361−1およびスタンプ画像361−2は、例えば、鮮やかな赤色で表示される。この場合、スタンプ画像361−1およびスタンプ画像361−2は、鮮明に表示されているものの、編集対象画像351の中で違和感のある画像となる。   In the case of FIG. 12A, the heart-shaped stamp image 361-1 and the stamp image 361-2 are displayed in bright red, for example. In this case, the stamp image 361-1 and the stamp image 361-2 are clearly displayed, but are uncomfortable among the editing target images 351.

一方、図12Bの場合、ハート形のスタンプ画像361−1およびスタンプ画像361−2は、例えば、半透明の赤色で表示される。すなわち、重畳部分画像処理部322により、スタンプ画像361−1およびスタンプ画像361−2の透過度を高める画像処理が施されたことにより、スタンプ画像361−1およびスタンプ画像361−2が半透明の赤色で表示される。   On the other hand, in the case of FIG. 12B, the heart-shaped stamp image 361-1 and the stamp image 361-2 are displayed in, for example, translucent red. That is, the superimposed partial image processing unit 322 performs image processing for increasing the transparency of the stamp image 361-1 and the stamp image 361-2, so that the stamp image 361-1 and the stamp image 361-2 are translucent. Displayed in red.

図12Bのように、編集対象画像351に重畳される合成用画像(いまの場合、スタンプ画像361−1およびスタンプ画像361−2)の透過度を高めることにより、合成用画像が、その背面の編集対象画像351の明暗の変化やテクスチャなどと同様の特徴を有する画像となる。すなわち、図12Aの場合と比較して、スタンプ画像361−1およびスタンプ画像361−2のくっきりした印象が薄れ、柔らかな印象を有する画像とされている。   As shown in FIG. 12B, by increasing the transparency of the compositing image (in this case, the stamp image 361-1 and the stamp image 361-2) superimposed on the editing target image 351, the compositing image is displayed on the back side thereof. The editing target image 351 is an image having characteristics similar to changes in brightness and texture. That is, compared with the case of FIG. 12A, the clear impression of the stamp image 361-1 and the stamp image 361-2 is faded, and the image has a soft impression.

結果として、図12Bにおけるスタンプ画像361−1およびスタンプ画像361−2は、「かわいい系」の画像と合致したものとなる。   As a result, the stamp image 361-1 and the stamp image 361-2 in FIG. 12B coincide with the “cute system” images.

例えば、編集対象画像351のエッジの強弱に関する特徴量において、ぼかしの半径が、2乃至10ピクセルで設定されている。「かわいい系」の撮影パラメータは、ふんわりと表示したいため、半径が大きく設定されており、10ピクセルである。逆に、「きれい系」の撮影パラメータは、「かわいい系」よりもはっきりと表示したいため、半径が小さく設定されており、2ピクセルで設定されている。この数値は、撮影パラメータにより、任意に設定される。   For example, the blur radius is set to 2 to 10 pixels in the feature amount relating to the strength of the edge of the editing target image 351. The shooting parameter of “cute system” is set to a large radius and is 10 pixels in order to display it softly. On the other hand, the shooting parameter of “clean system” is set to have a small radius and 2 pixels because it is desired to display more clearly than “cute system”. This numerical value is arbitrarily set depending on the photographing parameter.

また、図12Aのスタンプ画像361−1およびスタンプ画像361−2の透過度の高低に関する特徴量において、透過度が0.1乃至0.5で設定されている。「かわいい系」のスタンプ画像は、ふんわりと表示したいため、透過度が高く設定されており、0.5である。逆に、「きれい系」のスタンプは、「かわいい系」のスタンプ画像よりもはっきりと表示したいため、透過度が低く設定されており、0.1で設定されている。この数値は、前記エッジの強弱と同様に、合成用画像が持つパラメータにより、任意に設定されている。   Further, in the feature amount relating to the level of transparency of the stamp image 361-1 and the stamp image 361-2 in FIG. 12A, the transparency is set to 0.1 to 0.5. Since the stamp image of “cute” is displayed softly, the transparency is set high and is 0.5. On the other hand, the “clean” stamp has a lower transparency and is set to 0.1 because it is more clearly displayed than the “cute” stamp image. This numerical value is arbitrarily set according to the parameters of the compositing image, like the edge strength.

なお、透過度を表す値は、透過度を変更するαチャンネルに係る設定値である。   Note that the value representing the transparency is a setting value relating to the α channel for changing the transparency.

そして、編集対象画像351において、ぼかしの半径が5ピクセルである場合、ぼかしの半径の幅が、8(2乃至10)ピクセルであるから、除算((8−5)/8)により、編集対象画像351のぼかしの半径についての特徴量は、37.5%と設定されている。この37.5%という特徴量に基づき、スタンプ画像361−1およびスタンプ画像361−2の透過度の値を算出する。   In the editing target image 351, when the blur radius is 5 pixels, the width of the blur radius is 8 (2 to 10) pixels, so that the edit target is obtained by division ((8-5) / 8). The feature amount for the blur radius of the image 351 is set to 37.5%. Based on the feature amount of 37.5%, the transparency values of the stamp image 361-1 and the stamp image 361-2 are calculated.

スタンプ画像361−1およびスタンプ画像361−2の透過度の高低についての幅は、0.4(=0.5−0.1)である。そこで、前記編集対象画像351の特徴量37.5%を乗算し、0.25という数値が算出される(0.4×37.5+0.1)。よって、前記編集対象画像351にスタンプ画像361−1およびスタンプ画像361−2がなじむような処理を施すには、スタンプ画像の透過度を0.25に変更するような画像処理が、重畳部分画像処理部322により実行される   The width of the stamp image 361-1 and the stamp image 361-2 with respect to the level of transparency is 0.4 (= 0.5-0.1). Accordingly, the numerical value of 0.25 is calculated by multiplying the feature amount 37.5% of the image to be edited 351 (0.4 × 37.5 + 0.1). Therefore, in order to perform the process such that the stamp image 361-1 and the stamp image 361-2 are adapted to the editing target image 351, an image process such as changing the transparency of the stamp image to 0.25 is performed. Executed by the processing unit 322

すなわち、編集対象画像351(または撮影画像)の特徴量の1つであるエッジの強弱に関する特徴量と、合成用画像の特徴量の1つである透過度に関する特徴量とが対応づけられており、それぞれの特徴量の値が合致するように画像処理が施される。なお、いまの場合、それぞれの特徴量である特徴量37.5%になるように合致するに、予め対応付けられている。   That is, the feature amount related to the strength of the edge, which is one of the feature amounts of the editing target image 351 (or the captured image), and the feature amount related to the transparency, which is one of the feature amounts of the image for synthesis, are associated with each other. Then, image processing is performed so that the values of the respective feature amounts match. Note that in this case, the matching is made in advance so as to match the feature amount 37.5%.

あるいはまた、上述の如く、特徴量が合致しなくとも、特徴量が近づくような画像処理を施されるようにしてもよい。例えば、スタンプ画像361−1およびスタンプ画像361−2の透過度の高低に関する特徴量37.5%に近づくような画像処理が施されてもよい。この場合、例えば、特徴量は、±10%の幅を許容するものとし、27.5%乃至47.5%の間であればよい。   Alternatively, as described above, image processing may be performed so that the feature amount approaches even if the feature amount does not match. For example, image processing may be performed so as to approach the feature amount of 37.5% regarding the level of transparency of the stamp image 361-1 and the stamp image 361-2. In this case, for example, the feature amount allows a width of ± 10%, and may be between 27.5% and 47.5%.

ここでは、相互に対応付けられた編集対象画像の特徴量と合成用画像の特徴量とが異なる特徴量である例について説明したが、相互に対応付けられた編集対象画像の特徴量と合成用画像の特徴量とが同じであってもよい。例えば、編集対象画像351のエッジの強調度と、合成用画像のエッジの強調度とが対応づけられるようにしてもよい。   Here, an example in which the feature amount of the editing target image associated with each other and the feature amount of the compositing image are different from each other has been described. The feature amount of the image may be the same. For example, the edge enhancement degree of the editing target image 351 may be associated with the edge enhancement degree of the composition image.

また、ここでは、編集対象画像の1つの特徴量と、合成用画像の1つの特徴量とが対応付けられる場合について説明したが、編集対象画像の1つの特徴量(例えば、エッジの強調度)と、合成用画像の複数の特徴量(例えば、エッジの強調度および透過度)とが対応付けられるようにしてもよい。この場合、例えば、合成用画像の複数の特徴量のうちの少なくともいずれか1つが、編集対象画像の特徴量に近づくような画像処理が施される。   Further, here, a case has been described in which one feature amount of the image to be edited is associated with one feature amount of the image for synthesis, but one feature amount (for example, edge enhancement level) of the image to be edited is described. And a plurality of feature amounts (for example, edge enhancement and transparency) of the image for synthesis may be associated with each other. In this case, for example, image processing is performed such that at least one of the plurality of feature amounts of the composition image approaches the feature amount of the editing target image.

あるいはまた、編集対象画像の複数の特徴量(例えば、エッジの強調度および透過度)と、合成用画像の複数の特徴量(例えば、エッジの強調度および透過度)とが対応付けられるようにしてもよい。この場合、双方の特徴量がベクトル量とされ、ベクトルの内積が小さくなるような画像処理が、重畳部分画像処理部322により実行されるようにすればよい。   Alternatively, a plurality of feature amounts (for example, edge enhancement and transparency) of the image to be edited are associated with a plurality of feature amounts (for example, edge enhancement and transparency) of the image for synthesis. May be. In this case, the superimposed partial image processing unit 322 may execute image processing in which both feature amounts are vector amounts and the inner product of the vectors is reduced.

さらに、ここでは、編集対象画像(または撮影画像)の特徴量と合成用画像の特徴量とが対応付けられているものとして説明したが、撮影画像に係る撮影パラメータ(例えば、「かわいい系」の撮影の際に設定される撮影パラメータ)と、合成用画像の特徴量とが対応付けられているようにしてもよい。   Further, here, the feature amount of the image to be edited (or the photographed image) and the feature amount of the image for synthesis have been described as being associated with each other. However, the photographing parameter (for example, “cute system” of the photographed image) (Shooting parameters set at the time of shooting) may be associated with the feature amount of the composition image.

あるいはまた、例えば、撮影画像に、「かわいい系」、「きれい系」などの別を識別する情報であって、数値化された情報が対応付けられて記憶されるようにし、その撮影に係る情報が編集対象画像の特徴量として用いられるようにしてもよい。   Alternatively, for example, information that identifies different types, such as “cute” and “beautiful”, is stored in association with the photographed image, and information related to the photographing is stored. May be used as the feature amount of the image to be edited.

このように、重畳部分画像処理部322による画像処理が施されることにより、編集対象画像に重畳されたスタンプ画像は違和感の少ないものとなる。また、このように、重畳部分画像処理部322による画像処理が施されることにより、例えば、複数のスタンプ画像の中から編集画像になじむものを選択する場合などと比較して、編集作業に要する時間を短縮することができる。   As described above, by performing the image processing by the superimposed partial image processing unit 322, the stamp image superimposed on the image to be edited becomes less uncomfortable. In addition, since the image processing by the superimposed partial image processing unit 322 is performed as described above, for example, it is necessary for editing work as compared with the case of selecting an image that fits the edited image from a plurality of stamp images. Time can be shortened.

写真シール作成装置1による写真シール作成ゲームでは、撮影処理が実行中である場合、または、他の編集空間において編集処理が実行中である場合、編集作業の制限時間が設定されるようになされている。このため、編集作業に要する時間を短縮することで、利用者にとってより満足度の高い写真シールを提供することが可能となる。   In the photo sticker creation game by the photo sticker creation device 1, when the photographing process is being executed, or when the editing process is being executed in another editing space, the time limit for editing work is set. Yes. For this reason, it is possible to provide a photo sticker with a higher degree of satisfaction for the user by reducing the time required for the editing work.

この例では、合成用画像の透過度が高められる画像処理が施されているが、例えば、編集対象画像351において、スタンプ画像361−1およびスタンプ画像361−2が重畳された付近の所定の範囲内の画素で構成される画像のエッジの強調度が高くされるようにしてもよい。   In this example, image processing for increasing the transparency of the composition image is performed. For example, in the editing target image 351, a predetermined range in the vicinity of the stamp image 361-1 and the stamp image 361-2 superimposed. The enhancement degree of the edge of the image formed by the pixels may be increased.

あるいはまた、編集対象画像351において合成用画像が重畳された位置の周辺の所定の範囲内の画素により構成される画像のエッジの強調度が高くされるとともに、スタンプ画像361−1およびスタンプ画像361−2の透過度を高くする画像処理が施されるようにしてもよい。   Alternatively, the emphasis degree of an image composed of pixels within a predetermined range around the position where the synthesis image is superimposed on the editing target image 351 is increased, and the stamp image 361-1 and the stamp image 361- Image processing for increasing the transparency of 2 may be performed.

すなわち、重畳部分画像処理部322は、合成用画像を構成する画素の値を変更する画像処理を実行するようにしてもよいし、編集対象画像において合成用画像が重畳される位置の周辺の所定の範囲内の画素の値を変更する画像処理を実行するようにしてもよいし、合成用画像を構成する画素の値、および、編集対象画像において合成用画像が重畳される位置の周辺の所定の範囲内の画素の値を、それぞれ変更する画像処理を実行するようにしてもよい。   That is, the superimposed partial image processing unit 322 may execute image processing for changing the values of the pixels constituting the composition image, or may be a predetermined area around the position where the composition image is superimposed on the editing target image. Image processing for changing the value of a pixel within the range of the image may be executed, the value of the pixel constituting the composition image, and a predetermined area around the position where the composition image is superimposed on the editing target image Image processing for changing the value of each pixel within the range may be executed.

なお、上述のようなエッジの強調度の変更および透過度の変更に係る画像処理は、例えば、スタンプ画像が重畳される都度、実行されるようにしてもよいし、複数のスタンプ画像が重畳された後、まとめて実行されるようにしてもよい。   Note that the image processing related to the edge enhancement change and transparency change as described above may be executed, for example, every time a stamp image is superimposed, or a plurality of stamp images are superimposed. After that, they may be executed collectively.

例えば、スタンプ画像361−1が編集対象画像351に貼り付けられたとき、スタンプ画像361−1を構成する画素の値、および/または、編集対象画像351においてスタンプ画像361−1が貼り付けられた位置の周辺の所定の範囲内の画素の値を変更する画像処理が実行され、スタンプ画像361−2が編集対象画像351に貼り付けられたとき、スタンプ画像361−2を構成する画素の値、および/または、編集対象画像351においてスタンプ画像361−2が貼り付けられた位置の周辺の所定の範囲内の画素の値を変更する画像処理が実行されるようにしてもよい。   For example, when the stamp image 361-1 is pasted on the editing target image 351, the value of the pixel constituting the stamp image 361-1 and / or the stamp image 361-1 is pasted on the editing target image 351. When image processing for changing the value of a pixel within a predetermined range around the position is performed and the stamp image 361-2 is pasted on the editing target image 351, the value of the pixel constituting the stamp image 361-2, Alternatively, image processing for changing the value of a pixel within a predetermined range around the position where the stamp image 361-2 is pasted in the editing target image 351 may be executed.

あるいはまた、例えば、スタンプ画像361−1およびスタンプ画像361−2が編集対象画像351に貼り付けられた後、所定の操作がなされたとき、スタンプ画像361−1およびスタンプ画像361−2を構成する画素の値、並びに/または、編集対象画像351においてスタンプ画像361−1およびスタンプ画像361−2が貼り付けられた位置の周辺の所定の範囲内の画素の値を変更する画像処理が実行されるようにしてもよい。   Alternatively, for example, when a predetermined operation is performed after the stamp image 361-1 and the stamp image 361-2 are pasted on the editing target image 351, the stamp image 361-1 and the stamp image 361-2 are configured. Image processing for changing the pixel value and / or the pixel value within a predetermined range around the position where the stamp image 361-1 and the stamp image 361-2 are pasted in the editing target image 351 is executed. You may do it.

さらに、例えば、スタンプ画像を貼り付けるとき、上述のようなエッジの強調度の変更および透過度の変更に係る画像処理が既に施されたスタンプ画像が貼り付けられるようにしてもよい。例えば、編集対象画像にスタンプ画像を貼り付けるときに、編集パレット352の中のスタンプ画像とは異なる色のスタンプ画像が貼り付けられるようにしてもよい。つまり、例えば、貼り付けられた時点で図12Bに示されるような編集画面が表示されるようにしてもよい。   Furthermore, for example, when a stamp image is pasted, a stamp image that has already been subjected to the image processing relating to the change in edge enhancement and the change in transparency as described above may be pasted. For example, when a stamp image is pasted on the editing target image, a stamp image having a color different from that of the stamp image in the editing palette 352 may be pasted. That is, for example, an editing screen as shown in FIG. 12B may be displayed at the time of pasting.

この例では、重畳部分画像処理部322により、透過度、および、エッジの強弱を変更する画像処理が施される場合について説明したが、例えば、合成用画像、および/または、編集対象画像にぼかし処理が施されるようにしてもよい。   In this example, the case where the superimposed partial image processing unit 322 performs image processing for changing the transparency and the strength of the edge has been described. However, for example, the composition image and / or the image to be edited is blurred. Processing may be performed.

さらに、重畳部分画像処理部322により施される画像処理の例として、例えば、ガンマ補正に関するガンマ値を変更するもの、トーンカーブ特性を変更するもの、平均輝度値を変更するもの、コントラスト値を変更するものなどがあげられる。また、色の濃淡を変更する処理、平滑化処理、ガウシアンフィルタ処理、バイラテラルフィルタ処理などが、重畳部分画像処理部322により施されるようにしてもよい。   Further, examples of image processing performed by the superimposed partial image processing unit 322 include, for example, changing a gamma value related to gamma correction, changing a tone curve characteristic, changing an average luminance value, and changing a contrast value. To do. In addition, the superimposed partial image processing unit 322 may perform processing for changing color shading, smoothing processing, Gaussian filter processing, bilateral filter processing, and the like.

あるいはまた、重畳部分画像処理部322により、編集対象画像の撮影時の撮影パラメータに応じて、合成用画像の色が変更されるようにしてもよい。例えば、本来赤色のスタンプ画像361−1およびスタンプ画像361−2が「かわいい系」の編集対象画像351に重畳された場合、スタンプ画像361−1およびスタンプ画像361−2がオレンジ色に変更されるようにしてもよい。   Alternatively, the color of the compositing image may be changed by the superimposed partial image processing unit 322 according to the shooting parameters at the time of shooting the editing target image. For example, when the original red stamp image 361-1 and the stamp image 361-2 are superimposed on the “cute” editing target image 351, the stamp image 361-1 and the stamp image 361-2 are changed to orange. You may do it.

あるいはまた、例えば、スタンプ画像361−1に対しては、エッジの強調度が低くされて透過度が高められる画像処理が施され、スタンプ画像361−2に対しては、オレンジ色に変更される画像処理が施されるようにしてもよい。   Alternatively, for example, the stamp image 361-1 is subjected to image processing in which the edge enhancement is reduced and the transparency is increased, and the stamp image 361-2 is changed to orange. Image processing may be performed.

なお、図12の例では、合成用画像(スタンプ画像361−1およびスタンプ画像361−2)全体に重畳部分画像処理部322による画像処理が施されているが、合成用画像の一部(例えば、外縁部)にのみ画像処理が施されるようにしてもよい。   In the example of FIG. 12, image processing by the superimposed partial image processing unit 322 is performed on the entire composition image (stamp image 361-1 and stamp image 361-2), but a part of the composition image (for example, The image processing may be performed only on the outer edge portion.

また、ここでは、編集パレット352から選択されたハート形のスタンプ画像がそのまま編集対象画像351に貼り付けられて重畳される例について説明したが、所定の操作が行われることにより、例えば、重畳されたスタンプ画像が時計回りに回転させられるようにしてもよい。   Here, an example in which the heart-shaped stamp image selected from the editing palette 352 is directly pasted and superimposed on the editing target image 351 has been described. However, when a predetermined operation is performed, for example, the heart-shaped stamp image is superimposed. The stamp image may be rotated clockwise.

あるいはまた、所定の操作が行われることにより、スタンプ画像が反転させられるようにしてもよい。例えば、図13に示される月の形のスタンプ画像のように、月の向きが反転させられるようにしてもよい。   Alternatively, the stamp image may be reversed by performing a predetermined operation. For example, the direction of the moon may be reversed like a stamp image in the shape of the moon shown in FIG.

あるいはまた、所定の操作が行われることにより、スタンプ画像が奥行回転させられるようにしてもよい。例えば、図14に示されるように、スタンプ画像371が起点の状態であるときに、所定の操作が行われると、スタンプ画像371が、編集画面(平面)上の直線を軸として、矢印381に示されるように、画像の左側が奥側にいく方向(左回り)に回転する。あるいはまた、スタンプ画像371が起点の状態であるときに、所定の操作が行われると、スタンプ画像371は、編集画面(平面)上の直線を軸として、矢印382に示されるように、画像の右側が奥側にいく方向(右回り)に回転する。   Alternatively, the stamp image may be rotated in depth by performing a predetermined operation. For example, as shown in FIG. 14, when a predetermined operation is performed when the stamp image 371 is in the starting state, the stamp image 371 is displayed on an arrow 381 with a straight line on the editing screen (plane) as an axis. As shown, the left side of the image rotates in the direction (counterclockwise) toward the back side. Alternatively, when a predetermined operation is performed while the stamp image 371 is in the starting state, the stamp image 371 is displayed on the editing screen (plane) with the straight line on the editing screen (plane) as an axis, as indicated by an arrow 382. It rotates in the direction that the right side goes to the back side (clockwise).

さらに、タッチペン132Aまたはタッチペン132Bを動かすと、タッチペンの軌跡に沿って連続的にスタンプ画像が貼り付けられる「コロコロスタンプ」、スタンプ画像を所定の画像の近傍まで移動すると、スタンプ画像が所定の画像と同位置に自動で貼り付くようにした「ぴたっとスタンプ」などの機能が採用されるようにしてもよい。   Furthermore, when the touch pen 132A or the touch pen 132B is moved, the stamp image is continuously pasted along the locus of the touch pen, and the stamp image is moved to the vicinity of the predetermined image. A function such as "Pitto Stamp" that is automatically pasted at the same position may be employed.

このような場合も、やはり重畳部分画像処理部322により、スタンプ画像を構成する画素の値、並びに/または、編集対象画像においてスタンプ画像が貼り付けられた位置の周辺の所定の範囲内の画素の値を変更する画像処理が実行される。   Also in such a case, the superimposed partial image processing unit 322 again uses the pixel values constituting the stamp image and / or the pixels within a predetermined range around the position where the stamp image is pasted in the editing target image. Image processing for changing the value is executed.

図12の例では、ハート形のスタンプ画像が合成用画像とされる例について説明したが、例えば、帽子、めがね、リボン、カラコン(カラーコンタクトレンズ)、つけまつげなどのスタンプ画像が合成用画像とされるようにしてもよい。   In the example of FIG. 12, an example in which a heart-shaped stamp image is used as a composition image has been described. For example, a stamp image such as a hat, glasses, a ribbon, a color contact lens (color contact lens), or false eyelashes is used as a composition image. You may make it do.

また、図12の例では、ハート形のスタンプ画像が合成用画像とされる例について説明したが、フレーム画像が合成用画像とされるようにしてもよい。なお、フレーム画像は、例えば、人物の画像の周囲に配置される模様、図形などとして構成される。このようなフレーム画像が編集対象画像に重畳された場合も、やはり、重畳部分画像処理部322による画像処理が施される。   In the example of FIG. 12, the example in which the heart-shaped stamp image is used as the synthesis image has been described. However, the frame image may be used as the synthesis image. The frame image is configured as, for example, a pattern or a figure arranged around the person image. Even when such a frame image is superimposed on the image to be edited, image processing by the superimposed partial image processing unit 322 is also performed.

さらに、ペン画像が合成用画像とされるようにしてもよい。なお、ペン画像は、例えば、タッチペン132Aまたはタッチペン132Bの軌跡に沿って描画される線状の図形とされるが、単純な線に限られるものではなく、例えば、ギザギザ形状の縁取りがなされたものでもよいし、雲形形状の縁取りがなされたものでもよい。このようなペン画像が編集対象画像に重畳された場合も、やはり、重畳部分画像処理部322による画像処理が施される。   Further, the pen image may be used as a composition image. The pen image is, for example, a linear figure drawn along the trajectory of the touch pen 132A or the touch pen 132B. However, the pen image is not limited to a simple line. For example, the pen image has a jagged edge. However, a cloud-shaped border may be used. Even when such a pen image is superimposed on the image to be edited, image processing by the superimposed partial image processing unit 322 is also performed.

図12の例では、ハート形のスタンプ画像が合成用画像とされる例について説明したが、例えば、アイライン、ハイライト、シェーディングなど、利用者の画像にあたかも化粧がなされたかのような効果を奏する化粧用画像が合成用画像とされるようにしてもよい。   In the example of FIG. 12, an example in which a heart-shaped stamp image is used as a composition image has been described. However, for example, effects such as eyeline, highlight, shading, and the like can be obtained as if makeup was applied to the user's image. The makeup image may be used as a composition image.

図15は、上述したステップS4で実行される編集処理において、タブレット内蔵モニタ131に表示される編集画面の別の例を示す図である。図15に示される編集画面においては、編集対象画像411−1および編集対象画像411−2が表示され、編集パレット412−1および編集パレット412−2が表示されている。   FIG. 15 is a diagram showing another example of the editing screen displayed on the tablet built-in monitor 131 in the editing process executed in step S4 described above. On the editing screen shown in FIG. 15, an editing target image 411-1 and an editing target image 411-2 are displayed, and an editing palette 412-1 and an editing palette 412-2 are displayed.

図15の場合、「左の人」は、編集パレット412−1を用いて編集対象画像411−1を編集し、「右の人」は、編集パレット412−2を用いて編集対象画像411−2を編集する。   In the case of FIG. 15, the “left person” edits the editing target image 411-1 using the editing palette 412-1, and the “right person” uses the editing palette 412-2 to edit the editing target image 411-. Edit 2.

編集パレット412−1および編集パレット412−2には、それぞれハイライトシェーディングパレット421およびアイラインパレット422が表示されている。なお、編集パレット412−1および編集パレット412−2において、「おすすめ」のタブが選択され、かつ、「ハイライト/シェーディング」のタブが選択されたことにより、ハイライトシェーディングパレット421およびアイラインパレット422が表示される。   In the editing palette 412-1 and the editing palette 412-2, a highlight shading palette 421 and an eyeline palette 422 are displayed, respectively. Note that the highlight shading palette 421 and the eyeline palette are selected when the “recommended” tab is selected and the “highlight / shading” tab is selected in the edit palette 412-1 and the edit palette 412-2. 422 is displayed.

ハイライトシェーディングパレット421は、利用者の顔の画像にハイライトまたはシェーディングを施したり、アイラインを描くためのパレットとされる。ここで、ハイライトは、化粧の方式の1つとされ、例えば、額の中央から鼻筋にかけて明るい色のファンデーションなどを付けるものとされる。これにより、顔の立体感を向上させることが可能となる。また、シェーディングは、耳の下から顎にかけて暗い色のファンデーションなどを付けるものとされる。これにより、顔を小さく見せることが可能となる。   The highlight shading palette 421 is a palette for highlighting or shading a user's face image or drawing an eyeline. Here, the highlight is one of makeup methods, and for example, a bright color foundation is applied from the center of the forehead to the nose. Thereby, it is possible to improve the stereoscopic effect of the face. In addition, shading is supposed to have a dark foundation from under the ear to the chin. This makes it possible to make the face look smaller.

ハイライトシェーディングパレット421を利用して、編集対象画像の中の利用者の顔にハイライトおよび/またはシェーディングを施されたような画像処理を行うことができる。つまり、ハイライトシェーディングパレット421は、利用者の顔の画像の一部を明るくしたり、暗くしたりする編集作業に係るものとされる。   The highlight shading palette 421 can be used to perform image processing such that highlighting and / or shading is applied to the user's face in the image to be edited. That is, the highlight shading palette 421 is related to an editing operation that brightens or darkens a part of the user's face image.

例えば、左の人が、ハイライトシェーディングパレット421のボタン431−2をタッチペン132Aでタップすると、編集対象画像411−1において点線の楕円により示された部分にハイライトが施される。このとき、例えば、編集対象画像411−1において点線の楕円により示された部分に、明るい色の化粧用画像が重畳される。そして、ハイライトシェーディングパレット421のボタン431−1がタップされると、化粧用画像が消去され、編集対象画像411−1の中の利用者の顔画像のハイライトが消去される。なお、ここで、化粧用画像は、器官画像認識部323により認識された器官、または、顔の中の領域が抽出され、色などが変更された画像とされる。   For example, when the left person taps the button 431-2 of the highlight shading palette 421 with the touch pen 132A, the portion indicated by the dotted ellipse in the editing target image 411-1 is highlighted. At this time, for example, a bright cosmetic image is superimposed on a portion indicated by a dotted ellipse in the editing target image 411-1. When the button 431-1 of the highlight shading palette 421 is tapped, the makeup image is deleted, and the highlight of the user's face image in the editing target image 411-1 is deleted. Here, the cosmetic image is an image in which the organ recognized by the organ image recognition unit 323 or an area in the face is extracted and the color or the like is changed.

なお、ボタン431−1およびボタン431−2の背景には、ハイライトの化粧をしたモデルの画像が表示される。あるいはまた、ボタン431−1およびボタン431−2の背景にハイライトの化粧をした利用者の画像が表示されるようにしてもよい。この場合、右の人と左の人を個々に判別し、編集パレット412−1のボタン431−1およびボタン431−2の背景には、左の人の画像が表示されるようにし、編集パレット412−2のボタン431−1およびボタン431−2の背景には、右の人の画像が表示されるようにしてもよい。   Note that an image of a model with highlight makeup is displayed in the background of the buttons 431-1 and 431-2. Or you may make it display the image of the user who did highlight makeup on the background of button 431-1 and button 431-2. In this case, the right person and the left person are individually discriminated, and the image of the left person is displayed on the background of the buttons 431-1 and 431-2 of the editing palette 412-1. An image of the right person may be displayed in the background of the button 431-1 and the button 431-2 of 412-2.

また、例えば、左の人が、ハイライトシェーディングパレット421のボタン432−2をタッチペン132Aでタップすると、編集対象画像411−1において実線の楕円により示された部分にシェーディングが施される。このとき、例えば、編集対象画像411−1において実線の楕円により示された部分に、暗い色の化粧用画像が重畳される。なお、ハイライトとシェーディングを施す領域の詳細については後述する。そして、ハイライトシェーディングパレット421のボタン432−1がタップされると、化粧用画像が消去され、編集対象画像411−1の中の利用者の顔画像のシェーディングが消去される。   Also, for example, when the left person taps the button 432-2 of the highlight shading palette 421 with the touch pen 132A, the portion indicated by the solid oval in the editing target image 411-1 is shaded. At this time, for example, a dark-colored cosmetic image is superimposed on a portion indicated by a solid oval in the editing target image 411-1. Details of the area to be highlighted and shaded will be described later. When the button 432-1 of the highlight shading palette 421 is tapped, the makeup image is deleted and the shading of the user's face image in the editing target image 411-1 is deleted.

なお、ボタン432−1およびボタン432−2の背景には、シェーディングの化粧をしたモデルの画像が表示される。あるいはまた、ボタン432−1およびボタン432−2の背景にシェーディングの化粧をした利用者の画像が表示されるようにしてもよい。この場合、右の人と左の人を個々に判別し、編集パレット412−1のボタン431−1およびボタン431−2の背景には、左の人の画像が表示されるようにし、編集パレット412−2のボタン431−1およびボタン431−2の背景には、右の人の画像が表示されるようにしてもよい。   Note that an image of a model with shading makeup is displayed in the background of the buttons 432-1 and 432-2. Or you may make it display the image of the user who made the shading makeup on the background of the button 432-1 and the button 432-2. In this case, the right person and the left person are individually discriminated, and the image of the left person is displayed on the background of the buttons 431-1 and 431-2 of the editing palette 412-1. An image of the right person may be displayed in the background of the button 431-1 and the button 431-2 of 412-2.

図16は、ハイライトをより詳細に説明する図である。同図において、T字型の枠、楕円により示された部分がハイライトを施す領域とされ、当該領域に対応する化粧用画像が生成される。   FIG. 16 is a diagram for explaining the highlight in more detail. In the figure, a T-shaped frame and a portion indicated by an ellipse are areas to be highlighted, and a cosmetic image corresponding to the area is generated.

ハイライト用の化粧用画像を生成する場合、器官画像認識部323により、例えば、最初に、編集対象画像の中の利用者の顔画像が認識される。そして、顔画像の中の目の領域が認識され、2つの目の黒目部分の中心から下方向(顔を2次元としてとらえて、高さ方向を上下方向で表現した場合)のほぼ長方形の領域を認識することで鼻筋の部分が認識される。また、目から上の髪の毛の下の領域が額の領域として認識される。また、必要に応じて、左右の目の下の領域がほおの領域として認識される。   When generating a highlight makeup image, for example, the organ image recognition unit 323 first recognizes the face image of the user in the image to be edited. Then, the eye area in the face image is recognized, and a substantially rectangular area from the center of the black eye part of the two eyes downward (when the face is regarded as two-dimensional and the height direction is expressed in the vertical direction) The nose muscle part is recognized by recognizing. Further, the area under the hair above the eyes is recognized as the forehead area. Further, if necessary, the area under the left and right eyes is recognized as the cheek area.

また、鼻筋の部分はさらに詳細に認識されるようにしてもよい。例えば、編集対象画像の中の利用者の顔画像が認識された後、鼻の部分が認識されるようにする。そして、図17Aに示されるように、利用者の鼻451の中心線に沿った所定の領域452がハイライトを施す領域として認識されるようにしてもよい。このようにすることで、鼻をより立体的に見せることができる(鼻が高くみえる)。   Further, the nose muscle portion may be recognized in more detail. For example, after the face image of the user in the editing target image is recognized, the nose portion is recognized. Then, as shown in FIG. 17A, a predetermined region 452 along the center line of the user's nose 451 may be recognized as a region to be highlighted. By doing so, the nose can be shown more three-dimensionally (the nose looks higher).

さらに、利用者の鼻451全体を含む所定の領域453がハイライトを施す領域として認識されるようにしてもよい。   Furthermore, a predetermined area 453 including the entire user's nose 451 may be recognized as an area to be highlighted.

このように検出された領域に重畳される化粧用画像が生成される。そして、化粧用画像の色が、例えば、明るい色(例えば、薄い肌色や白色など)とされる。   A cosmetic image to be superimposed on the area thus detected is generated. The color of the makeup image is, for example, a bright color (for example, a light skin color or white).

上述した例においては、検出した領域に重畳される化粧用画像が生成されると説明したが、化粧用画像を生成せずに、編集対象画像の中の所定の領域を検出し、直接画像処理を施すことも可能である。   In the above-described example, it has been described that a makeup image to be superimposed on the detected area is generated. However, a predetermined area in the editing target image is detected without generating a makeup image, and direct image processing is performed. It is also possible to apply.

図18は、シェーディングをより詳細に説明する図である。同図においてハッチングされた部分がシェーディングを施す領域とされ、当該領域に対応する化粧用画像が生成される。   FIG. 18 is a diagram illustrating shading in more detail. In the figure, the hatched portion is an area to be shaded, and a cosmetic image corresponding to the area is generated.

シェーディング用の化粧用画像を生成する場合、例えば、最初に、編集対象画像の中の利用者の顔画像が認識される。そして、図18Aに示されるように、顔画像の輪郭線が認識され、顔の下側の輪郭線から上方向の所定の領域が顎の領域として認識される。このように認識された領域を灰色などの暗い色にするための化粧用画像が生成される。   When generating a makeup image for shading, for example, a user's face image in the image to be edited is first recognized. Then, as shown in FIG. 18A, the contour line of the face image is recognized, and a predetermined region upward from the contour line below the face is recognized as a chin region. A cosmetic image for making the recognized area darker such as gray is generated.

あるいはまた、図18Aで認識された顎から領域を下方へ移動し、図18Bに示されるように、顔の下側の輪郭線から下方向の所定の領域がシェーディングを施す領域として認識されるようにしてもよい。この領域において、首の中の顎に近い部分は、利用者の顔画像の領域ではないが、この領域の画像を暗い色にすることで、利用者の顔が小さく見える効果を奏する。   Alternatively, the region is moved downward from the jaw recognized in FIG. 18A, and as shown in FIG. 18B, a predetermined region downward from the lower outline of the face is recognized as a region to be shaded. It may be. In this region, the portion close to the jaw in the neck is not the region of the user's face image, but by making the image in this region darker, the user's face appears to be small.

あるいはまた、図18Cに示されるように、顔の下側の輪郭線から下方向の所定の領域であって、首を含む領域がシェーディングを施す領域として認識されるようにしてもよい。図18Cの場合、図18Bの場合とは異なり、顔の下側の輪郭線から上方向の所定の領域と首のほぼ全体を含む領域にシェーディングが施されている。   Alternatively, as shown in FIG. 18C, a predetermined area in the downward direction from the lower outline of the face and including the neck may be recognized as an area to be shaded. In the case of FIG. 18C, unlike the case of FIG. 18B, shading is applied to a predetermined region in the upward direction from the lower outline of the face and a region including almost the entire neck.

このように検出された領域に重畳される化粧用画像が生成される。そして、化粧用画像の色が、例えば、暗い色(例えば、濃い肌色や灰色など)とされる。   A cosmetic image to be superimposed on the area thus detected is generated. The color of the makeup image is, for example, a dark color (for example, dark skin color or gray).

なお、化粧用画像における色の明るさ(例えば、白の濃さ)、色の暗さ(例えば、灰色の濃さ)が利用者の選択により変更できるようにしてもよい。   Note that the brightness of the color (for example, white density) and the darkness of the color (for example, gray density) in the makeup image may be changed by the user's selection.

図15の説明に戻る。   Returning to the description of FIG.

上述したように、ハイライトシェーディングパレット421は、利用者の顔の画像にハイライトおよび/またはシェーディングを施したり、アイラインを描くためのパレットとされる。ここで、アイラインは、化粧の方式の1つとされ、目の周りであって、例えば、まつ毛付近に線を描くものとされる。これにより、目を大きく見せたり、彫の深い顔立ちにみせたりすることが可能となる。   As described above, the highlight shading palette 421 is a palette for highlighting and / or shading the user's face image and drawing an eyeline. Here, the eye line is one of makeup methods, and is drawn around the eye, for example, near the eyelashes. As a result, it is possible to make the eyes look larger or to show a deeply carved feature.

例えば、右の人が、ハイライトシェーディングパレット421のボタン433をタッチペン132Bでタップすることで、アイラインの色を選択することができる。この例では、アイラインの色を、黒(black)、濃い黒(deep black)、および、茶色(brown)から選択することができる。   For example, the right person can select the color of the eyeline by tapping the button 433 of the highlight shading palette 421 with the touch pen 132B. In this example, the color of the eyeline can be selected from black, deep black, and brown.

また、例えば、右の人が、ハイライトシェーディングパレット421のアイコン434−1乃至アイコン434−3をタッチペン132Bでタップすることで、アイラインの形を選択することができる。また、アイコン434−1乃至アイコン434−3のいずれかがタップされることで、編集対象画像411−2の利用者の顔画像の中の目の周りにアイラインが付される。図15の例では、アイコン434−3が選択されたことにより、編集対象画像411−2の利用者の顔画像の中の目の周りにアイラインが付されている。   Further, for example, the right person can select the shape of the eyeline by tapping the icons 434-1 to 434-3 of the highlight shading palette 421 with the touch pen 132B. Further, when any of the icons 434-1 to 434-3 is tapped, an eyeline is attached around the eyes in the face image of the user of the editing target image 411-2. In the example of FIG. 15, by selecting the icon 434-3, an eyeline is attached around the eyes in the face image of the user of the editing target image 411-2.

なお、アイラインは、編集対象画像411−2の利用者の顔画像の中の目の周りに化粧用画像の色が変更されることなどにより描かれる。   The eyeline is drawn by changing the color of the makeup image around the eyes in the face image of the user of the editing target image 411-2.

アイライン用の化粧用画像を生成する場合、器官画像認識部323により、例えば、最初に、編集対象画像の中の利用者の顔画像が認識される。そして、顔画像の中の目が認識され、目の輪郭に沿った所定の領域がアイラインを描く領域として認識される。このように認識された領域に重畳される化粧用画像が生成される。この際、化粧用画像の色は、ボタン433により選択されたものとされ、化粧用画像の形は、アイコン434−1乃至アイコン434−3の中で選択されたものに対応する形とされる。   When generating a makeup image for eyeline, the organ image recognition unit 323 first recognizes a user's face image in the image to be edited, for example. Then, the eyes in the face image are recognized, and a predetermined area along the outline of the eyes is recognized as an area for drawing an eyeline. A cosmetic image to be superimposed on the recognized area is generated. At this time, the color of the cosmetic image is selected by the button 433, and the shape of the cosmetic image is a shape corresponding to the one selected from the icons 434-1 to 434-3. .

アイコン434−1は、一般的な形のアイラインを描く場合に選択される。アイコン434−2は、目じりがやや上がった形のアイラインを描く場合に選択される。アイコン434−3は、目じりが鋭く上がった形のアイラインを描く場合に選択される。   The icon 434-1 is selected when drawing a general eyeline. The icon 434-2 is selected when an eyeline with a slightly raised eyeline is drawn. The icon 434-3 is selected when drawing an eyeline with sharply raised eyes.

アイコン434−2、および、アイコン434−3は、キャットラインと称され、このようなアイラインを描くことにより、例えば、図19に示されるようないわゆるネコ目の化粧を施すことができる。同図においては、目じりが鋭く上がった(円で囲まれた部分)画像が示されている。   The icon 434-2 and the icon 434-3 are referred to as a cat line. By drawing such an eye line, for example, a so-called cat eye makeup as shown in FIG. 19 can be applied. In the figure, an image with sharply raised eyes (portion surrounded by a circle) is shown.

図15に戻って、例えば、ハイライトシェーディングパレット421のボタン435−1がタップされると、化粧用画像が時計回りまたは反時計回りに回転する。   Returning to FIG. 15, for example, when the button 435-1 of the highlight shading palette 421 is tapped, the cosmetic image rotates clockwise or counterclockwise.

また、例えば、ハイライトシェーディングパレット421のボタン435−2がタップされると、化粧用画像のサイズが変更される。ボタン435−2がタップされると、例えば、化粧用画像が横方向に伸びるようになされている。なお、勿論、化粧用画像を伸ばした後、元に戻すことも可能である。   For example, when the button 435-2 of the highlight shading palette 421 is tapped, the size of the makeup image is changed. When the button 435-2 is tapped, for example, the cosmetic image is extended in the horizontal direction. Of course, after the cosmetic image is stretched, it can be restored.

なお、アイラインを消去するためのボタンが必要に応じて設けられるようにし、そのボタンが押下された場合、アイラインの化粧用画像が消去されるようにしてもよい。   A button for erasing the eyeline may be provided as necessary, and when the button is pressed, the eyeline cosmetic image may be erased.

上述したように、ハイライト、シェーディング、およびアイラインの化粧は、化粧用画像を重畳することにより行われる。化粧用画像は、合成用画像の1つとして合成用画像重畳部321により、編集対象画像に重畳される。すなわち、器官画像認識部323により認識された領域に対応する化粧用画像が、合成用画像重畳部321により生成されて編集対象画像に重畳される。   As described above, highlight, shading, and eyeline makeup are performed by superimposing cosmetic images. The makeup image is superimposed on the image to be edited by the composition image superimposing unit 321 as one of the composition images. That is, a makeup image corresponding to the region recognized by the organ image recognition unit 323 is generated by the synthesis image superimposing unit 321 and superimposed on the editing target image.

化粧用画像が合成用画像として編集対象画像に重畳された場合も、重畳部分画像処理部322による画像処理が実行される。   Even when the makeup image is superimposed on the editing target image as a composition image, image processing by the superimposed partial image processing unit 322 is executed.

例えば、「きれい系」の撮影パラメータが設定されて撮影された利用者の画像である編集対象画像にハイライトの化粧用画像が重畳された場合、重畳部分画像処理部322は、化粧用画像の画素の輝度を高くする画像処理を実行する。また、例えば、「きれい系」の撮影パラメータが設定されて撮影された利用者の画像である編集対象画像にシェーディングの化粧用画像が重畳された場合、重畳部分画像処理部322は、化粧用画像の画素の輝度を低くする画像処理を実行する。   For example, when a highlight makeup image is superimposed on an editing target image that is a user's image captured with a “clean” shooting parameter set, the superimposed partial image processing unit 322 displays the makeup image. Image processing for increasing the luminance of the pixel is executed. In addition, for example, when a shading makeup image is superimposed on an editing target image that is a user's image shot with a “clean” shooting parameter set, the superimposed partial image processing unit 322 displays the makeup image. Image processing for lowering the luminance of the pixels is executed.

このようにすることで、ハイライトやシェーディングがくっきりと表示されるようになり、「きれい系」の撮影パラメータが設定されて撮影された利用者の画像によくなじむものとなる。   By doing so, highlights and shading are clearly displayed, and the image is well suited to a user's image shot with a “clean” shooting parameter set.

また、例えば、編集対象画像の中の利用者の顔の肌の色に応じてアイラインの色が変更されるような画像処理が施されるようにしてもよい。例えば、色黒の利用者の顔画像にアイラインの化粧用画像が重畳された場合、重畳部分画像処理部322は、アイラインの色をより濃い色となるようにする画像処理を実行する。また、例えば、色白の利用者の顔画像にアイラインの化粧用画像が重畳された場合、重畳部分画像処理部322は、アイラインの色をより薄い色となるようにする画像処理を実行する。   Further, for example, image processing may be performed in which the color of the eyeline is changed according to the skin color of the user's face in the editing target image. For example, when a makeup image of an eyeline is superimposed on a face image of a user who is colored black, the superimposed partial image processing unit 322 executes image processing that makes the color of the eyeline darker. Further, for example, when the eyeline makeup image is superimposed on the face image of the fair user, the superimposed partial image processing unit 322 executes image processing that makes the eyeline color lighter. .

このようにすることで、利用者の肌の色によくなじむ化粧を施すことが可能となる。   By doing in this way, it becomes possible to apply the makeup which adjusts well to the user's skin color.

なお、図12を参照して上述した場合と同様に、化粧用画像が合成される場合も、重畳部分画像処理部322は、合成用画像を構成する画素の値を変更する画像処理を実行するようにしてもよいし、編集対象画像において合成用画像が重畳される位置の周辺の所定の範囲内の画素の値を変更する画像処理を実行するようにしてもよいし、合成用画像を構成する画素の値、および、編集対象画像において合成用画像が重畳される位置の周辺の所定の範囲内の画素の値を、それぞれ変更する画像処理を実行するようにしてもよい。   Similar to the case described above with reference to FIG. 12, when a makeup image is synthesized, the superimposed partial image processing unit 322 executes image processing for changing the values of the pixels constituting the synthesis image. Alternatively, image processing for changing the value of a pixel within a predetermined range around the position where the composition image is superimposed on the image to be edited may be executed, or the composition image may be configured. It is also possible to execute image processing for changing the value of the pixel to be changed and the value of the pixel within a predetermined range around the position where the synthesis image is superimposed on the editing target image.

また、以上において説明した重畳部分画像処理部322による画像処理は、編集者毎(例えば、「右の人」と「左の人」)に異なるようにしてもよい。例えば、「左の人」が編集する場合、合成用画像の透明度を、撮影パラメータに応じて変更するような画像処理が施され、「右の人」が編集する場合、合成用画像の平均輝度値を、撮影パラメータに応じて変更するような画像処理が施されるようにしてもよい。   Further, the image processing by the superimposed partial image processing unit 322 described above may be different for each editor (for example, “right person” and “left person”). For example, when “left person” edits, image processing is performed such that the transparency of the composite image is changed according to the shooting parameters, and when “right person” edits, the average brightness of the composite image Image processing may be performed such that the value is changed according to the shooting parameter.

さらに、上述した例においては、合成用画像が編集対象画像に重畳された場合、自動的に重畳部分画像処理部322による画像処理が実行されるものとして説明したが、例えば、合成用画像が編集対象画像に重畳された場合、利用者の操作に基づく指令があったとき、重畳部分画像処理部322による画像処理が実行されるようにしてもよい。   Further, in the above-described example, it has been described that the image processing by the superimposed partial image processing unit 322 is automatically executed when the composition image is superimposed on the editing target image. When the image is superimposed on the target image, the image processing by the superimposed partial image processing unit 322 may be executed when there is a command based on a user operation.

例えば、利用者がスタンプ画像を編集対象画像の所望の位置に貼り付けた後、さらに、そのスタンプ画像をタップしたとき、重畳部分画像処理部322による画像処理が実行されるようにしてもよい。   For example, the image processing by the superimposed partial image processing unit 322 may be executed when the user pastes the stamp image at a desired position of the image to be edited and then taps the stamp image.

あるいはまた、重畳部分画像処理部322による画像処理が複数段階から選択されて実行されるようにしてもよい。例えば、利用者がスタンプ画像を編集対象画像の所望の位置に貼り付けた後、さらに、そのスタンプ画像をタップする都度、画像処理がより強く施される(例えば、透過度がより大きく変更される)ようにしてもよい。あるいはまた、例えば、利用者がスタンプ画像を編集対象画像の所望の位置に貼り付けた後、そのスタンプ画像にタッチペンのペン先を押しあてた時間に応じてスタンプ画像の画素の輝度がより高くなったたり、低くなったりするようにしてもよい。   Alternatively, the image processing by the superimposed partial image processing unit 322 may be selected and executed from a plurality of stages. For example, after the user pastes the stamp image at a desired position of the image to be edited, each time the user taps the stamp image, the image processing is performed more strongly (for example, the transparency is changed more greatly). You may do it. Alternatively, for example, after the user pastes the stamp image at a desired position in the image to be edited, the brightness of the pixels of the stamp image becomes higher according to the time when the pen tip of the touch pen is pressed against the stamp image. You may make it fall or be lowered.

また、以上においては、編集対象画像に合成用画像が重畳される例について説明したが、勿論、編集対象画像に重畳された合成用画像に、さらに合成用画像が重畳されるようにすることもできる。例えば、シェーディングの化粧用画像の上に、ハート型のスタンプ画像が貼り付けられるようにしてもよい。この場合も、上述したように、重畳部分画像処理部322による画像処理が施される。   In the above description, the example in which the compositing image is superimposed on the editing target image has been described. Of course, the compositing image may be further superimposed on the compositing image superimposed on the editing target image. it can. For example, a heart-shaped stamp image may be pasted on a shading makeup image. Also in this case, as described above, the image processing by the superimposed partial image processing unit 322 is performed.

次に、図20のフローチャートを参照して、図11のステップS4の編集処理の一部として実行される画像合成処理の例について説明する。この処理は、例えば、編集画面において、図12または図15に示されるような編集画面が表示されたとき実行される。   Next, an example of an image composition process executed as part of the editing process in step S4 of FIG. 11 will be described with reference to the flowchart of FIG. This process is executed, for example, when an edit screen as shown in FIG. 12 or 15 is displayed on the edit screen.

ステップS21において、化粧の編集であるか否かが判定される。例えば、編集画面において、図12の編集パレット352が表示されている場合、化粧の編集ではないと判定される。   In step S21, it is determined whether or not makeup editing is performed. For example, when the editing palette 352 of FIG. 12 is displayed on the editing screen, it is determined that the makeup editing is not performed.

ステップS21において、化粧の編集ではないと判定された場合、処理は、ステップS22に進む。ステップS22において、合成用画像重畳部321は、合成用画像の選択を受け付ける。このとき、例えば、編集パレット352に表示されているスタンプ画像の中から所定のスタンプ画像の選択が受け付けられる。   If it is determined in step S21 that the editing is not makeup, the process proceeds to step S22. In step S <b> 22, the composition image superimposing unit 321 accepts selection of a composition image. At this time, for example, selection of a predetermined stamp image from the stamp images displayed on the editing palette 352 is accepted.

一方、例えば、編集画面において、図15の編集パレット412−1または編集パレット412−2が表示されている場合、処理は、ステップS23に進む。   On the other hand, for example, when the editing palette 412-1 or the editing palette 412-2 of FIG. 15 is displayed on the editing screen, the process proceeds to step S23.

ステップS23において、器官画像認識部323は、編集対象画像の中の利用者の顔画像を認識する。   In step S23, the organ image recognition unit 323 recognizes the face image of the user in the editing target image.

ステップS24において、器官画像認識部323は、ステップS23の処理で認識された利用者の顔画像の中の所定の器官を認識する。このとき、例えば、利用者の顔画像の中の目、鼻、顎などの領域が必要に応じて認識される。   In step S24, the organ image recognition unit 323 recognizes a predetermined organ in the face image of the user recognized in the process of step S23. At this time, for example, areas such as eyes, nose, and chin in the user's face image are recognized as necessary.

ステップS25において、器官画像認識部323は、ステップS24の処理で認識された顔画像の中の器官の位置に基づいて、所定の領域を認識する。このとき、例えば、ハイライト領域、シェーディング領域、アイラインを描く領域などが認識される。   In step S25, the organ image recognition unit 323 recognizes a predetermined area based on the position of the organ in the face image recognized in the process of step S24. At this time, for example, a highlight area, a shading area, an eyeline drawing area, and the like are recognized.

ステップS26において、合成用画像重畳部321は、ステップS25で認識された所定の領域に対応する化粧用画像を生成する。このとき、例えば、ハイライト用の化粧用画像、シェーディング用の化粧用画像、アイライン用の化粧用画像などが生成される。   In step S26, the composition image superimposing unit 321 generates a makeup image corresponding to the predetermined area recognized in step S25. At this time, for example, a makeup image for highlight, a makeup image for shading, a makeup image for eyeline, and the like are generated.

ステップS27において、合成用画像重畳部321は、ステップS22の処理で選択が受け付けられた合成用画像(例えば、スタンプ画像など)、または、ステップS26の処理で生成された化粧用画像を、合成用画像として編集対象画像に重畳する。   In step S27, the compositing image superimposing unit 321 uses the compositing image (for example, a stamp image or the like) selected in the processing in step S22 or the cosmetic image generated in the processing in step S26 for compositing. The image is superimposed on the image to be edited.

ステップS28において、重畳部分画像処理部322は、ステップS27の処理を経た編集対象画像、および/または、合成用画像に画像処理を施す。このとき、例えば、透過度、および、エッジの強調度を変更する画像処理、輝度や色を変更する画像処理などが施される。   In step S28, the superimposed partial image processing unit 322 performs image processing on the image to be edited and / or the synthesis image that has undergone the processing in step S27. At this time, for example, image processing for changing transparency and edge enhancement, image processing for changing luminance and color, and the like are performed.

このようにして、画像合成処理が実行される。   In this way, the image composition process is executed.

ところで、上述した一連の処理は、ハードウェアにより実行させることもできるし、ソフトウェアにより実行させることもできる。上述した一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、ネットワークや記録媒体からインストールされる。   By the way, the above-described series of processes can be executed by hardware or can be executed by software. When the above-described series of processing is executed by software, a program constituting the software is installed from a network or a recording medium.

この記録媒体は、例えば、図8に示されるように、装置本体とは別に、写真シール作成装置1の管理者にプログラムを配信するために配布される、プログラムが記録されている磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROMおよびDVDを含む)、光磁気ディスク(MDを含む)、もしくは半導体メモリなどよりなるリムーバブルメディア205により構成されるだけでなく、装置本体に予め組み込まれた状態で管理者に配信される、プログラムが記録されているROM206や、記憶部202に含まれるハードディスクなどで構成される。   For example, as shown in FIG. 8, the recording medium is distributed to distribute the program to the administrator of the photo sticker creating apparatus 1 separately from the apparatus main body, and is a magnetic disk (flexible disk) on which the program is recorded. Disk), optical disk (including CD-ROM and DVD), magneto-optical disk (including MD), or removable media 205 such as a semiconductor memory, as well as being pre-installed in the main unit The ROM 206 that stores the program and the hard disk included in the storage unit 202 are distributed to the administrator.

なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。   In the present specification, the step of describing the program recorded on the recording medium is not limited to the processing performed in chronological order according to the described order, but is not necessarily performed in chronological order. It also includes processes that are executed individually.

以上において、印刷媒体は、シール紙や写真紙に限られるものではなく、例えば、所定のサイズの紙やフィルム、ポスター用の紙、テレホンカードなどのカード、あるいは、Tシャツなどの布地などに印刷するようにしてもよい。   In the above, the printing medium is not limited to sticker paper or photographic paper. For example, printing on a predetermined size of paper or film, poster paper, a card such as a telephone card, or a cloth such as a T-shirt. You may make it do.

また、本発明の実施の形態は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。   The embodiments of the present invention are not limited to the above-described embodiments, and various modifications can be made without departing from the scope of the present invention.

1 写真シール作成装置
11 撮影ユニット
12 編集部
13 事後接客部
201 制御部
208 撮影部
209 編集部
210 事後接客部
301 撮影処理部
302 編集処理部
303 印刷処理部
304 事後接客処理部
321 合成用画像重畳部
322 重畳部分画像処理部
323 器官画像認識部
324 編集制御部
DESCRIPTION OF SYMBOLS 1 Photo sticker production apparatus 11 Shooting unit 12 Editing part 13 Subsequent customer service part 201 Control part 208 Photographing part 209 Editing part 210 Subsequent customer service part 301 Photographing process part 302 Editing process part 303 Print processing part 304 Post-service customer process part 321 Composite image superimposition Unit 322 superimposed partial image processing unit 323 organ image recognition unit 324 editing control unit

本発明の一側面の画像処理装置は、利用者を被写体とする撮影作業により得られた前記利用者の画像である撮影画像に対して編集情報を入力する編集入力作業を行わせ、さらに、得られた編集済みの前記利用者の画像を前記利用者に提供する写真シール作成装置において、前記編集入力作業において、前記撮影画像に合成用画像を重畳するか、または、前記撮影画像に重畳された合成用画像にさらに合成用画像を重畳する合成用画像重畳手段と、前記撮影画像または前記合成用画像の少なくとも一方に対して画像処理を施す画像処理手段とを備え、前記画像処理手段は、前記合成用画像の特徴量が、撮影画像における被写体の写りを変更するための撮影パラメータに予め対応づけられた特徴量により近づくように、または、前記撮影パラメータが設定されて撮影された前記撮影画像の、前記撮影パラメータに応じて定まる特徴量が、前記合成用画像の特徴量により近づくように、前記画像処理を施す写真シール作成装置である。 An image processing apparatus according to an aspect of the present invention performs an editing input operation for inputting editing information on a captured image that is an image of the user obtained by a shooting operation with a user as a subject. In the photo sticker creating apparatus that provides the user with the edited user image, the composition image is superimposed on the captured image or superimposed on the captured image in the editing input operation. a synthesis image superimposing means for superimposing the further synthesis image in the synthesized image, and an image processing means for performing image processing on at least one of the photographed image or the composite image, the image processing means, wherein feature of the synthetic image is, as closer to the pre-correlated obtained feature amount to the imaging parameters for changing the reflecting of the subject in the captured image, or the photographed parameters Of but set it captured the captured image, feature quantity determined in accordance with the imaging parameters, so as to approach by the feature of the synthetic image is a photo sticker creation apparatus for performing the image processing.

本発明の一側面は、利用者を被写体とする撮影作業により得られた前記利用者の画像である撮影画像に対して編集情報を入力する編集入力作業を行わせ、さらに、得られた編集済みの前記利用者の画像を前記利用者に提供する写真シール作成装置の写真シール作成方法において、合成用画像重畳手段が、前記編集入力作業において、前記撮影画像に合成用画像を重畳するか、または、前記撮影画像に重畳された合成用画像にさらに合成用画像を重畳するステップと、画像処理手段が、前記撮影画像または前記合成用画像の少なくとも一方に対して画像処理を施すステップとを含み、前記画像処理手段が、前記合成用画像の特徴量が、撮影画像における被写体の写りを変更するための撮影パラメータに予め対応づけられた特徴量により近づくように、または、前記撮影パラメータが設定されて撮影された前記撮影画像の、前記撮影パラメータに応じて定まる特徴量が、前記合成用画像の特徴量により近づくように、前記画像処理を施す写真シール作成方法である。 One aspect of the present invention allows an editing input operation for inputting editing information to a captured image that is an image of the user obtained by a shooting operation with a user as a subject, and further provides an edited image obtained. In the photo sticker creating method of the photo sticker creating device for providing the user image of the user, the composition image superimposing means superimposes the composition image on the photographed image in the editing input operation, or A step of superimposing a composite image on the composite image superimposed on the photographed image, and a step of performing image processing on at least one of the photographed image or the composite image . wherein the image processing means, the feature amount of the synthetic image is closer to the pre-correlated obtained feature amount to the imaging parameters for changing the reflecting of the subject in the captured image , Or in the imaging parameter is set to captured the captured image, feature quantity determined in accordance with the imaging parameters, so as to approach by the feature of the synthetic image, created photo sticker performing the image processing Is the method.

本発明の一側面は、利用者を被写体とする撮影作業により得られた前記利用者の画像である撮影画像に対して編集情報を入力する編集入力作業を行わせ、さらに、得られた編集済みの前記利用者の画像を前記利用者に提供する写真シール作成装置における処理をコンピュータに実行させるプログラムであって、合成用画像重畳手段が、前記編集入力作業において、前記撮影画像に合成用画像を重畳するか、または、前記撮影画像に重畳された合成用画像にさらに合成用画像を重畳するステップと、画像処理手段が、前記撮影画像または前記合成用画像の少なくとも一方に対して画像処理を施すステップとを含む処理をコンピュータに実行させ、前記画像処理手段が、前記合成用画像の特徴量が、撮影画像における被写体の写りを変更するための撮影パラメータに予め対応づけられた特徴量により近づくように、または、前記撮影パラメータが設定されて撮影された前記撮影画像の、前記撮影パラメータに応じて定まる特徴量が、前記合成用画像の特徴量により近づくように、前記画像処理を施すプログラムである。 One aspect of the present invention allows an editing input operation for inputting editing information to a captured image that is an image of the user obtained by a shooting operation with a user as a subject, and further provides an edited image obtained. A program for causing a computer to execute processing in the photo sticker creating apparatus that provides the user's image to the user, wherein the composition image superimposing means applies the composition image to the photographed image in the editing input operation. A step of superimposing or superimposing a composition image on a composition image superimposed on the photographed image, and an image processing means performs image processing on at least one of the photographed image or the composition image the process comprising the steps is executed by a computer, said image processing means, the feature amount of the combined images is to change the reflecting of the subject in the captured image So as to approach the previously correlated obtained feature amount to the imaging parameters, or, the imaging parameter is set to captured the captured image, feature quantity determined in accordance with the imaging parameters, the feature quantity of the images to be combined It is a program that performs the image processing so as to be closer.

本発明の一側面においては、前記編集入力作業において、前記撮影画像に合成用画像が重畳されるか、または、前記撮影画像に重畳された合成用画像にさらに合成用画像が重畳され、前記撮影画像または前記合成用画像の少なくとも一方に対して画像処理が施され、前記画像処理手段が、前記合成用画像の特徴量が、撮影画像における被写体の写りを変更するための撮影パラメータに予め対応づけられた特徴量により近づくように、または、前記撮影パラメータが設定されて撮影された前記撮影画像の、前記撮影パラメータに応じて定まる特徴量が、前記合成用画像の特徴量により近づくように、前記画像処理が施される。 In one aspect of the present invention, in the editing input operation, a composite image is superimposed on the captured image, or a composite image is further superimposed on the composite image superimposed on the captured image, and the photographing is performed. Image processing is performed on at least one of the image and the image for synthesis , and the image processing unit associates the feature amount of the image for synthesis in advance with a shooting parameter for changing the image of the subject in the shot image. so as to approach the obtained feature amount, or, the imaging parameter is set to captured the captured image, as characteristic amount determined in accordance with the imaging parameters, closer to the feature value of the images to be combined, the Image processing is performed.

Claims (15)

利用者を被写体とする撮影作業により得られた前記利用者の画像である撮影画像に対して編集情報を入力する編集入力作業を行わせ、さらに、得られた編集済みの前記利用者の画像を前記利用者に提供する写真シール作成装置において、
前記編集入力作業において、前記撮影画像に合成用画像を重畳するか、または、前記撮影画像に重畳された合成用画像にさらに合成用画像を重畳する合成用画像重畳手段と、
前記撮影画像または前記合成用画像の少なくとも一方に対して画像処理を施す画像処理手段とを備え、
前記撮影画像の特徴量と、前記合成用画像の特徴量が予め対応づけられており、
前記画像処理手段は、
前記合成用画像の特徴量が前記予め対応付けられた特徴量により近づくように、または、前記撮影画像の特徴量が前記予め対応付けられた特徴量により近づくように、前記画像処理を施す
写真シール作成装置。
An editing input operation for inputting editing information is performed on a captured image that is an image of the user obtained by a photographing operation with the user as a subject, and the obtained edited image of the user is further displayed. In the photo sticker creation device provided to the user,
In the editing input work, a composition image superimposing unit that superimposes a composition image on the photographed image or further superimposes a composition image on the composition image superimposed on the photographed image;
Image processing means for performing image processing on at least one of the captured image or the composition image,
The feature amount of the captured image and the feature amount of the composition image are associated in advance,
The image processing means includes
A photo sticker that performs the image processing so that the feature amount of the image for synthesis approaches the feature amount associated in advance or the feature amount of the photographed image approaches the feature amount associated in advance. Creation device.
前記撮影画像の特徴量は、撮影時に設定される撮影パラメータに応じて定まる特徴量とされる
請求項1に記載の写真シール作成装置。
The photo sticker creating apparatus according to claim 1, wherein the feature amount of the photographed image is a feature amount determined according to a photographing parameter set at the time of photographing.
前記画像処理手段は、
前記合成用画像の全体または一部として構成される画像、および、前記撮影画像において前記合成用画像が重畳される位置の周辺の所定の範囲内の画素により構成される画像の少なくともいずれか一方に前記画像処理を施す
請求項1に記載の写真シール作成装置。
The image processing means includes
At least one of an image configured as a whole or a part of the image for synthesis and an image configured by pixels within a predetermined range around a position where the image for synthesis is superimposed on the captured image. The photo sticker creating apparatus according to claim 1, wherein the image processing is performed.
前記画像処理手段は、
ぼかし処理を施す
請求項1に記載の写真シール作成装置。
The image processing means includes
The photo sticker creating apparatus according to claim 1, wherein blurring processing is performed.
前記画像処理手段は、
前記合成用画像の透過度を高める処理を施す
請求項1に記載の写真シール作成装置。
The image processing means includes
The photographic sticker creating apparatus according to claim 1, wherein a process for increasing the transparency of the composite image is performed.
前記画像処理手段は、
前記撮影用画像または前記合成用画像のガンマ補正に関するガンマ値を変更する画像処理を施す
請求項1に記載の写真シール作成装置。
The image processing means includes
The photo sticker creating apparatus according to claim 1, wherein image processing is performed to change a gamma value related to gamma correction of the shooting image or the composition image.
前記画像処理手段は、
前記撮影用画像または前記合成用画像のトーンカーブ特性を変更する画像処理を施す
請求項1に記載の写真シール作成装置。
The image processing means includes
The photo sticker creating apparatus according to claim 1, wherein image processing is performed to change a tone curve characteristic of the image for photographing or the image for synthesis.
前記画像処理手段は、
前記撮影用画像または前記合成用画像の平均輝度値を変更する画像処理を施す
請求項1に記載の写真シール作成装置。
The image processing means includes
The photo sticker creating apparatus according to claim 1, wherein image processing is performed to change an average luminance value of the image for photographing or the image for synthesis.
前記画像処理手段は、
前記撮影用画像または前記合成用画像のコントラスト値を変更する画像処理を施す
請求項1に記載の写真シール作成装置。
The image processing means includes
The photo sticker creating apparatus according to claim 1, wherein image processing for changing a contrast value of the image for photographing or the image for synthesis is performed.
前記画像処理部は、
前記撮影用画像または前記合成用画像のエッジの強調度を変更する画像処理を施す
請求項1に記載の写真シール作成装置。
The image processing unit
The photo sticker creating apparatus according to claim 1, wherein image processing is performed to change an enhancement degree of an edge of the image for photographing or the image for synthesis.
前記合成用画像の色が、前記撮影画像において前記合成用画像が重畳される位置の周辺の所定の範囲内の画素により構成される画像の色に対応する色となるように画像処理を施す色変更手段をさらに備える
請求項1に記載の写真シール作成装置。
A color on which image processing is performed so that the color of the image for synthesis is a color corresponding to the color of an image composed of pixels within a predetermined range around the position where the image for synthesis is superimposed on the captured image The photo sticker creating apparatus according to claim 1, further comprising changing means.
前記撮影画像の中の利用者の顔画像において所定の器官を認識する器官認識手段をさらに備え、
前記合成用画像重畳手段が、前記器官認識手段により認識された器官に前記合成用画像を重畳する
請求項1に記載の写真シール作成装置。
Organ recognizing means for recognizing a predetermined organ in the face image of the user in the captured image;
The photographic sticker creating apparatus according to claim 1, wherein the composition image superimposing unit superimposes the composition image on the organ recognized by the organ recognition unit.
前記合成用画像が前記撮影画像の中の利用者の顔画像に重畳されることで、前記利用者の顔画像に化粧が施される
請求項12に記載の写真シール作成装置。
The photo sticker creating apparatus according to claim 12, wherein makeup is applied to the face image of the user by superimposing the composition image on the face image of the user in the captured image.
利用者を被写体とする撮影作業により得られた前記利用者の画像である撮影画像に対して編集情報を入力する編集入力作業を行わせ、さらに、得られた編集済みの前記利用者の画像を前記利用者に提供する写真シール作成装置の写真シール作成方法において、
合成用画像重畳手段が、前記編集入力作業において、前記撮影画像に合成用画像を重畳するか、または、前記撮影画像に重畳された合成用画像にさらに合成用画像を重畳するステップと、
画像処理手段が、前記撮影画像または前記合成用画像の少なくとも一方に対して画像処理を施すステップとを含み、
前記撮影画像の特徴量と、前記合成用画像の特徴量が予め対応づけられており、
前記画像処理手段が、
前記合成用画像の特徴量が前記予め対応付けられた特徴量により近づくように、または、前記撮影画像の特徴量が前記予め対応付けられた特徴量により近づくように、前記画像処理を施す
写真シール作成方法。
An editing input operation for inputting editing information is performed on a captured image that is an image of the user obtained by a photographing operation with the user as a subject, and the obtained edited image of the user is further displayed. In the photo sticker creating method of the photo sticker creating device provided to the user,
A composition image superimposing means, in the editing input work, superimposing a composition image on the photographed image, or further superimposing a composition image on the composition image superimposed on the photographed image;
Image processing means includes performing image processing on at least one of the captured image and the composition image,
The feature amount of the captured image and the feature amount of the composition image are associated in advance,
The image processing means
A photo sticker that performs the image processing so that the feature amount of the image for synthesis approaches the feature amount associated in advance or the feature amount of the photographed image approaches the feature amount associated in advance. How to make.
利用者を被写体とする撮影作業により得られた前記利用者の画像である撮影画像に対して編集情報を入力する編集入力作業を行わせ、さらに、得られた編集済みの前記利用者の画像を前記利用者に提供する写真シール作成装置における処理をコンピュータに実行させるプログラムであって、
合成用画像重畳手段が、前記編集入力作業において、前記撮影画像に合成用画像を重畳するか、または、前記撮影画像に重畳された合成用画像にさらに合成用画像を重畳するステップと、
画像処理手段が、前記撮影画像または前記合成用画像の少なくとも一方に対して画像処理を施すステップとを含む処理をコンピュータに実行させ、
前記撮影画像の特徴量と、前記合成用画像の特徴量が予め対応づけられており、
前記画像処理手段が、
前記合成用画像の特徴量が前記予め対応付けられた特徴量により近づくように、または、前記撮影画像の特徴量が前記予め対応付けられた特徴量により近づくように、前記画像処理を施す
プログラム。
An editing input operation for inputting editing information is performed on a captured image that is an image of the user obtained by a photographing operation with the user as a subject, and the obtained edited image of the user is further displayed. A program for causing a computer to execute processing in the photo sticker creating apparatus provided to the user,
A composition image superimposing means, in the editing input work, superimposing a composition image on the photographed image, or further superimposing a composition image on the composition image superimposed on the photographed image;
An image processing means for causing a computer to execute processing including a step of performing image processing on at least one of the captured image and the composition image;
The feature amount of the captured image and the feature amount of the composition image are associated in advance,
The image processing means
A program for performing the image processing so that the feature amount of the image for synthesis approaches the feature amount associated in advance or the feature amount of the photographed image approaches the feature amount associated in advance.
JP2012289003A 2012-12-28 2012-12-28 Photo sticker creation apparatus and method, and program Active JP5541545B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012289003A JP5541545B1 (en) 2012-12-28 2012-12-28 Photo sticker creation apparatus and method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012289003A JP5541545B1 (en) 2012-12-28 2012-12-28 Photo sticker creation apparatus and method, and program

Publications (2)

Publication Number Publication Date
JP5541545B1 JP5541545B1 (en) 2014-07-09
JP2014131246A true JP2014131246A (en) 2014-07-10

Family

ID=51409237

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012289003A Active JP5541545B1 (en) 2012-12-28 2012-12-28 Photo sticker creation apparatus and method, and program

Country Status (1)

Country Link
JP (1) JP5541545B1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016046817A (en) * 2015-11-12 2016-04-04 株式会社メイクソフトウェア Photographing game device, picture sticker creation device, photographing game device control method, and photographing game device control program
JP2018018450A (en) * 2016-07-29 2018-02-01 辰巳電子工業株式会社 Image edition device, image edition method, and computer program
JP2019070870A (en) * 2017-10-05 2019-05-09 カシオ計算機株式会社 Image processing device, image processing method and program
JP2022008999A (en) * 2016-07-29 2022-01-14 辰巳電子工業株式会社 Image editing device, image editing method and computer program

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005181843A (en) * 2003-12-22 2005-07-07 Make Softwear:Kk Photograph vending machine and control method and control program therefor
JP2006228036A (en) * 2005-02-18 2006-08-31 Hitachi Software Eng Co Ltd Photograph seal creating device and its image processing method
JP2007067565A (en) * 2005-08-29 2007-03-15 Tatsumi Denshi Kogyo Kk Automatic photo creating apparatus and automatic photo creating method
JP2007221748A (en) * 2006-01-17 2007-08-30 Furyu Kk Apparatus and method for creating photograph
JP2007267268A (en) * 2006-03-29 2007-10-11 Furyu Kk Photographic sticker forming device and method, and program
JP2009211362A (en) * 2008-03-04 2009-09-17 Furyu Kk Photo-seal creation apparatus, photo-seal creation method and program
JP2012029072A (en) * 2010-07-23 2012-02-09 Furyu Kk Photograph seal creating apparatus, control method thereof, and program
JP2012039411A (en) * 2010-08-06 2012-02-23 Furyu Kk Photographic sticker creation device and method, and program
JP2012159824A (en) * 2011-01-13 2012-08-23 Make Softwear:Kk Photographing game machine, photographing game method, and control program

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005181843A (en) * 2003-12-22 2005-07-07 Make Softwear:Kk Photograph vending machine and control method and control program therefor
JP2006228036A (en) * 2005-02-18 2006-08-31 Hitachi Software Eng Co Ltd Photograph seal creating device and its image processing method
JP2007067565A (en) * 2005-08-29 2007-03-15 Tatsumi Denshi Kogyo Kk Automatic photo creating apparatus and automatic photo creating method
JP2007221748A (en) * 2006-01-17 2007-08-30 Furyu Kk Apparatus and method for creating photograph
JP2007267268A (en) * 2006-03-29 2007-10-11 Furyu Kk Photographic sticker forming device and method, and program
JP2009211362A (en) * 2008-03-04 2009-09-17 Furyu Kk Photo-seal creation apparatus, photo-seal creation method and program
JP2012029072A (en) * 2010-07-23 2012-02-09 Furyu Kk Photograph seal creating apparatus, control method thereof, and program
JP2012039411A (en) * 2010-08-06 2012-02-23 Furyu Kk Photographic sticker creation device and method, and program
JP2012159824A (en) * 2011-01-13 2012-08-23 Make Softwear:Kk Photographing game machine, photographing game method, and control program

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016046817A (en) * 2015-11-12 2016-04-04 株式会社メイクソフトウェア Photographing game device, picture sticker creation device, photographing game device control method, and photographing game device control program
JP2018018450A (en) * 2016-07-29 2018-02-01 辰巳電子工業株式会社 Image edition device, image edition method, and computer program
JP2022008999A (en) * 2016-07-29 2022-01-14 辰巳電子工業株式会社 Image editing device, image editing method and computer program
JP7017724B2 (en) 2016-07-29 2022-02-09 辰巳電子工業株式会社 Image editing equipment, image editing methods and computer programs
JP2019070870A (en) * 2017-10-05 2019-05-09 カシオ計算機株式会社 Image processing device, image processing method and program

Also Published As

Publication number Publication date
JP5541545B1 (en) 2014-07-09

Similar Documents

Publication Publication Date Title
JP6237939B2 (en) Image editing apparatus and image editing method
JP4715964B2 (en) Photo sticker creation apparatus, photo sticker creation method, and program
JP6048758B2 (en) Image processing apparatus and method, and program
JP5488526B2 (en) Image processing apparatus and image processing method
JP2019013013A (en) Photo sticker generation apparatus, photo sticker generation method, and program
JP5541545B1 (en) Photo sticker creation apparatus and method, and program
JP5309979B2 (en) Photo sticker creating apparatus and method, and program
JP5748651B2 (en) Image processing apparatus, image processing method, and program
JP5549727B2 (en) Photo sticker making apparatus and method
JP6829380B2 (en) Photo sticker making device and image processing method
JP2015035765A (en) Imaging apparatus and display control method
JP5569502B2 (en) Photo sticker creation apparatus, photo sticker creation method, and program
JP5472767B2 (en) Image processing apparatus and image processing method
JP6213791B2 (en) Image processing apparatus and image processing method
JP6477780B2 (en) Photo sticker creation apparatus, photo sticker creation method, and photo sticker creation processing program
JP6262643B2 (en) Image processing apparatus and image processing method
JP5482948B2 (en) Image processing apparatus and image processing method
JP2019192061A (en) Photograph creation game machine, control method and program
JP7121256B2 (en) PHOTO-CREATION GAME MACHINE, IMAGE PROCESSING METHOD, AND PROGRAM
JP2014170234A (en) Photograph seal creation apparatus, photograph seal creation method, and program
JP2022012958A (en) Image processing apparatus, image processing method, image processing program, region specification model and model generation method
JP2020053831A (en) Photo-creating game machine, image processing method, and program
JP5578381B1 (en) Photo sticker creation apparatus and method, and program
JP2021043797A (en) Image processing device, image processing method, and image processing program
JP5594401B1 (en) Imaging apparatus, imaging method, and program

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140410

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140423

R150 Certificate of patent or registration of utility model

Ref document number: 5541545

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250