JP2014131246A - Device and method for generating photograph seal and program - Google Patents
Device and method for generating photograph seal and program Download PDFInfo
- Publication number
- JP2014131246A JP2014131246A JP2012289003A JP2012289003A JP2014131246A JP 2014131246 A JP2014131246 A JP 2014131246A JP 2012289003 A JP2012289003 A JP 2012289003A JP 2012289003 A JP2012289003 A JP 2012289003A JP 2014131246 A JP2014131246 A JP 2014131246A
- Authority
- JP
- Japan
- Prior art keywords
- image
- user
- editing
- feature amount
- composition
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
本技術は、写真シール作成装置および方法、並びにプログラムに関し、特に、簡単な操作で違和感のない合成用画像を貼り付けることを可能にし、利用者の満足度を高めるとともに、編集作業に要する時間を短縮することができるようにする写真シール作成装置および方法、並びにプログラムに関する。 The present technology relates to an apparatus and method for creating a photo sticker, and a program. In particular, the present invention makes it possible to paste a compositing image that does not feel uncomfortable with a simple operation, increasing user satisfaction and reducing the time required for editing. The present invention relates to an apparatus and method for creating a photo sticker that can be shortened, and a program.
利用者を撮影し、撮影画像に対して利用者に編集を行わせ、編集後の画像をシール紙に印刷して提供する写真シール機が知られている。このような写真シール機は娯楽(遊戯)施設等に設置される。 There is known a photo sticker that takes a picture of a user, causes the user to edit the shot image, and prints and provides the edited image on sticker paper. Such a photo sticker is installed in an entertainment facility.
写真シール機によって提供される1ゲームの流れは、通常、撮影空間内にいる利用者を被写体として撮影し、利用者を編集空間に移動させ、編集空間内で行われる操作に従って画像を編集し、編集後の画像である編集済み画像をシール紙に印刷して排出するという流れになる。 The flow of one game provided by the photo-seal machine usually shoots a user in the shooting space as a subject, moves the user to the editing space, edits the image according to operations performed in the editing space, The edited image, which is the edited image, is printed on a sticker sheet and discharged.
近年の写真シール機では、例えば、オリジナリティーのある仕上がりにできるように、多様な編集用の合成用画像(例えば、スタンプ画像)が提供される。 In recent photo stickers, for example, various editing composite images (for example, stamp images) are provided so as to achieve an original finish.
例えば、ゲームの流れの中で編集が行われる際に、編集用のGUIとしてパレットが表示され、利用者は、パレットのボタンを操作するなどして選択された編集ツールでの編集内容に応じたスタンプ画像を選択することができる。そして、利用者が、撮影画像上の所望の位置を指定すると、選択したスタンプ画像が、撮影画像上の指定した位置に貼り付けられた画像が合成画像として得られる(例えば、特許文献1参照)。 For example, when editing is performed in the flow of the game, a palette is displayed as an editing GUI, and the user responds to the editing contents with the editing tool selected by operating a button on the palette. A stamp image can be selected. When the user designates a desired position on the photographed image, an image in which the selected stamp image is pasted at the designated position on the photographed image is obtained as a composite image (see, for example, Patent Document 1). .
しかしながら、特許文献1によると、利用者は、撮影画像に、所望の合成用画像を、指位置を指定して貼り付けることができるが、撮影画像に合成用画像を貼り付ける前段階では、撮影画像に貼り付けられた合成用画像の画像イメージを確認できない。つまり、貼り付けた後段階では撮影画像と合成用画像の画像イメージを確認することができるが、撮影画像と合成用画像がなじまない場合がある。
However, according to
画像がなじまない原因としては、例えば、明るさ、シャープネス、写り、輝度、コントラスト 等の画像イメージが相違することなどが考えられる。 Possible causes of unfamiliar images include, for example, differences in image images such as brightness, sharpness, appearance, brightness, and contrast.
そして、撮影画像と合成用画像がなじまない場合は、合成用画像の貼り付けのやり直しボタンを選択し、貼り付ける編集作業を取り消して、別の合成用画像を選択し、所望の位置に貼り付ける編集作業を行わなければならず、利用者にとって手間のかかる作業となる。 If the captured image and the composite image do not match, select the redo button for pasting the composite image, cancel the pasting editing operation, select another composite image, and paste it at the desired position. Editing work must be performed, which is time consuming for the user.
そこで、編集画面上において、合成用画像に関する画像イメージ、(例えば、濃淡、線の太さ)を選択するボタンであって、画像イメージにおいて5段階の度合いを選択できるボタンを表示する写真シール機も提案されている(例えば、特許文献2参照)。 In view of this, there is also a photo sticker that displays a button for selecting an image image (for example, shading, line thickness) related to the image for synthesis on the editing screen, and a button for selecting the degree of five levels in the image image. It has been proposed (see, for example, Patent Document 2).
特許文献2の技術によれば、スタンプ画像を編集対象画像上に表示しながら繰り返し変更することができ、選択したスタンプ画像を取り消すなどの手順を踏まなくても、スタンプ画像と編集対象画像との重なり具合を確認しつつスタンプ画像を変更することができ、イメージに合ったスタンプ画像を選択することができる
According to the technique of
しかしながら、特許文献2の技術では、合成用画像を5段階で調整することができるが、5段階の調整だけでは不充分な場合があり、撮影画像と合成用画像の画像イメージが合わない場合があった。
However, in the technique of
また、この調整のためのボタンを押下することを忘れる利用者もいた。 Some users forgot to press the button for this adjustment.
さらに、画像イメージにおいて5段階の度合いを選択するための作業に要する時間についてもより短縮できるようにすることが望ましい。 Furthermore, it is desirable to be able to further shorten the time required for the work for selecting the degree of five steps in the image.
本発明は、このような状況に鑑みてなされたものであり、簡単な操作で違和感のない合成用画像を貼り付けることを可能にし、利用者の満足度を高めるとともに、編集作業に要する時間を短縮することができるようにするものである。 The present invention has been made in view of such a situation, and it is possible to paste a compositing image without a sense of incongruity with a simple operation, increasing user satisfaction and reducing the time required for editing work. It can be shortened.
本発明の一側面の画像処理装置は、利用者を被写体とする撮影作業により得られた前記利用者の画像である撮影画像に対して編集情報を入力する編集入力作業を行わせ、さらに、得られた編集済みの前記利用者の画像を前記利用者に提供する写真シール作成装置において、前記編集入力作業において、前記撮影画像に合成用画像を重畳するか、または、前記撮影画像に重畳された合成用画像にさらに合成用画像を重畳する合成用画像重畳手段と、前記撮影画像または前記合成用画像の少なくとも一方に対して画像処理を施す画像処理手段とを備え、前記撮影画像の特徴量と、前記合成用画像の特徴量が予め対応づけられており、前記画像処理手段は、前記合成用画像の特徴量が前記予め対応付けられた特徴量により近づくように、または、前記撮影画像の特徴量が前記予め対応付けられた特徴量により近づくように、前記画像処理を施す写真シール作成装置である。 An image processing apparatus according to an aspect of the present invention performs an editing input operation for inputting editing information on a captured image that is an image of the user obtained by a shooting operation with a user as a subject. In the photo sticker creating apparatus that provides the user with the edited user image, the composition image is superimposed on the captured image or superimposed on the captured image in the editing input operation. A synthesis image superimposing unit that further superimposes a synthesis image on the synthesis image; and an image processing unit that performs image processing on at least one of the captured image and the synthesis image; The feature amount of the image for synthesis is associated in advance, and the image processing unit is configured so that the feature amount of the image for synthesis approaches the feature amount associated in advance, or before As closer to the feature amount by the feature that said associated in advance of the captured image, a photo sticker creation apparatus for performing the image processing.
前記撮影画像の特徴量は、撮影時に設定される撮影パラメータに応じて定まる特徴量とされるようにすることができる。 The feature amount of the photographed image can be a feature amount determined according to a photographing parameter set at the time of photographing.
前記画像処理手段は、前記合成用画像の全体または一部として構成される画像、および、前記撮影画像において前記合成用画像が重畳される位置の周辺の所定の範囲内の画素により構成される画像の少なくともいずれか一方に前記画像処理を施すようにすることができる。 The image processing means includes an image configured as a whole or a part of the synthesis image, and an image configured with pixels within a predetermined range around a position where the synthesis image is superimposed on the captured image. The image processing can be performed on at least one of the above.
前記画像処理手段は、ぼかし処理を施すようにすることができる。 The image processing means can perform a blurring process.
前記画像処理手段は、前記合成用画像の透過度を高める処理を施すようにすることができる。 The image processing means may perform a process for increasing the transparency of the composition image.
前記画像処理手段は、前記撮影用画像または前記合成用画像のガンマ補正に関するガンマ値を変更する画像処理を施すようにすることができる。 The image processing means may perform image processing for changing a gamma value related to gamma correction of the shooting image or the composition image.
前記画像処理手段は、前記撮影用画像または前記合成用画像のトーンカーブ特性を変更する画像処理を施すようにすることができる。 The image processing means may perform image processing for changing a tone curve characteristic of the shooting image or the composition image.
前記画像処理手段は、前記撮影用画像または前記合成用画像の平均輝度値を変更する画像処理を施すようにすることができる。 The image processing means may perform image processing for changing an average luminance value of the shooting image or the composition image.
前記画像処理手段は、前記撮影用画像または前記合成用画像のコントラスト値を変更する画像処理を施すようにすることができる。 The image processing means may perform image processing for changing a contrast value of the shooting image or the composition image.
前記画像処理部は、前記撮影用画像または前記合成用画像のエッジの強調度を変更する画像処理を施すようにすることができる。 The image processing unit may perform image processing for changing an edge enhancement degree of the shooting image or the composition image.
前記合成用画像の色が、前記撮影画像において前記合成用画像が重畳される位置の周辺の所定の範囲内の画素により構成される画像の色に対応する色となるように画像処理を施す色変更手段をさらに備えるようにすることができる。 A color on which image processing is performed so that the color of the image for synthesis is a color corresponding to the color of an image composed of pixels within a predetermined range around the position where the image for synthesis is superimposed on the captured image A change means can be further provided.
前記撮影画像の中の利用者の顔画像において所定の器官を認識する器官認識手段をさらに備え、前記合成用画像重畳手段が、前記器官認識手段により認識された器官に前記合成用画像を重畳するようにすることができる。 Organ recognition means for recognizing a predetermined organ in the face image of the user in the captured image is further provided, and the composition image superimposing means superimposes the composition image on the organ recognized by the organ recognition means. Can be.
前記合成用画像が前記撮影画像の中の利用者の顔画像に重畳されることで、前記利用者の顔画像に化粧が施されるようにすることができる。 The composition image is superimposed on the user's face image in the captured image, so that makeup can be applied to the user's face image.
本発明の一側面は、利用者を被写体とする撮影作業により得られた前記利用者の画像である撮影画像に対して編集情報を入力する編集入力作業を行わせ、さらに、得られた編集済みの前記利用者の画像を前記利用者に提供する写真シール作成装置の写真シール作成方法において、合成用画像重畳手段が、前記編集入力作業において、前記撮影画像に合成用画像を重畳するか、または、前記撮影画像に重畳された合成用画像にさらに合成用画像を重畳するステップと、画像処理手段が、前記撮影画像または前記合成用画像の少なくとも一方に対して画像処理を施すステップとを含み、前記撮影画像の特徴量と、前記合成用画像の特徴量が予め対応づけられており、前記画像処理手段が、前記合成用画像の特徴量が前記予め対応付けられた特徴量により近づくように、または、前記撮影画像の特徴量が前記予め対応付けられた特徴量により近づくように、前記画像処理を施す写真シール作成方法である。 One aspect of the present invention allows an editing input operation for inputting editing information to a captured image that is an image of the user obtained by a shooting operation with a user as a subject, and further provides an edited image obtained. In the photo sticker creating method of the photo sticker creating device for providing the user image of the user, the composition image superimposing means superimposes the composition image on the photographed image in the editing input operation, or A step of superimposing a composite image on the composite image superimposed on the photographed image, and a step of performing image processing on at least one of the photographed image or the composite image. The feature amount of the photographed image and the feature amount of the composition image are associated in advance, and the image processing unit associates the feature amount of the composition image with the feature amount. So as to approach more or the like characteristic of the photographed image is closer to the feature amount the associated advance, a photo sticker creation method of applying the image processing.
本発明の一側面は、利用者を被写体とする撮影作業により得られた前記利用者の画像である撮影画像に対して編集情報を入力する編集入力作業を行わせ、さらに、得られた編集済みの前記利用者の画像を前記利用者に提供する写真シール作成装置における処理をコンピュータに実行させるプログラムであって、合成用画像重畳手段が、前記編集入力作業において、前記撮影画像に合成用画像を重畳するか、または、前記撮影画像に重畳された合成用画像にさらに合成用画像を重畳するステップと、画像処理手段が、前記撮影画像または前記合成用画像の少なくとも一方に対して画像処理を施すステップとを含む処理をコンピュータに実行させ、前記撮影画像の特徴量と、前記合成用画像の特徴量が予め対応づけられており、前記画像処理手段が、前記合成用画像の特徴量が前記予め対応付けられた特徴量により近づくように、または、前記撮影画像の特徴量が前記予め対応付けられた特徴量により近づくように、前記画像処理を施すプログラムである。 One aspect of the present invention allows an editing input operation for inputting editing information to a captured image that is an image of the user obtained by a shooting operation with a user as a subject, and further provides an edited image obtained. A program for causing a computer to execute processing in the photo sticker creating apparatus that provides the user's image to the user, wherein the composition image superimposing means applies the composition image to the photographed image in the editing input operation. A step of superimposing or superimposing a composition image on a composition image superimposed on the photographed image, and an image processing means performs image processing on at least one of the photographed image or the composition image A process including a step, wherein the feature amount of the photographed image and the feature amount of the image for synthesis are associated in advance, and the image processing means The program for performing the image processing so that the feature amount of the image for synthesis approaches the feature amount associated in advance or the feature amount of the photographed image approaches the feature amount associated in advance. It is.
本発明の一側面においては、前記編集入力作業において、前記撮影画像に合成用画像が重畳されるか、または、前記撮影画像に重畳された合成用画像にさらに合成用画像が重畳され、前記撮影画像または前記合成用画像の少なくとも一方に対して画像処理が施され、前記撮影画像の特徴量と、前記合成用画像の特徴量が予め対応づけられており、前記画像処理手段が、前記合成用画像の特徴量が前記予め対応付けられた特徴量により近づくように、または、前記撮影画像の特徴量が前記予め対応付けられた特徴量により近づくように、前記画像処理が施される。 In one aspect of the present invention, in the editing input operation, a composite image is superimposed on the captured image, or a composite image is further superimposed on the composite image superimposed on the captured image, and the photographing is performed. Image processing is performed on at least one of the image and the composition image, the feature amount of the captured image and the feature amount of the composition image are associated in advance, and the image processing means The image processing is performed so that the feature amount of the image approaches the feature amount associated in advance or the feature amount of the captured image approaches the feature amount associated in advance.
本発明によれば、簡単な操作で違和感のない合成用画像を貼り付けることを可能にし、利用者の満足度を高めるとともに、編集作業に要する時間を短縮することができる。 According to the present invention, it is possible to paste a compositing image without a sense of incongruity by a simple operation, and it is possible to increase the satisfaction of the user and reduce the time required for editing work.
以下、本発明を適用した具体的な実施の形態について、図面を参照しながら詳細に説明する。 Hereinafter, specific embodiments to which the present invention is applied will be described in detail with reference to the drawings.
図1は、写真シール作成装置1の外観の構成例を示す斜視図である。
FIG. 1 is a perspective view showing a configuration example of the appearance of the photographic
写真シール作成装置1は、撮影や編集等の作業を利用者にゲームとして行わせ、撮影画像や編集済み画像を提供する代わりに利用者より代金を受け取るゲーム機である。写真シール作成装置1はゲームセンタなどの店舗に設置される。利用者は1人であることもあるが、主に2人または3人等の複数人である。
The photo
写真シール作成装置1が提供するゲームで遊ぶ利用者は、代金を投入し、自身が被写体となって撮影を行い、撮影によって得られた撮影画像の中から選択した編集対象の画像に対して、背景や前景の画像となる合成用画像や手書きの線画やスタンプ画像を合成する編集機能を用いて編集を行うことにより、撮影画像を彩り豊かな画像にする。利用者は、編集済みの画像が印刷されたシール紙を受け取って一連のゲームを終了させることになる。
A user who plays in the game provided by the photo
図1に示すように、写真シール作成装置1は、主に、撮影ユニット11、編集部12、および事後接客部13から構成される。撮影ユニット11と編集部12が接した状態で設置され、編集部12と事後接客部13が接した状態で設置される。
As shown in FIG. 1, the photo
撮影ユニット11は、撮影部21と背景部22から構成される。撮影部21と背景部22は所定の距離だけ離れて設置され、撮影部21と背景部22の間に形成される空間である撮影空間において撮影処理が行われる。
The photographing unit 11 includes a photographing
撮影部21は撮影処理を利用者に行わせる装置である。撮影部21は、撮影空間に入り、撮影処理を行っている利用者の正面に位置する。撮影空間を正面に臨む面を構成する撮影部21の正面パネル41には、撮影処理時に利用者により用いられるタッチパネルモニタなどが設けられる。撮影空間にいる利用者から見て左側の面を左側面、右側の面を右側面とすると、撮影部21の左側面が側面パネル42Aにより構成され、右側面が側面パネル42B(図示せず)により構成される。
The photographing
側面パネル42Aには、複数個のLED(Light Emitting Diode)が埋め込まれて構成されるLED発光部42Lが設けられている。側面パネル42Aの表面には、その全体を覆うように、写真シール作成装置1の製造メーカやその製造メーカと提携している企業の商品やサービス等の広告が印刷された、アクリル板等からなるPOP広告が装着される。そのPOP広告においてLED発光部42Lに対応する部分には、広告として特にアピールされる情報が印刷され、LED発光部42Lの発光によりその情報が強調される(目立つ)ようになる。LED発光部42Lは、図示せぬ側面パネル42Bにも設けられるようにしてもよいし、側面パネル42A,側面パネル42Bのいずれか一方のみに設けられるようにしてもよい。
The
背景部22は、正面を向いて撮影処理を行っている利用者の背面側に位置する板状の部材である背面パネル51、背面パネル51の左端に取り付けられ、側面パネル42Aより横幅の狭い板状の部材である側面パネル52A、および、背面パネル51の右端に取り付けられ、側面パネル42Bより横幅の狭い板状の部材である側面パネル52B(図示せず)から構成される。
The
撮影部21の左側面を構成する側面パネル42Aと背景部22の側面パネル52Aは、ほぼ同一平面に設けられ、それぞれの上部が板状の部材である連結部23Aによって、それぞれの下部が、例えば金属製の略コの字型の部材である連結部23A’によって連結される。また、図示されないが、撮影部21の右側面を構成する側面パネル42Bと背景部22の側面パネル52Bは、ほぼ同一平面に設けられ、それぞれの上部が板状の部材である連結部23Bによって、それぞれの下部が、例えば金属製の略コの字型の部材である連結部23B’によって連結される。
The
撮影部21の側面パネル42A、連結部23A、および背景部22の側面パネル52Aに囲まれることによって形成される開口が撮影空間の出入り口G1となる。図示されないが、撮影部21の側面パネル42B、連結部23B、および背景部22の側面パネル52Bに囲まれることによって形成される開口も撮影空間の出入り口G2となる。
An opening formed by being surrounded by the side panel 42 </ b> A of the photographing
背景部22の上部には、背面パネル51、側面パネル52A、および側面パネル52Bに支持される形で背景カーテンユニット25が設けられる。背景カーテンユニット25には、色または柄の異なる、背景に利用される巻き取り式の背景カーテンが複数収納される。背景カーテンユニット25は、撮影部21に設けられたカメラ等による撮影と連動して動作し、撮影の際に、例えば利用者により選択された色のカーテンを下ろし、その他のカーテンを巻き取る。
The
なお、背景カーテンユニット25に収納される背景カーテンとしては、複数枚のカーテンを1枚のクロマキ用のカーテンとして使用する昇降式カーテンを用意してもよい。また、クロマキ用のカーテンを予め撮影空間の背面となる背面パネル51に張り付けるとともに、合成用の背景画像を複数種類用意し、撮影処理や編集処理において、利用者が所望する背景画像をカーテンの部分に合成することができるようにしてもよい。
In addition, as a background curtain accommodated in the
撮影空間の上方には、撮影部21の正面パネル41、連結部23A、連結部23B、および背景カーテンユニット25に囲まれる開口が形成され、その開口の一部を覆うように天井ストロボユニット24が設けられる。天井ストロボユニット24の一端が連結部23Aに固定され、他端が連結部23Bに固定される。天井ストロボユニット24は、撮影に合わせて撮影空間内に向けて発光するストロボを内蔵する。天井ストロボユニット24を構成するストロボの内部には蛍光灯が設けられており、撮影空間の照明としても機能する。
An opening surrounded by the
なお、撮影処理においては、撮影画像における被写体の写りを変更するための撮影パラメータが設定されるようになされている。 In the shooting process, shooting parameters for changing the image of the subject in the shot image are set.
被写体の写りは、撮影処理において、撮影前または撮影後に利用者により選択され、撮影画像に写る被写体の明るさなどを決定するものであり、例えば、「かわいい系」、「きれい系」等が用意されている。撮影処理において設定された撮影パラメータは、例えば、撮影画像と対応付けられて保存されるようになされている。 The image of the subject is selected by the user before or after shooting in the shooting process, and determines the brightness of the subject in the shot image. For example, “cute” and “beautiful” are available. Has been. The shooting parameters set in the shooting process are stored in association with the shot image, for example.
編集部12は、撮影処理によって得られた画像を編集する処理である編集処理を利用者に行わせる装置である。編集部12は、一方の側面が撮影部21の正面パネル41の背面に接するように撮影ユニット11に連結して設けられる。編集部12には、編集処理時に利用者により用いられるタブレット内蔵モニタなどの構成が設けられる。
The
図1に示す編集部12の構成を正面側の構成とすると、2組の利用者が同時に編集処理を行うことができるように、編集部12の正面側と背面側には編集処理に用いられる構成がそれぞれ設けられる。
If the configuration of the
編集部12の正面側は、床面に対して垂直な面であり、側面パネル42Aとほぼ平行な面である面71と、面71の上方に形成された斜面72から構成され、編集処理に用いられる構成が斜面72に設けられる。斜面72の左側には、柱状の形状を有し、照明装置74の一端を支持する支持部73Aが設けられる。支持部73Aの上面にはカーテンレール26を支持する支持部75が設けられる。斜面72の右側にも、照明装置74の他端を支持する支持部73B(図2)が設けられる。
The front side of the
編集部12の上方にはカーテンレール26が取り付けられる。カーテンレール26は、上から見たときの形状がコの字状となるように3本のレール26A乃至26Cを組み合わせて構成される。平行に設けられるレール26Aと26Bの一端は、連結部23Aと連結部23Bにそれぞれ固定され、他端に残りの一本のレール26Cの両端が接合される。
A
カーテンレール26には、編集部12の正面前方の空間と背面前方の空間の内部が外から見えないようにカーテンが取り付けられる。カーテンレール26に取り付けられたカーテンにより囲まれる編集部12の正面前方の空間と背面前方の空間が、利用者が編集処理を行う編集空間となる。
A curtain is attached to the
図2は、写真シール作成装置1を別の角度から見た斜視図である。
FIG. 2 is a perspective view of the photo
事後接客部13は事後接客処理を利用者に行わせる装置である。事後接客処理には、撮影画像や編集済みの画像を携帯電話機などの携帯端末に送信する処理、ミニゲームを利用者に行わせる処理、アンケートに答えさせる処理などが含まれる。
The subsequent
図2に示すように、事後接客部13は、所定の厚さを有する板状の筐体を有しており、編集部12の左側面に接合されて設けられる。事後接客部13の正面には、事後接客処理時に利用者により用いられるタブレット内蔵モニタや、撮影画像や編集済みの画像が印刷されたシール紙が排出される排出口などが設けられる。事後接客部13の正面前方の空間が、シール紙への印刷が終わるのを待っている利用者が事後接客処理を行う事後接客空間となる。
As shown in FIG. 2, the
ここで、写真シール作成ゲームの流れと、それに伴う利用者の移動について図3を参照して説明する。図3は、写真シール作成装置1を上から見た平面図である。
Here, the flow of the photo sticker creation game and the accompanying movement of the user will be described with reference to FIG. FIG. 3 is a plan view of the photo
写真シール作成装置1の利用者は、白抜き矢印#1で示すように出入り口G1から、または白抜き矢印#2で示すように出入り口G2から、撮影部21と背景部22の間に形成された撮影空間A1に入り、撮影部21に設けられたカメラやタッチパネルモニタなど利用して撮影処理を行う。
The user of the photo
撮影処理を終えた利用者は、白抜き矢印#3で示すように出入り口G1を使って撮影空間A1から出て編集空間A2−1に移動するか、白抜き矢印#4で示すように出入り口G2を使って撮影空間A1から出て編集空間A2−2に移動する。
The user who has finished the shooting process exits the shooting space A1 and moves to the editing space A2-1 using the doorway G1 as indicated by the
編集空間A2−1は、編集部12の正面側の編集空間であり、編集空間A2−2は、編集部12の背面側の編集空間である。編集空間A2−1と編集空間A2−2のいずれの空間に移動するのかが、撮影部21のタッチパネルモニタの画面表示などによって案内される。例えば2つの編集空間のうちの空いている方の空間が移動先として案内される。編集空間A2−1または編集空間A2−2に移動した利用者は編集処理を開始する。編集空間A2−1の利用者と、編集空間A2−2の利用者は同時に編集処理を行うことができる。
The editing space A2-1 is an editing space on the front side of the
編集処理が終了した後、撮影画像や編集済みの画像の中から選択された画像の印刷が開始される。画像の印刷中、編集処理を終えた利用者は、編集空間A2−1で編集処理を行っていた場合には白抜き矢印#5で示すように編集空間A2−1から事後接客空間A3に移動して事後接客処理を行う。また、編集処理を終えた利用者は、編集空間A2−2で編集処理を行っていた場合には白抜き矢印#6で示すように編集空間A2−2から事後接客空間A3に移動し、事後接客空間A3において事後接客処理を行う。
After the editing process is finished, printing of an image selected from the photographed image and the edited image is started. During printing of the image, the user who has finished the editing process moves from the editing space A2-1 to the subsequent customer service space A3 as indicated by the
画像の印刷が終了したとき、利用者は、事後接客部13に設けられた排出口からシール紙を受け取り、一連の写真シール作成ゲームを終えることになる。
When the printing of the image is finished, the user receives the sticker paper from the outlet provided in the
次に、写真シール作成装置1を構成する各部の構成について説明する。
Next, the structure of each part which comprises the photograph
図4は、撮影部21の正面の構成例を示す図である。撮影部21は、正面パネル41、側面パネル42A、および側面パネル42Bが、箱状の形状を有するベース部43に取り付けられることによって構成される。
FIG. 4 is a diagram illustrating a configuration example of the front of the photographing
正面パネル41は撮影空間A1で撮影処理を行う利用者の正面に位置し、側面パネル42Aと側面パネル42Bは、それぞれ、撮影空間A1で撮影処理を行う利用者の左側、右側に位置する。
The
正面パネル41の中央から上側には撮影・表示ユニット81が設けられる。撮影・表示ユニット81は、カメラ91、タッチパネルモニタ92、および正面ストロボ93から構成される。
A photographing /
カメラ91は、レンズやCCD(Charge Coupled Device)などの撮像素子により構成され、撮影空間A1にいる利用者を撮影する。カメラ91により取り込まれた動画像は、タッチパネルモニタ92にリアルタイムで表示される。利用者により撮影が指示されたときなどの所定のタイミングでカメラ91により取り込まれた画像は撮影画像(静止画像)として保存される。
The
また、カメラ91は、従来の写真シール作成装置と比較してより高い位置に設置されている。具体的には、写真シール作成装置1の設置面からカメラ91のレンズ中心までの高さは1630mm、レンズの光軸と水平面とのなす角度(前傾角度)は24°とされる。このような構造により、利用者は前方斜め上から撮影されるようになる。結果として、撮影画像において、利用者はやや上を見上げた状態となり、利用者の目が大きく、かつ顔が小顔に写るようになる。
Further, the
カメラ91の下側に設けられたタッチパネルモニタ92は、LCD(Liquid Crystal Display)などのモニタと、それに積層されたタッチパネルにより構成される。タッチパネルモニタ92は、カメラ91により取り込まれた動画像を表示するライブビューモニタとしての機能と、各種のGUI(Graphical User Interface)画像を表示し、利用者の選択操作をタッチパネルにより受け付ける機能とを備えている。タッチパネルモニタ92には、適宜、撮影結果としての静止画像や、背景等の画像が合成された後の動画像が表示される。
The touch panel monitor 92 provided on the lower side of the
カメラ91の上側および左右を囲むように発光面(複数枚の乳白アクリル板)が設けられた正面ストロボ93は、他のストロボと同様にカメラ91による撮影に合わせて発光し、被写体としての利用者の顔付近を正面から照射する。
A front strobe 93 provided with a light emitting surface (a plurality of milky white acrylic plates) so as to surround the upper and left and right sides of the
正面パネル41には、撮影・表示ユニット81の上方に上ストロボ82が設置される。上ストロボ82は、利用者を上前方から照射する。
On the
ベース部43には利用者の足元を照射する足元ストロボ83も設けられる。上ストロボ82および足元ストロボ83の内部には蛍光灯が設けられており、天井ストロボユニット24を構成するストロボの内部の蛍光灯と合わせて、撮影空間A1内の照明として用いられる。各蛍光灯の発光量が調整されることによって、または、発光させる蛍光灯の数が調整されることによって、撮影空間A1内の明るさが、利用者が行っている撮影処理の内容に応じて適宜調整される。
The
足元ストロボ83の右側には、利用者がお金を投入する硬貨投入返却口84が設けられる。
On the right side of the foot strobe 83, a coin insertion /
ベース部43の上面の左右に形成されるスペース43Aおよび43Bは、撮影処理を行う利用者が手荷物等を置くための荷物置き場として用いられる。正面パネル41の例えば天井付近には、撮影処理の案内音声、BGM(Back Ground Music)、効果音等の音を出力するスピーカも設けられる。
図5は、背景部22の撮影空間A1側の構成例を示す図である。
FIG. 5 is a diagram illustrating a configuration example of the
上述したように、背面パネル51の上方には背景カーテンユニット25が設けられる。背景カーテンユニット25のほぼ中央には、撮影空間A1内で撮影処理を行っている利用者を後方中央から照射する背面中央ストロボ101が取り付けられる。
As described above, the
背面パネル51の、出入り口G1側の位置には、撮影空間A1内で撮影処理を行っている利用者を左後方から照射する背面左ストロボ102が取り付けられる。また、背面パネル51の、出入り口G2側の位置には、撮影空間A1内で撮影処理を行っている利用者を右後方から照射する背面右ストロボ103が取り付けられる。
A rear left strobe 102 for irradiating a user who is performing a photographing process in the photographing space A1 from the left rear is attached to the
図6は、編集部12の正面側(編集空間A2−1側)の構成例を示す図である。
FIG. 6 is a diagram illustrating a configuration example of the
斜面72のほぼ中央には、タブレット内蔵モニタ131が設けられる。タブレット内蔵モニタ131を挟んで左側にタッチペン132Aが設けられ、右側にタッチペン132Bが設けられる。
A tablet built-in
タブレット内蔵モニタ131は、タッチペン132Aまたは132Bを用いて操作入力が可能なタブレットがLCDなどのモニタに重畳して設けられることによって構成される。タブレット内蔵モニタ131には、例えば、編集対象画像として選択された撮影画像の編集に用いられる画面である編集画面が表示される。2人で同時に編集作業を行う場合、タッチペン132Aは一方の利用者により用いられ、タッチペン132Bは他方の利用者により用いられる。
The tablet built-in
編集部12の左側には事後接客部13が設けられる。
On the left side of the
図7は、事後接客部13の正面側の構成例を示す図である。
FIG. 7 is a diagram illustrating a configuration example of the front side of the
事後接客部13の上方中央にはタブレット内蔵モニタ161が設けられる。タブレット内蔵モニタ161を挟んで左側にタッチペン162Aが設けられ、右側にタッチペン162Bが設けられる。タブレット内蔵モニタ161もタブレット内蔵モニタ131と同様に、タッチペン162Aまたは162Bを用いて操作入力が可能なタブレットがLCDなどのモニタに重畳して設けられることによって構成される。タブレット内蔵モニタ161には、ミニゲームなどの事後接客処理に用いられる画面が表示される。
A
タブレット内蔵モニタ161の下にはシール紙排出口163が設けられ、タブレット内蔵モニタ161の上にはスピーカ164が設けられる。
A sticker paper discharge port 163 is provided below the tablet built-in
シール紙排出口163には、編集空間A2−1の利用者が編集処理を行うことによって作成した画像が印刷されたシール紙、または、編集空間A2−2の利用者が編集処理を行うことによって作成した画像が印刷されたシール紙が排出される。編集部12の内部にはプリンタが設けられており、画像の印刷がそのプリンタにより行われる。
In the sticker paper outlet 163, sticker paper on which an image created by the user of the editing space A2-1 is edited or printed by the user of the editing space A2-2 is edited. The sticker paper on which the created image is printed is discharged. A printer is provided inside the
スピーカ164は、事後接客処理の案内音声、BGM、効果音等の音を出力する。
The
次に、写真シール作成装置1の内部構成について説明する。図8は、写真シール作成装置1の内部の構成例を示すブロック図である。上述した構成と同じ構成には同じ符号を付してある。重複する説明については適宜省略する。
Next, the internal configuration of the photo
制御部201はCPU(Central Processing Unit)などよりなり、ROM(Read Only Memory)206や記憶部202に記憶されているプログラムを実行し、写真シール作成装置1の全体の動作を制御する。制御部201には、記憶部202、通信部203、ドライブ204、ROM206、RAM(Random Access Memory)207が接続される。制御部201には、撮影部208、編集部209、および事後接客部210の各構成も接続される。
The
記憶部202は、ハードディスクやフラッシュメモリなどの不揮発性の記憶媒体からなり、制御部201から供給された各種の設定情報等を記憶する。記憶部202に記憶されている情報は制御部201により適宜読み出される。
The
通信部203は、インターネットなどのネットワークのインタフェースであり、制御部201による制御に従って外部の装置と通信を行う。
A
ドライブ204には、光ディスクや半導体メモリなどよりなるリムーバブルメディア205が適宜装着される。ドライブ204によりリムーバブルメディア205から読み出されたコンピュータプログラムやデータは、制御部201に供給され、記憶部202に記憶されたり、インストールされたりする。
A
ROM206には、制御部201において実行されるプログラムやデータが記憶されている。RAM207は、制御部201が処理するデータやプログラムを一時的に記憶する。
The
撮影部208は、撮影空間A1における撮影処理を行う構成である硬貨処理部221、背景制御部222、照明装置223、カメラ91、タッチパネルモニタ92、およびスピーカ224から構成される。
The
硬貨処理部221は、硬貨投入返却口84に対する硬貨の投入を検出する。硬貨処理部221は、例えば400円などの所定の金額分の硬貨が投入されたことを検出した場合、そのことを表す起動信号を制御部201に出力する。
The
背景制御部222は、制御部201より供給される背景制御信号に従って背景カーテンユニット25に収納されている背景カーテンの上げ下ろしを行う。背景カーテンの選択が利用者により手動で行われるようにしてもよい。
The
照明装置223は、撮影空間A1内の各ストロボの内部に設けられる蛍光灯であり、制御部201より供給される照明制御信号に従って発光する。上述したように、撮影空間A1には、天井ストロボユニット24のストロボの他に、撮影部21に設けられる上ストロボ82、足元ストロボ83、正面ストロボ93、背景部22に設けられる背面中央ストロボ101、背面左ストロボ102、背面右ストロボ103が設けられている。
The
また、照明装置223は、制御部201による制御に従って発光量を調整することによって、利用者が行っている撮影作業の段階に応じて撮影空間A1内の明るさを調整する。
Further, the
カメラ91は、制御部201による制御に従って撮影を行い、撮影によって得られた画像を制御部201に出力する。
The
編集部209Aは、編集空間A2−1における編集処理を行う構成として編集部12の正面側に設けられるタブレット内蔵モニタ131、タッチペン132A,132B、およびスピーカ231から構成される。編集部209Bも編集部209Aと同一の構成を有しており、編集空間A2−2における編集処理を行う。
The
タブレット内蔵モニタ131は、制御部201による制御に従って編集画面を表示し、編集画面に対する利用者の操作を検出する。利用者の操作の内容を表す信号は制御部201に供給され、編集対象の撮影画像の編集が行われる。
The tablet built-in
事後接客部210は、事後接客空間A3における事後接客処理を行う構成であるタブレット内蔵モニタ161、タッチペン162A,162B、スピーカ164、印刷処理を行う構成であるプリンタ241、およびシール紙ユニット242から構成される。
The subsequent customer service unit 210 includes a tablet built-in
プリンタ241は、撮影画像、または編集処理によって得られた編集済みの画像を、プリンタ241に装着されたシール紙ユニット242に収納されているシール紙に印刷し、シール紙排出口163に排出する。
The printer 241 prints the photographed image or the edited image obtained by the editing process on the sticker paper stored in the
次に、制御部201について説明する。図9は、制御部201がROM206などに格納されているプログラムを実行することにより実現される機能ブロックの構成例を示している。
Next, the
制御部201は、写真シール作成ゲームを開始する際に投入される代金に関する処理や利用者グループを撮影する等の写真シール作成ゲームの撮影作業の工程に関する処理を行う撮影処理部301、撮影画像に対する落書き編集等の写真シール作成ゲームの編集作業の工程に関する処理を行う編集処理部302、シール紙の印刷等の写真シール作成ゲームの印刷の工程に関する処理を行う印刷処理部303、および、編集作業を終了した利用者グループを接客する写真シール作成ゲームの事後接客の工程に関する処理を行う事後接客処理部304を有する。
The
つまり、制御部201は、写真シール作成ゲームの各工程に関する処理の制御を行う。
That is, the
図10は、図9の編集処理部302の詳細な構成例を示すブロック図である。同図に示されるように、編集処理部302は、合成用画像重畳部321、重畳部分画像処理部322、器官画像認識部323、および、編集制御部324を有する構成とされている。
FIG. 10 is a block diagram illustrating a detailed configuration example of the
合成用画像重畳部321は、合成用画像を編集対象画像に重畳する処理を制御する。ここで、合成用画像は、例えば、利用者により選択されたスタンプ画像、フレーム画像などとされる。あるいはまた、文字画像、線画像などが合成用画像とされるようにしてもよい。
The composition
合成用画像重畳部321は、タブレット内蔵モニタ131に表示された編集画面上で、利用者が選択した合成用画像を、編集対象画像上の利用者が指定した位置に重畳させる。
The composition
重畳部分画像処理部322は、合成用画像重畳部321により合成用画像が重畳された編集対象画像において、合成用画像が重畳された部分またはその付近の画像処理を行う。重畳部分画像処理部322は、例えば、重畳された合成用画像が、編集対象画像の中で違和感がないものとなるように、合成用画像の所定の特徴量と編集対象画像の所定の特徴量がより近い値となるような画像処理を施す。
The superimposed partial image processing unit 322 performs image processing on or near the portion where the synthesis image is superimposed on the editing target image on which the synthesis image is superimposed by the synthesis
ここで、特徴量は、例えば、画像を解析して得られる輝度値やコントラスト値などの値とされてもよいし、複数の値から成るベクトル量とされてもよい。なお、具体的な特徴量としては、例えば、透過度、エッジの強調度、ガンマ補正に係るガンマ値、色味の変更に用いられる各値等、一般的な画像処理の程度を示すものであればよい。なお、エッジの強弱を表す度合について、適宜、エッジの強調度と称することにする。 Here, the feature amount may be a value such as a luminance value or a contrast value obtained by analyzing the image, or may be a vector amount composed of a plurality of values. Note that specific feature amounts may indicate the degree of general image processing such as transparency, edge enhancement, gamma value for gamma correction, values used for color change, and the like. That's fine. Note that the degree of edge strength is appropriately referred to as edge enhancement.
上述した撮影処理部301によって行われる撮影処理では、例えば、撮影前または撮影後に利用者により選択される撮影パラメータであって、例えば、「かわいい系」、「きれい系」等とされる撮影パラメータが用意されている。例えば、「きれい系」の撮影パラメータが設定されて撮影された画像は、エッジの強調度が高い画像とされ、「かわいい系」の撮影パラメータが設定されて撮影された画像は、エッジの強調度が低い画像とされる。重畳部分画像処理部322による画像処理が施されることにより、例えば、撮影処理において設定された撮影パラメータとよくなじむ色合いや明るさの合成用画像が生成されることになる。
In the photographing process performed by the photographing
すなわち、「かわいい系」、「きれい系」などのそれぞれの撮影パラメータ(または、撮影画像の特徴量であるエッジの強調度)と、合成用画像の特徴量(例えば、透過度)が予め対応づけられている。例えば、「かわいい系」の撮影パラメータには、所定の高い値の透過度が対応づけられており、「きれい系」の撮影パラメータには、所定の低い値の透過度が対応づけられている。 That is, each shooting parameter (or edge enhancement, which is a feature amount of the shot image) such as “cute” and “beautiful”, and a feature amount (for example, transparency) of the composite image are associated in advance. It has been. For example, a predetermined high value of transparency is associated with the “cute” imaging parameter, and a predetermined low value of transparency is associated with the “clean” imaging parameter.
この場合、重畳部分画像処理部322は、「かわいい系」の撮影パラメータで撮影された利用者の画像である編集対象画像に合成される(重畳される)合成用画像の透過度を高める画像処理を施す。または、重畳部分画像処理部322は、「きれい系」の撮影パラメータで撮影された利用者の画像である編集対象画像に合成される(重畳される)合成用画像の透過度を低くする画像処理を施す。 In this case, the superimposed partial image processing unit 322 increases the transparency of the composition image to be combined (superposed) with the editing target image that is the user's image captured with the “cute” imaging parameter. Apply. Alternatively, the superimposing partial image processing unit 322 reduces the transparency of the compositing image that is synthesized (superimposed) on the editing target image that is the user's image captured with the “clean” imaging parameter. Apply.
なお、重畳部分画像処理部322は、上述のように、合成用画像を構成する画素の値を変更する画像処理を実行するようにしてもよいし、編集対象画像において合成用画像が重畳される位置の周辺の所定の範囲内の画素の値を変更する画像処理を実行するようにしてもよい。 Note that, as described above, the superimposed partial image processing unit 322 may execute image processing for changing the values of pixels constituting the composition image, or the composition image is superimposed on the editing target image. You may make it perform the image process which changes the value of the pixel in the predetermined range around a position.
例えば、透過度の高い合成用画像が「きれい系」の撮影パラメータが設定された編集対象画像に重畳された場合、編集対象画像において合成用画像が重畳された位置の周辺の所定の範囲内の画素により構成される画像が、「かわいい系」の撮影パラメータで撮影された画像に応じたものとなるような画像処理が施されるようにしてもよい。このような画像処理として、例えば、エッジ処理(例えば、エッジを強くするシャープネス処理や、エッジを弱くするぼかし処理)や色調変更処理などがあげられる。後述では、エッジ処理の例として、ぼかし処理について詳細に説明する。 For example, when a compositing image with high transparency is superimposed on an editing target image for which a “clean” shooting parameter is set, it is within a predetermined range around the position where the compositing image is superimposed on the editing target image. Image processing may be performed so that an image composed of pixels corresponds to an image shot with “cute system” shooting parameters. Examples of such image processing include edge processing (for example, sharpness processing for strengthening edges and blurring processing for weakening edges), color tone changing processing, and the like. In the following, blur processing will be described in detail as an example of edge processing.
あるいはまた、合成用画像を構成する画素の値、および、編集対象画像において合成用画像が重畳される位置の周辺の所定の範囲内の画素の値を変更する画像処理が実行されるようにしてもよい。 Alternatively, image processing for changing the values of the pixels constituting the image for synthesis and the values of pixels within a predetermined range around the position where the image for synthesis is superimposed on the editing target image is executed. Also good.
例えば、透過度の高い合成用画像が「きれい系」の撮影パラメータが設定された編集対象画像に重畳された場合、編集対象画像において合成用画像が重畳された位置の周辺の所定の範囲内の画素により構成される画像のエッジが弱くなるような画像処理とともに、合成用画像の透過度を低くする画像処理が施されるようにしてもよい。 For example, when a compositing image with high transparency is superimposed on an editing target image for which a “clean” shooting parameter is set, it is within a predetermined range around the position where the compositing image is superimposed on the editing target image. Image processing that lowers the transparency of the image for synthesis may be performed in addition to image processing that weakens the edge of the image composed of pixels.
器官画像認識部323は、例えば、編集対象画像の中の顔画像および顔の向き(方向)を認識する。そして、器官画像認識部323は、顔画像の中の所定の器官(例えば、目、鼻、口、頬、顎など)を認識する。
For example, the organ
また、器官画像認識部323は、認識された器官を基準として所定の領域を認識するようになされている。ここで、認識された所定の領域は、例えば、後述するように、ハイライトされるハイライト領域とされたり、シェーディングされるシェーディング領域とされる。
The organ
なお、合成用画像重畳部321が重畳する合成用画像には、例えば、利用者の顔画像の目の周囲に描かれるアイラインや、つけまつげなどの画像も含まれるものとし、このような合成用画像が重畳される場合、合成用画像重畳部321は、器官画像認識部323により認識された器官の大きさ、位置に対応させた合成用画像を生成することで、合成用画像を重畳するようになされている。
Note that the composition image superimposed by the composition
さらに、合成用画像重畳部321が重畳する合成用画像には、例えば、利用者の顔画像の中の額から鼻にかけてのハイライト領域を構成する化粧用画像(後述)、頬から顎にかけてのシェーディング領域を構成する化粧用画像も含まれるものとし、このような合成用画像が重畳される場合、合成用画像重畳部321は、器官画像認識部323により認識されたハイライト領域またはシェーディング領域の大きさ、位置に対応させた化粧用画像を生成することで、合成用画像を重畳するようになされている。
Furthermore, the composition image superimposed by the composition
編集制御部324は、編集作業に係るその他の処理を制御するようになされている。
The
次に、図11のフローチャートを参照して、写真シール作成ゲームを提供する写真シール作成装置1の処理について説明する。
Next, processing of the photo
ステップS1において、写真シール作成装置1の撮影処理部301は、所定の金額分の硬貨が投入されたか否かを硬貨処理部221から供給される信号に基づいて判定し、投入されたと判定するまで待機する。
In step S1, the
ステップS1において、硬貨が投入されたと判定された場合、ステップS2において、撮影処理部301は、撮影部208を制御し、カメラ91に取り込まれた被写体の動画像をタッチパネルモニタ92にライブビュー表示させ、撮影空間A1にいる利用者を被写体として撮影する撮影処理を行う。撮影処理では、利用者の顔または上半身を撮影するアップ撮影が行われるが、利用者の全身を撮影する全身撮影が行われるようにしてもよい。
If it is determined in step S1 that a coin has been inserted, in step S2, the
ステップS3において、撮影処理部301は、撮影空間A1にいる利用者に対して、編集空間A2−1または編集空間A2−2への移動を案内する。編集空間A2−1または編集空間A2−2への移動の案内は、撮影部208のタッチパネルモニタ92に画面を表示させることによって、または音声をスピーカ224から出力させることによって行われる。
In step S3, the
ステップS4において、編集処理部302は、編集空間A2−1と編集空間A2−2のうち、撮影処理を終えた利用者の移動先とした方の編集空間に対応する編集部209を制御し、編集処理を行う。具体的には、編集処理部302は、編集対象画像として選択された撮影画像に合成する合成用画像を利用者に選択させ、選択された合成用画像を撮影画像に合成させ、得られた合成画像に対して、利用者による編集操作に従って編集を行う。
In step S4, the
ステップS5において、編集処理部302は、編集空間A2−1または編集空間A2−2で編集処理を終えた利用者に対して事後接客空間A3への移動を案内する。事後接客空間A3への移動の案内は、タブレット内蔵モニタ131に画面を表示させることによって、または音声をスピーカ231から出力させることによって行われる。
In step S5, the
ステップS6において、印刷処理部303は、利用者により選択された画像をプリンタ241に出力してシール紙に印刷させる印刷処理を行う(開始する)。
In step S <b> 6, the
また、タブレット内蔵モニタ161に表示される、事後接客処理の開始ボタンが選択されると、ステップS7において、事後接客処理部304は、印刷終了待機中の利用者に対する事後接客処理を行う。具体的には、事後接客処理部304は、撮影画像や編集済みの画像を携帯端末に送信する携帯送信ゲーム処理を事後接客処理として行い、携帯端末の電子メールアドレスを直接入力することで画像を携帯端末に送信するか、非接触型ICと通信することで画像を携帯端末に送信するかを利用者に選択させる送信方法の選択画面や、送信する画像の選択画面をタブレット内蔵モニタ161に表示させ、利用者による操作に応じて画像を送信する。
Further, when the post-service processing start button displayed on the tablet built-in
印刷が終了すると、ステップS8において、事後接客処理部304は、印刷が終了した旨をタブレット内蔵モニタ161に表示させ、プリンタ241は、画像が印刷されたシール紙をシール紙排出口163に排出し、処理を終了させる。
When the printing is completed, in step S8, the post-service processing unit 304 displays that the printing has been completed on the tablet built-in
このようにして、写真シール作成ゲーム処理が実行される。 In this way, the photo sticker creation game process is executed.
上述したステップS4で実行される編集処理では、タブレット内蔵モニタ131に編集画面が表示され、編集画面のGUIに基づいて、利用者が、タッチペン132Aまたはタッチペン132Bを用いて操作入力を行うことにより、編集対象画像に対する編集処理が施される。
In the editing process executed in step S4 described above, an editing screen is displayed on the tablet built-in
このとき、例えば、図12に示されるような編集画面がタブレット内蔵モニタ131に、表示される。なお、実際には、編集部209Aまたは編集部209Bにおいて左右に並んだ2人の利用者が同時に編集作業を行えるように、「右の人」用の編集画面と「左の人」用の編集画面が表示される。図12では、説明を簡単にするために「左の人」用の編集画面のみが表示されている。
At this time, for example, an editing screen as shown in FIG. 12 is displayed on the tablet built-in
図12に示されるように、編集画面には、編集対象画像351が表示されている。編集対象画像は、図11のステップS2の処理で撮影された複数の画像の中から選択される所定数の画像とされ、その所定数の画像の1枚が図12の編集対象画像351として表示されている。
As shown in FIG. 12, an
図12の編集画面の下部に示されるGUIは、編集パレットと称される。編集パレット352には、編集作業において用いるスタンプ画像に対応するアイコンなどが多数配置される。利用者が、タッチペン132Aまたはタッチペン132Bにより編集パレット352の中の所望のアイコンをタップするで、そのアイコンに対応するスタンプ画像を、合成用画像として編集対象画像351に重畳することが可能となる。
The GUI shown at the bottom of the editing screen in FIG. 12 is referred to as an editing palette. In the
図12の例では、ハート形のスタンプ画像361−1およびスタンプ画像361−2が編集対象画像351に重畳されている。このとき、合成用画像重畳部321が、タッチペン132Aまたはタッチペン132Bの操作に基づいて、スタンプ画像361−1およびスタンプ画像361−2の編集対象画像351に重畳する処理を制御する。
In the example of FIG. 12, a heart-shaped stamp image 361-1 and a stamp image 361-2 are superimposed on the
なお、図12に示される編集対象画像351は、例えば、撮影時に「かわいい系」の撮影パラメータが設定されて得られた画像とされ、画像全体としてふんわりとした色合いの画像とされている。
Note that the
なお、例えば、「きれい系」の撮影パラメータが設定されて撮影された画像は、エッジが弱い画像とされ、「かわいい系」の撮影パラメータが設定されて撮影された画像は、エッジが強い画像とされるものとする。 For example, an image shot with a “clean” shooting parameter set is an image with a weak edge, and an image shot with a “cute” shooting parameter set is an image with a strong edge. Shall be.
図12Aは、合成用画像重畳部321によりスタンプ画像361−1およびスタンプ画像361−2が重畳され、重畳部分画像処理部322による画像処理が実行されていない状態を示した図である。
FIG. 12A is a diagram showing a state in which the stamp image 361-1 and the stamp image 361-2 are superimposed by the compositing
一方、図12Bは、合成用画像重畳部321によりスタンプ画像361−1およびスタンプ画像361−2が重畳され、重畳部分画像処理部322による画像処理が実行された後の状態を示した図である。
On the other hand, FIG. 12B is a diagram illustrating a state after the stamp image 361-1 and the stamp image 361-2 are superimposed by the compositing
図12Aの場合、ハート形のスタンプ画像361−1およびスタンプ画像361−2は、例えば、鮮やかな赤色で表示される。この場合、スタンプ画像361−1およびスタンプ画像361−2は、鮮明に表示されているものの、編集対象画像351の中で違和感のある画像となる。
In the case of FIG. 12A, the heart-shaped stamp image 361-1 and the stamp image 361-2 are displayed in bright red, for example. In this case, the stamp image 361-1 and the stamp image 361-2 are clearly displayed, but are uncomfortable among the
一方、図12Bの場合、ハート形のスタンプ画像361−1およびスタンプ画像361−2は、例えば、半透明の赤色で表示される。すなわち、重畳部分画像処理部322により、スタンプ画像361−1およびスタンプ画像361−2の透過度を高める画像処理が施されたことにより、スタンプ画像361−1およびスタンプ画像361−2が半透明の赤色で表示される。 On the other hand, in the case of FIG. 12B, the heart-shaped stamp image 361-1 and the stamp image 361-2 are displayed in, for example, translucent red. That is, the superimposed partial image processing unit 322 performs image processing for increasing the transparency of the stamp image 361-1 and the stamp image 361-2, so that the stamp image 361-1 and the stamp image 361-2 are translucent. Displayed in red.
図12Bのように、編集対象画像351に重畳される合成用画像(いまの場合、スタンプ画像361−1およびスタンプ画像361−2)の透過度を高めることにより、合成用画像が、その背面の編集対象画像351の明暗の変化やテクスチャなどと同様の特徴を有する画像となる。すなわち、図12Aの場合と比較して、スタンプ画像361−1およびスタンプ画像361−2のくっきりした印象が薄れ、柔らかな印象を有する画像とされている。
As shown in FIG. 12B, by increasing the transparency of the compositing image (in this case, the stamp image 361-1 and the stamp image 361-2) superimposed on the
結果として、図12Bにおけるスタンプ画像361−1およびスタンプ画像361−2は、「かわいい系」の画像と合致したものとなる。 As a result, the stamp image 361-1 and the stamp image 361-2 in FIG. 12B coincide with the “cute system” images.
例えば、編集対象画像351のエッジの強弱に関する特徴量において、ぼかしの半径が、2乃至10ピクセルで設定されている。「かわいい系」の撮影パラメータは、ふんわりと表示したいため、半径が大きく設定されており、10ピクセルである。逆に、「きれい系」の撮影パラメータは、「かわいい系」よりもはっきりと表示したいため、半径が小さく設定されており、2ピクセルで設定されている。この数値は、撮影パラメータにより、任意に設定される。
For example, the blur radius is set to 2 to 10 pixels in the feature amount relating to the strength of the edge of the
また、図12Aのスタンプ画像361−1およびスタンプ画像361−2の透過度の高低に関する特徴量において、透過度が0.1乃至0.5で設定されている。「かわいい系」のスタンプ画像は、ふんわりと表示したいため、透過度が高く設定されており、0.5である。逆に、「きれい系」のスタンプは、「かわいい系」のスタンプ画像よりもはっきりと表示したいため、透過度が低く設定されており、0.1で設定されている。この数値は、前記エッジの強弱と同様に、合成用画像が持つパラメータにより、任意に設定されている。 Further, in the feature amount relating to the level of transparency of the stamp image 361-1 and the stamp image 361-2 in FIG. 12A, the transparency is set to 0.1 to 0.5. Since the stamp image of “cute” is displayed softly, the transparency is set high and is 0.5. On the other hand, the “clean” stamp has a lower transparency and is set to 0.1 because it is more clearly displayed than the “cute” stamp image. This numerical value is arbitrarily set according to the parameters of the compositing image, like the edge strength.
なお、透過度を表す値は、透過度を変更するαチャンネルに係る設定値である。 Note that the value representing the transparency is a setting value relating to the α channel for changing the transparency.
そして、編集対象画像351において、ぼかしの半径が5ピクセルである場合、ぼかしの半径の幅が、8(2乃至10)ピクセルであるから、除算((8−5)/8)により、編集対象画像351のぼかしの半径についての特徴量は、37.5%と設定されている。この37.5%という特徴量に基づき、スタンプ画像361−1およびスタンプ画像361−2の透過度の値を算出する。
In the
スタンプ画像361−1およびスタンプ画像361−2の透過度の高低についての幅は、0.4(=0.5−0.1)である。そこで、前記編集対象画像351の特徴量37.5%を乗算し、0.25という数値が算出される(0.4×37.5+0.1)。よって、前記編集対象画像351にスタンプ画像361−1およびスタンプ画像361−2がなじむような処理を施すには、スタンプ画像の透過度を0.25に変更するような画像処理が、重畳部分画像処理部322により実行される
The width of the stamp image 361-1 and the stamp image 361-2 with respect to the level of transparency is 0.4 (= 0.5-0.1). Accordingly, the numerical value of 0.25 is calculated by multiplying the feature amount 37.5% of the image to be edited 351 (0.4 × 37.5 + 0.1). Therefore, in order to perform the process such that the stamp image 361-1 and the stamp image 361-2 are adapted to the
すなわち、編集対象画像351(または撮影画像)の特徴量の1つであるエッジの強弱に関する特徴量と、合成用画像の特徴量の1つである透過度に関する特徴量とが対応づけられており、それぞれの特徴量の値が合致するように画像処理が施される。なお、いまの場合、それぞれの特徴量である特徴量37.5%になるように合致するに、予め対応付けられている。 That is, the feature amount related to the strength of the edge, which is one of the feature amounts of the editing target image 351 (or the captured image), and the feature amount related to the transparency, which is one of the feature amounts of the image for synthesis, are associated with each other. Then, image processing is performed so that the values of the respective feature amounts match. Note that in this case, the matching is made in advance so as to match the feature amount 37.5%.
あるいはまた、上述の如く、特徴量が合致しなくとも、特徴量が近づくような画像処理を施されるようにしてもよい。例えば、スタンプ画像361−1およびスタンプ画像361−2の透過度の高低に関する特徴量37.5%に近づくような画像処理が施されてもよい。この場合、例えば、特徴量は、±10%の幅を許容するものとし、27.5%乃至47.5%の間であればよい。 Alternatively, as described above, image processing may be performed so that the feature amount approaches even if the feature amount does not match. For example, image processing may be performed so as to approach the feature amount of 37.5% regarding the level of transparency of the stamp image 361-1 and the stamp image 361-2. In this case, for example, the feature amount allows a width of ± 10%, and may be between 27.5% and 47.5%.
ここでは、相互に対応付けられた編集対象画像の特徴量と合成用画像の特徴量とが異なる特徴量である例について説明したが、相互に対応付けられた編集対象画像の特徴量と合成用画像の特徴量とが同じであってもよい。例えば、編集対象画像351のエッジの強調度と、合成用画像のエッジの強調度とが対応づけられるようにしてもよい。
Here, an example in which the feature amount of the editing target image associated with each other and the feature amount of the compositing image are different from each other has been described. The feature amount of the image may be the same. For example, the edge enhancement degree of the
また、ここでは、編集対象画像の1つの特徴量と、合成用画像の1つの特徴量とが対応付けられる場合について説明したが、編集対象画像の1つの特徴量(例えば、エッジの強調度)と、合成用画像の複数の特徴量(例えば、エッジの強調度および透過度)とが対応付けられるようにしてもよい。この場合、例えば、合成用画像の複数の特徴量のうちの少なくともいずれか1つが、編集対象画像の特徴量に近づくような画像処理が施される。 Further, here, a case has been described in which one feature amount of the image to be edited is associated with one feature amount of the image for synthesis, but one feature amount (for example, edge enhancement level) of the image to be edited is described. And a plurality of feature amounts (for example, edge enhancement and transparency) of the image for synthesis may be associated with each other. In this case, for example, image processing is performed such that at least one of the plurality of feature amounts of the composition image approaches the feature amount of the editing target image.
あるいはまた、編集対象画像の複数の特徴量(例えば、エッジの強調度および透過度)と、合成用画像の複数の特徴量(例えば、エッジの強調度および透過度)とが対応付けられるようにしてもよい。この場合、双方の特徴量がベクトル量とされ、ベクトルの内積が小さくなるような画像処理が、重畳部分画像処理部322により実行されるようにすればよい。 Alternatively, a plurality of feature amounts (for example, edge enhancement and transparency) of the image to be edited are associated with a plurality of feature amounts (for example, edge enhancement and transparency) of the image for synthesis. May be. In this case, the superimposed partial image processing unit 322 may execute image processing in which both feature amounts are vector amounts and the inner product of the vectors is reduced.
さらに、ここでは、編集対象画像(または撮影画像)の特徴量と合成用画像の特徴量とが対応付けられているものとして説明したが、撮影画像に係る撮影パラメータ(例えば、「かわいい系」の撮影の際に設定される撮影パラメータ)と、合成用画像の特徴量とが対応付けられているようにしてもよい。 Further, here, the feature amount of the image to be edited (or the photographed image) and the feature amount of the image for synthesis have been described as being associated with each other. However, the photographing parameter (for example, “cute system” of the photographed image) (Shooting parameters set at the time of shooting) may be associated with the feature amount of the composition image.
あるいはまた、例えば、撮影画像に、「かわいい系」、「きれい系」などの別を識別する情報であって、数値化された情報が対応付けられて記憶されるようにし、その撮影に係る情報が編集対象画像の特徴量として用いられるようにしてもよい。 Alternatively, for example, information that identifies different types, such as “cute” and “beautiful”, is stored in association with the photographed image, and information related to the photographing is stored. May be used as the feature amount of the image to be edited.
このように、重畳部分画像処理部322による画像処理が施されることにより、編集対象画像に重畳されたスタンプ画像は違和感の少ないものとなる。また、このように、重畳部分画像処理部322による画像処理が施されることにより、例えば、複数のスタンプ画像の中から編集画像になじむものを選択する場合などと比較して、編集作業に要する時間を短縮することができる。 As described above, by performing the image processing by the superimposed partial image processing unit 322, the stamp image superimposed on the image to be edited becomes less uncomfortable. In addition, since the image processing by the superimposed partial image processing unit 322 is performed as described above, for example, it is necessary for editing work as compared with the case of selecting an image that fits the edited image from a plurality of stamp images. Time can be shortened.
写真シール作成装置1による写真シール作成ゲームでは、撮影処理が実行中である場合、または、他の編集空間において編集処理が実行中である場合、編集作業の制限時間が設定されるようになされている。このため、編集作業に要する時間を短縮することで、利用者にとってより満足度の高い写真シールを提供することが可能となる。
In the photo sticker creation game by the photo
この例では、合成用画像の透過度が高められる画像処理が施されているが、例えば、編集対象画像351において、スタンプ画像361−1およびスタンプ画像361−2が重畳された付近の所定の範囲内の画素で構成される画像のエッジの強調度が高くされるようにしてもよい。
In this example, image processing for increasing the transparency of the composition image is performed. For example, in the
あるいはまた、編集対象画像351において合成用画像が重畳された位置の周辺の所定の範囲内の画素により構成される画像のエッジの強調度が高くされるとともに、スタンプ画像361−1およびスタンプ画像361−2の透過度を高くする画像処理が施されるようにしてもよい。
Alternatively, the emphasis degree of an image composed of pixels within a predetermined range around the position where the synthesis image is superimposed on the
すなわち、重畳部分画像処理部322は、合成用画像を構成する画素の値を変更する画像処理を実行するようにしてもよいし、編集対象画像において合成用画像が重畳される位置の周辺の所定の範囲内の画素の値を変更する画像処理を実行するようにしてもよいし、合成用画像を構成する画素の値、および、編集対象画像において合成用画像が重畳される位置の周辺の所定の範囲内の画素の値を、それぞれ変更する画像処理を実行するようにしてもよい。 That is, the superimposed partial image processing unit 322 may execute image processing for changing the values of the pixels constituting the composition image, or may be a predetermined area around the position where the composition image is superimposed on the editing target image. Image processing for changing the value of a pixel within the range of the image may be executed, the value of the pixel constituting the composition image, and a predetermined area around the position where the composition image is superimposed on the editing target image Image processing for changing the value of each pixel within the range may be executed.
なお、上述のようなエッジの強調度の変更および透過度の変更に係る画像処理は、例えば、スタンプ画像が重畳される都度、実行されるようにしてもよいし、複数のスタンプ画像が重畳された後、まとめて実行されるようにしてもよい。 Note that the image processing related to the edge enhancement change and transparency change as described above may be executed, for example, every time a stamp image is superimposed, or a plurality of stamp images are superimposed. After that, they may be executed collectively.
例えば、スタンプ画像361−1が編集対象画像351に貼り付けられたとき、スタンプ画像361−1を構成する画素の値、および/または、編集対象画像351においてスタンプ画像361−1が貼り付けられた位置の周辺の所定の範囲内の画素の値を変更する画像処理が実行され、スタンプ画像361−2が編集対象画像351に貼り付けられたとき、スタンプ画像361−2を構成する画素の値、および/または、編集対象画像351においてスタンプ画像361−2が貼り付けられた位置の周辺の所定の範囲内の画素の値を変更する画像処理が実行されるようにしてもよい。
For example, when the stamp image 361-1 is pasted on the
あるいはまた、例えば、スタンプ画像361−1およびスタンプ画像361−2が編集対象画像351に貼り付けられた後、所定の操作がなされたとき、スタンプ画像361−1およびスタンプ画像361−2を構成する画素の値、並びに/または、編集対象画像351においてスタンプ画像361−1およびスタンプ画像361−2が貼り付けられた位置の周辺の所定の範囲内の画素の値を変更する画像処理が実行されるようにしてもよい。
Alternatively, for example, when a predetermined operation is performed after the stamp image 361-1 and the stamp image 361-2 are pasted on the
さらに、例えば、スタンプ画像を貼り付けるとき、上述のようなエッジの強調度の変更および透過度の変更に係る画像処理が既に施されたスタンプ画像が貼り付けられるようにしてもよい。例えば、編集対象画像にスタンプ画像を貼り付けるときに、編集パレット352の中のスタンプ画像とは異なる色のスタンプ画像が貼り付けられるようにしてもよい。つまり、例えば、貼り付けられた時点で図12Bに示されるような編集画面が表示されるようにしてもよい。
Furthermore, for example, when a stamp image is pasted, a stamp image that has already been subjected to the image processing relating to the change in edge enhancement and the change in transparency as described above may be pasted. For example, when a stamp image is pasted on the editing target image, a stamp image having a color different from that of the stamp image in the
この例では、重畳部分画像処理部322により、透過度、および、エッジの強弱を変更する画像処理が施される場合について説明したが、例えば、合成用画像、および/または、編集対象画像にぼかし処理が施されるようにしてもよい。 In this example, the case where the superimposed partial image processing unit 322 performs image processing for changing the transparency and the strength of the edge has been described. However, for example, the composition image and / or the image to be edited is blurred. Processing may be performed.
さらに、重畳部分画像処理部322により施される画像処理の例として、例えば、ガンマ補正に関するガンマ値を変更するもの、トーンカーブ特性を変更するもの、平均輝度値を変更するもの、コントラスト値を変更するものなどがあげられる。また、色の濃淡を変更する処理、平滑化処理、ガウシアンフィルタ処理、バイラテラルフィルタ処理などが、重畳部分画像処理部322により施されるようにしてもよい。 Further, examples of image processing performed by the superimposed partial image processing unit 322 include, for example, changing a gamma value related to gamma correction, changing a tone curve characteristic, changing an average luminance value, and changing a contrast value. To do. In addition, the superimposed partial image processing unit 322 may perform processing for changing color shading, smoothing processing, Gaussian filter processing, bilateral filter processing, and the like.
あるいはまた、重畳部分画像処理部322により、編集対象画像の撮影時の撮影パラメータに応じて、合成用画像の色が変更されるようにしてもよい。例えば、本来赤色のスタンプ画像361−1およびスタンプ画像361−2が「かわいい系」の編集対象画像351に重畳された場合、スタンプ画像361−1およびスタンプ画像361−2がオレンジ色に変更されるようにしてもよい。
Alternatively, the color of the compositing image may be changed by the superimposed partial image processing unit 322 according to the shooting parameters at the time of shooting the editing target image. For example, when the original red stamp image 361-1 and the stamp image 361-2 are superimposed on the “cute”
あるいはまた、例えば、スタンプ画像361−1に対しては、エッジの強調度が低くされて透過度が高められる画像処理が施され、スタンプ画像361−2に対しては、オレンジ色に変更される画像処理が施されるようにしてもよい。 Alternatively, for example, the stamp image 361-1 is subjected to image processing in which the edge enhancement is reduced and the transparency is increased, and the stamp image 361-2 is changed to orange. Image processing may be performed.
なお、図12の例では、合成用画像(スタンプ画像361−1およびスタンプ画像361−2)全体に重畳部分画像処理部322による画像処理が施されているが、合成用画像の一部(例えば、外縁部)にのみ画像処理が施されるようにしてもよい。 In the example of FIG. 12, image processing by the superimposed partial image processing unit 322 is performed on the entire composition image (stamp image 361-1 and stamp image 361-2), but a part of the composition image (for example, The image processing may be performed only on the outer edge portion.
また、ここでは、編集パレット352から選択されたハート形のスタンプ画像がそのまま編集対象画像351に貼り付けられて重畳される例について説明したが、所定の操作が行われることにより、例えば、重畳されたスタンプ画像が時計回りに回転させられるようにしてもよい。
Here, an example in which the heart-shaped stamp image selected from the
あるいはまた、所定の操作が行われることにより、スタンプ画像が反転させられるようにしてもよい。例えば、図13に示される月の形のスタンプ画像のように、月の向きが反転させられるようにしてもよい。 Alternatively, the stamp image may be reversed by performing a predetermined operation. For example, the direction of the moon may be reversed like a stamp image in the shape of the moon shown in FIG.
あるいはまた、所定の操作が行われることにより、スタンプ画像が奥行回転させられるようにしてもよい。例えば、図14に示されるように、スタンプ画像371が起点の状態であるときに、所定の操作が行われると、スタンプ画像371が、編集画面(平面)上の直線を軸として、矢印381に示されるように、画像の左側が奥側にいく方向(左回り)に回転する。あるいはまた、スタンプ画像371が起点の状態であるときに、所定の操作が行われると、スタンプ画像371は、編集画面(平面)上の直線を軸として、矢印382に示されるように、画像の右側が奥側にいく方向(右回り)に回転する。
Alternatively, the stamp image may be rotated in depth by performing a predetermined operation. For example, as shown in FIG. 14, when a predetermined operation is performed when the
さらに、タッチペン132Aまたはタッチペン132Bを動かすと、タッチペンの軌跡に沿って連続的にスタンプ画像が貼り付けられる「コロコロスタンプ」、スタンプ画像を所定の画像の近傍まで移動すると、スタンプ画像が所定の画像と同位置に自動で貼り付くようにした「ぴたっとスタンプ」などの機能が採用されるようにしてもよい。
Furthermore, when the
このような場合も、やはり重畳部分画像処理部322により、スタンプ画像を構成する画素の値、並びに/または、編集対象画像においてスタンプ画像が貼り付けられた位置の周辺の所定の範囲内の画素の値を変更する画像処理が実行される。 Also in such a case, the superimposed partial image processing unit 322 again uses the pixel values constituting the stamp image and / or the pixels within a predetermined range around the position where the stamp image is pasted in the editing target image. Image processing for changing the value is executed.
図12の例では、ハート形のスタンプ画像が合成用画像とされる例について説明したが、例えば、帽子、めがね、リボン、カラコン(カラーコンタクトレンズ)、つけまつげなどのスタンプ画像が合成用画像とされるようにしてもよい。 In the example of FIG. 12, an example in which a heart-shaped stamp image is used as a composition image has been described. For example, a stamp image such as a hat, glasses, a ribbon, a color contact lens (color contact lens), or false eyelashes is used as a composition image. You may make it do.
また、図12の例では、ハート形のスタンプ画像が合成用画像とされる例について説明したが、フレーム画像が合成用画像とされるようにしてもよい。なお、フレーム画像は、例えば、人物の画像の周囲に配置される模様、図形などとして構成される。このようなフレーム画像が編集対象画像に重畳された場合も、やはり、重畳部分画像処理部322による画像処理が施される。 In the example of FIG. 12, the example in which the heart-shaped stamp image is used as the synthesis image has been described. However, the frame image may be used as the synthesis image. The frame image is configured as, for example, a pattern or a figure arranged around the person image. Even when such a frame image is superimposed on the image to be edited, image processing by the superimposed partial image processing unit 322 is also performed.
さらに、ペン画像が合成用画像とされるようにしてもよい。なお、ペン画像は、例えば、タッチペン132Aまたはタッチペン132Bの軌跡に沿って描画される線状の図形とされるが、単純な線に限られるものではなく、例えば、ギザギザ形状の縁取りがなされたものでもよいし、雲形形状の縁取りがなされたものでもよい。このようなペン画像が編集対象画像に重畳された場合も、やはり、重畳部分画像処理部322による画像処理が施される。
Further, the pen image may be used as a composition image. The pen image is, for example, a linear figure drawn along the trajectory of the
図12の例では、ハート形のスタンプ画像が合成用画像とされる例について説明したが、例えば、アイライン、ハイライト、シェーディングなど、利用者の画像にあたかも化粧がなされたかのような効果を奏する化粧用画像が合成用画像とされるようにしてもよい。 In the example of FIG. 12, an example in which a heart-shaped stamp image is used as a composition image has been described. However, for example, effects such as eyeline, highlight, shading, and the like can be obtained as if makeup was applied to the user's image. The makeup image may be used as a composition image.
図15は、上述したステップS4で実行される編集処理において、タブレット内蔵モニタ131に表示される編集画面の別の例を示す図である。図15に示される編集画面においては、編集対象画像411−1および編集対象画像411−2が表示され、編集パレット412−1および編集パレット412−2が表示されている。
FIG. 15 is a diagram showing another example of the editing screen displayed on the tablet built-in
図15の場合、「左の人」は、編集パレット412−1を用いて編集対象画像411−1を編集し、「右の人」は、編集パレット412−2を用いて編集対象画像411−2を編集する。
In the case of FIG. 15, the “left person” edits the editing target image 411-1 using the editing palette 412-1, and the “right person” uses the editing palette 412-2 to edit the editing target image 411-.
編集パレット412−1および編集パレット412−2には、それぞれハイライトシェーディングパレット421およびアイラインパレット422が表示されている。なお、編集パレット412−1および編集パレット412−2において、「おすすめ」のタブが選択され、かつ、「ハイライト/シェーディング」のタブが選択されたことにより、ハイライトシェーディングパレット421およびアイラインパレット422が表示される。
In the editing palette 412-1 and the editing palette 412-2, a
ハイライトシェーディングパレット421は、利用者の顔の画像にハイライトまたはシェーディングを施したり、アイラインを描くためのパレットとされる。ここで、ハイライトは、化粧の方式の1つとされ、例えば、額の中央から鼻筋にかけて明るい色のファンデーションなどを付けるものとされる。これにより、顔の立体感を向上させることが可能となる。また、シェーディングは、耳の下から顎にかけて暗い色のファンデーションなどを付けるものとされる。これにより、顔を小さく見せることが可能となる。
The
ハイライトシェーディングパレット421を利用して、編集対象画像の中の利用者の顔にハイライトおよび/またはシェーディングを施されたような画像処理を行うことができる。つまり、ハイライトシェーディングパレット421は、利用者の顔の画像の一部を明るくしたり、暗くしたりする編集作業に係るものとされる。
The
例えば、左の人が、ハイライトシェーディングパレット421のボタン431−2をタッチペン132Aでタップすると、編集対象画像411−1において点線の楕円により示された部分にハイライトが施される。このとき、例えば、編集対象画像411−1において点線の楕円により示された部分に、明るい色の化粧用画像が重畳される。そして、ハイライトシェーディングパレット421のボタン431−1がタップされると、化粧用画像が消去され、編集対象画像411−1の中の利用者の顔画像のハイライトが消去される。なお、ここで、化粧用画像は、器官画像認識部323により認識された器官、または、顔の中の領域が抽出され、色などが変更された画像とされる。
For example, when the left person taps the button 431-2 of the
なお、ボタン431−1およびボタン431−2の背景には、ハイライトの化粧をしたモデルの画像が表示される。あるいはまた、ボタン431−1およびボタン431−2の背景にハイライトの化粧をした利用者の画像が表示されるようにしてもよい。この場合、右の人と左の人を個々に判別し、編集パレット412−1のボタン431−1およびボタン431−2の背景には、左の人の画像が表示されるようにし、編集パレット412−2のボタン431−1およびボタン431−2の背景には、右の人の画像が表示されるようにしてもよい。 Note that an image of a model with highlight makeup is displayed in the background of the buttons 431-1 and 431-2. Or you may make it display the image of the user who did highlight makeup on the background of button 431-1 and button 431-2. In this case, the right person and the left person are individually discriminated, and the image of the left person is displayed on the background of the buttons 431-1 and 431-2 of the editing palette 412-1. An image of the right person may be displayed in the background of the button 431-1 and the button 431-2 of 412-2.
また、例えば、左の人が、ハイライトシェーディングパレット421のボタン432−2をタッチペン132Aでタップすると、編集対象画像411−1において実線の楕円により示された部分にシェーディングが施される。このとき、例えば、編集対象画像411−1において実線の楕円により示された部分に、暗い色の化粧用画像が重畳される。なお、ハイライトとシェーディングを施す領域の詳細については後述する。そして、ハイライトシェーディングパレット421のボタン432−1がタップされると、化粧用画像が消去され、編集対象画像411−1の中の利用者の顔画像のシェーディングが消去される。
Also, for example, when the left person taps the button 432-2 of the
なお、ボタン432−1およびボタン432−2の背景には、シェーディングの化粧をしたモデルの画像が表示される。あるいはまた、ボタン432−1およびボタン432−2の背景にシェーディングの化粧をした利用者の画像が表示されるようにしてもよい。この場合、右の人と左の人を個々に判別し、編集パレット412−1のボタン431−1およびボタン431−2の背景には、左の人の画像が表示されるようにし、編集パレット412−2のボタン431−1およびボタン431−2の背景には、右の人の画像が表示されるようにしてもよい。 Note that an image of a model with shading makeup is displayed in the background of the buttons 432-1 and 432-2. Or you may make it display the image of the user who made the shading makeup on the background of the button 432-1 and the button 432-2. In this case, the right person and the left person are individually discriminated, and the image of the left person is displayed on the background of the buttons 431-1 and 431-2 of the editing palette 412-1. An image of the right person may be displayed in the background of the button 431-1 and the button 431-2 of 412-2.
図16は、ハイライトをより詳細に説明する図である。同図において、T字型の枠、楕円により示された部分がハイライトを施す領域とされ、当該領域に対応する化粧用画像が生成される。 FIG. 16 is a diagram for explaining the highlight in more detail. In the figure, a T-shaped frame and a portion indicated by an ellipse are areas to be highlighted, and a cosmetic image corresponding to the area is generated.
ハイライト用の化粧用画像を生成する場合、器官画像認識部323により、例えば、最初に、編集対象画像の中の利用者の顔画像が認識される。そして、顔画像の中の目の領域が認識され、2つの目の黒目部分の中心から下方向(顔を2次元としてとらえて、高さ方向を上下方向で表現した場合)のほぼ長方形の領域を認識することで鼻筋の部分が認識される。また、目から上の髪の毛の下の領域が額の領域として認識される。また、必要に応じて、左右の目の下の領域がほおの領域として認識される。
When generating a highlight makeup image, for example, the organ
また、鼻筋の部分はさらに詳細に認識されるようにしてもよい。例えば、編集対象画像の中の利用者の顔画像が認識された後、鼻の部分が認識されるようにする。そして、図17Aに示されるように、利用者の鼻451の中心線に沿った所定の領域452がハイライトを施す領域として認識されるようにしてもよい。このようにすることで、鼻をより立体的に見せることができる(鼻が高くみえる)。
Further, the nose muscle portion may be recognized in more detail. For example, after the face image of the user in the editing target image is recognized, the nose portion is recognized. Then, as shown in FIG. 17A, a
さらに、利用者の鼻451全体を含む所定の領域453がハイライトを施す領域として認識されるようにしてもよい。
Furthermore, a
このように検出された領域に重畳される化粧用画像が生成される。そして、化粧用画像の色が、例えば、明るい色(例えば、薄い肌色や白色など)とされる。 A cosmetic image to be superimposed on the area thus detected is generated. The color of the makeup image is, for example, a bright color (for example, a light skin color or white).
上述した例においては、検出した領域に重畳される化粧用画像が生成されると説明したが、化粧用画像を生成せずに、編集対象画像の中の所定の領域を検出し、直接画像処理を施すことも可能である。 In the above-described example, it has been described that a makeup image to be superimposed on the detected area is generated. However, a predetermined area in the editing target image is detected without generating a makeup image, and direct image processing is performed. It is also possible to apply.
図18は、シェーディングをより詳細に説明する図である。同図においてハッチングされた部分がシェーディングを施す領域とされ、当該領域に対応する化粧用画像が生成される。 FIG. 18 is a diagram illustrating shading in more detail. In the figure, the hatched portion is an area to be shaded, and a cosmetic image corresponding to the area is generated.
シェーディング用の化粧用画像を生成する場合、例えば、最初に、編集対象画像の中の利用者の顔画像が認識される。そして、図18Aに示されるように、顔画像の輪郭線が認識され、顔の下側の輪郭線から上方向の所定の領域が顎の領域として認識される。このように認識された領域を灰色などの暗い色にするための化粧用画像が生成される。 When generating a makeup image for shading, for example, a user's face image in the image to be edited is first recognized. Then, as shown in FIG. 18A, the contour line of the face image is recognized, and a predetermined region upward from the contour line below the face is recognized as a chin region. A cosmetic image for making the recognized area darker such as gray is generated.
あるいはまた、図18Aで認識された顎から領域を下方へ移動し、図18Bに示されるように、顔の下側の輪郭線から下方向の所定の領域がシェーディングを施す領域として認識されるようにしてもよい。この領域において、首の中の顎に近い部分は、利用者の顔画像の領域ではないが、この領域の画像を暗い色にすることで、利用者の顔が小さく見える効果を奏する。 Alternatively, the region is moved downward from the jaw recognized in FIG. 18A, and as shown in FIG. 18B, a predetermined region downward from the lower outline of the face is recognized as a region to be shaded. It may be. In this region, the portion close to the jaw in the neck is not the region of the user's face image, but by making the image in this region darker, the user's face appears to be small.
あるいはまた、図18Cに示されるように、顔の下側の輪郭線から下方向の所定の領域であって、首を含む領域がシェーディングを施す領域として認識されるようにしてもよい。図18Cの場合、図18Bの場合とは異なり、顔の下側の輪郭線から上方向の所定の領域と首のほぼ全体を含む領域にシェーディングが施されている。 Alternatively, as shown in FIG. 18C, a predetermined area in the downward direction from the lower outline of the face and including the neck may be recognized as an area to be shaded. In the case of FIG. 18C, unlike the case of FIG. 18B, shading is applied to a predetermined region in the upward direction from the lower outline of the face and a region including almost the entire neck.
このように検出された領域に重畳される化粧用画像が生成される。そして、化粧用画像の色が、例えば、暗い色(例えば、濃い肌色や灰色など)とされる。 A cosmetic image to be superimposed on the area thus detected is generated. The color of the makeup image is, for example, a dark color (for example, dark skin color or gray).
なお、化粧用画像における色の明るさ(例えば、白の濃さ)、色の暗さ(例えば、灰色の濃さ)が利用者の選択により変更できるようにしてもよい。 Note that the brightness of the color (for example, white density) and the darkness of the color (for example, gray density) in the makeup image may be changed by the user's selection.
図15の説明に戻る。 Returning to the description of FIG.
上述したように、ハイライトシェーディングパレット421は、利用者の顔の画像にハイライトおよび/またはシェーディングを施したり、アイラインを描くためのパレットとされる。ここで、アイラインは、化粧の方式の1つとされ、目の周りであって、例えば、まつ毛付近に線を描くものとされる。これにより、目を大きく見せたり、彫の深い顔立ちにみせたりすることが可能となる。
As described above, the
例えば、右の人が、ハイライトシェーディングパレット421のボタン433をタッチペン132Bでタップすることで、アイラインの色を選択することができる。この例では、アイラインの色を、黒(black)、濃い黒(deep black)、および、茶色(brown)から選択することができる。
For example, the right person can select the color of the eyeline by tapping the
また、例えば、右の人が、ハイライトシェーディングパレット421のアイコン434−1乃至アイコン434−3をタッチペン132Bでタップすることで、アイラインの形を選択することができる。また、アイコン434−1乃至アイコン434−3のいずれかがタップされることで、編集対象画像411−2の利用者の顔画像の中の目の周りにアイラインが付される。図15の例では、アイコン434−3が選択されたことにより、編集対象画像411−2の利用者の顔画像の中の目の周りにアイラインが付されている。
Further, for example, the right person can select the shape of the eyeline by tapping the icons 434-1 to 434-3 of the
なお、アイラインは、編集対象画像411−2の利用者の顔画像の中の目の周りに化粧用画像の色が変更されることなどにより描かれる。 The eyeline is drawn by changing the color of the makeup image around the eyes in the face image of the user of the editing target image 411-2.
アイライン用の化粧用画像を生成する場合、器官画像認識部323により、例えば、最初に、編集対象画像の中の利用者の顔画像が認識される。そして、顔画像の中の目が認識され、目の輪郭に沿った所定の領域がアイラインを描く領域として認識される。このように認識された領域に重畳される化粧用画像が生成される。この際、化粧用画像の色は、ボタン433により選択されたものとされ、化粧用画像の形は、アイコン434−1乃至アイコン434−3の中で選択されたものに対応する形とされる。
When generating a makeup image for eyeline, the organ
アイコン434−1は、一般的な形のアイラインを描く場合に選択される。アイコン434−2は、目じりがやや上がった形のアイラインを描く場合に選択される。アイコン434−3は、目じりが鋭く上がった形のアイラインを描く場合に選択される。 The icon 434-1 is selected when drawing a general eyeline. The icon 434-2 is selected when an eyeline with a slightly raised eyeline is drawn. The icon 434-3 is selected when drawing an eyeline with sharply raised eyes.
アイコン434−2、および、アイコン434−3は、キャットラインと称され、このようなアイラインを描くことにより、例えば、図19に示されるようないわゆるネコ目の化粧を施すことができる。同図においては、目じりが鋭く上がった(円で囲まれた部分)画像が示されている。 The icon 434-2 and the icon 434-3 are referred to as a cat line. By drawing such an eye line, for example, a so-called cat eye makeup as shown in FIG. 19 can be applied. In the figure, an image with sharply raised eyes (portion surrounded by a circle) is shown.
図15に戻って、例えば、ハイライトシェーディングパレット421のボタン435−1がタップされると、化粧用画像が時計回りまたは反時計回りに回転する。
Returning to FIG. 15, for example, when the button 435-1 of the
また、例えば、ハイライトシェーディングパレット421のボタン435−2がタップされると、化粧用画像のサイズが変更される。ボタン435−2がタップされると、例えば、化粧用画像が横方向に伸びるようになされている。なお、勿論、化粧用画像を伸ばした後、元に戻すことも可能である。
For example, when the button 435-2 of the
なお、アイラインを消去するためのボタンが必要に応じて設けられるようにし、そのボタンが押下された場合、アイラインの化粧用画像が消去されるようにしてもよい。 A button for erasing the eyeline may be provided as necessary, and when the button is pressed, the eyeline cosmetic image may be erased.
上述したように、ハイライト、シェーディング、およびアイラインの化粧は、化粧用画像を重畳することにより行われる。化粧用画像は、合成用画像の1つとして合成用画像重畳部321により、編集対象画像に重畳される。すなわち、器官画像認識部323により認識された領域に対応する化粧用画像が、合成用画像重畳部321により生成されて編集対象画像に重畳される。
As described above, highlight, shading, and eyeline makeup are performed by superimposing cosmetic images. The makeup image is superimposed on the image to be edited by the composition
化粧用画像が合成用画像として編集対象画像に重畳された場合も、重畳部分画像処理部322による画像処理が実行される。 Even when the makeup image is superimposed on the editing target image as a composition image, image processing by the superimposed partial image processing unit 322 is executed.
例えば、「きれい系」の撮影パラメータが設定されて撮影された利用者の画像である編集対象画像にハイライトの化粧用画像が重畳された場合、重畳部分画像処理部322は、化粧用画像の画素の輝度を高くする画像処理を実行する。また、例えば、「きれい系」の撮影パラメータが設定されて撮影された利用者の画像である編集対象画像にシェーディングの化粧用画像が重畳された場合、重畳部分画像処理部322は、化粧用画像の画素の輝度を低くする画像処理を実行する。 For example, when a highlight makeup image is superimposed on an editing target image that is a user's image captured with a “clean” shooting parameter set, the superimposed partial image processing unit 322 displays the makeup image. Image processing for increasing the luminance of the pixel is executed. In addition, for example, when a shading makeup image is superimposed on an editing target image that is a user's image shot with a “clean” shooting parameter set, the superimposed partial image processing unit 322 displays the makeup image. Image processing for lowering the luminance of the pixels is executed.
このようにすることで、ハイライトやシェーディングがくっきりと表示されるようになり、「きれい系」の撮影パラメータが設定されて撮影された利用者の画像によくなじむものとなる。 By doing so, highlights and shading are clearly displayed, and the image is well suited to a user's image shot with a “clean” shooting parameter set.
また、例えば、編集対象画像の中の利用者の顔の肌の色に応じてアイラインの色が変更されるような画像処理が施されるようにしてもよい。例えば、色黒の利用者の顔画像にアイラインの化粧用画像が重畳された場合、重畳部分画像処理部322は、アイラインの色をより濃い色となるようにする画像処理を実行する。また、例えば、色白の利用者の顔画像にアイラインの化粧用画像が重畳された場合、重畳部分画像処理部322は、アイラインの色をより薄い色となるようにする画像処理を実行する。 Further, for example, image processing may be performed in which the color of the eyeline is changed according to the skin color of the user's face in the editing target image. For example, when a makeup image of an eyeline is superimposed on a face image of a user who is colored black, the superimposed partial image processing unit 322 executes image processing that makes the color of the eyeline darker. Further, for example, when the eyeline makeup image is superimposed on the face image of the fair user, the superimposed partial image processing unit 322 executes image processing that makes the eyeline color lighter. .
このようにすることで、利用者の肌の色によくなじむ化粧を施すことが可能となる。 By doing in this way, it becomes possible to apply the makeup which adjusts well to the user's skin color.
なお、図12を参照して上述した場合と同様に、化粧用画像が合成される場合も、重畳部分画像処理部322は、合成用画像を構成する画素の値を変更する画像処理を実行するようにしてもよいし、編集対象画像において合成用画像が重畳される位置の周辺の所定の範囲内の画素の値を変更する画像処理を実行するようにしてもよいし、合成用画像を構成する画素の値、および、編集対象画像において合成用画像が重畳される位置の周辺の所定の範囲内の画素の値を、それぞれ変更する画像処理を実行するようにしてもよい。 Similar to the case described above with reference to FIG. 12, when a makeup image is synthesized, the superimposed partial image processing unit 322 executes image processing for changing the values of the pixels constituting the synthesis image. Alternatively, image processing for changing the value of a pixel within a predetermined range around the position where the composition image is superimposed on the image to be edited may be executed, or the composition image may be configured. It is also possible to execute image processing for changing the value of the pixel to be changed and the value of the pixel within a predetermined range around the position where the synthesis image is superimposed on the editing target image.
また、以上において説明した重畳部分画像処理部322による画像処理は、編集者毎(例えば、「右の人」と「左の人」)に異なるようにしてもよい。例えば、「左の人」が編集する場合、合成用画像の透明度を、撮影パラメータに応じて変更するような画像処理が施され、「右の人」が編集する場合、合成用画像の平均輝度値を、撮影パラメータに応じて変更するような画像処理が施されるようにしてもよい。 Further, the image processing by the superimposed partial image processing unit 322 described above may be different for each editor (for example, “right person” and “left person”). For example, when “left person” edits, image processing is performed such that the transparency of the composite image is changed according to the shooting parameters, and when “right person” edits, the average brightness of the composite image Image processing may be performed such that the value is changed according to the shooting parameter.
さらに、上述した例においては、合成用画像が編集対象画像に重畳された場合、自動的に重畳部分画像処理部322による画像処理が実行されるものとして説明したが、例えば、合成用画像が編集対象画像に重畳された場合、利用者の操作に基づく指令があったとき、重畳部分画像処理部322による画像処理が実行されるようにしてもよい。 Further, in the above-described example, it has been described that the image processing by the superimposed partial image processing unit 322 is automatically executed when the composition image is superimposed on the editing target image. When the image is superimposed on the target image, the image processing by the superimposed partial image processing unit 322 may be executed when there is a command based on a user operation.
例えば、利用者がスタンプ画像を編集対象画像の所望の位置に貼り付けた後、さらに、そのスタンプ画像をタップしたとき、重畳部分画像処理部322による画像処理が実行されるようにしてもよい。 For example, the image processing by the superimposed partial image processing unit 322 may be executed when the user pastes the stamp image at a desired position of the image to be edited and then taps the stamp image.
あるいはまた、重畳部分画像処理部322による画像処理が複数段階から選択されて実行されるようにしてもよい。例えば、利用者がスタンプ画像を編集対象画像の所望の位置に貼り付けた後、さらに、そのスタンプ画像をタップする都度、画像処理がより強く施される(例えば、透過度がより大きく変更される)ようにしてもよい。あるいはまた、例えば、利用者がスタンプ画像を編集対象画像の所望の位置に貼り付けた後、そのスタンプ画像にタッチペンのペン先を押しあてた時間に応じてスタンプ画像の画素の輝度がより高くなったたり、低くなったりするようにしてもよい。 Alternatively, the image processing by the superimposed partial image processing unit 322 may be selected and executed from a plurality of stages. For example, after the user pastes the stamp image at a desired position of the image to be edited, each time the user taps the stamp image, the image processing is performed more strongly (for example, the transparency is changed more greatly). You may do it. Alternatively, for example, after the user pastes the stamp image at a desired position in the image to be edited, the brightness of the pixels of the stamp image becomes higher according to the time when the pen tip of the touch pen is pressed against the stamp image. You may make it fall or be lowered.
また、以上においては、編集対象画像に合成用画像が重畳される例について説明したが、勿論、編集対象画像に重畳された合成用画像に、さらに合成用画像が重畳されるようにすることもできる。例えば、シェーディングの化粧用画像の上に、ハート型のスタンプ画像が貼り付けられるようにしてもよい。この場合も、上述したように、重畳部分画像処理部322による画像処理が施される。 In the above description, the example in which the compositing image is superimposed on the editing target image has been described. Of course, the compositing image may be further superimposed on the compositing image superimposed on the editing target image. it can. For example, a heart-shaped stamp image may be pasted on a shading makeup image. Also in this case, as described above, the image processing by the superimposed partial image processing unit 322 is performed.
次に、図20のフローチャートを参照して、図11のステップS4の編集処理の一部として実行される画像合成処理の例について説明する。この処理は、例えば、編集画面において、図12または図15に示されるような編集画面が表示されたとき実行される。 Next, an example of an image composition process executed as part of the editing process in step S4 of FIG. 11 will be described with reference to the flowchart of FIG. This process is executed, for example, when an edit screen as shown in FIG. 12 or 15 is displayed on the edit screen.
ステップS21において、化粧の編集であるか否かが判定される。例えば、編集画面において、図12の編集パレット352が表示されている場合、化粧の編集ではないと判定される。
In step S21, it is determined whether or not makeup editing is performed. For example, when the
ステップS21において、化粧の編集ではないと判定された場合、処理は、ステップS22に進む。ステップS22において、合成用画像重畳部321は、合成用画像の選択を受け付ける。このとき、例えば、編集パレット352に表示されているスタンプ画像の中から所定のスタンプ画像の選択が受け付けられる。
If it is determined in step S21 that the editing is not makeup, the process proceeds to step S22. In step S <b> 22, the composition
一方、例えば、編集画面において、図15の編集パレット412−1または編集パレット412−2が表示されている場合、処理は、ステップS23に進む。 On the other hand, for example, when the editing palette 412-1 or the editing palette 412-2 of FIG. 15 is displayed on the editing screen, the process proceeds to step S23.
ステップS23において、器官画像認識部323は、編集対象画像の中の利用者の顔画像を認識する。
In step S23, the organ
ステップS24において、器官画像認識部323は、ステップS23の処理で認識された利用者の顔画像の中の所定の器官を認識する。このとき、例えば、利用者の顔画像の中の目、鼻、顎などの領域が必要に応じて認識される。
In step S24, the organ
ステップS25において、器官画像認識部323は、ステップS24の処理で認識された顔画像の中の器官の位置に基づいて、所定の領域を認識する。このとき、例えば、ハイライト領域、シェーディング領域、アイラインを描く領域などが認識される。
In step S25, the organ
ステップS26において、合成用画像重畳部321は、ステップS25で認識された所定の領域に対応する化粧用画像を生成する。このとき、例えば、ハイライト用の化粧用画像、シェーディング用の化粧用画像、アイライン用の化粧用画像などが生成される。
In step S26, the composition
ステップS27において、合成用画像重畳部321は、ステップS22の処理で選択が受け付けられた合成用画像(例えば、スタンプ画像など)、または、ステップS26の処理で生成された化粧用画像を、合成用画像として編集対象画像に重畳する。
In step S27, the compositing
ステップS28において、重畳部分画像処理部322は、ステップS27の処理を経た編集対象画像、および/または、合成用画像に画像処理を施す。このとき、例えば、透過度、および、エッジの強調度を変更する画像処理、輝度や色を変更する画像処理などが施される。 In step S28, the superimposed partial image processing unit 322 performs image processing on the image to be edited and / or the synthesis image that has undergone the processing in step S27. At this time, for example, image processing for changing transparency and edge enhancement, image processing for changing luminance and color, and the like are performed.
このようにして、画像合成処理が実行される。 In this way, the image composition process is executed.
ところで、上述した一連の処理は、ハードウェアにより実行させることもできるし、ソフトウェアにより実行させることもできる。上述した一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、ネットワークや記録媒体からインストールされる。 By the way, the above-described series of processes can be executed by hardware or can be executed by software. When the above-described series of processing is executed by software, a program constituting the software is installed from a network or a recording medium.
この記録媒体は、例えば、図8に示されるように、装置本体とは別に、写真シール作成装置1の管理者にプログラムを配信するために配布される、プログラムが記録されている磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROMおよびDVDを含む)、光磁気ディスク(MDを含む)、もしくは半導体メモリなどよりなるリムーバブルメディア205により構成されるだけでなく、装置本体に予め組み込まれた状態で管理者に配信される、プログラムが記録されているROM206や、記憶部202に含まれるハードディスクなどで構成される。
For example, as shown in FIG. 8, the recording medium is distributed to distribute the program to the administrator of the photo
なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。 In the present specification, the step of describing the program recorded on the recording medium is not limited to the processing performed in chronological order according to the described order, but is not necessarily performed in chronological order. It also includes processes that are executed individually.
以上において、印刷媒体は、シール紙や写真紙に限られるものではなく、例えば、所定のサイズの紙やフィルム、ポスター用の紙、テレホンカードなどのカード、あるいは、Tシャツなどの布地などに印刷するようにしてもよい。 In the above, the printing medium is not limited to sticker paper or photographic paper. For example, printing on a predetermined size of paper or film, poster paper, a card such as a telephone card, or a cloth such as a T-shirt. You may make it do.
また、本発明の実施の形態は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。 The embodiments of the present invention are not limited to the above-described embodiments, and various modifications can be made without departing from the scope of the present invention.
1 写真シール作成装置
11 撮影ユニット
12 編集部
13 事後接客部
201 制御部
208 撮影部
209 編集部
210 事後接客部
301 撮影処理部
302 編集処理部
303 印刷処理部
304 事後接客処理部
321 合成用画像重畳部
322 重畳部分画像処理部
323 器官画像認識部
324 編集制御部
DESCRIPTION OF
本発明の一側面の画像処理装置は、利用者を被写体とする撮影作業により得られた前記利用者の画像である撮影画像に対して編集情報を入力する編集入力作業を行わせ、さらに、得られた編集済みの前記利用者の画像を前記利用者に提供する写真シール作成装置において、前記編集入力作業において、前記撮影画像に合成用画像を重畳するか、または、前記撮影画像に重畳された合成用画像にさらに合成用画像を重畳する合成用画像重畳手段と、前記撮影画像または前記合成用画像の少なくとも一方に対して画像処理を施す画像処理手段とを備え、前記画像処理手段は、前記合成用画像の特徴量が、撮影画像における被写体の写りを変更するための撮影パラメータに予め対応づけられた特徴量により近づくように、または、前記撮影パラメータが設定されて撮影された前記撮影画像の、前記撮影パラメータに応じて定まる特徴量が、前記合成用画像の特徴量により近づくように、前記画像処理を施す写真シール作成装置である。 An image processing apparatus according to an aspect of the present invention performs an editing input operation for inputting editing information on a captured image that is an image of the user obtained by a shooting operation with a user as a subject. In the photo sticker creating apparatus that provides the user with the edited user image, the composition image is superimposed on the captured image or superimposed on the captured image in the editing input operation. a synthesis image superimposing means for superimposing the further synthesis image in the synthesized image, and an image processing means for performing image processing on at least one of the photographed image or the composite image, the image processing means, wherein feature of the synthetic image is, as closer to the pre-correlated obtained feature amount to the imaging parameters for changing the reflecting of the subject in the captured image, or the photographed parameters Of but set it captured the captured image, feature quantity determined in accordance with the imaging parameters, so as to approach by the feature of the synthetic image is a photo sticker creation apparatus for performing the image processing.
本発明の一側面は、利用者を被写体とする撮影作業により得られた前記利用者の画像である撮影画像に対して編集情報を入力する編集入力作業を行わせ、さらに、得られた編集済みの前記利用者の画像を前記利用者に提供する写真シール作成装置の写真シール作成方法において、合成用画像重畳手段が、前記編集入力作業において、前記撮影画像に合成用画像を重畳するか、または、前記撮影画像に重畳された合成用画像にさらに合成用画像を重畳するステップと、画像処理手段が、前記撮影画像または前記合成用画像の少なくとも一方に対して画像処理を施すステップとを含み、前記画像処理手段が、前記合成用画像の特徴量が、撮影画像における被写体の写りを変更するための撮影パラメータに予め対応づけられた特徴量により近づくように、または、前記撮影パラメータが設定されて撮影された前記撮影画像の、前記撮影パラメータに応じて定まる特徴量が、前記合成用画像の特徴量により近づくように、前記画像処理を施す写真シール作成方法である。 One aspect of the present invention allows an editing input operation for inputting editing information to a captured image that is an image of the user obtained by a shooting operation with a user as a subject, and further provides an edited image obtained. In the photo sticker creating method of the photo sticker creating device for providing the user image of the user, the composition image superimposing means superimposes the composition image on the photographed image in the editing input operation, or A step of superimposing a composite image on the composite image superimposed on the photographed image, and a step of performing image processing on at least one of the photographed image or the composite image . wherein the image processing means, the feature amount of the synthetic image is closer to the pre-correlated obtained feature amount to the imaging parameters for changing the reflecting of the subject in the captured image , Or in the imaging parameter is set to captured the captured image, feature quantity determined in accordance with the imaging parameters, so as to approach by the feature of the synthetic image, created photo sticker performing the image processing Is the method.
本発明の一側面は、利用者を被写体とする撮影作業により得られた前記利用者の画像である撮影画像に対して編集情報を入力する編集入力作業を行わせ、さらに、得られた編集済みの前記利用者の画像を前記利用者に提供する写真シール作成装置における処理をコンピュータに実行させるプログラムであって、合成用画像重畳手段が、前記編集入力作業において、前記撮影画像に合成用画像を重畳するか、または、前記撮影画像に重畳された合成用画像にさらに合成用画像を重畳するステップと、画像処理手段が、前記撮影画像または前記合成用画像の少なくとも一方に対して画像処理を施すステップとを含む処理をコンピュータに実行させ、前記画像処理手段が、前記合成用画像の特徴量が、撮影画像における被写体の写りを変更するための撮影パラメータに予め対応づけられた特徴量により近づくように、または、前記撮影パラメータが設定されて撮影された前記撮影画像の、前記撮影パラメータに応じて定まる特徴量が、前記合成用画像の特徴量により近づくように、前記画像処理を施すプログラムである。 One aspect of the present invention allows an editing input operation for inputting editing information to a captured image that is an image of the user obtained by a shooting operation with a user as a subject, and further provides an edited image obtained. A program for causing a computer to execute processing in the photo sticker creating apparatus that provides the user's image to the user, wherein the composition image superimposing means applies the composition image to the photographed image in the editing input operation. A step of superimposing or superimposing a composition image on a composition image superimposed on the photographed image, and an image processing means performs image processing on at least one of the photographed image or the composition image the process comprising the steps is executed by a computer, said image processing means, the feature amount of the combined images is to change the reflecting of the subject in the captured image So as to approach the previously correlated obtained feature amount to the imaging parameters, or, the imaging parameter is set to captured the captured image, feature quantity determined in accordance with the imaging parameters, the feature quantity of the images to be combined It is a program that performs the image processing so as to be closer.
本発明の一側面においては、前記編集入力作業において、前記撮影画像に合成用画像が重畳されるか、または、前記撮影画像に重畳された合成用画像にさらに合成用画像が重畳され、前記撮影画像または前記合成用画像の少なくとも一方に対して画像処理が施され、前記画像処理手段が、前記合成用画像の特徴量が、撮影画像における被写体の写りを変更するための撮影パラメータに予め対応づけられた特徴量により近づくように、または、前記撮影パラメータが設定されて撮影された前記撮影画像の、前記撮影パラメータに応じて定まる特徴量が、前記合成用画像の特徴量により近づくように、前記画像処理が施される。 In one aspect of the present invention, in the editing input operation, a composite image is superimposed on the captured image, or a composite image is further superimposed on the composite image superimposed on the captured image, and the photographing is performed. Image processing is performed on at least one of the image and the image for synthesis , and the image processing unit associates the feature amount of the image for synthesis in advance with a shooting parameter for changing the image of the subject in the shot image. so as to approach the obtained feature amount, or, the imaging parameter is set to captured the captured image, as characteristic amount determined in accordance with the imaging parameters, closer to the feature value of the images to be combined, the Image processing is performed.
Claims (15)
前記編集入力作業において、前記撮影画像に合成用画像を重畳するか、または、前記撮影画像に重畳された合成用画像にさらに合成用画像を重畳する合成用画像重畳手段と、
前記撮影画像または前記合成用画像の少なくとも一方に対して画像処理を施す画像処理手段とを備え、
前記撮影画像の特徴量と、前記合成用画像の特徴量が予め対応づけられており、
前記画像処理手段は、
前記合成用画像の特徴量が前記予め対応付けられた特徴量により近づくように、または、前記撮影画像の特徴量が前記予め対応付けられた特徴量により近づくように、前記画像処理を施す
写真シール作成装置。 An editing input operation for inputting editing information is performed on a captured image that is an image of the user obtained by a photographing operation with the user as a subject, and the obtained edited image of the user is further displayed. In the photo sticker creation device provided to the user,
In the editing input work, a composition image superimposing unit that superimposes a composition image on the photographed image or further superimposes a composition image on the composition image superimposed on the photographed image;
Image processing means for performing image processing on at least one of the captured image or the composition image,
The feature amount of the captured image and the feature amount of the composition image are associated in advance,
The image processing means includes
A photo sticker that performs the image processing so that the feature amount of the image for synthesis approaches the feature amount associated in advance or the feature amount of the photographed image approaches the feature amount associated in advance. Creation device.
請求項1に記載の写真シール作成装置。 The photo sticker creating apparatus according to claim 1, wherein the feature amount of the photographed image is a feature amount determined according to a photographing parameter set at the time of photographing.
前記合成用画像の全体または一部として構成される画像、および、前記撮影画像において前記合成用画像が重畳される位置の周辺の所定の範囲内の画素により構成される画像の少なくともいずれか一方に前記画像処理を施す
請求項1に記載の写真シール作成装置。 The image processing means includes
At least one of an image configured as a whole or a part of the image for synthesis and an image configured by pixels within a predetermined range around a position where the image for synthesis is superimposed on the captured image. The photo sticker creating apparatus according to claim 1, wherein the image processing is performed.
ぼかし処理を施す
請求項1に記載の写真シール作成装置。 The image processing means includes
The photo sticker creating apparatus according to claim 1, wherein blurring processing is performed.
前記合成用画像の透過度を高める処理を施す
請求項1に記載の写真シール作成装置。 The image processing means includes
The photographic sticker creating apparatus according to claim 1, wherein a process for increasing the transparency of the composite image is performed.
前記撮影用画像または前記合成用画像のガンマ補正に関するガンマ値を変更する画像処理を施す
請求項1に記載の写真シール作成装置。 The image processing means includes
The photo sticker creating apparatus according to claim 1, wherein image processing is performed to change a gamma value related to gamma correction of the shooting image or the composition image.
前記撮影用画像または前記合成用画像のトーンカーブ特性を変更する画像処理を施す
請求項1に記載の写真シール作成装置。 The image processing means includes
The photo sticker creating apparatus according to claim 1, wherein image processing is performed to change a tone curve characteristic of the image for photographing or the image for synthesis.
前記撮影用画像または前記合成用画像の平均輝度値を変更する画像処理を施す
請求項1に記載の写真シール作成装置。 The image processing means includes
The photo sticker creating apparatus according to claim 1, wherein image processing is performed to change an average luminance value of the image for photographing or the image for synthesis.
前記撮影用画像または前記合成用画像のコントラスト値を変更する画像処理を施す
請求項1に記載の写真シール作成装置。 The image processing means includes
The photo sticker creating apparatus according to claim 1, wherein image processing for changing a contrast value of the image for photographing or the image for synthesis is performed.
前記撮影用画像または前記合成用画像のエッジの強調度を変更する画像処理を施す
請求項1に記載の写真シール作成装置。 The image processing unit
The photo sticker creating apparatus according to claim 1, wherein image processing is performed to change an enhancement degree of an edge of the image for photographing or the image for synthesis.
請求項1に記載の写真シール作成装置。 A color on which image processing is performed so that the color of the image for synthesis is a color corresponding to the color of an image composed of pixels within a predetermined range around the position where the image for synthesis is superimposed on the captured image The photo sticker creating apparatus according to claim 1, further comprising changing means.
前記合成用画像重畳手段が、前記器官認識手段により認識された器官に前記合成用画像を重畳する
請求項1に記載の写真シール作成装置。 Organ recognizing means for recognizing a predetermined organ in the face image of the user in the captured image;
The photographic sticker creating apparatus according to claim 1, wherein the composition image superimposing unit superimposes the composition image on the organ recognized by the organ recognition unit.
請求項12に記載の写真シール作成装置。 The photo sticker creating apparatus according to claim 12, wherein makeup is applied to the face image of the user by superimposing the composition image on the face image of the user in the captured image.
合成用画像重畳手段が、前記編集入力作業において、前記撮影画像に合成用画像を重畳するか、または、前記撮影画像に重畳された合成用画像にさらに合成用画像を重畳するステップと、
画像処理手段が、前記撮影画像または前記合成用画像の少なくとも一方に対して画像処理を施すステップとを含み、
前記撮影画像の特徴量と、前記合成用画像の特徴量が予め対応づけられており、
前記画像処理手段が、
前記合成用画像の特徴量が前記予め対応付けられた特徴量により近づくように、または、前記撮影画像の特徴量が前記予め対応付けられた特徴量により近づくように、前記画像処理を施す
写真シール作成方法。 An editing input operation for inputting editing information is performed on a captured image that is an image of the user obtained by a photographing operation with the user as a subject, and the obtained edited image of the user is further displayed. In the photo sticker creating method of the photo sticker creating device provided to the user,
A composition image superimposing means, in the editing input work, superimposing a composition image on the photographed image, or further superimposing a composition image on the composition image superimposed on the photographed image;
Image processing means includes performing image processing on at least one of the captured image and the composition image,
The feature amount of the captured image and the feature amount of the composition image are associated in advance,
The image processing means
A photo sticker that performs the image processing so that the feature amount of the image for synthesis approaches the feature amount associated in advance or the feature amount of the photographed image approaches the feature amount associated in advance. How to make.
合成用画像重畳手段が、前記編集入力作業において、前記撮影画像に合成用画像を重畳するか、または、前記撮影画像に重畳された合成用画像にさらに合成用画像を重畳するステップと、
画像処理手段が、前記撮影画像または前記合成用画像の少なくとも一方に対して画像処理を施すステップとを含む処理をコンピュータに実行させ、
前記撮影画像の特徴量と、前記合成用画像の特徴量が予め対応づけられており、
前記画像処理手段が、
前記合成用画像の特徴量が前記予め対応付けられた特徴量により近づくように、または、前記撮影画像の特徴量が前記予め対応付けられた特徴量により近づくように、前記画像処理を施す
プログラム。 An editing input operation for inputting editing information is performed on a captured image that is an image of the user obtained by a photographing operation with the user as a subject, and the obtained edited image of the user is further displayed. A program for causing a computer to execute processing in the photo sticker creating apparatus provided to the user,
A composition image superimposing means, in the editing input work, superimposing a composition image on the photographed image, or further superimposing a composition image on the composition image superimposed on the photographed image;
An image processing means for causing a computer to execute processing including a step of performing image processing on at least one of the captured image and the composition image;
The feature amount of the captured image and the feature amount of the composition image are associated in advance,
The image processing means
A program for performing the image processing so that the feature amount of the image for synthesis approaches the feature amount associated in advance or the feature amount of the photographed image approaches the feature amount associated in advance.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012289003A JP5541545B1 (en) | 2012-12-28 | 2012-12-28 | Photo sticker creation apparatus and method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012289003A JP5541545B1 (en) | 2012-12-28 | 2012-12-28 | Photo sticker creation apparatus and method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP5541545B1 JP5541545B1 (en) | 2014-07-09 |
JP2014131246A true JP2014131246A (en) | 2014-07-10 |
Family
ID=51409237
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012289003A Active JP5541545B1 (en) | 2012-12-28 | 2012-12-28 | Photo sticker creation apparatus and method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5541545B1 (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016046817A (en) * | 2015-11-12 | 2016-04-04 | 株式会社メイクソフトウェア | Photographing game device, picture sticker creation device, photographing game device control method, and photographing game device control program |
JP2018018450A (en) * | 2016-07-29 | 2018-02-01 | 辰巳電子工業株式会社 | Image edition device, image edition method, and computer program |
JP2019070870A (en) * | 2017-10-05 | 2019-05-09 | カシオ計算機株式会社 | Image processing device, image processing method and program |
JP2022008999A (en) * | 2016-07-29 | 2022-01-14 | 辰巳電子工業株式会社 | Image editing device, image editing method and computer program |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005181843A (en) * | 2003-12-22 | 2005-07-07 | Make Softwear:Kk | Photograph vending machine and control method and control program therefor |
JP2006228036A (en) * | 2005-02-18 | 2006-08-31 | Hitachi Software Eng Co Ltd | Photograph seal creating device and its image processing method |
JP2007067565A (en) * | 2005-08-29 | 2007-03-15 | Tatsumi Denshi Kogyo Kk | Automatic photo creating apparatus and automatic photo creating method |
JP2007221748A (en) * | 2006-01-17 | 2007-08-30 | Furyu Kk | Apparatus and method for creating photograph |
JP2007267268A (en) * | 2006-03-29 | 2007-10-11 | Furyu Kk | Photographic sticker forming device and method, and program |
JP2009211362A (en) * | 2008-03-04 | 2009-09-17 | Furyu Kk | Photo-seal creation apparatus, photo-seal creation method and program |
JP2012029072A (en) * | 2010-07-23 | 2012-02-09 | Furyu Kk | Photograph seal creating apparatus, control method thereof, and program |
JP2012039411A (en) * | 2010-08-06 | 2012-02-23 | Furyu Kk | Photographic sticker creation device and method, and program |
JP2012159824A (en) * | 2011-01-13 | 2012-08-23 | Make Softwear:Kk | Photographing game machine, photographing game method, and control program |
-
2012
- 2012-12-28 JP JP2012289003A patent/JP5541545B1/en active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005181843A (en) * | 2003-12-22 | 2005-07-07 | Make Softwear:Kk | Photograph vending machine and control method and control program therefor |
JP2006228036A (en) * | 2005-02-18 | 2006-08-31 | Hitachi Software Eng Co Ltd | Photograph seal creating device and its image processing method |
JP2007067565A (en) * | 2005-08-29 | 2007-03-15 | Tatsumi Denshi Kogyo Kk | Automatic photo creating apparatus and automatic photo creating method |
JP2007221748A (en) * | 2006-01-17 | 2007-08-30 | Furyu Kk | Apparatus and method for creating photograph |
JP2007267268A (en) * | 2006-03-29 | 2007-10-11 | Furyu Kk | Photographic sticker forming device and method, and program |
JP2009211362A (en) * | 2008-03-04 | 2009-09-17 | Furyu Kk | Photo-seal creation apparatus, photo-seal creation method and program |
JP2012029072A (en) * | 2010-07-23 | 2012-02-09 | Furyu Kk | Photograph seal creating apparatus, control method thereof, and program |
JP2012039411A (en) * | 2010-08-06 | 2012-02-23 | Furyu Kk | Photographic sticker creation device and method, and program |
JP2012159824A (en) * | 2011-01-13 | 2012-08-23 | Make Softwear:Kk | Photographing game machine, photographing game method, and control program |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016046817A (en) * | 2015-11-12 | 2016-04-04 | 株式会社メイクソフトウェア | Photographing game device, picture sticker creation device, photographing game device control method, and photographing game device control program |
JP2018018450A (en) * | 2016-07-29 | 2018-02-01 | 辰巳電子工業株式会社 | Image edition device, image edition method, and computer program |
JP2022008999A (en) * | 2016-07-29 | 2022-01-14 | 辰巳電子工業株式会社 | Image editing device, image editing method and computer program |
JP7017724B2 (en) | 2016-07-29 | 2022-02-09 | 辰巳電子工業株式会社 | Image editing equipment, image editing methods and computer programs |
JP2019070870A (en) * | 2017-10-05 | 2019-05-09 | カシオ計算機株式会社 | Image processing device, image processing method and program |
Also Published As
Publication number | Publication date |
---|---|
JP5541545B1 (en) | 2014-07-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6237939B2 (en) | Image editing apparatus and image editing method | |
JP4715964B2 (en) | Photo sticker creation apparatus, photo sticker creation method, and program | |
JP6048758B2 (en) | Image processing apparatus and method, and program | |
JP5488526B2 (en) | Image processing apparatus and image processing method | |
JP2019013013A (en) | Photo sticker generation apparatus, photo sticker generation method, and program | |
JP5541545B1 (en) | Photo sticker creation apparatus and method, and program | |
JP5309979B2 (en) | Photo sticker creating apparatus and method, and program | |
JP5748651B2 (en) | Image processing apparatus, image processing method, and program | |
JP5549727B2 (en) | Photo sticker making apparatus and method | |
JP6829380B2 (en) | Photo sticker making device and image processing method | |
JP2015035765A (en) | Imaging apparatus and display control method | |
JP5569502B2 (en) | Photo sticker creation apparatus, photo sticker creation method, and program | |
JP5472767B2 (en) | Image processing apparatus and image processing method | |
JP6213791B2 (en) | Image processing apparatus and image processing method | |
JP6477780B2 (en) | Photo sticker creation apparatus, photo sticker creation method, and photo sticker creation processing program | |
JP6262643B2 (en) | Image processing apparatus and image processing method | |
JP5482948B2 (en) | Image processing apparatus and image processing method | |
JP2019192061A (en) | Photograph creation game machine, control method and program | |
JP7121256B2 (en) | PHOTO-CREATION GAME MACHINE, IMAGE PROCESSING METHOD, AND PROGRAM | |
JP2014170234A (en) | Photograph seal creation apparatus, photograph seal creation method, and program | |
JP2022012958A (en) | Image processing apparatus, image processing method, image processing program, region specification model and model generation method | |
JP2020053831A (en) | Photo-creating game machine, image processing method, and program | |
JP5578381B1 (en) | Photo sticker creation apparatus and method, and program | |
JP2021043797A (en) | Image processing device, image processing method, and image processing program | |
JP5594401B1 (en) | Imaging apparatus, imaging method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20140410 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20140423 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5541545 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |