JP6853475B2 - Photo creation game console and display method - Google Patents
Photo creation game console and display method Download PDFInfo
- Publication number
- JP6853475B2 JP6853475B2 JP2016202230A JP2016202230A JP6853475B2 JP 6853475 B2 JP6853475 B2 JP 6853475B2 JP 2016202230 A JP2016202230 A JP 2016202230A JP 2016202230 A JP2016202230 A JP 2016202230A JP 6853475 B2 JP6853475 B2 JP 6853475B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- user
- displayed
- recognition
- shooting
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 108
- 238000012545 processing Methods 0.000 claims description 239
- 238000004891 communication Methods 0.000 claims description 13
- 238000007639 printing Methods 0.000 claims description 12
- 210000002414 leg Anatomy 0.000 description 145
- 230000008569 process Effects 0.000 description 96
- 230000006870 function Effects 0.000 description 57
- 238000003384 imaging method Methods 0.000 description 25
- 230000008859 change Effects 0.000 description 24
- 238000010586 diagram Methods 0.000 description 20
- 239000002131 composite material Substances 0.000 description 14
- 238000003860 storage Methods 0.000 description 11
- 238000005516 engineering process Methods 0.000 description 10
- 238000007667 floating Methods 0.000 description 8
- 210000002683 foot Anatomy 0.000 description 8
- 210000000887 face Anatomy 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 5
- 210000003371 toe Anatomy 0.000 description 5
- 230000037237 body shape Effects 0.000 description 4
- 230000001815 facial effect Effects 0.000 description 3
- 238000003780 insertion Methods 0.000 description 3
- 230000037431 insertion Effects 0.000 description 3
- 210000003127 knee Anatomy 0.000 description 3
- 238000003825 pressing Methods 0.000 description 3
- 239000004065 semiconductor Substances 0.000 description 3
- 238000011282 treatment Methods 0.000 description 3
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 210000003128 head Anatomy 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 239000002184 metal Substances 0.000 description 2
- 210000000056 organ Anatomy 0.000 description 2
- 230000007306 turnover Effects 0.000 description 2
- 238000012795 verification Methods 0.000 description 2
- 230000002087 whitening effect Effects 0.000 description 2
- 208000029152 Small face Diseases 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 210000003423 ankle Anatomy 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000005520 cutting process Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000007599 discharging Methods 0.000 description 1
- 210000005069 ears Anatomy 0.000 description 1
- 239000004744 fabric Substances 0.000 description 1
- 230000037308 hair color Effects 0.000 description 1
- 229910052738 indium Inorganic materials 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 210000001747 pupil Anatomy 0.000 description 1
- 230000011514 reflex Effects 0.000 description 1
- 238000004904 shortening Methods 0.000 description 1
- 238000002366 time-of-flight method Methods 0.000 description 1
Images
Landscapes
- Cameras Adapted For Combination With Other Photographic Or Optical Apparatuses (AREA)
- Studio Devices (AREA)
Description
本技術は、写真作成ゲーム機および表示方法に関し、特に、所望のスタイルを選択することができるようにする写真作成ゲーム機および表示方法に関する。 The present technology relates to a photo-creating game machine and a display method, and particularly to a photo-creating game machine and a display method that enable a desired style to be selected.
従来、アミューズメント施設等に設置される写真シール機が知られている。写真シール機は、利用者を撮影し、利用者の操作に応じて撮影画像に対して編集を施す。写真シール機は、編集が施された撮影画像をシール紙に印刷する。 Conventionally, a photo sticker machine installed in an amusement facility or the like is known. The photo sticker machine photographs the user and edits the photographed image according to the operation of the user. The photo sticker machine prints the edited photographed image on the sticker paper.
近年、写真シール機においては、撮影画像に対して適切な画像処理を施すために、撮影画像に対する顔認識が行われている。 In recent years, in a photo sticker machine, face recognition is performed on a photographed image in order to perform appropriate image processing on the photographed image.
例えば、特許文献1には、顔を認識するための認識撮影により得られた画像から顔を検出・登録し、登録された顔と、その後の撮影により得られた撮影画像における顔とを照合することが開示されている。これにより、撮影画像に写る利用者毎の顔に、目の大きさや形状を変更する画像処理を施すことが可能となる。
For example, in
しかしながら、特許文献1の構成では、撮影画像に写る利用者の全身に画像処理を施すことはできなかった。
However, in the configuration of
これに対して、近年、利用者の全身が写る全身画像について、複数種類のスタイルのうちのいずれかを選択させるようにした写真シール機がある。この写真シール機においては、選択されたスタイルに応じて、全身画像に写る利用者の全身に画像処理が施される。 On the other hand, in recent years, there is a photo sticker machine that allows a user to select one of a plurality of styles for a full-body image showing the whole body of a user. In this photo sticker machine, image processing is performed on the whole body of the user reflected in the whole body image according to the selected style.
しかしながら、利用者毎にスタイルを選択することはできず、複数の利用者の全身に一律に同じ画像処理が施されてしまっていた。 However, it is not possible to select a style for each user, and the same image processing is uniformly applied to the whole body of a plurality of users.
本技術は、このような状況に鑑みてなされたものであり、利用者毎に所望のスタイルを選択することができるようにするものである。 The present technology has been made in view of such a situation, and makes it possible to select a desired style for each user.
本技術の写真作成ゲーム機は、利用者の全身を被写体とした撮影を行う撮影制御部と、撮影により得られた撮影画像のうちの所定枚数の撮影画像において人物を認識する認識部と、前記撮影画像が表示される第1の領域と、前記認識部による認識結果に基づいて前記利用者の全身が写る前記撮影画像に施される画像処理の度合いを選択するためのボタンが表示される第2の領域とを有する画面を表示する表示制御部とを備え、前記表示制御部は、前記第2の領域の前記ボタンが操作される毎に、前記第1の領域に表示される前記撮影画像を、異なる度合いの前記画像処理が施された前記撮影画像に切り替える。 The photo creation game machine of the present technology includes a shooting control unit that shoots the whole body of the user as a subject, a recognition unit that recognizes a person in a predetermined number of shot images among the shot images obtained by shooting, and the above. A first area in which the captured image is displayed and a button for selecting the degree of image processing applied to the captured image in which the entire body of the user is captured based on the recognition result by the recognition unit are displayed. The display control unit includes a display control unit that displays a screen having two areas, and the display control unit displays the captured image displayed in the first area each time the button in the second area is operated. Is switched to the captured image that has undergone the image processing to a different degree.
本技術の表示方法は、利用者の全身を被写体とした撮影を行い、撮影により得られた撮影画像のうちの所定枚数の撮影画像において人物を認識し、前記撮影画像が表示される第1の領域と、前記人物の認識結果に基づいて前記利用者の全身が写る前記撮影画像に施される画像処理の度合いを選択するためのボタンが表示される第2の領域とを有する画面を表示し、前記第2の領域の前記ボタンが操作される毎に、前記第1の領域に表示される前記撮影画像を、異なる度合いの前記画像処理が施された前記撮影画像に切り替えるステップを含む。 The display method of the present technology is a first method in which a photograph is taken with the whole body of the user as a subject, a person is recognized in a predetermined number of captured images among the captured images obtained by the imaging, and the captured image is displayed. Display a screen having an area and a second area in which a button for selecting the degree of image processing applied to the captured image showing the whole body of the user based on the recognition result of the person is displayed. Each time the button in the second region is operated, the step of switching the captured image displayed in the first region to the captured image subjected to the image processing to a different degree is included.
本技術においては、利用者の全身を被写体とした撮影が行われ、撮影により得られた撮影画像のうちの所定枚数の撮影画像において人物が認識され、前記撮影画像が表示される第1の領域と、前記認識部による認識結果に基づいて前記利用者の全身が写る前記撮影画像に施される画像処理の度合いを選択するためのボタンが表示される第2の領域とを有する画面が表示され、前記第2の領域の前記ボタンが操作される毎に、前記第1の領域に表示される前記撮影画像が、異なる度合いの前記画像処理が施された前記撮影画像に切り替わる。 In the present technology, shooting is performed with the whole body of the user as a subject, a person is recognized in a predetermined number of shot images among the shot images obtained by the shooting, and the shot image is displayed in the first region. And a screen having a second area in which a button for selecting the degree of image processing applied to the captured image in which the whole body of the user is captured based on the recognition result by the recognition unit is displayed is displayed. Each time the button in the second region is operated, the captured image displayed in the first region is switched to the captured image subjected to the image processing to a different degree.
本技術によれば、利用者毎に所望のスタイルを選択することが可能となる。 According to this technique, it is possible to select a desired style for each user.
以下、本技術を適用した具体的な実施の形態について、図面を参照しながら詳細に説明する。 Hereinafter, specific embodiments to which the present technology is applied will be described in detail with reference to the drawings.
<写真シール作成装置の外観構成>
図1は、写真シール作成装置1の外観の構成例を示す斜視図である。
<Appearance configuration of photo sticker making device>
FIG. 1 is a perspective view showing a configuration example of the appearance of the photo
写真シール作成装置1は、撮影画像や編集済み画像を提供するゲーム機である。写真シール作成装置1は、画像をシール紙に印刷したり、画像を利用者の携帯端末上で閲覧可能にするためにその画像をサーバに送信することで、利用者に画像を提供する。写真シール作成装置1は、アミューズメント施設や店舗に設置される。写真シール作成装置1の利用者は、主に女子高生や女子大生などの若い女性が中心とされる。写真シール作成装置1において、1組あたり主に2人や3人などの複数人の利用者がゲームを楽しむことができる。もちろん、1人の利用者がゲームを楽しむこともできる。
The photo
写真シール作成装置1において、利用者は、自身が被写体となって撮影作業を行う。利用者は、編集作業により、撮影によって得られた撮影画像の中から選択した画像に、手書きの文字やスタンプ画像などの合成用画像を合成させる。これにより、撮影画像が彩り豊かな画像に編集される。利用者は、編集済みの画像である編集画像が印刷されたシール紙を受け取って一連のゲームを終了させる。
In the photo
写真シール作成装置1は、撮影ユニット11と編集ユニット12が接した状態で設置されることによって構成される。撮影ユニット11と編集ユニット12は電気的に接続される。撮影ユニット11は、人が中に入ることができる程度の大きさを有する箱形状の筐体を有する。
The photo
撮影ユニット11は、撮影部21と背景部22から構成される。撮影部21と背景部22は離れて設置される。撮影部21と背景部22の間に設けられる空間が、利用者が撮影作業を行う撮影空間となる。
The
撮影部21は、利用者を被写体として撮影する装置である。撮影空間に臨む撮影部21の正面にはカメラなどが設けられる。撮影部21の、編集ユニット12と接する面には正面パネル41が設けられる。撮影空間にいる利用者から見て右側の面を右側面、左側の面を左側面とすると、撮影部21の右側面が側面パネル42Aにより構成され、左側面が側面パネル42B(図2)により構成される。
The photographing
背景部22は、それぞれ板状の部材である背面パネル51、側面パネル52A、および側面パネル52B(図2)から構成される。背面パネル51は、正面を向いている利用者の背面側に位置する。側面パネル52Aは、背面パネル51の右端に取り付けられ、側面パネル52Bは、背面パネル51の左端に取り付けられる。
The
側面パネル42Aと側面パネル52Aは、所定の間隔をあけてほぼ同一平面に設けられる。側面パネル42Aと側面パネル52Aの上部は、板状の部材である連結部31Aによって連結される。また、側面パネル42Aと側面パネル52Aの下部は、床面に設けられた例えば金属製の部材である連結部34によって連結される。
The
側面パネル42Bと側面パネル52Bも同様にほぼ同一平面に設けられる。側面パネル42Bと側面パネル52Bの上部は連結部31Bによって連結される。側面パネル42Aと側面パネル52Aの下部は、床面に設けた金属製の部材(図示せず)によって連結される。
Similarly, the
側面パネル42A、連結部31A、および側面パネル52Aに囲まれることによって形成される開口が、撮影空間の出入り口となる。また、側面パネル42B、連結部31B、および側面パネル52Bに囲まれることによって形成される開口もまた、撮影空間の出入り口となる。
The opening formed by being surrounded by the
撮影空間の上方には、撮影部21の正面パネル41、連結部31A、連結部31B、および背景部22の背面パネル51に囲まれる開口が形成される。その開口には、その一部を覆うように天井ストロボユニット32が設けられる。天井ストロボユニット32の一端は連結部31Aに固定され、他端は連結部31Bに固定される。
An opening surrounded by the
天井ストロボユニット32は、撮影空間内に向けて光を照射するストロボ発光管を内蔵する。天井ストロボユニット32の内部には、ストロボ発光管の他に蛍光灯が設けられている。これにより、天井ストロボユニット32は、撮影空間の照明としても機能する。
The
編集ユニット12は、撮影画像に編集を施すための装置である。編集ユニット12は、一方の側面が撮影部21の正面パネル41に接するようにして、撮影ユニット11に連結している。
The
図1に示される編集ユニット12の構成を正面側の構成とすると、編集ユニット12の正面側と背面側のそれぞれに、編集作業で用いられる構成が設けられる。この構成により、2組の利用者が同時に編集を行うことができる。
Assuming that the configuration of the
編集ユニット12の正面側は、面12Aと、面12Aの上方に形成された斜面12Bから構成される。面12Aは、床面に対して垂直であり、撮影部21の側面パネル42Aとほぼ平行な面である。斜面12Bには、編集作業に用いられる構成として、タブレット内蔵モニタやタッチペンが設けられる。
The front side of the
斜面12Bの上方右側には、照明装置73の一端を支持する柱状の支持部71A(図5)が設けられる。斜面12Bの左側には、照明装置73の他端を支持する柱状の支持部71Bが設けられる。支持部71Aの右側には板状のパネル72が設けられる。パネル72の上面にはカーテンレール75を支持する支持部74が設けられる。
On the upper right side of the
編集ユニット12の上方にはカーテンレール75が取り付けられる。カーテンレール75は、3本のレール75A乃至75Cが組み合わされて構成される。3本のレール75A乃至75Cは、上から見たときの形状がコの字状となるように組み合わされる。平行に設けられるレール75Aとレール75Bの一端は、連結部31Aと連結部31Bにそれぞれ固定され、レール75Aとレール75Bの他端は、レール75Cの両端にそれぞれ接合される。
A
カーテンレール75には、編集ユニット12の正面前方の空間と背面前方の空間が外から見えないようにカーテンが取り付けられる。そのカーテンにより囲まれる編集ユニット12の正面前方の空間と背面後方の空間が、利用者が編集作業を行う編集空間となる。
A curtain is attached to the
また、後述するが、編集ユニット12の右側面には、印刷済みのシール紙が排出される排出口が設けられる。編集ユニット12の右側面前方の空間が、印刷が終了するのを利用者が待つ印刷待ち空間となる。
Further, as will be described later, a discharge port for discharging the printed sticker paper is provided on the right side surface of the
<利用者の移動について>
ここで、写真シール作成ゲームの流れと、それに伴う利用者の移動について説明する。
<About user movement>
Here, the flow of the photo sticker creation game and the movement of the user accompanying it will be described.
図2は、写真シール作成装置1を上から見た平面図である。
FIG. 2 is a plan view of the photo
まず、利用者は、白抜き矢印#1で示されるように出入り口G1から、または白抜き矢印#2で示されるように出入り口G2から、撮影部21と背景部22の間に形成された撮影空間A1に入る。出入り口G1は側面パネル42Aと側面パネル52Aの間の開口であり、出入り口G2は側面パネル42Bと側面パネル52Bの間の開口である。利用者は、撮影空間A1において、撮影部21に設けられたカメラやタッチパネルモニタなどを利用して撮影作業を行う。
First, the user can use the shooting space formed between the
撮影作業を終えた利用者は、白抜き矢印#3で示されるように出入り口G1から撮影空間A1を出て編集空間A2−1に移動するか、白抜き矢印#4で示されるように出入り口G2から撮影空間A1を出て編集空間A2−2に移動する。
The user who has completed the shooting work either exits the shooting space A1 from the entrance / exit G1 and moves to the editing space A2-1 as indicated by the
編集空間A2−1は、編集ユニット12の正面側の編集空間である。一方、編集空間A2−2は、編集ユニット12の背面側の編集空間である。利用者が編集空間A2−1と編集空間A2−2のいずれの空間に移動するのかは、撮影部21のタッチパネルモニタの画面表示などによって案内される。例えば2つの編集空間のうちの空いている方が移動先として案内される。
The editing space A2-1 is an editing space on the front side of the
編集空間A2−1または編集空間A2−2に移動した利用者は、編集作業を開始する。編集空間A2−1の利用者と、編集空間A2−2の利用者は同時に編集作業を行うことができる。 The user who has moved to the editing space A2-1 or the editing space A2-2 starts the editing work. The user of the editing space A2-1 and the user of the editing space A2-2 can perform editing work at the same time.
編集作業が終了した後、編集画像の印刷が開始される。印刷が開始されると、編集空間A2−1での編集作業を終えた利用者は、白抜き矢印#5で示されるように編集空間A2−1から印刷待ち空間A3に移動する。また、編集空間A2−2での編集作業を終えた利用者は、白抜き矢印#6で示されるように編集空間A2−2から印刷待ち空間A3に移動する。印刷待ち空間A3に移動した利用者は、印刷が終了するのを待つ間、例えば、サーバに送信する画像の選択や、利用者が持つ携帯端末のメールアドレスの入力を事後選択作業として行う。
After the editing work is completed, printing of the edited image is started. When printing is started, the user who has completed the editing work in the editing space A2-1 moves from the editing space A2-1 to the print waiting space A3 as indicated by the
印刷が終了すると、利用者は、編集ユニット12の右側面に設けられた排出口から排出されたシール紙を受け取り、一連の写真シール作成ゲームを終える。
When printing is completed, the user receives the sticker paper discharged from the discharge port provided on the right side surface of the
次に、各部の構成について説明する。 Next, the configuration of each part will be described.
<撮影部の構成>
図3は、撮影部21の正面の構成例を示す図である。撮影部21は、正面パネル41、側面パネル42A、および側面パネル42Bに囲まれるようにして構成される。
<Structure of shooting section>
FIG. 3 is a diagram showing a configuration example of the front surface of the photographing
正面パネル41のほぼ中央には、カメラユニット81が設けられる。カメラユニット81は、カメラ91、正面ストロボユニット92、およびタッチパネルモニタ93から構成される。
A
カメラ91は、例えば一眼レフカメラであり、レンズが露出するようにカメラユニット81の内部に取り付けられる。カメラ91はCCD(Charge Coupled Device)イメージセンサやCMOS(Complementary Metal Oxide Semiconductor)イメージセンサなどの撮像素子を有し、撮影空間A1にいる利用者を撮影する。カメラ91により取り込まれた動画像(以下、ライブビュー画像ともいう)は、タッチパネルモニタ93にリアルタイムで表示される。撮影が指示されたときなどの所定のタイミングでカメラ91により取り込まれた静止画像は、撮影画像として保存される。
The
正面ストロボユニット92は、カメラ91の上方に設けられる。正面ストロボユニット92は、他のストロボユニットと同様にカメラ91による撮影に合わせて発光する。正面ストロボユニット92は、被写体としての利用者の顔付近に、その正面から光を照射する。
The
タッチパネルモニタ93は、カメラ91の下方に設けられる。タッチパネルモニタ93は、LCD(Liquid Crystal Display)などのモニタと、それに積層されたタッチパネルにより構成される。タッチパネルモニタ93は、カメラ91により取り込まれた動画像を表示するライブビューモニタとしての機能と、各種のGUIパーツを表示することで、利用者の選択操作を受け付ける機能とを備える。タッチパネルモニタ93には、カメラ91により取り込まれた動画像(ライブビュー画像)や静止画像(撮影画像)が表示される。
The touch panel monitor 93 is provided below the
正面パネル41において、カメラユニット81の上方には上ストロボユニット82が設置される。また、カメラユニット81の左方には左ストロボユニット83が設置され、カメラユニット81の右方には右ストロボユニット84が設置される。さらに、カメラユニット81の下方には箱状の足元ストロボユニット85が設置される。
In the
上ストロボユニット82は、前方上側から利用者に光を照射する。左ストロボユニット83は、前方左側から利用者に光を照射する。右ストロボユニット84は、前方右側から利用者に光を照射する。足元ストロボユニット85は、利用者の足元に光を照射する。
The
上ストロボユニット82、左ストロボユニット83、右ストロボユニット84、および足元ストロボユニット85の内部には蛍光灯が設けられる。これらの蛍光灯は、天井ストロボユニット32内部の蛍光灯とあわせて、撮影空間A1内の照明として用いられる。各蛍光灯の発光量が調整されることによって、または、発光する蛍光灯の数が調整されることによって、撮影空間A1内の明るさが適宜調整される。
Fluorescent lamps are provided inside the
足元ストロボユニット85の右側および左側には、足元ストロボユニット85より高さの低い箱状部86A,86Bが設けられる。箱状部86A,86Bそれぞれの上面は、利用者が手荷物などを置くための荷物置き場となる。
Box-shaped
さらに、箱状部86Aには、利用者が硬貨を投入する硬貨投入口87が設けられる。
Further, the box-shaped
また、図示はしないが、正面パネル41の例えば天井付近にはスピーカが設けられる。そのスピーカは、撮影作業に関する案内音声、BGM、効果音などを出力する。
Although not shown, a speaker is provided on the
<背景部の構成>
図4は、背景部22の撮影空間A1側の構成例を示す図である。
<Structure of background part>
FIG. 4 is a diagram showing a configuration example of the
背面パネル51の上方中央には背面上ストロボユニット121が設けられる。また、背面パネル51の上方右側(図中、左側)には背面右ストロボユニット122が設けられ、背面パネル51の上方左側(図中、右側)には背面左ストロボユニット123が設けられる。
A rear
背面上ストロボユニット121は、後方上側から利用者に光を照射する。背面右ストロボユニット122は、後方右側から利用者に光を照射する。背面左ストロボユニット123は、後方左側から利用者に光を照射する。
The rear
背面パネル51の撮影空間A1側(図中、手前側)の面には、背面カーテン124が貼り付けられる。背面カーテン124の色は、例えば緑色とされる。また、図示はしないが、側面パネル52A,52Bそれぞれの撮影空間A1側にも、背面カーテン124と同様の側面カーテンが貼り付けられる。側面カーテンの色は、背面カーテン124の色と同一とする。
The
これらのカーテンはクロマキー用のカーテンとして用いられる。これにより、撮影画像に対してクロマキー処理を施し、利用者が所望する背景画像を、撮影画像の背景部分に合成することができる。なお、これらのカーテンの色は、クロマキー処理を行うことができる色であればよく、青色など、その他の色であってもよい。 These curtains are used as chroma key curtains. As a result, the captured image can be subjected to chroma key processing, and the background image desired by the user can be combined with the background portion of the captured image. The color of these curtains may be any color that can be subjected to chroma key processing, and may be another color such as blue.
<編集ユニットの構成>
図5は、編集ユニット12の正面側(編集空間A2−1側)の構成例を示す図である。
<Structure of editing unit>
FIG. 5 is a diagram showing a configuration example of the front side (editing space A2-1 side) of the
斜面12Bのほぼ中央には、タブレット内蔵モニタ131が設けられる。タブレット内蔵モニタ131の左側にはタッチペン132Aが設けられる。タブレット内蔵モニタ131の右側にはタッチペン132Bが設けられる。
A tablet built-in
タブレット内蔵モニタ131は、タブレットがディスプレイを露出するように設けられることによって構成される。タブレットは、タッチペン132Aまたはタッチペン132Bを用いた操作入力を可能とする。タブレット内蔵モニタ131には、例えば、編集作業に用いられる編集画面が表示される。2人の利用者が同時に編集作業を行う場合、タッチペン132Aはタブレット内蔵モニタ131に向かって左側にいる利用者により用いられ、タッチペン132Bはタブレット内蔵モニタ131に向かって右側にいる利用者により用いられる。
The tablet built-in
図6は、編集ユニット12の右側面の構成例を示す図である。
FIG. 6 is a diagram showing a configuration example of the right side surface of the
編集ユニット12の右側面の一部を構成するパネル72には、タブレット内蔵モニタ141が設けられる。タブレット内蔵モニタ141には、事後選択作業に用いられる画面が表示される。
A tablet built-in
編集ユニット12の右側面の下部には、シール紙排出口142が設けられる。編集ユニット12の内部にはプリンタが設けられている。そのプリンタにより、編集空間A2−1の利用者が写る画像、または、編集空間A2−2の利用者が写る画像が所定のレイアウト(以下、シールレイアウトという)でシール紙に印刷され、シール紙排出口142から排出される。
A sticker
タブレット内蔵モニタ141の下方には、スピーカ143が設けられる。スピーカ143は、事後選択作業に関する案内音声、BGM、効果音等などを出力する。
A
<写真シール作成装置の内部構成>
図7は、写真シール作成装置1の内部の構成例を示すブロック図である。図7において、上述した構成と同じ構成には同じ符号を付してある。重複する説明については適宜省略する。
<Internal configuration of photo sticker making device>
FIG. 7 is a block diagram showing an example of the internal configuration of the photo
制御部201は、CPU(Central Processing Unit)などにより構成される。制御部201は、ROM(Read Only Memory)206や記憶部202に記憶されているプログラムを実行し、写真シール作成装置1の全体の動作を制御する。制御部201には、記憶部202、通信部203、ドライブ204、ROM206、RAM(Random Access Memory)207が接続される。制御部201には、撮影部208、編集部209A,209B、および事後選択部210の各構成も接続される。
The
記憶部202は、ハードディスクやフラッシュメモリなどの不揮発性の記憶媒体である。記憶部202は、制御部201から供給された各種の設定情報などを記憶する。記憶部202に記憶されている情報は制御部201により適宜読み出される。
The
通信部203は、インターネットなどのネットワークのインタフェースである。通信部203は、制御部201による制御に従って外部の装置と通信を行う。通信部203は、例えば、利用者に選択された撮影画像や編集画像をサーバに送信する。通信部203から送信された画像は、サーバにおいて所定の記憶領域が割り当てられて保存され、サーバにアクセスしてきた携帯端末に表示されたり、ダウンロードされたりする。
The
ドライブ204には、光ディスクや半導体メモリなどよりなるリムーバブルメディア205が適宜装着される。ドライブ204によりリムーバブルメディア205から読み出されたプログラムやデータは、制御部201に供給され、記憶部202に記憶されたり、インストールされたりする。
A
ROM206は、制御部201において実行されるプログラムやデータを記憶する。RAM207は、制御部201が処理するデータやプログラムを一時的に記憶する。
The
撮影部208は、撮影空間A1にいる利用者を対象とした撮影処理を実現する。撮影部208は、硬貨処理部221、照明装置222、カメラ91、タッチパネルモニタ93、およびスピーカ223から構成される。
The
硬貨処理部221は、硬貨投入口87への硬貨の投入を検出する。硬貨処理部221は、例えば400円などの所定の金額分の硬貨が投入されたことを検出した場合、ゲームの開始を指示する起動信号を制御部201に出力する。
The
照明装置222は、撮影空間A1内の各ストロボユニットであり、制御部201から供給される照明制御信号に従って発光する。
The
カメラ91は、制御部201によるシャッタ制御に従って撮影を行い、撮影によって得られた撮影画像(画像データ)を制御部201に出力する。
The
編集部209Aは、編集空間A2−1にいる利用者を対象とした編集処理を実現する。編集部209Aは、タブレット内蔵モニタ131、タッチペン132A,132B、およびスピーカ231から構成される。編集部209Bは、編集空間A2−2にいる利用者を対象とした編集処理を実現し、編集部209Aと同一の構成を有する。なお、以下、編集部209A,209Bを特に区別しない場合には、単に、編集部209という。
The
タブレット内蔵モニタ131は、制御部201による制御に従って編集画面を表示し、編集画面に対する利用者の操作を受け付ける。利用者の操作の内容を表す入力信号は制御部201に供給され、編集対象となる撮影画像が編集される。
The tablet built-in
事後選択部210は、印刷待ち空間A3にいる利用者を対象とした事後選択処理を実現する。事後選択処理は、事後選択作業を利用者に行わせるための処理である。事後選択部210は、タブレット内蔵モニタ141、スピーカ143、およびプリンタ241から構成される。プリンタ241にはシール紙ユニット242が装着される。
The post-selection unit 210 realizes post-selection processing for the user in the print waiting space A3. The post-selection process is a process for allowing the user to perform the post-selection work. The post-selection unit 210 includes a tablet built-in
タブレット内蔵モニタ141は、制御部201による制御に従って各種の選択画面等を表示し、その画面に対する利用者の操作を受け付ける。利用者の操作の内容を表す入力信号は制御部201に供給され、各種の設定が行われる。
The tablet built-in
プリンタ241は、制御部201から供給された印刷データに基づいて、シール紙ユニット242に収納されているシール紙に編集画像を印刷する。プリンタ241は、編集画像を所定のシールレイアウトで印刷したシール紙を、シール紙排出口142に排出する。
The printer 241 prints the edited image on the sticker paper stored in the
<制御部の構成>
図8は、制御部201の機能構成例を示すブロック図である。図8に示す機能部のうちの少なくとも一部は、制御部201内のCPUにより所定のプログラムが実行されることによって実現される。
<Structure of control unit>
FIG. 8 is a block diagram showing a functional configuration example of the
制御部201は、撮影処理部301、編集処理部302、印刷処理部303、および事後選択処理部304から構成される。
The
撮影処理部301は、撮影部208の各部を制御することで、撮影処理を行う。編集処理部302は、編集部209の各部を制御することで、編集処理を行う。印刷処理部303は、事後選択部210のプリンタ241を制御することで、印刷処理を行う。事後選択処理部304は、事後選択部210のタブレット内蔵モニタ141を制御することで、事後選択処理を行う。
The
<撮影処理部の構成例>
図9は、撮影処理部301の機能構成例を示すブロック図である。
<Structure example of shooting processing unit>
FIG. 9 is a block diagram showing a functional configuration example of the photographing
撮影処理部301は、表示制御部311、撮影制御部312、認識部313、および登録部314から構成される。
The
表示制御部311は、タッチパネルモニタ93の表示を制御する。例えば、表示制御部311は、タッチパネルモニタ93に、カメラ91に取り込まれたライブビュー画像を表示させたり、撮影結果である撮影画像を表示させたりする。
The
撮影制御部312は、カメラ91を制御することで、利用者を被写体とした撮影を行い、ライブビュー画像や撮影画像を生成する。また、撮影制御部312は、複数回の撮影のうちの少なくとも1回の撮影を、人物を認識するための認識撮影として行う。
By controlling the
認識部313は、認識撮影により得られた認識用画像において人物を認識する。
The
登録部314は、認識部313による認識に成功した人物の全身画像を、認識撮影以外の撮影(以下、通常撮影ともいう)により得られた撮影画像に写る人物と照合するための画像として、データベースに登録する。データベースは、例えば記憶部202に構築される。
The
<編集処理部の構成例>
図10は、編集処理部302の機能構成例を示すブロック図である。
<Structure example of editing processing unit>
FIG. 10 is a block diagram showing a functional configuration example of the
編集処理部302は、表示制御部321、編集制御部322、認証部323、画像処理部324、および通信制御部325から構成される。
The
表示制御部321は、タブレット内蔵モニタ131の表示を制御する。例えば、表示制御部321は、タブレット内蔵モニタ131に、撮影画像に施される画像処理の度合いを選択するための選択画面や、撮影画像を対象とした編集作業のための編集画面を表示させる。
The
編集制御部322は、編集画面に対する利用者の操作に応じて、撮影画像に編集を施す。具体的には、編集制御部322は、編集画面において利用者により選択された合成用画像を、撮影画像の所定の位置に合成する。
The
認証部323は、登録部314によりデータベースに登録された全身画像を用いて、撮影画像における利用者を認証する。具体的には、認証部323は、撮影画像において人物を認識し、認識された人物とデータベースに登録された全身画像とを照合することで、撮影画像における利用者を認証する。
The
画像処理部324は、タブレット内蔵モニタ131に表示される、撮影画像に施される画像処理の度合いを選択するための選択画面に対する選択操作に基づいて、選択された度合いの画像処理を撮影画像に施す。
The
通信制御部325は、通信部203を制御し、インターネットなどのネットワークを介した通信に関する処理を行う。例えば、通信制御部325は、通信部203を制御することで、撮影処理において得られた撮影画像や、編集処理において得られた編集画像を、外部のサーバへ送信する。
The
<写真シール作成装置の動作>
ここで、図11のフローチャートを参照して、写真シール作成ゲームを提供する写真シール作成装置1の動作について説明する。図11の処理は、所定の金額分の硬貨が硬貨投入口87に投入されたときに開始される。
<Operation of photo sticker making device>
Here, the operation of the photo
ステップS1において、撮影処理部301は、撮影部208を制御することで、撮影処理を行う。具体的には、撮影処理部301は、カメラ91に取り込まれた被写体のライブビュー画像をタッチパネルモニタ93に表示させ、撮影空間A1にいる利用者を被写体とした撮影を行い、撮影画像を生成する。
In step S1, the photographing
ステップS2において、編集処理部302は、撮影処理を終えた利用者の移動先とした方の編集空間に対応する編集部209を制御することで、編集処理を行う。具体的には、編集処理部302は、撮影処理により得られた撮影画像について利用者に編集作業を行わせることで、編集が施された編集画像を生成する。
In step S2, the
ステップS3において、印刷処理部303は、プリンタ241を制御することで、印刷処理を開始する。具体的には、印刷処理部303は、編集処理により得られた編集画像を、プリンタ241に出力してシール紙に印刷させる。なお、撮影処理により得られた撮影画像が、シール紙に印刷されるようにしてもよい。
In step S3, the
ステップS4において、事後選択処理部304は、タブレット内蔵モニタ141を制御することで、事後選択処理を行う。具体的には、事後選択処理部304は、印刷が終わるのを待っている利用者に事後選択作業を行わせ、選択された撮影画像や編集画像を利用者の携帯端末に送信するために、その画像をサーバに送信する。
In step S4, the post-selection processing unit 304 performs post-selection processing by controlling the tablet built-in
印刷が終了すると、ステップS5において、プリンタ241は、印刷済みのシール紙をシール紙排出口142に排出し、処理を終了させる。
When printing is completed, in step S5, the printer 241 discharges the printed sticker paper to the sticker
<撮影処理の詳細>
次に、図12のフローチャートを参照して、上述した写真シール作成ゲームの一連の処理におけるステップS1の撮影処理の詳細について説明する。
<Details of shooting process>
Next, with reference to the flowchart of FIG. 12, the details of the shooting process of step S1 in the series of processes of the above-mentioned photo sticker creation game will be described.
撮影処理が開始されると、ステップS11において、表示制御部311は、人数選択画面をタッチパネルモニタ93に表示させる。
When the shooting process is started, in step S11, the
人数選択画面は、利用者の人数の選択に用いられる画面である。選択される利用者の人数には、「2人」と「3人以上」とがある。人数選択画面には、「2人」および「3人以上」それぞれを選択するための2つのボタンが表示される。 The number of people selection screen is a screen used for selecting the number of users. The number of users selected includes "2 people" and "3 or more people". On the number of people selection screen, two buttons for selecting "two people" and "three or more people" are displayed.
人数選択画面において、人数を選択するためのボタンのいずれかが選択されると、認識撮影の仕方を説明する画面がタッチパネルモニタ93に表示されるなどしてガイダンスが出力される。その後、ステップS12において、撮影制御部312は、認識撮影を行う。認識撮影の詳細については後述する。なお、人数選択画面において、人数を選択するためのボタンのいずれもが選択されずに所定時間が経過した(タイムアウトになった)場合には、写真シール作成装置1の利用者として最も多い「2人」が選択されたものとして処理が進む。
When any of the buttons for selecting the number of people is selected on the number of people selection screen, guidance is output such that a screen explaining how to perform recognition shooting is displayed on the touch panel monitor 93. After that, in step S12, the
認識撮影が終了すると、ステップS13において、表示制御部311は、写りコース選択画面をタッチパネルモニタ93に表示させる。
When the recognition shooting is completed, in step S13, the
写りコース選択画面は、撮影画像に写る被写体の写りを決定する写りコースの選択に用いられる画面である。写りコースには、「Lightコース」と「Clearコース」とがある。Lightコースは、肌の色を若干黄みを帯びた色にすることで、撮影画像に写る被写体の肌の質感を自然でうるおいのあるものとするための写りコースである。Clearコースは、肌の色を若干青みを帯びた色にすることで、撮影画像に写る被写体の肌の質感を色白で透明感のあるものとするための写りコースである。 The image course selection screen is a screen used for selecting an image course that determines the image of a subject in a captured image. There are "Light course" and "Clear course" in the image course. The Light course is a shooting course for making the texture of the skin of the subject in the captured image natural and moist by making the skin color slightly yellowish. The Clear course is a shooting course for making the texture of the skin of the subject in the captured image fair and transparent by making the skin color slightly bluish.
写りコースにより決定される被写体の写りは、撮影画像に対して施される画像処理によって決定される。例えば、被写体の写りは、撮影画像における人物領域の彩度、明度、シャープネス、コントラストなどの少なくともいずれかを調整することで決定される。また、被写体の写りは、撮影空間A1内の各ストロボユニットの発光を制御することで決定されるようにしてもよい。 The image of the subject determined by the image course is determined by the image processing applied to the captured image. For example, the appearance of a subject is determined by adjusting at least one of saturation, brightness, sharpness, contrast, and the like of a person area in a captured image. Further, the image of the subject may be determined by controlling the light emission of each strobe unit in the shooting space A1.
写りコース選択画面が操作されることによって、いずれかの写りコースが選択されると、撮影(通常撮影)の仕方を説明する画面がタッチパネルモニタ93に表示されるなどしてガイダンスが出力される。その後、ライブビュー表示画面がタッチパネルモニタ93に表示される。 When any of the shooting courses is selected by operating the shooting course selection screen, guidance is output such that a screen explaining how to shoot (normal shooting) is displayed on the touch panel monitor 93. After that, the live view display screen is displayed on the touch panel monitor 93.
その状態で撮影タイミングになったとき、ステップS14において、撮影制御部312は、1回目の撮影を行う。撮影によって得られた撮影画像は、撮影結果としてタッチパネルモニタ93に表示される。利用者は、1回目の撮影結果を確認しながら、次の撮影の準備を行うことができる。
When the shooting timing is reached in that state, in step S14, the
そして、2回目以降の撮影が行われる。すなわち、2回目の撮影タイミングになったとき、ステップS15において、撮影制御部312は、2回目の撮影を行う。
Then, the second and subsequent shootings are performed. That is, when the second shooting timing is reached, in step S15, the
同様にして、ステップS16乃至S18において、撮影制御部312は、それぞれ3乃至5回目の撮影を行う。
Similarly, in steps S16 to S18, the
なお、1乃至5回目の撮影としては、それぞれアップ撮影が行われるようにもできるし、全身撮影が行われるようにもできる。 As the 1st to 5th shootings, close-up shooting can be performed or whole-body shooting can be performed.
アップ撮影は、顔を中心として、利用者のほぼ胸から上の範囲(上半身)が写る画像であるアップ画像を得るための撮影である。全身撮影は、利用者の全身が写る画像である全身画像を得るための撮影である。全身撮影においては、斜め上から見た利用者の全身が写る画像が得られるようにもできるし、正面から見た利用者の全身が写る画像が得られるようにもできる。 The close-up shooting is a shooting for obtaining a close-up image, which is an image in which the area (upper body) above the chest of the user is captured, centering on the face. The whole body photography is an image taken to obtain a whole body image which is an image showing the whole body of the user. In full-body photography, it is possible to obtain an image showing the whole body of the user viewed from diagonally above, or to obtain an image showing the whole body of the user viewed from the front.
以下においては、1乃至5回目の撮影として、正面から見た利用者の全身が写る画像を得るための正面全身撮影が行われるものとして説明する。 In the following, as the 1st to 5th shootings, it will be described that the front whole body shooting is performed in order to obtain an image showing the whole body of the user viewed from the front.
このようにして、ステップS14乃至S18において5回の撮影が行われた後、ステップS19において、撮影処理部301は、撮影空間A1にいる利用者に対して、編集空間A2−1または編集空間A2−2への移動を案内する。編集空間A2−1または編集空間A2−2への移動の案内は、撮影部208のタッチパネルモニタ93に案内画面を表示させることによって、または音声をスピーカ223から出力させることによって行われる。
In this way, after the shooting is performed five times in steps S14 to S18, in step S19, the
<認識撮影の詳細>
上述したように、認識撮影は、人物を認識するために行われる撮影であり、認識撮影により得られた認識用画像は、人物を認識するために用いられる。
<Details of recognition shooting>
As described above, the recognition imaging is an imaging performed to recognize a person, and the recognition image obtained by the recognition imaging is used to recognize a person.
このような目的から、認識撮影のガイダンスでは、利用者に対して、正面を向いて撮影することを促す画面の表示や音声の出力が行われる。 For this purpose, in the recognition shooting guidance, a screen is displayed and a voice is output to encourage the user to face the front and shoot.
そのガイダンスが終了すると、撮影制御部312によって、カメラ91による動画像の撮影が開始され、撮影によって得られた動画像がライブビュー表示画面に表示される。
When the guidance is completed, the
図13は、認識撮影のライブビュー表示画面の例を示す図である。 FIG. 13 is a diagram showing an example of a live view display screen for recognition shooting.
ライブビュー表示画面の上部には、「枠の中に入って前を向いて撮影してね」のメッセージが表示され、その下に設けられた画像表示領域411,412には、2人の利用者それぞれが映る動画像がリアルタイムで表示される。
At the top of the live view display screen, the message "Enter the frame and shoot forward" is displayed, and the
カメラ91に取り込まれた動画像から、所定の範囲が切り出されて、画像表示領域411,412の表示に用いられる。2人の利用者は、画像表示領域411,412の表示を確認しながら、それぞれの全身が画像表示領域411,412の枠に収まるように、立ち位置を調整する。これにより、認識用画像における認識の精度を確保することができる。
A predetermined range is cut out from the moving image captured by the
このようなライブビュー画像が所定時間表示された後、撮影前のカウントダウンが開始され、撮影のタイミングになったとき、撮影制御部312は、認識用画像としての静止画像を取得する撮影を行う。
After the live view image is displayed for a predetermined time, the countdown before shooting is started, and when the shooting timing comes, the
その後、認識部313は、撮影により得られた認識用画像において人物を認識し、登録部314は、認識部313による認識に成功した人物の全身画像をデータベースに登録する。
After that, the
なお、図13のライブビュー表示画面において、2人の利用者それぞれが個別に映る動画像が表示される画像表示領域411,412が設けられるものとしたが、図14に示されるように、2人の利用者が一緒に映る動画像が表示される1つの画像表示領域413のみが設けられるようにしてもよい。
In the live view display screen of FIG. 13,
図14の例においては、画像表示領域413上に、2人の利用者の全身が収まるべき位置を示す矩形の枠421,422が表示され、2人の利用者は、枠421,422の表示を確認しながら、それぞれの全身が枠421,422に収まるように、立ち位置を調整するようになる。なお、図14の例では、枠421,422それぞれの形状は、矩形であるものとしたが、直立する人物をかたどったような形状であってもよい。
In the example of FIG. 14,
また、図14の枠421,422の表示に代えて、枠421,422に対応する領域外の領域の透過度を高くするようにしてもよい。この場合、2人の利用者は、自身の全身がよりはっきりと映る領域内の表示を確認しながら、それぞれの全身がその領域に収まるように、立ち位置を調整するようになる。
Further, instead of displaying the
さらに、図15に示されるように、画像表示領域413上に、2人の利用者の顔が収まるべき位置を示す枠431,432が表示されるようにしてもよい。この場合、2人の利用者は、それぞれの顔が枠431,432に収まるように顔の位置を調整することで、立ち位置を調整するようになる。
Further, as shown in FIG. 15, frames 431 and 432 indicating positions where the faces of the two users should be accommodated may be displayed on the
また、ライブビュー画像において顔認識が行われるようにして、認識に成功している顔に対して、枠431,432のような枠が表示されるようにしてもよい。ここで、認識に失敗するような位置に、利用者の顔が移動するなどした場合には、ライブビュー画像において、顔の認識に成功する位置に顔を誘導するための表示がなされるようにしてもよい。
Further, the face recognition may be performed in the live view image so that a frame such as
さらに、ライブビュー画像に対して上述した枠などを表示せず、顔認識により認識された顔を含む領域が切り出されて表示されるようにしてもよい。 Further, the above-mentioned frame or the like may not be displayed on the live view image, and the area including the face recognized by face recognition may be cut out and displayed.
また、顔認識は、ライブビュー画像の原画像全体を、複数の領域に区画し、区画された領域毎に行われるようにする。例えば、利用者が2人の場合には、ライブビュー画像の原画像全体を左右半分の領域に区画し、左右それぞれの領域について、顔認識が行われるようにする。 Further, the face recognition is performed by dividing the entire original image of the live view image into a plurality of areas and performing each of the divided areas. For example, when there are two users, the entire original image of the live view image is divided into left and right halves, and face recognition is performed for each of the left and right areas.
なお、利用者が3人以上の場合、ライブビュー画像において、利用者同士の顔の一部が重なってしまい、顔認識に失敗するおそれがある。そこで、認識撮影は、人数選択画面において「2人」が選択された場合にのみ行われるようにしてもよい。なお、人数選択画面において「3人以上」が選択された場合には、後述する画像処理が、利用者毎ではなく、全ての利用者に対して一括して施されるようにする。以下においては、主に、人数選択画面において「2人」が選択された場合の例について説明する。 When there are three or more users, some of the faces of the users may overlap each other in the live view image, and face recognition may fail. Therefore, the recognition shooting may be performed only when "two people" is selected on the number of people selection screen. When "3 or more people" is selected on the number of people selection screen, the image processing described later is performed not for each user but for all users at once. In the following, an example in which "2 people" is selected on the number of people selection screen will be mainly described.
<編集処理の詳細>
次に、図16のフローチャートを参照して、上述した写真シール作成ゲームの一連の処理におけるステップS2の編集処理の詳細について説明する。
<Details of editing process>
Next, with reference to the flowchart of FIG. 16, the details of the editing process of step S2 in the series of processes of the above-mentioned photo sticker creation game will be described.
編集処理が開始されると、ステップS31において、表示制御部321は、タブレット内蔵モニタ131にレタッチガイダンス画面を表示させる。
When the editing process is started, in step S31, the
レタッチガイダンス画面は、撮影画像に写る利用者の全身を、自分のなりたいスタイルに仕上げるためのレタッチ機能を利用者に案内するための画面である。 The retouch guidance screen is a screen for guiding the user to the retouch function for finishing the whole body of the user in the captured image in the style that he / she wants to be.
レタッチガイダンス画面が所定時間表示された後、処理はステップS32に進む。 After the retouch guidance screen is displayed for a predetermined time, the process proceeds to step S32.
ステップS32において、表示制御部321は、タブレット内蔵モニタ131にレタッチ画面を表示させる。
In step S32, the
レタッチ画面は、レタッチ機能を提供するための画面であり、撮影画像に写る利用者の全身またはその一部に施される画像処理の度合いを選択するための画面である。レタッチ機能を提供する画像処理の種類としては、脚の長さを変える処理や、脚の細さを変える処理、身長を変える処理などがある。 The retouch screen is a screen for providing a retouch function, and is a screen for selecting the degree of image processing applied to the whole body or a part of the user in the captured image. Types of image processing that provide the retouch function include processing for changing the length of the legs, processing for changing the thinness of the legs, and processing for changing the height.
また、レタッチ画面として、画像処理の種類毎に1つの画面が表示されるようにしてもよいし、複数種類の画像処理について1つの画面が表示されるようにしてもよい。レタッチ画面の例については後述する。 Further, as the retouch screen, one screen may be displayed for each type of image processing, or one screen may be displayed for a plurality of types of image processing. An example of the retouch screen will be described later.
レタッチ画面において、レタッチ機能を提供する画像処理の度合いが選択されると、処理はステップS33に進む。 When the degree of image processing that provides the retouch function is selected on the retouch screen, the process proceeds to step S33.
ステップS33において、表示制御部321は、タブレット内蔵モニタ131に背景選択画面を表示させる。
In step S33, the
背景選択画面は、撮影により得られた撮影画像の背景となる背景画像の選択に用いられる画面である。背景選択画面には、背景画像が複数枚表示される。利用者は、その複数枚の背景画像の中から、撮影処理において行われる撮影により得られた撮影画像の枚数と同じ数の背景画像を選択することができる。なお、背景選択画面には、撮影画像において人物の前景となる前景画像を含む背景画像が表示されるようにしてもよいし、前景画像のみからなる画像が表示されるようにしてもよい。 The background selection screen is a screen used for selecting a background image to be a background of a photographed image obtained by photographing. A plurality of background images are displayed on the background selection screen. The user can select the same number of background images as the number of captured images obtained by the photographing performed in the photographing process from the plurality of background images. The background selection screen may display a background image including a foreground image that is the foreground of a person in the captured image, or may display an image consisting of only the foreground image.
本実施の形態の撮影処理においては、合計5回の通常撮影が行われるので、利用者は、背景選択画面に表示される複数枚の背景画像の中から、1乃至5回目の撮影により得られた5枚の撮影画像に対応する5枚の背景画像を選択することができる。なお、利用者が、背景選択画面において、5枚の背景画像がセットになったセット背景を選択することで、5枚の撮影画像についての背景画像が一括して選択されるようにしてもよい。 In the shooting process of the present embodiment, a total of five normal shots are taken, so that the user can obtain the first to fifth shots from the plurality of background images displayed on the background selection screen. It is possible to select five background images corresponding to the five captured images. The user may select a set background in which five background images are set on the background selection screen so that the background images for the five captured images are collectively selected. ..
背景選択画面において、5枚の背景画像が選択されると、処理はステップS34に進む。 When five background images are selected on the background selection screen, the process proceeds to step S34.
ステップS34において、表示制御部321は、タブレット内蔵モニタ131に名前入力画面を表示させる。
In step S34, the
名前入力画面は、利用者による名前の入力に用いられる画面である。名前入力画面には、名前の入力に用いることが可能なひらがなを選択するためのボタンと、選択されたボタンに対応する文字列が表示されるテキストボックスが表示される。 The name input screen is a screen used for a user to input a name. On the name input screen, a button for selecting hiragana that can be used for inputting a name and a text box displaying a character string corresponding to the selected button are displayed.
名前入力画面において、名前の入力が終了すると、処理はステップS35に進む。 When the name input is completed on the name input screen, the process proceeds to step S35.
ステップS35において、表示制御部321は、タブレット内蔵モニタ131に編集画面を表示させる。
In step S35, the
編集画面は、編集対象となる撮影画像の編集に用いられる画面である。編集画面には、編集対象となる撮影画像と、編集に用いられるスタンプ画像やペン画像などの各種の編集ツール(合成用画像)が表示される。 The edit screen is a screen used for editing a captured image to be edited. On the editing screen, the captured image to be edited and various editing tools (composite images) such as stamp images and pen images used for editing are displayed.
利用者がタッチペン132A,132Bを用いて、スタンプ画像やペン画像などを編集対象となる撮影画像上の所定の位置へ重畳することで、編集対象となる撮影画像に対する合成用画像の合成が行われる。 When the user superimposes a stamp image, a pen image, or the like on a predetermined position on the captured image to be edited using the touch pens 132A and 132B, the composite image is combined with the captured image to be edited. ..
すなわち、ステップS36において、編集制御部322は、利用者の操作に応じて、編集対象となる撮影画像に編集を施す。
That is, in step S36, the
なお、編集画面において、編集対象となる撮影画像は、レタッチ画面において先に選択された度合いの画像処理が施された状態で表示される。これにより、利用者は、レタッチ画面で選択した度合いの画像処理が施された撮影画像を確認しながら、編集作業を行うことができる。 On the edit screen, the captured image to be edited is displayed in a state where the image processing to the degree previously selected on the retouch screen has been performed. As a result, the user can perform editing work while checking the captured image that has undergone image processing to the degree selected on the retouch screen.
編集作業が終了すると、ステップS37において、表示制御部321は、タブレット内蔵モニタ131に分割数選択画面を表示させる。
When the editing work is completed, in step S37, the
分割数選択画面は、最終的に出力されるシール紙の分割数やシールレイアウトの選択に用いられる画面である。シールレイアウトは、1枚のシール紙に配置される編集画像(撮影画像)の枚数や位置、大きさを決定するレイアウト(配置パターン)である。ここで、利用者により選択されたシールレイアウトに従って編集画像が配置されてなる画像をレイアウト画像という。 The number of divisions selection screen is a screen used for selecting the number of divisions of the sticker paper to be finally output and the sticker layout. The sticker layout is a layout (arrangement pattern) that determines the number, position, and size of edited images (photographed images) arranged on one sticker paper. Here, an image in which the edited image is arranged according to the sticker layout selected by the user is referred to as a layout image.
したがって、分割数選択画面には、1乃至5回目の撮影により得られた5枚の撮影画像それぞれに編集が施された編集画像が、異なるシールレイアウトで配置されたレイアウト画像が複数表示される。 Therefore, on the division number selection screen, a plurality of layout images in which edited images are edited for each of the five captured images obtained by the first to fifth shots and arranged in different sticker layouts are displayed.
分割数選択画面において、レイアウト画像のいずれかが選択されると、処理はステップS38に進む。 When any of the layout images is selected on the division number selection screen, the process proceeds to step S38.
ステップS39において、編集処理部302は、編集作業を終えた利用者に対して、印刷待ち空間A3への移動を案内する。印刷待ち空間A3への移動の案内は、編集部209のタブレット内蔵モニタ131に案内画面を表示させることによって、または音声をスピーカ231から出力させることによって行われる。
In step S39, the
<レタッチ画面の例>
ここで、上述した編集処理のステップS32において表示されるレタッチ画面の例について説明する。
<Example of retouch screen>
Here, an example of the retouch screen displayed in step S32 of the editing process described above will be described.
図17は、レタッチ画面の一例として表示される脚の長さ選択画面を示す図である。 FIG. 17 is a diagram showing a leg length selection screen displayed as an example of the retouch screen.
脚の長さ選択画面においては、主な構成が左右対称に設けられている。このような画面構成により、2人の利用者がそれぞれ脚の長さを同時に選択することができる。 In the leg length selection screen, the main configurations are provided symmetrically. With such a screen configuration, two users can select the leg lengths at the same time.
脚の長さ選択画面において、左右それぞれの領域の上側には、画像表示領域511L,511Rが設けられる。画像表示領域511L,511Rには、認識撮影により得られた認識用画像において認識部313による認識に成功した人物の全身画像がそれぞれ表示される。
In the leg length selection screen,
画像表示領域511L,511Rそれぞれの下方には、選択領域512L,512Rが設けられる。選択領域512L,512Rそれぞれには、通常撮影により得られた5枚の撮影画像(全身画像)それぞれに写る利用者の脚の長さを選択するためのボタン521−1乃至521−3が設けられる。
Below each of the
ボタン521−1乃至521−3それぞれは、脚の長さを変える画像処理の度合いに対応する。ボタン521−1は、脚の長さとして「ナチュラル」を選択するためのボタンであり、ボタン521−2は、脚の長さとして「おすすめ」を選択するためのボタンであり、ボタン521−3は、脚の長さとして「モデル」を選択するためのボタンである。「ナチュラル」は、脚の長さを自然な長さに伸ばす画像処理に対応し、「モデル」は、脚の長さをモデル並みに伸ばす画像処理に対応する。また、「おすすめ」は、脚の長さを、「ナチュラル」と「モデル」の中間となる長さに伸ばす画像処理に対応する。なお、モデル並みの脚の長さとは、例えば、股下が身長の46%乃至48%程度となる脚の長さとされる。 Each of the buttons 521-1 to 521-3 corresponds to the degree of image processing that changes the length of the leg. Button 521-1 is a button for selecting "natural" as the leg length, and button 521-2 is a button for selecting "recommended" as the leg length, and button 521-3. Is a button for selecting "model" as the leg length. "Natural" corresponds to image processing that extends the leg length to a natural length, and "model" corresponds to image processing that extends the leg length to the same level as the model. In addition, "recommended" corresponds to image processing that extends the leg length to a length intermediate between "natural" and "model". The leg length equivalent to that of the model is defined as, for example, a leg length in which the inseam is about 46% to 48% of the height.
また、ボタン521−1乃至521−3それぞれには、撮影画像において、その画像処理が施される利用者の部分に対応する画像が表示される。具体的には、ボタン521−1には、「ナチュラル」の脚の長さに変える画像処理の結果を表す脚の部分の画像が表示され、ボタン521−2には、「おすすめ」の脚の長さに変える画像処理の結果を表す脚の部分の画像が表示される。また、ボタン521−3には、「モデル」の脚の長さに変える画像処理の結果を表す脚の部分の画像が表示される。 In addition, each of the buttons 521-1 to 521-3 displays an image corresponding to the portion of the user to which the image processing is performed in the captured image. Specifically, the button 521-1 displays an image of the leg portion showing the result of the image processing to change the leg length to the "natural", and the button 521-2 displays the image of the "recommended" leg. The image of the leg part showing the result of the image processing to be changed to the length is displayed. Further, the button 521-3 displays an image of the leg portion showing the result of the image processing to be changed to the leg length of the "model".
このように、選択領域に表示される各ボタンに、脚の部分の画像が表示されることで、画像処理の対象となる領域が明確になり、利用者は、全身のうちのどの部分が変更されるかを容易に確認することができる。 In this way, by displaying the image of the leg part on each button displayed in the selection area, the area to be image processed becomes clear, and the user can change which part of the whole body. It can be easily confirmed whether or not it is done.
なお、ボタン521−1乃至521−3それぞれに表示される画像は、あらかじめ用意されたモデルの脚の部分の画像であってもよいし、選択領域512L,512Rそれぞれに対応する画像表示領域511L,511Rに表示されている利用者の脚の部分の画像であってもよい。また、ボタン521−1乃至521−3それぞれに画像は表示されず、対応する脚の長さを表す文字列のみが表示されるようにしてもよい。なお、ボタン521−1乃至521−3の形状は、図17に示されるような矩形に限らず、任意の形状とすることができる。
The image displayed on each of the buttons 521-1 to 521-3 may be an image of the leg portion of the model prepared in advance, or the
ボタン521−1乃至521−3のいずれかが選択されると、表示制御部321は、画像表示領域511L,511Rに表示されている全身画像を、選択されたボタンに対応する脚の長さに変える画像処理が施された全身画像に切り替える。
When any of the buttons 521-1 to 521-3 is selected, the
具体的には、脚の長さ選択画面左側の選択領域512Lにおいて、ボタン521−1乃至521−3のいずれかが選択される毎に、画像表示領域511Lに表示されている全身画像が、選択されたボタンに対応する脚の長さに変える画像処理が施された全身画像に切り替わる。同様に、脚の長さ選択画面右側の選択領域512Rにおいて、ボタン521−1乃至521−3のいずれかが選択される毎に、画像表示領域511Rに表示されている全身画像が、選択されたボタンに対応する脚の長さに変える画像処理が施された全身画像に切り替わる。
Specifically, in the
なお、画像表示領域511L,511Rに表示される全身画像は、いずれの処理も施されていない全身画像に、ボタン521−1乃至521−3それぞれに対応する度合いの画像処理が施されたものがあらかじめ用意されることで、ボタン521−1乃至521−3のいずれかが選択される毎に切り替わって表示される。しかしながら、これに限らず、ボタン521−1乃至521−3のいずれかが選択される毎に、画像処理部324により、いずれの処理も施されていない全身画像に、選択されたボタンに対応する度合いの画像処理が施されて表示されるようにしてもよい。
The whole body image displayed in the
このようにして、利用者は、画像表示領域511L,511Rに表示されている全身画像の変化を確認することで、所望の脚の長さを選択することができる。
In this way, the user can select the desired leg length by confirming the change in the whole body image displayed in the
ボタン521−1乃至521−3の下方には、OKボタン522が設けられる。
An
ボタン521−1乃至521−3のいずれかが選択された状態で、OKボタン522が押下されることで、脚の長さを変える画像処理の度合いが決定され、撮影画像それぞれに写る利用者の脚の部分に対して、決定された度合いの画像処理が施される。
By pressing the
具体的には、脚の長さ選択画面左側の選択領域512Lにおいて、ボタン521−1乃至521−3のいずれかが選択された状態で、OKボタン522が押下された場合、撮影画像それぞれの左側に写る利用者の脚の部分に対して、選択されたボタンに対応する度合いの画像処理が施される。同様にして、脚の長さ選択画面右側の選択領域512Rにおいて、ボタン521−1乃至521−3のいずれかが選択された状態で、OKボタン522が押下された場合、撮影画像それぞれの右側に写る利用者の脚の部分に対して、選択されたボタンに対応する度合いの画像処理が施される。
Specifically, when the
なお、脚の長さ選択画面の中心よりやや上の位置には、両矢印の形状の入れ替えボタン513が設けられる。撮影空間においてカメラ91に向かう2人の利用者の左右の位置と、編集空間においてタブレット内蔵モニタ131に向かう2人の利用者の左右の位置とが異なってしまう場合がある。この場合、利用者のいずれかが、入れ替えボタン513を操作することで、脚の長さ選択画面の左右と利用者とが一対一の対応関係となり、利用者それぞれが、立ち位置を変えることなく、自身についての画像処理の度合いを選択することができる。
A
図18は、レタッチ画面の一例として表示される脚の細さ選択画面を示す図である。 FIG. 18 is a diagram showing a leg thinness selection screen displayed as an example of the retouch screen.
脚の細さ選択画面は、基本的には、図17の脚の長さ選択画面と同様の構成を有し、主な構成が左右対称に設けられている。このような画面構成により、2人の利用者がそれぞれ脚の細さを同時に選択することができる。 The leg thinness selection screen basically has the same configuration as the leg length selection screen of FIG. 17, and the main configurations are provided symmetrically. With such a screen configuration, two users can select the thinness of the legs at the same time.
脚の細さ選択画面において、左右それぞれの領域の上側には、図17の脚の長さ選択画面と同様、画像表示領域511L,511Rが設けられる。
In the leg thinness selection screen,
画像表示領域511L,511Rそれぞれの下方には、選択領域531L,531Rが設けられる。選択領域531L,531Rそれぞれには、通常撮影により得られた5枚の撮影画像(全身画像)それぞれに写る利用者の脚の細さを選択するためのボタン541−1乃至541−3が設けられる。
Below each of the
ボタン541−1乃至541−3それぞれは、脚の細さを変える画像処理の度合いに対応する。ボタン541−1は、脚の細さとして「ナチュラル」を選択するためのボタンであり、ボタン541−2は、脚の細さとして「おすすめ」を選択するためのボタンであり、ボタン541−3は、脚の細さとして「モデル」を選択するためのボタンである。「ナチュラル」は、脚の細さを自然な細さにする画像処理に対応し、「モデル」は、脚の細さをモデル並みに細くする画像処理に対応する。また、「おすすめ」は、脚の細さを、「ナチュラル」と「モデル」の中間となる細さにする画像処理に対応する。 Each of the buttons 541-1 to 541-3 corresponds to the degree of image processing that changes the thinness of the leg. Button 541-1 is a button for selecting "natural" as the thinness of the leg, and button 541-2 is a button for selecting "recommended" as the thinness of the leg, and button 541-3. Is a button for selecting "model" as the thinness of the legs. "Natural" corresponds to image processing that makes the thinness of the legs natural, and "model" corresponds to image processing that makes the thinness of the legs as thin as the model. In addition, "recommended" corresponds to image processing that makes the thinness of the legs intermediate between "natural" and "model".
また、ボタン541−1乃至541−3それぞれには、撮影画像において、その画像処理が施される利用者の部分に対応する画像が表示される。具体的には、ボタン541−1には、「ナチュラル」の脚の細さに変える画像処理の結果を表す脚の部分の画像が表示され、ボタン521−2には、「おすすめ」の脚の細さに変える画像処理の結果を表す脚の部分の画像が表示される。また、ボタン521−3には、「モデル」の脚の細さに変える画像処理の結果を表す脚の部分の画像が表示される。 In addition, each of the buttons 541-1 to 541-3 displays an image corresponding to the portion of the user to which the image processing is performed in the captured image. Specifically, the button 541-1 displays an image of the leg part showing the result of the image processing to change the leg thinness to "natural", and the button 521-2 displays the image of the "recommended" leg. The image of the leg part showing the result of the image processing to be changed to fineness is displayed. Further, the button 521-3 displays an image of the leg portion showing the result of the image processing for changing the leg thinness of the "model".
なお、ボタン541−1乃至541−3それぞれに表示される画像は、あらかじめ用意されたモデルの脚の部分の画像であってもよいし、選択領域531L,531Rそれぞれに対応する画像表示領域511L,511Rに表示されている利用者の脚の部分の画像であってもよい。また、ボタン541−1乃至541−3それぞれに画像は表示されず、対応する脚の細さを表す文字列のみが表示されるようにしてもよい。なお、ボタン541−1乃至541−3の形状は、図18に示されるような矩形に限らず、任意の形状とすることができる。
The image displayed on each of the buttons 541-1 to 541-3 may be an image of the leg portion of the model prepared in advance, or the
ボタン541−1乃至541−3のいずれかが選択されると、表示制御部321は、画像表示領域511L,511Rに表示されている全身画像を、選択されたボタンに対応する脚の細さに変える画像処理が施された全身画像に切り替える。
When any of the buttons 541-1 to 541-3 is selected, the
具体的には、脚の細さ選択画面左側の選択領域531Lにおいて、ボタン541−1乃至541−3のいずれかが選択される毎に、画像表示領域511Lに表示されている全身画像が、選択されたボタンに対応する脚の細さに変える画像処理が施された全身画像に切り替わる。同様に、脚の細さ選択画面右側の選択領域531Rにおいて、ボタン541−1乃至541−3のいずれかが選択される毎に、画像表示領域511Rに表示されている全身画像が、選択されたボタンに対応する脚の細さに変える画像処理が施された全身画像に切り替わる。
Specifically, every time any of the buttons 541-1 to 541-3 is selected in the
ここでも、画像表示領域511L,511Rに表示される全身画像は、いずれの処理も施されていない全身画像に、ボタン541−1乃至541−3それぞれに対応する度合いの画像処理が施されたものがあらかじめ用意されることで、ボタン541−1乃至541−3のいずれかが選択される毎に切り替わって表示される。しかしながら、これに限らず、ボタン541−1乃至541−3のいずれかが選択される毎に、画像処理部324により、いずれの処理も施されていない全身画像に、選択されたボタンに対応する度合いの画像処理が施されて表示されるようにしてもよい。
Here, too, the whole-body image displayed in the
このようにして、利用者は、画像表示領域511L,511Rに表示されている全身画像の変化を確認することで、所望の脚の細さを選択することができる。
In this way, the user can select the desired leg thinness by confirming the change in the whole body image displayed in the
ボタン541−1乃至541−3の下方には、OKボタン542が設けられる。
An
ボタン541−1乃至541−3のいずれかが選択された状態で、OKボタン542が押下されることで、脚の細さを変える画像処理の度合いが決定され、撮影画像それぞれに写る利用者の脚の部分に対して、決定された度合いの画像処理が施される。
By pressing the
具体的には、脚の細さ選択画面左側の選択領域531Lにおいて、ボタン541−1乃至541−3のいずれかが選択された状態で、OKボタン542が押下された場合、撮影画像それぞれの左側に写る利用者の脚の部分に対して、選択されたボタンに対応する度合いの画像処理が施される。同様にして、脚の細さ選択画面右側の選択領域531Rにおいて、ボタン541−1乃至541−3のいずれかが選択された状態で、OKボタン542が押下された場合、撮影画像それぞれの右側に写る利用者の脚の部分に対して、選択されたボタンに対応する度合いの画像処理が施される。
Specifically, when the
なお、脚の細さ選択画面の中心よりやや上の位置には、図17の脚の長さ選択画面と同様、入れ替えボタン513が設けられる。
A
以上の構成によれば、脚の長さ選択画面や脚の細さ選択画面において、利用者それぞれが、脚の長さや脚の細さを変える画像処理の度合いを選択することができるので、利用者の全身が写る撮影画像について、利用者毎に所望のスタイルを選択することが可能となる。 According to the above configuration, each user can select the degree of image processing for changing the leg length and the leg thinness on the leg length selection screen and the leg thinness selection screen. It is possible to select a desired style for each user for a photographed image showing the whole body of the person.
なお、図17および図18の例では、選択領域に、画像処理の度合いを選択するためのボタンが、GUIとして設けられるものとしたが、これらのボタンに代えて、スライダが設けられるようにしてもよい。これにより、ボタンと比べてより細かく、画像処理の度合いを選択(設定)することができ、より利用者の好みにあった画像を提供することができる。 In the examples of FIGS. 17 and 18, buttons for selecting the degree of image processing are provided as a GUI in the selection area, but a slider is provided instead of these buttons. May be good. As a result, the degree of image processing can be selected (set) in more detail than the button, and an image more suitable for the user's preference can be provided.
また、上述した脚の長さ選択画面や脚の細さ選択画面において、利用者それぞれが選択する脚の長さや脚の細さによっては、撮影画像に写る2人の利用者の脚の長さや細さに大きな差が生じ、撮影画像の見た目が不自然になるおそれがある。そこで、脚の長さ選択画面や脚の細さ選択画面において、利用者それぞれの全身画像が表示される画像表示領域に加え、2人の利用者が写る撮影画像(脚の長さや細さが変更された撮影画像)が表示される領域を設けるようにしてもよい。これにより、利用者は、撮影画像に写る2人の利用者の状態を確認することができ、撮影画像の見た目が不自然になるのを防ぐことができるようになる。 In addition, depending on the leg length and leg thinness selected by each user on the leg length selection screen and leg thinness selection screen described above, the leg lengths of the two users shown in the captured image may be increased. There is a risk that the fineness will vary greatly and the captured image will look unnatural. Therefore, on the leg length selection screen and the leg thinness selection screen, in addition to the image display area in which the whole body image of each user is displayed, the photographed image (the leg length and thinness) of two users is captured. An area for displaying the changed captured image) may be provided. As a result, the user can confirm the state of the two users reflected in the captured image, and can prevent the captured image from becoming unnatural in appearance.
ところで、利用者が、スマートフォンなどの携帯端末を用いて自分自身を撮影する、いわゆる「自撮り」によれば、利用者は、好きなときに好きな場所で、自分自身を撮影することができる。特に近年は、1人の利用者が、自身を含む複数人で「自撮り」を行うこともよく見受けられる。 By the way, according to the so-called "selfie" in which a user takes a picture of himself / herself using a mobile terminal such as a smartphone, the user can take a picture of himself / herself at any time and place. .. Especially in recent years, it is often seen that one user takes a "selfie" with multiple people including himself.
「自撮り」においては、利用者が、手にした携帯端末を、例えば自身の頭の斜め上に掲げることで撮影が行われる。そのため、被写体となる利用者自身と、携帯端末に内蔵されるカメラとの距離は、腕の長さ以上にはならないため、広角レンズを搭載したカメラであっても、得られる画像においては顔が大きく写り、全身が写る画像を得ることは難しい。 In "selfie", the user takes a picture by holding the mobile terminal in his / her hand, for example, diagonally above his / her head. Therefore, the distance between the user who is the subject and the camera built into the mobile terminal is not longer than the length of the arm, so even if the camera is equipped with a wide-angle lens, the face will appear in the obtained image. It is difficult to obtain a large image that shows the whole body.
したがって、携帯端末で、利用者の全身が写る画像を得るためには、カメラとの距離が適度に保たれた位置にある鏡に写る利用者の全身を撮影するか、または、第三者に撮影してもらうしかない。 Therefore, in order to obtain an image of the whole body of the user on the mobile terminal, the whole body of the user reflected in the mirror at a position kept at an appropriate distance from the camera is photographed, or a third party is asked. I have no choice but to have them photographed.
一方、写真シール作成装置1によれば、被写体となる利用者とカメラとの距離を適度に保ちつつ、整った光学環境の中で、利用者の全身を写す全身撮影が行われるので、完成度の高い全身画像を、利用者に提供することができる。
On the other hand, according to the photo
さらに、本実施の形態によれば、得られる全身画像について、利用者毎に所望のスタイルを選択することができるので、利用者の満足度をより向上させることができる。 Further, according to the present embodiment, a desired style can be selected for each user with respect to the obtained whole body image, so that the satisfaction level of the user can be further improved.
以上においては、撮影画像に写る利用者の全身のうち、脚の部分に施される画像処理の度合いを選択するためのレタッチ画面の例について説明してきた。これに限らず、レタッチ画面において、撮影画像に写る利用者の全身のうち、顔の部分に施される画像処理の度合いが選択されるようにしてもよい。 In the above, an example of a retouch screen for selecting the degree of image processing applied to the leg portion of the user's whole body reflected in the captured image has been described. Not limited to this, on the retouch screen, the degree of image processing applied to the face portion of the whole body of the user reflected in the captured image may be selected.
顔の部分に施される画像処理の種類としては、目の大きさ、肌の明るさ、肌の色、顔の大きさ、髪の色、メイクの濃淡などを変える処理がある。これらの処理は、認識用画像や撮影画像における利用者の顔を認識することで、実現可能とされる。 The types of image processing applied to the face portion include processing for changing the size of the eyes, the brightness of the skin, the color of the skin, the size of the face, the color of the hair, and the shade of makeup. These processes can be realized by recognizing the user's face in the recognition image or the captured image.
図19は、レタッチ画面の一例として表示される目の大きさ選択画面を示す図である。 FIG. 19 is a diagram showing an eye size selection screen displayed as an example of the retouch screen.
目の大きさ選択画面もまた、基本的には、図17の脚の長さ選択画面と同様の構成を有し、主な構成が左右対称に設けられている。このような画面構成により、2人の利用者がそれぞれ目の大きさを同時に選択することができる。 The eye size selection screen also basically has the same configuration as the leg length selection screen of FIG. 17, and the main configurations are provided symmetrically. With such a screen configuration, two users can select the eye size at the same time.
目の大きさ選択画面において、左右それぞれの領域の上側には、図17の脚の長さ選択画面と同様、画像表示領域511L,511Rが設けられる。
In the eye size selection screen,
画像表示領域511L,511Rそれぞれの下方には、選択領域551L,551Rが表示される。選択領域551L,551Rそれぞれには、撮影処理により得られた5枚の撮影画像(全身画像)それぞれに写る利用者の目の大きさを選択するためのボタン561−1乃至561−3が設けられる。
Below each of the
ボタン561−1乃至561−3それぞれは、目の大きさを変える画像処理の度合いに対応する。ボタン561−1は、目の大きさとして「ナチュラル」を選択するためのボタンであり、ボタン561−2は、目の大きさとして「おすすめ」を選択するためのボタンであり、ボタン561−3は、目の大きさとして「ボリューム」を選択するためのボタンである。「ナチュラル」は、目の大きさを自然な大きさにする画像処理に対応し、「ボリューム」は、目の大きさを十分な大きさにする画像処理に対応する。また、「おすすめ」は、目の大きさを、「ナチュラル」と「ボリューム」の中間となる大きさにする画像処理に対応する。 Each of the buttons 561-1 to 561-3 corresponds to the degree of image processing that changes the size of the eyes. Button 561-1 is a button for selecting "natural" as the eye size, and button 561-2 is a button for selecting "recommended" as the eye size, and button 561-3. Is a button for selecting "volume" as the eye size. "Natural" corresponds to image processing that makes the size of the eyes natural, and "volume" corresponds to image processing that makes the size of the eyes sufficiently large. In addition, "recommended" corresponds to image processing in which the size of the eyes is set to an intermediate size between "natural" and "volume".
また、ボタン561−1乃至561−3それぞれには、撮影画像において、その画像処理が施される利用者の部分に対応する画像が表示される。具体的には、ボタン561−1には、「ナチュラル」の目の大きさに変える画像処理の結果を表す目の部分の画像が表示され、ボタン561−2には、「おすすめ」の目の大きさに変える画像処理の結果を表す目の部分の画像が表示される。また、ボタン561−3には、「ボリューム」の目の大きさに変える画像処理の結果を表す目の部分の画像が表示される。 Further, each of the buttons 561-1 to 561-3 displays an image corresponding to the portion of the user to which the image processing is performed in the captured image. Specifically, the button 561-1 displays an image of the eye part showing the result of the image processing to change the eye size to "natural", and the button 561-2 displays the image of the "recommended" eye. The image of the eye part showing the result of the image processing to be changed to the size is displayed. Further, the button 561-3 displays an image of the eye portion showing the result of the image processing for changing the size of the "volume" eye.
なお、ボタン561−1乃至561−3それぞれに表示される画像は、あらかじめ用意されたモデルの目の部分の画像であってもよいし、選択領域551L,551Rそれぞれに対応する画像表示領域511L,511Rに表示されている利用者の目の部分の画像であってもよい。また、ボタン561−1乃至561−3それぞれに画像は表示されず、対応する目の大きさを表す文字列のみが表示されるようにしてもよい。なお、ボタン561−1乃至561−3の形状は、図19に示されるような矩形に限らず、任意の形状とすることができる。
The image displayed on each of the buttons 561-1 to 561-3 may be an image of the eye portion of the model prepared in advance, or the
ボタン561−1乃至561−3のいずれかが選択されると、表示制御部321は、画像表示領域511L,511Rに表示されている全身画像を、選択されたボタンに対応する目の大きさに変える画像処理が施された全身画像に切り替える。
When any of the buttons 561-1 to 561-3 is selected, the
具体的には、目の大きさ選択画面左側の選択領域551Lにおいて、ボタン561−1乃至561−3のいずれかが選択される毎に、画像表示領域511Lに表示されている全身画像が、選択されたボタンに対応する目の大きさに変える画像処理が施された全身画像に切り替わる。同様に、目の大きさ選択画面右側の選択領域551Rにおいて、ボタン561−1乃至561−3のいずれかが選択される毎に、画像表示領域511Rに表示されている全身画像が、選択されたボタンに対応する目の大きさに変える画像処理が施された全身画像に切り替わる。
Specifically, in the
ここでも、画像表示領域511L,511Rに表示される全身画像は、いずれの処理も施されていない全身画像に、ボタン561−1乃至561−3それぞれに対応する度合いの画像処理が施されたものがあらかじめ用意されることで、ボタン561−1乃至561−3のいずれかが選択される毎に切り替わって表示される。しかしながら、これに限らず、ボタン561−1乃至561−3のいずれかが選択される毎に、画像処理部324により、いずれの処理も施されていない全身画像に、選択されたボタンに対応する度合いの画像処理が施されて表示されるようにしてもよい。
Here, too, the whole-body image displayed in the
このようにして、利用者は、画像表示領域511L,511Rに表示されている全身画像の変化を確認することで、所望の目の大きさを選択することができる。
In this way, the user can select the desired eye size by confirming the change in the whole body image displayed in the
ボタン561−1乃至561−3の下方には、OKボタン562が設けられる。
An
ボタン561−1乃至561−3のいずれかが選択された状態で、OKボタン562が押下されることで、目の大きさを変える画像処理の度合いが決定され、撮影画像それぞれに写る利用者の目の部分に対して、決定された度合いの画像処理が施される。
By pressing the
具体的には、目の大きさ選択画面左側の選択領域551Lにおいて、ボタン561−1乃至561−3のいずれかが選択された状態で、OKボタン562が押下された場合、撮影画像それぞれの左側に写る利用者の目の部分に対して、選択されたボタンに対応する度合いの画像処理が施される。同様にして、目の大きさ選択画面右側の選択領域551Rにおいて、ボタン561−1乃至561−3のいずれかが選択された状態で、OKボタン562が押下された場合、撮影画像それぞれの右側に写る利用者の目の部分に対して、選択されたボタンに対応する度合いの画像処理が施される。
Specifically, when the
なお、図19の例では、画像表示領域511L,511Rに表示されている全身画像に目の大きさを変える画像処理が施されるものとしたが、全身画像全体に対して、画像処理が施される目の部分が小さいため、利用者にとっては、目の大きさがどのように変化したかがわかりにくい。そこで、画像表示領域511L,511Rにアップ画像が表示され、そのアップ画像に目の大きさを変える画像処理が施されるようにしてもよい。これにより、利用者にとって、目の大きさがどのように変化したかがわかりやすくなる。
In the example of FIG. 19, it is assumed that the whole body images displayed in the
さて、上述したレタッチ画面により提供されるレタッチ機能においては、認識撮影と通常撮影とで、2人の利用者の左右の立ち位置が同じであることが前提とされている。 By the way, in the retouch function provided by the above-mentioned retouch screen, it is premised that the left and right standing positions of the two users are the same for the recognition shooting and the normal shooting.
すなわち、認識撮影により得られた認識用画像と、通常撮影により得られた撮影画像とにおいて、2人の利用者の左右の立ち位置が同じであることで、それぞれの利用者がレタッチ画面において選択した画像処理が、撮影画像に写る自分自身に施されるようになる。 That is, since the left and right standing positions of the two users are the same in the recognition image obtained by the recognition shooting and the shot image obtained by the normal shooting, each user selects on the retouch screen. The image processing that has been performed will be applied to oneself that appears in the captured image.
しかしながら、図20に示されるように、認識用画像において認識された人物の全身画像N11,N12それぞれに写る利用者の立ち位置が、撮影画像P11において左右に入れ替わった場合、一方の利用者がレタッチ画面において選択した画像処理は、撮影画像P11に写る他方の利用者に施されてしまう。 However, as shown in FIG. 20, when the standing positions of the users reflected in the whole body images N11 and N12 of the person recognized in the recognition image are switched to the left and right in the captured image P11, one user retouches. The image processing selected on the screen is applied to the other user who appears in the captured image P11.
そこで、認識撮影により認識された利用者それぞれを、撮影画像において認証することで、一方の利用者がレタッチ画面において選択した画像処理が、通常撮影での立ち位置によらず、撮影画像に写るその利用者自身に施されるようにすることができる。 Therefore, by authenticating each user recognized by the recognition shooting in the shot image, the image processing selected by one user on the retouch screen is reflected in the shot image regardless of the standing position in the normal shooting. It can be applied to the user himself.
具体的には、認識撮影において認識された利用者にIDを割り当て、通常撮影により得られた撮影画像において、IDが割り当てられた利用者が、どの部分に写っているのかが特定される。このような認証処理は、例えば、所定回数の通常撮影が全て終了した後に行われるか、通常撮影により1枚の撮影画像が得られる毎に行われる。 Specifically, an ID is assigned to the user recognized in the recognition shooting, and in the shot image obtained by the normal shooting, the part to which the user to which the ID is assigned appears is specified. Such an authentication process is performed, for example, after all the normal shootings of a predetermined number of times are completed, or every time one shot image is obtained by the normal shooting.
<認証処理の例1>
まず、図21のフローチャートを参照して、認証処理の第1の例について説明する。図21の処理は、例えば、認識撮影が行われた後から、通常撮影が終了するまでの間に行われてもよいし、通常撮影が終了し、レタッチ画面が表示される前までの間に行われてもよい。
<Example 1 of authentication processing>
First, a first example of the authentication process will be described with reference to the flowchart of FIG. The process of FIG. 21 may be performed, for example, after the recognition shooting is performed and before the normal shooting is finished, or before the normal shooting is finished and the retouch screen is displayed. It may be done.
ステップS51において、撮影処理部301の認識部313は、認識撮影により得られた認識用画像において、人物の顔を認識する。認識撮影の際、所定の枠内に利用者それぞれの全身が収まるようにして撮影が行われるため、その枠内にある顔が、それぞれの利用者の顔として認識される。なお、顔の認識は、認識用画像の原画像に対して行われてもよいし、原画像から所定領域が切り出された切り出し画像に対して行われてもよい。
In step S51, the
ステップS52において、登録部314は、認識部313により認識された顔にIDを割り当て、その顔を含む人物の全身画像を登録する。
In step S52, the
具体的には、まず、利用者(被写体)の顔の輪郭点が全て抽出される。このように輪郭点が抽出されるため、例えば、顔の部分に手があったり、横顔であったりすると、正確に輪郭を抽出できない可能性がある。 Specifically, first, all the contour points of the face of the user (subject) are extracted. Since the contour points are extracted in this way, for example, if there is a hand on the face or a profile, the contour may not be extracted accurately.
しかしながら、本実施の形態のように認識撮影を行うことで、通常撮影のときとは異なり、利用者が、正面を向いた状態で、かつポーズをとらない状態で撮影を行う可能性が高くなる。すなわち、顔の部分に手があったり、横向きであったりする状態ではなく、顔の輪郭を抽出しやすい状態で認識撮影が行われる可能性が高くなる。 However, by performing the recognition shooting as in the present embodiment, unlike the normal shooting, the user is more likely to shoot in a state of facing the front and in a state of not posing. .. That is, there is a high possibility that the recognition shooting is performed in a state in which the outline of the face can be easily extracted, not in a state in which the face portion has a hand or is turned sideways.
これにより、輪郭点の抽出も正確に行うことができる。抽出された輪郭点により顔認証信頼度が算出される。そして、顔認証信頼度が最も高い顔の座標情報が確認され、その顔の中点が画像内の左側にあるか、右側にあるかで、利用者が認識される。例えば、図22に示されるように、利用者が検出され、顔認証信頼度がそれぞれ算出されたとする。すなわち、画面内の右側に位置する利用者の顔認証信頼度が700と算出され、画面内の左側に位置する利用の顔認証信頼度が650と算出されたとする。図中の矩形は、顔領域の部分を示している。 As a result, the contour points can be extracted accurately. The face recognition reliability is calculated from the extracted contour points. Then, the coordinate information of the face having the highest face recognition reliability is confirmed, and the user is recognized depending on whether the midpoint of the face is on the left side or the right side in the image. For example, as shown in FIG. 22, it is assumed that the user is detected and the face recognition reliability is calculated respectively. That is, it is assumed that the face authentication reliability of the user located on the right side of the screen is calculated to be 700, and the face authentication reliability of the user located on the left side of the screen is calculated to be 650. The rectangle in the figure shows a part of the face area.
このような場合、顔認証信頼度が最も高い顔は、画像の中央を境界として、右半分に存在する顔であり、右の利用者として確定される。そして、右の利用者がID=0と設定される。残りの利用者は、左の利用者とされ、ID=1と設定される。IDが割り当てられた利用者の顔の情報、例えば、抽出された輪郭点の位置関係に加え、認識された顔および顔よりも下の領域を含む画像、すなわち全身画像が、認識結果としてデータベースに登録される。 In such a case, the face with the highest face recognition reliability is the face existing in the right half with the center of the image as the boundary, and is determined as the right user. Then, the user on the right is set to ID = 0. The remaining users are left users and ID = 1 is set. In addition to the information on the face of the user to whom the ID is assigned, for example, the positional relationship of the extracted contour points, the recognized face and the image including the area below the face, that is, the whole body image are stored in the database as the recognition result. be registered.
なお、2人の利用者が写っている画像であるため、一方の利用者の顔にIDが割り当てられた時点で、他方のIDを割り当てるようにしても良い。 Since the image shows two users, the other ID may be assigned when the ID is assigned to the face of one user.
また、輪郭点全域ではなく、目、鼻、口、耳などの顔の器官だけを抽出してもよいし、顔の輪郭だけが抽出されてもよい。また、まず画像の最も左の利用者を認識し、次に右の利用者を認識する、という流れで処理が行われるようにしてもよい。この場合、左の1名が認識され、認識された人物以外の人物が認識される、という流れになる。 Further, not the entire contour point but only facial organs such as eyes, nose, mouth, and ears may be extracted, or only the contour of the face may be extracted. Further, the process may be performed in a flow of first recognizing the leftmost user of the image and then recognizing the right user. In this case, the one person on the left is recognized, and a person other than the recognized person is recognized.
ステップS53において、編集処理部302の認証部323は、撮影画像を取得する。認証部323は、通常撮影が行われる度に撮影画像を取得するようにしてもよいし、通常撮影が全て終了した後に、全ての撮影画像を取得するようにしてもよい。
In step S53, the
ステップS54において、認証部323は、取得された撮影画像から、1つの顔を検出し、データベースに登録されている情報との比較を行う。
In step S54, the
そして、ステップS55において、認証部323は、比較結果を用いて、ID毎に顔照合信頼度を算出する。
Then, in step S55, the
例えば、図23に示されるような画像が、撮影画像として取得されたとする。まず、撮影画像内の右側に位置する利用者が検出される。ここでの検出は、ステップS51において実行される認識と同様に、例えば、顔の輪郭点を抽出したり、顔の器官を抽出したりすることで行われる。 For example, it is assumed that an image as shown in FIG. 23 is acquired as a captured image. First, the user located on the right side of the captured image is detected. The detection here is performed, for example, by extracting the contour points of the face or extracting the organs of the face, as in the recognition performed in step S51.
そして、検出された顔の情報と、データベースに登録されている顔の情報(認識結果)とが比較される。例えば、データベースに登録されている顔の情報が、顔の輪郭点の位置関係に関する情報であった場合、検出された顔の輪郭点の位置関係の情報が生成され、生成された情報と、登録されている情報とが比較される。 Then, the detected face information and the face information (recognition result) registered in the database are compared. For example, when the face information registered in the database is information related to the positional relationship of the facial contour points, the detected facial contour point positional relationship information is generated, and the generated information and registration The information is compared.
まず、データベース内のID=0の情報と、検出された顔の情報とが比較され、顔照合信頼度が算出される。顔照合信頼度は、ID=0が割り当てられた利用者との照合結果が、どれだけ信頼できるかを示す値であり、この数値が高いほど、データベースに登録された顔と類似していることを示す。顔照合信頼度は、例えば0乃至1000の値をとり得る値とされる。 First, the information of ID = 0 in the database is compared with the detected face information, and the face matching reliability is calculated. The face matching reliability is a value indicating how reliable the matching result with the user to which ID = 0 is assigned, and the higher this value is, the more similar the face is to the face registered in the database. Is shown. The face matching reliability is set to a value that can take a value of 0 to 1000, for example.
図23においては、右側に位置する利用者のID=0との顔照合信頼度は、710と算出されている。また、同様に、ID=1との顔照合信頼度は、650と算出されている。このように、1つの顔に対して、ID毎に顔照合信頼度が算出される。 In FIG. 23, the face matching reliability with the user ID = 0 located on the right side is calculated to be 710. Similarly, the face matching reliability with ID = 1 is calculated to be 650. In this way, the face matching reliability is calculated for each ID for one face.
そして、ステップS56において、認証部323は、顔照合信頼度が高いIDをその画像の利用者のIDとして確定する。図23の例では、撮影画像内の右側に位置する利用者は、ID=0との顔照合信頼度の方が、ID=1との顔照合信頼度よりも高いので、右側に位置する利用者は、ID=0が割り当てられた利用者であると判断される。よって、図23に示された撮影画像においては、右側に位置する利用者は、ID=0が割り当てられた利用者であると確定される。
Then, in step S56, the
ステップS57において、撮影画像内に他の顔があるか否かが判断される。上述した例では、右側に位置する利用者に対する処理が終了しただけであるので、まだ左側に位置する利用者の顔は処理していないと判断され、処理はステップS55に戻る。 In step S57, it is determined whether or not there is another face in the captured image. In the above example, since the processing for the user located on the right side is only completed, it is determined that the face of the user located on the left side has not been processed yet, and the processing returns to step S55.
左側に位置している利用者の顔に対しても、右側に位置している利用者の顔に対する処理と同様の処理が行われることで、ID毎の顔照合信頼度が算出される。図23の例では、左側に位置する利用者のID=0との顔照合信頼度は700であり、ID=1との顔照合信頼度は800であると算出されている。 The face matching reliability for each ID is calculated by performing the same processing on the face of the user located on the left side as on the face of the user located on the right side. In the example of FIG. 23, the face matching reliability with the user ID = 0 located on the left side is calculated to be 700, and the face matching reliability with the ID = 1 is calculated to be 800.
よって、図23の例では、撮影画像内の左側に位置する利用者は、ID=0との顔照合信頼度の方が、ID=1との顔照合信頼度よりも低いので、左側に位置する利用者は、ID=1の利用者であると判断される。よって、図23に示される撮影画像においては、左側に位置する利用者は、ID=1が割り当てられた利用者であると確定される。 Therefore, in the example of FIG. 23, the user located on the left side in the captured image is located on the left side because the face matching reliability with ID = 0 is lower than the face matching reliability with ID = 1. The user who does this is determined to be a user with ID = 1. Therefore, in the captured image shown in FIG. 23, the user located on the left side is determined to be the user to which ID = 1 is assigned.
このようにして、撮影画像内の利用者毎にIDが割り当てられる。仮に、2人の利用者がデータベースに登録されている状態で、3人の利用者が検出された場合、その中の1人の利用者の顔照合信頼度は、他の利用者の顔照合信頼度よりも低い値となる。そのような他の利用者よりも低い顔照合信頼度が算出された利用者は、データベースに登録されていない利用者であるとして処理される。 In this way, an ID is assigned to each user in the captured image. If three users are detected while two users are registered in the database, the face matching reliability of one of them is the face matching of another user. The value is lower than the reliability. A user whose face matching reliability is calculated to be lower than that of other users is treated as a user who is not registered in the database.
このようにして、撮影画像内の利用者毎にIDを割り当てる処理が、全ての撮影画像に対して行われる。例えば、通常撮影により5枚の撮影画像が取得される場合、5枚の撮影画像が処理されたと判断されるまで、まだIDが割り振られていない撮影画像に対する処理が繰り返される。 In this way, the process of assigning an ID to each user in the captured image is performed for all the captured images. For example, when five captured images are acquired by normal shooting, the processing for the captured images for which an ID has not yet been assigned is repeated until it is determined that the five captured images have been processed.
その結果、撮影画像毎に、撮影画像内の利用者に対してIDが割り当てられ、同一のIDは、同一の利用者であるとして処理される。このようにして、撮影画像毎に、データベースに登録されている利用者との照合が行われることで、撮影画像毎に、どの利用者が、どの立ち位置で撮影されているかを判断することができる。 As a result, an ID is assigned to each user in the captured image for each captured image, and the same ID is processed as being the same user. In this way, by collating each photographed image with the user registered in the database, it is possible to determine which user is photographed in which standing position for each photographed image. it can.
例えば、ID=0が割り当てられた利用者Aが、脚の長さを「おすすめ」に変更するという指示を出したとき、各撮影画像において、ID=0が割り当てられた画像に対して、脚の長さを「おすすめ」に変更するための画像処理が実行される。 For example, when the user A to which the ID = 0 is assigned gives an instruction to change the leg length to "recommended", the leg is assigned to the image to which the ID = 0 is assigned in each captured image. Image processing is performed to change the length of.
利用者の立ち位置は、全ての撮影画像において同じであるとは限らない。すなわち、例えば、1回目の撮影で左側に立っていた利用者が、2回目の撮影では右側に立ち位置を変えているような場合もある。このような立ち位置の変更があったような場合でも、撮影画像毎に利用者を認証しているため、適切に画像処理を施すことが可能となる。すなわち、立ち位置などに関係なく、利用者が所望した画像処理を、利用者毎に施すことが可能となる。 The standing position of the user is not always the same in all the captured images. That is, for example, a user standing on the left side in the first shooting may change the standing position to the right side in the second shooting. Even if the standing position is changed in this way, since the user is authenticated for each captured image, it is possible to appropriately perform image processing. That is, it is possible to perform the image processing desired by the user for each user regardless of the standing position or the like.
以上においては、利用者の顔を認識することで、撮影画像に写る利用者を認証する処理について説明したが、利用者の全身を認識することで、撮影画像に写る利用者を認証することもできる。 In the above, the process of authenticating the user appearing in the photographed image by recognizing the user's face has been described, but it is also possible to authenticate the user appearing in the photographed image by recognizing the whole body of the user. it can.
<認証処理の例2>
次に、図24のフローチャートを参照して、認証処理の第2の例について説明する。図24の処理もまた、例えば、認識撮影が行われた後から、通常撮影が終了するまでの間に行われてもよいし、通常撮影が終了し、レタッチ画面が表示される前までの間に行われてもよい。
<Example 2 of authentication processing>
Next, a second example of the authentication process will be described with reference to the flowchart of FIG. 24. The process of FIG. 24 may also be performed, for example, after the recognition shooting is performed and before the normal shooting is finished, or before the normal shooting is finished and the retouch screen is displayed. May be done in.
ステップS71において、撮影処理部301の認識部313は、認識撮影により得られた認識用画像において、人物の全身を認識する。ここでは、認識用画像として距離画像が生成され、生成された距離画像から人物領域が抽出されることで、人物の全身が認識される。ここで、距離画像は、例えば、TOF(Time of Flight)方式により、照射光と反射光との位相差を用いて、撮影空間A1内の対象物までの距離を示す距離値を、距離画像の各画素の画素値として算出することで生成される。TOF方式に限らず、ストラクチャ光照明方式やInfraredDepth方式、ステレオカメラ方式などの公知の方式より、距離画像が生成されるようにしてもよい。
In step S71, the
ステップS72において、登録部314は、認識部313により認識された人物の全身にIDを割り当て、その全身画像を登録する。
In step S72, the
ここでは、まず、利用者(被写体)の全身の輪郭点が全て抽出される。抽出された輪郭点により全身認証信頼度が算出される。全身認証信頼度が最も高い全身の座標情報が確認され、その全身の中点が画像内の左側にあるか、右側にあるかで、利用者が認識され、IDが割り当てられる。IDが割り当てられた利用者の全身画像に加え、全身の輪郭点の位置関係や、輪郭点で囲まれる領域に含まれる肌色領域を示す情報が、認識結果としてデータベースに登録される。 Here, first, all the contour points of the whole body of the user (subject) are extracted. The whole body authentication reliability is calculated from the extracted contour points. Whole body authentication The coordinate information of the whole body with the highest reliability is confirmed, and the user is recognized and an ID is assigned depending on whether the midpoint of the whole body is on the left side or the right side in the image. In addition to the whole body image of the user to which the ID is assigned, the positional relationship of the contour points of the whole body and the information indicating the skin color area included in the area surrounded by the contour points are registered in the database as the recognition result.
なお、輪郭点全域ではなく、レタッチ機能を提供する画像処理の対象となる脚などの部分だけが抽出されてもよい。 It should be noted that not the entire contour point, but only the portion such as the leg that is the target of the image processing that provides the retouch function may be extracted.
ステップS73において、編集処理部302の認証部323は、撮影画像を取得する。認証部323は、通常撮影が行われる度に撮影画像を取得するようにしてもよいし、通常撮影が全て終了した後に、全ての撮影画像を取得するようにしてもよい。
In step S73, the
ステップS74において、認証部323は、取得された撮影画像から、1つの全身を検出し、データベースに登録されている情報との比較を行う。
In step S74, the
ステップS75において、認証部323は、比較結果を用いて、ID毎に全身照合信頼度を算出する。全身照合信頼度の算出は、上述した顔照合信頼度の算出と同様にして行われる。
In step S75, the
ステップS76において、認証部323は、全身照合信頼度が高いIDをその画像の利用者のIDとして確定する。
In step S76, the
ステップS77において、撮影画像内に他の全身があるか否かが判断される。撮影画像において、上述した処理がされていない全身があると判断された場合、ステップS75に戻り、それ以降の処理が繰り返される。 In step S77, it is determined whether or not there is another whole body in the captured image. If it is determined in the captured image that there is a whole body that has not been subjected to the above-mentioned processing, the process returns to step S75, and the subsequent processing is repeated.
このようにして、撮影画像内の利用者毎にIDが割り当てられる処理が、全ての撮影画像に対して行われる。例えば、通常撮影により5枚の撮影画像が取得される場合、5枚の撮影画像が処理されたと判断されるまで、まだIDが割り振られていない撮影画像に対する処理が繰り返される。 In this way, the process of assigning an ID to each user in the captured image is performed for all the captured images. For example, when five captured images are acquired by normal shooting, the processing for the captured images for which an ID has not yet been assigned is repeated until it is determined that the five captured images have been processed.
その結果、撮影画像毎に、撮影画像内の利用者に対してIDが割り当てられ、同一のIDは、同一の利用者であるとして処理される。このようにして、撮影画像毎に、データベースに登録されている利用者との照合が行われることで、撮影画像毎に、どの利用者が、どの立ち位置で撮影されているかを判断することができる。 As a result, an ID is assigned to each user in the captured image for each captured image, and the same ID is processed as being the same user. In this way, by collating each photographed image with the user registered in the database, it is possible to determine which user is photographed in which standing position for each photographed image. it can.
なお、図24の処理によれば、顔の認識に失敗するような場合であっても、利用者の全身を認識することができるので、より確実に利用者を認証することができるようになる。 According to the process of FIG. 24, even if the face recognition fails, the whole body of the user can be recognized, so that the user can be authenticated more reliably. ..
<レタッチ機能を提供する画像処理の種類>
上述した例において、レタッチ機能を提供する画像処理は、撮影画像における人物の顔や全身が認識されることで適切に施される。
<Types of image processing that provide a retouch function>
In the above-described example, the image processing that provides the retouch function is appropriately performed by recognizing the face or the whole body of the person in the captured image.
ここでは、レタッチ機能を提供する画像処理の種類について説明する。 Here, the types of image processing that provide the retouch function will be described.
・顔認識に関する画像処理
目の大きさ、肌の明るさ、肌の色、顔の大きさ、髪の色、メイクの濃淡などを変える処理がある。これらの処理は、撮影画像における利用者の顔を認識することで、実現可能とされる。例えば、目の大きさを変える画像処理は、撮影画像における顔領域から目領域を抽出し、抽出された領域の拡大率を調整することで実現される。
-Image processing related to face recognition There is processing to change eye size, skin brightness, skin color, face size, hair color, shade of makeup, etc. These processes can be realized by recognizing the user's face in the captured image. For example, image processing for changing the size of the eyes is realized by extracting the eye region from the face region in the captured image and adjusting the enlargement ratio of the extracted region.
・全身認識に関する画像処理
以上においては、特に、利用者の全身についてのレタッチ機能を提供する構成について説明してきた。そこで、全身認識に関する画像処理の種類について詳細に説明する。
-Image processing related to whole body recognition In the above, the configuration that provides the retouch function for the whole body of the user has been described in particular. Therefore, the types of image processing related to whole body recognition will be described in detail.
(脚の長さ・脚の細さ)
脚の長さを変える処理は、足先から腰の領域を特定し、その領域を上下方向に伸長することで実現される。また、脚の細さを変える処理は、足先から腰の領域を特定し、その領域の境界部分を内側に向かう方向に移動することで実現される。
(Leg length / thinness of legs)
The process of changing the length of the leg is realized by identifying the area of the waist from the toes and extending the area in the vertical direction. Further, the process of changing the thinness of the legs is realized by identifying the area of the waist from the toes and moving the boundary portion of the area inward.
これらの処理は、利用者が直立し脚が真っ直ぐな状態でなければ、適切に施されない。例えば、膝から足先が水平になるように、片方の脚の膝を曲げるようなポーズで写った場合、脚の長さや脚の細さを変える処理により、曲げた方の膝から足先が太くなったり短くなってしまう。そこで、全身の輪郭点に基づいて、脚が真っ直ぐな状態でないと判定された場合には、脚の長さや脚の細さを変える処理が施されないようにしてもよい。 These processes are not performed properly unless the user is upright and the legs are straight. For example, if the image is taken in a pose that bends the knee of one leg so that the tip of the foot is horizontal from the knee, the tip of the foot will move from the bent knee by the process of changing the length of the leg and the thinness of the leg. It gets thicker or shorter. Therefore, if it is determined that the legs are not in a straight state based on the contour points of the whole body, the process of changing the length of the legs or the thinness of the legs may not be performed.
また、これらの処理は、利用者がロングスカートなどを着用している場合にも、適切に施されない。この場合、脚の長さや脚の細さを変える処理により、ロングスカートの柄や模様が長くなったり細くなってしまう。そこで、肌色領域を特定し、その領域のみに脚の長さや脚の細さを変える処理が施されるようにしてもよい。さらに、スカートの柄の有無などに応じて、長くする量や細くする量が変更されるようにしてもよい。 In addition, these treatments are not properly performed even when the user is wearing a long skirt or the like. In this case, the pattern or pattern of the long skirt becomes longer or thinner due to the process of changing the length of the legs or the thinness of the legs. Therefore, a skin color region may be specified, and a process of changing the length of the leg or the thinness of the leg may be applied only to that region. Further, the amount of lengthening and the amount of thinning may be changed depending on the presence or absence of the handle of the skirt.
さらに、これらの処理が、足先にまで施されることで、利用者が着用している靴やサンダルなどが変形してしまうおそれがある。そこで、足首からつま先までの領域をさらに特定し、その領域については、脚の長さや脚の細さを変える処理が施されないようにしたり、処理の度合いを弱めるようにしてもよい。 Furthermore, if these treatments are applied to the toes, the shoes and sandals worn by the user may be deformed. Therefore, the area from the ankle to the toe may be further specified, and the area may not be subjected to the process of changing the length of the leg or the thinness of the leg, or the degree of the process may be weakened.
(身長)
身長を変える処理は、頭から足先までの人物領域を特定し、その領域を上下方向に伸長または短縮することで実現される。人物領域は、クロマキー処理により人物マスク画像を生成することで特定されるようにすることもできる。身長を変える処理によれば、低身長の利用者の身長を高くすることはもちろん、高身長の利用者の身長を低くすることもできる。
(height)
The process of changing the height is realized by identifying a person area from the head to the toes and extending or shortening the area in the vertical direction. The person area can also be specified by generating a person mask image by chroma key processing. According to the process of changing the height, not only the height of the short user can be increased, but also the height of the tall user can be decreased.
(二の腕)
上腕(いわゆる二の腕)を細くする処理は、肌色領域と顔領域の位置から上腕が含まれる領域を推定し、その境界部分を内側に向かう方向に移動することで実現される。この処理によれば、撮影画像における利用者の上腕を細くすることができる。
(Upper arm)
The process of thinning the upper arm (so-called upper arm) is realized by estimating the area including the upper arm from the positions of the skin color area and the face area and moving the boundary portion inward. According to this process, the upper arm of the user in the captured image can be thinned.
(腰のくびれ)
腰のくびれを強調する処理は、撮影画像における顔を除いた人物領域の略全ての領域を、人物領域の内側(中心)に向かう方向に移動することで実現される。この処理によれば、撮影画像に写る利用者のスタイルのより良いものにすることができる。
(Waist constriction)
The process of emphasizing the waist is realized by moving substantially the entire area of the person area except the face in the captured image toward the inside (center) of the person area. According to this process, it is possible to improve the style of the user reflected in the captured image.
(首の長さ)
全身画像に対して、人物の顔を小さくする小顔処理が施された場合、相対的に首が長く見えてしまう。そこで、人物の全身に対する顔の大きさ(長さ)に応じて、首の長さを変更する処理を施すことができるようにする。
(Neck length)
When a small face treatment is applied to the whole body image to make the person's face smaller, the neck looks relatively long. Therefore, it is possible to perform a process of changing the length of the neck according to the size (length) of the face with respect to the whole body of the person.
(全身)
上述した「脚の長さ・脚の細さ」、「身長」、「二の腕」、「腰のくびれ」、「首の長さ」を変える処理それぞれが、互いに組み合わされて施されるようにしてもよい。例えば、レタッチ画面において、「モデル」ボタンが選択された場合には、脚を長くする処理、脚を細くする処理、身長を高くする処理の3処理が組み合わされて施されるようにする。また、レタッチ画面において、「ナチュラル」ボタンが選択された場合には、脚を細くする処理のみが施されるようにする。
(Whole body)
The above-mentioned processes for changing "leg length / thinness", "height", "upper arm", "waist constriction", and "neck length" are performed in combination with each other. May be good. For example, when the "model" button is selected on the retouch screen, three processes of lengthening the legs, thinning the legs, and increasing the height are performed in combination. In addition, when the "natural" button is selected on the retouch screen, only the process of thinning the legs is performed.
これにより、レタッチ画面において選択に要する時間を短縮させることができ、ゲームの回転率の向上を図ることができる。 As a result, the time required for selection on the retouch screen can be shortened, and the turnover rate of the game can be improved.
また、1つのレタッチ画面において、上述した複数の処理毎のボタンが表示されるようにしてもよい。この場合、決められた順番で処理を選択させるために、選択させる処理の度合いに対応するボタン以外は表示されないようにし、いずれかのボタンが選択される毎に順次、決められた順番に従って、処理の度合いに対応するボタンが表示されるようにしてもよい。 Further, the buttons for each of the plurality of processes described above may be displayed on one retouch screen. In this case, in order to select the processes in the determined order, only the buttons corresponding to the degree of the selected process are displayed, and each time any button is selected, the processes are sequentially processed according to the determined order. Buttons corresponding to the degree of may be displayed.
(肌の明るさ)
肌の明るさを変える処理は、利用者毎に異なる度合いで施された場合、撮影画像全体が不自然な仕上がりになるおそれがあったため、従来、複数の利用者に一括して施されていた。しかしながら、近年、携帯端末において、撮影画像から1人の利用者の部分だけを切り出して利用することが行われていることから、肌の明るさを変える処理が、利用者毎に異なる度合いで施されるようにしてもよい。なお、この処理は、他の処理と組み合わせた場合、肌の明るさの違いが利用者に伝わりにくくなるおそれがあるので、レタッチ画面として、肌の明るさ選択画面が単独で表示されるようにしてもよい。
(Brightness of the skin)
If the process of changing the brightness of the skin is applied to different degrees for each user, the entire captured image may have an unnatural finish, so it has been applied to multiple users at once. .. However, in recent years, in mobile terminals, only one user's part is cut out from a photographed image and used, so that the process of changing the brightness of the skin is performed to a different degree for each user. It may be done. When this process is combined with other processes, it may be difficult to convey the difference in skin brightness to the user. Therefore, the skin brightness selection screen is displayed independently as the retouch screen. You may.
(背面と床面との境界線)
撮影画像(全身画像)に写る利用者の背景領域に、背面(背面パネル51)と床面との境界を模した境界線を含む背景画像を合成することができるようにしてもよい。この場合、さらに、その境界線の高さ(上下方向の位置)を変える処理が施されるようにしてもよい。
(Boundary line between the back and the floor)
A background image including a boundary line imitating the boundary between the back surface (rear panel 51) and the floor surface may be combined with the background area of the user reflected in the captured image (whole body image). In this case, a process of changing the height (position in the vertical direction) of the boundary line may be further performed.
例えば、図25左側に示される全身画像P21には、背面と床面との境界を模した境界線b11を含む背景画像が合成されているものとする。この全身画像P21に、図25右側に示されるように、境界線b11より高い位置にある境界線b12を含む背景画像が合成されることで、画像の奥行き感を強調することができる。この境界線が、全身画像において高い位置にあるほど、背面と床面との境界が遠くにあるように見え、画像の奥行き感を増すことができる。 For example, it is assumed that the whole body image P21 shown on the left side of FIG. 25 is composed of a background image including a boundary line b11 that imitates the boundary between the back surface and the floor surface. As shown on the right side of FIG. 25, the whole body image P21 is combined with a background image including the boundary line b12 at a position higher than the boundary line b11, so that the sense of depth of the image can be emphasized. The higher this boundary line is in the whole body image, the farther the boundary line between the back surface and the floor surface appears to be, and the deeper the image can be.
(合成用画像)
合成用画像のうち、利用者の全身に合成される合成用画像の位置や大きさを変える処理を、利用者毎に施すようにしてもよい。
(Image for composition)
Among the composite images, a process of changing the position and size of the composite image synthesized on the whole body of the user may be performed for each user.
例えば、利用者の腰回りに合成される浮き輪を模した合成用画像が、利用者の身長に応じた位置に合成されるようにする。具体的には、図26に示されるように、利用者の身長が低い場合、浮き輪を模した合成用画像f11は、低い位置に合成される。利用者の身長が中程度の場合、浮き輪を模した合成用画像f12は、中程度の位置に合成される。そして、利用者の身長が高い場合、浮き輪を模した合成用画像f13は、高い位置に合成される。 For example, a composite image that imitates a floating ring that is composited around the user's waist is composited at a position that corresponds to the height of the user. Specifically, as shown in FIG. 26, when the height of the user is short, the composite image f11 imitating a floating ring is composited at a low position. When the height of the user is medium, the composite image f12 imitating a floating ring is composited at a medium position. Then, when the user is tall, the composite image f13 imitating a floating ring is composited at a high position.
また、利用者の腰回りに合成される浮き輪を模した合成用画像が、利用者の体型に応じたサイズで合成されるようにしてもよい。具体的には、図27に示されるように、利用者の体型が小さい場合、浮き輪を模した合成用画像f21は、小さいサイズで合成される。利用者の体型が中程度の場合、浮き輪を模した合成用画像f22は、中程度のサイズで合成される。そして、利用者の体型が大きい場合、浮き輪を模した合成用画像f23は、大きいサイズで合成される。 Further, the composite image imitating the floating ring synthesized around the waist of the user may be composited in a size corresponding to the body shape of the user. Specifically, as shown in FIG. 27, when the user's body shape is small, the composite image f21 imitating a floating ring is composited in a small size. When the user's body shape is medium, the composite image f22 that imitates a floating ring is composited in a medium size. Then, when the user's body shape is large, the composite image f23 imitating a floating ring is composited in a large size.
(写り方)
被写体となる利用者に照射される光の光量や向き、瞳に写り込むキャッチライトの大きさなど、撮影空間A1内に設けられている照明装置(各ストロボ)により実現される光学環境に依存する写り方を、画像処理により変えるようにしてもよい。
(How to see)
It depends on the optical environment realized by the lighting device (each strobe) provided in the shooting space A1, such as the amount and direction of the light emitted to the user who is the subject and the size of the catch light reflected in the pupil. The appearance may be changed by image processing.
<全身撮影の種類>
以上においては、通常撮影として、正面から見た利用者の全身が写る画像を得るための正面全身撮影が行われるものとした。正面全身撮影によれば、図28左側に示される全身画像P31が得られる。全身画像P31は、利用者の全身がバランスよく写り、落ち着いた印象の画像となる。
<Type of whole body photography>
In the above, as a normal shooting, it is assumed that the front whole body shooting is performed in order to obtain an image showing the whole body of the user viewed from the front. According to the frontal whole body photography, the whole body image P31 shown on the left side of FIG. 28 is obtained. The whole body image P31 gives a calm impression by showing the whole body of the user in a well-balanced manner.
もちろん、通常撮影として、斜め上から見た利用者の全身が写る画像を得るための上から全身撮影が行われるようにしてもよい。上から全身撮影によれば、図28中央に示される全身画像P32が得られる。全身画像P32は、利用者の顔が強調された、ポップな印象の画像となる。 Of course, as a normal shooting, the whole body shooting may be performed from above in order to obtain an image showing the whole body of the user viewed from diagonally above. According to the whole body photography from above, the whole body image P32 shown in the center of FIG. 28 is obtained. The whole body image P32 is an image with a pop impression in which the user's face is emphasized.
さらに、通常撮影として、斜め下から見た利用者の全身が写る画像を得るための下から全身撮影が行われるようにしてもよい。下から全身撮影によれば、図示はしないが、得られる全身画像は、利用者の顔が小さく、かつ脚が長く写り、スタイリッシュな印象の画像となる。 Further, as a normal shooting, the whole body shooting may be performed from below in order to obtain an image showing the whole body of the user viewed from diagonally below. According to a full-body image taken from below, although not shown, the obtained full-body image gives a stylish impression with the user's face being small and the legs being long.
なお、全身撮影により、図28右側に示されるような、利用者の全身のうちの膝辺りから上が写る全身画像P33が得られるようにしてもよい。上述した正面全身撮影、上から全身撮影、および下から全身撮影それぞれは、カメラ91の高さを変えることなく、カメラ91のレンズとして広角レンズを用いた上で、そのレンズの光軸の角度を変えるようにし、得られる画像の切り出し範囲を調整することで実現される。
It should be noted that the whole body image P33 may be obtained by taking a whole body image, as shown on the right side of FIG. In each of the above-mentioned frontal whole body photography, whole body photography from above, and whole body photography from below, the angle of the optical axis of the lens is changed after using a wide-angle lens as the lens of the
<レタッチ画面の表示タイミング>
以上においては、レタッチ画面は、編集処理において表示されるものとしたが、レタッチ画面に認識用画像を表示するためには、認識撮影が終了していればよいので、撮影処理において表示されるようにしてもよい。また、レタッチ画面にモデル画像が表示される場合には、いずれの撮影が行われていなくてもよいので、撮影処理の前に表示されるようにしてもよい。この場合、撮影空間A1の外側で事前の選択を行うための事前選択部において、事前選択処理が行われる中で、レタッチ画面が表示されるようにしてもよい。
<Display timing of retouch screen>
In the above, the retouch screen is supposed to be displayed in the editing process, but in order to display the recognition image on the retouch screen, it is sufficient that the recognition shooting is completed, so that it is displayed in the shooting process. You may do it. Further, when the model image is displayed on the retouch screen, it is not necessary that any shooting has been performed, so that the model image may be displayed before the shooting process. In this case, the retouch screen may be displayed while the preselection process is being performed in the preselection unit for performing the preselection outside the shooting space A1.
<人数に応じたレタッチ画面の表示態様>
また、以上においては、2人の利用者が同時に操作可能なレタッチ画面の例について説明してきたが、人数に応じた表示態様のレタッチ画面が表示されるようにしてもよい。
<Display mode of retouch screen according to the number of people>
Further, although the example of the retouch screen that can be operated by two users at the same time has been described above, the retouch screen of the display mode according to the number of people may be displayed.
例えば、利用者が3人の場合には、図29に示されるようなレタッチ画面(脚の長さ選択画面)が表示されるようにする。なお、ここでは、利用者が3人であっても、認識撮影が行われるものとする。 For example, when there are three users, the retouch screen (leg length selection screen) as shown in FIG. 29 is displayed. Here, it is assumed that recognition photography is performed even if there are three users.
図29の脚の長さ選択画面においては、図17の脚の長さ選択画面にも設けられている画像表示領域511Lおよび選択領域512Lと、画像表示領域511Rおよび選択領域512Rとの間に、画像表示領域511Mおよび選択領域512Mが設けられている。
In the leg length selection screen of FIG. 29, between the
画像表示領域511Mには、画像表示領域511L,511Rと同様、認識撮影により得られた認識用画像において認識部313による認識に成功した人物の全身画像が表示される。
Similar to the
また、選択領域512Mには、選択領域512L,512Rそれぞれと同様、撮影画像(全身画像)に写る利用者の脚の長さを選択するためのボタン521−1乃至521−3と、OKボタン522とが設けられる。
Further, in the
図29のような画面構成により、3人の利用者がそれぞれ脚の長さを同時に選択することができる。 With the screen configuration as shown in FIG. 29, each of the three users can select the leg length at the same time.
<アップ撮影と全身撮影>
以上においては、通常撮影として全身撮影(正面全身撮影)のみが行われるものとしたが、全身撮影に加え、アップ撮影が行われるようにしてもよい。この場合、全身画像に加えてアップ画像が得られるので、認識撮影として、全身画像用の認識撮影に加え、アップ画像用の認識撮影が行われるようにすることで、アップ画像および全身画像それぞれについてのレタッチ機能を提供することができるようになる。
<Close-up shooting and full-body shooting>
In the above, it is assumed that only whole body photography (front whole body photography) is performed as normal photography, but close-up photography may be performed in addition to whole body photography. In this case, since a close-up image can be obtained in addition to the full-body image, the close-up image and the full-body image can be obtained by performing the recognition shooting for the close-up image in addition to the recognition shooting for the full-body image. It will be possible to provide the retouching function of.
ここで、図30のフローチャートを参照して、アップ撮影と全身撮影とが行われる場合の撮影処理の流れについて説明する。図30の例では、図12のフローチャートを参照して説明した人数選択画面および写りコース選択画面の表示のステップの説明は省略する。 Here, with reference to the flowchart of FIG. 30, the flow of the photographing process when close-up photography and whole-body photography are performed will be described. In the example of FIG. 30, the description of the display steps of the number of people selection screen and the image course selection screen described with reference to the flowchart of FIG. 12 will be omitted.
ステップS91において、撮影制御部312は、アップ画像用の認識撮影を行う。
In step S91, the
具体的には、認識撮影のガイダンスが終了した後、撮影制御部312によって、カメラ91による動画像の撮影が開始され、撮影によって得られた動画像がライブビュー表示画面に表示される。
Specifically, after the guidance for recognition shooting is completed, the
図31は、アップ画像用の認識撮影のライブビュー表示画面の例を示す図である。 FIG. 31 is a diagram showing an example of a live view display screen for recognition shooting for a close-up image.
ライブビュー表示画面の上部には、「枠の中に入って前を向いて撮影してね」のメッセージが表示され、その下に設けられた画像表示領域591,592には、2人の利用者それぞれの顔が映る動画像がリアルタイムで表示される。
At the top of the live view display screen, the message "Enter the frame and shoot forward" is displayed, and the
カメラ91に取り込まれた動画像から、所定の範囲が切り出されて、画像表示領域591,592の表示に用いられる。2人の利用者は、画像表示領域591,592の表示を確認しながら、それぞれの顔が画像表示領域591,592の枠に収まるように、顔の位置や大きさを調整する。これにより、認識用画像における認識の精度を確保することができる。
A predetermined range is cut out from the moving image captured by the
このようなライブビュー画像が所定時間表示された後、撮影前のカウントダウンが開始され、撮影のタイミングになったとき、撮影制御部312は、認識用画像としての静止画像を取得する撮影を行う。
After the live view image is displayed for a predetermined time, the countdown before shooting is started, and when the shooting timing comes, the
この場合、認識部313は、撮影により得られた認識用画像において人物の顔を認識し、登録部314は、認識部313による認識に成功した人物の顔画像をデータベースに登録する。
In this case, the
アップ画像用の認識撮影が終了した後、ステップS92において、撮影制御部312は、所定回数のアップ撮影を行う。
After the recognition shooting for the close-up image is completed, in step S92, the
所定回数のアップ撮影が行われた後、ステップS93において、撮影制御部312は、全身画像用の認識撮影を行う。全身画像用の認識撮影は、図12のフローチャートにおけるステップS12の処理と同様にして行われる。
After the up-shooting is performed a predetermined number of times, in step S93, the
全身画像用の認識撮影が終了した後、ステップS94において、撮影制御部312は、所定回数の全身撮影を行う。
After the recognition imaging for the whole body image is completed, in step S94, the
全ての撮影が行われた後、ステップS95において、撮影処理部301は、撮影空間A1にいる利用者に対して、編集空間A2−1または編集空間A2−2への移動を案内する。
After all the shooting is performed, in step S95, the
通常、アップ撮影が行われる場合と、全身撮影が行われる場合とでは、利用者は立ち位置を変える必要がある。 Normally, the user needs to change the standing position depending on whether close-up photography is performed or full-body photography is performed.
そこで、上述した処理によれば、撮影範囲毎に認識撮影が行われるので、例えば、アップ画像用と全身画像用の2回の認識撮影の後に、アップ撮影と全身撮影とが行われる場合と比較して、立ち位置を変える回数を減らすことができ、移動による煩わしさを軽減することができる。 Therefore, according to the above-mentioned processing, the recognition shooting is performed for each shooting range. Therefore, the number of times the standing position is changed can be reduced, and the troublesomeness due to movement can be reduced.
また、全身を撮影範囲とした認識撮影を1回のみ行った後に、アップ撮影と全身撮影とが行われるようにしてもよい。この場合、全身が写る認識用画像において、人物の顔の認識と、人物の全身の認識とを行うことで、アップ画像および全身画像それぞれについてのレタッチ機能を提供することを可能とする。さらに、図30の例と比較して、撮影回数を1回減らすことができるので、撮影作業に要する時間を短縮させることができ、ゲームの回転率の向上を図ることができる。 Further, the close-up shooting and the whole-body shooting may be performed after the recognition shooting with the whole body as the shooting range is performed only once. In this case, it is possible to provide a retouching function for each of the close-up image and the whole body image by recognizing the face of the person and the whole body of the person in the recognition image in which the whole body is captured. Further, as compared with the example of FIG. 30, since the number of times of shooting can be reduced by one, the time required for the shooting work can be shortened, and the turnover rate of the game can be improved.
<レタッチ画面のさらなる例>
ここで、アップ画像および全身画像それぞれについてのレタッチ機能を提供するレタッチ画面の例について説明する。
<Further examples of retouch screen>
Here, an example of a retouch screen that provides a retouch function for each of the close-up image and the whole body image will be described.
図32は、アップ画像および全身画像それぞれについてのレタッチ機能を提供するレタッチ画面の例を示す図である。 FIG. 32 is a diagram showing an example of a retouch screen that provides a retouch function for each of the close-up image and the whole body image.
図32のレタッチ画面において、左右それぞれの領域の上側には、画像表示領域611L,612Lと、画像表示領域611R,612Rとが設けられる。画像表示領域611L,612Lには、認識撮影により得られた認識用画像において認識部313による認識に成功した一方の人物の全身画像および顔画像がそれぞれ表示される。また、画像表示領域611R,612Rには、認識撮影により得られた認識用画像において認識部313による認識に成功した他方の人物の全身画像および顔画像がそれぞれ表示される。これらの全身画像および顔画像は、それぞれ、全身画像用の認識撮影とアップ画像用の認識撮影により得られるようにしてもよいし、全身を撮影範囲とした認識撮影により得られた認識用画像から切り出す範囲を変えることで得られるようにしてもよい。
In the retouch screen of FIG. 32,
画像表示領域611L,612Lの下方には、選択領域613Lが設けられる。選択領域613Lには、通常撮影により得られた撮影画像のうちの全身画像に写る利用者の脚の長さを選択するためのボタン621−1乃至621−3、アップ画像に写る利用者の目の大きさを選択するためのボタン622−1乃至622−3、アップ画像および全身画像に写る利用者の顔の小ささを選択するためのボタン623−1乃至623−3が設けられる。ボタン621−1乃至621−3,622−1乃至622−3,623−1乃至623−3それぞれには、撮影画像において、その画像処理が施される利用者の部分に対応する画像が表示される。
Below the
ボタン623−1乃至623−3の下方には、OKボタン624が設けられる。
An
画像表示領域611R,612Rの下方には、選択領域613Rが設けられる。選択領域613Rにも、選択領域613Lと同様の構成が設けられる。
A
ここで、ボタン621−1乃至621−3のいずれかが選択されると、表示制御部321は、画像表示領域611L(611R)に表示されている全身画像を、選択されたボタンに対応する脚の長さに変える画像処理が施された全身画像に切り替える。このとき、画像表示領域612L(612R)に表示される顔画像には、脚の長さを変える画像処理が反映されないので、その顔画像がグレーアウト表示されたり、表示されないようにしてもよい。
Here, when any of the buttons 621-1 to 621-3 is selected, the
また、ボタン622−1乃至622−3のいずれかが選択されると、表示制御部321は、画像表示領域612L(612R)に表示される顔画像を、選択されたボタンに対応する目の大きさに変える画像処理が施された顔画像に切り替える。このとき、画像表示領域611L(611R)に表示されている全身画像には、目の大きさを変える画像処理が反映されたとしても利用者が確認しにくいので、その全身画像がグレーアウト表示されたり、表示されないようにしてもよい。
When any of the buttons 622-1 to 622-3 is selected, the
なお、ボタン623−1乃至623−3のいずれかが選択されたときには、表示制御部321は、画像表示領域611L(611R)に表示されている全身画像と、画像表示領域612L(612R)に表示される顔画像とを、選択されたボタンに対応する顔の小ささに変える画像処理が施された全身画像と顔画像とに切り替える。
When any of the buttons 623-1 to 623-3 is selected, the
このようなレタッチ画面により、アップ画像および全身画像それぞれについてのレタッチ機能を提供することができる。 Such a retouch screen can provide a retouch function for each of the close-up image and the whole body image.
図32の例では、1つのレタッチ画面上で、アップ画像および全身画像それぞれについてのレタッチ機能が提供されるものとしたが、撮影画像の種類(アップ画像/全身画像)毎に、その撮影画像についてのレタッチ機能を提供するレタッチ画面が表示されるようにしてもよい。 In the example of FIG. 32, it is assumed that the retouch function for each of the close-up image and the whole body image is provided on one retouch screen. A retouch screen that provides the retouch function of may be displayed.
例えば、通常撮影として、アップ撮影、正面全身撮影、および上から全身撮影が行われた場合、アップ画像、正面全身撮影により得られた全身画像(正面全身画像)、上から全身撮影により得られた全身画像(上から全身画像)の3種類の撮影画像が得られる。この場合、3種類の撮影画像毎にレタッチ画面が表示されるようにする。 For example, when close-up photography, frontal whole-body photography, and whole-body photography are performed as normal photography, a close-up image, a whole-body image obtained by frontal whole-body photography (front whole-body image), and whole-body photography from above Three types of captured images of a whole body image (whole body image from above) can be obtained. In this case, the retouch screen is displayed for each of the three types of captured images.
ここで、アップ撮影、正面全身撮影、上から全身撮影の順番で撮影が行われたものとすると、アップ画像、正面全身画像、上から全身画像それぞれについてのレタッチ機能を提供するレタッチ画面が、その順番で表示される。 Here, assuming that the close-up shooting, the front full-body shooting, and the full-body shooting from the top are taken in this order, the retouch screen that provides the retouch function for each of the close-up image, the front full-body image, and the full-body image from the top is Displayed in order.
図33および図34は、アップ画像および正面全身画像それぞれについてのレタッチ機能を提供するレタッチ画面の例を示す図である。 33 and 34 are diagrams showing an example of a retouch screen that provides a retouch function for each of the close-up image and the front whole body image.
図33のレタッチ画面において、左右それぞれの領域の上側には、画像表示領域631L,631Rが設けられる。画像表示領域631L,631Rには、認識撮影により得られた認識用画像において認識部313による認識に成功した人物の顔画像がそれぞれ表示される。
In the retouch screen of FIG. 33,
画像表示領域631L,631Rそれぞれの下方には、選択領域632L,632Rが設けられる。選択領域632L,632Rそれぞれには、アップ撮影により得られたアップ画像に写る利用者の目の大きさを選択するためのボタン641−1乃至641−3、肌の明るさを選択するためのボタン642−1乃至642−3、顔の小ささを選択するためのボタン643−1乃至643−3が設けられる。ボタン641−1乃至641−3,642−1乃至642−3,643−1乃至643−3それぞれには、アップ画像において、その画像処理が施される利用者の部分に対応する画像が表示される。
Below each of the
ボタン643−1乃至643−3の下方には、OKボタン644が設けられる。
An
図33のレタッチ画面により、アップ画像についてのレタッチ機能を提供することができる。 The retouch screen of FIG. 33 can provide a retouch function for the close-up image.
図34のレタッチ画面において、左右それぞれの領域の上側には、画像表示領域651L,651Rが設けられる。画像表示領域651L,651Rには、認識撮影により得られた認識用画像において認識部313による認識に成功した人物の全身画像がそれぞれ表示される。
In the retouch screen of FIG. 34,
画像表示領域651L,651Rそれぞれの下方には、選択領域652L,652Rが設けられる。選択領域652L,652Rそれぞれには、正面全身撮影により得られた正面全身画像に写る利用者の脚の長さを選択するためのボタン661−1乃至661−3、脚の細さを選択するためのボタン662−1乃至662−3、身長を選択するためのボタン663−1乃至663−3が設けられる。ボタン661−1乃至661−3,662−1乃至662−3,663−1乃至663−3それぞれには、正面全身画像において、その画像処理が施される利用者の部分に対応する画像が表示される。
Below each of the
ボタン663−1乃至663−3の下方には、OKボタン664および戻るボタン665が設けられる。
Below the buttons 663-1 to 663-3, an
戻るボタン665は、1つ前に表示されていたレタッチ画面(すなわち、図33のレタッチ画面)に戻るためのボタンである。これにより、あらかじめ決められたレタッチ画面全体の表示時間内であれば、アップ画像についての画像処理を選択し直すことが可能となる。
The
図34のレタッチ画面により、正面全身画像についてのレタッチ機能を提供することができる。 The retouch screen of FIG. 34 can provide a retouch function for the front whole body image.
なお、上から全身画像についてのレタッチ機能を提供するレタッチ画面は、図34のレタッチ画面と同様であるものとするが、認識撮影として、上から全身画像用の認識撮影が行われるようにした場合には、図35に示されるように、画像表示領域651L,651Rには、上から全身画像用の認識撮影により得られた認識用画像において認識部313による認識に成功した人物の上から全身画像がそれぞれ表示される。
The retouch screen that provides the retouch function for the whole body image from above is the same as the retouch screen shown in FIG. 34, but when the recognition shooting for the whole body image is performed from above as the recognition shooting. As shown in FIG. 35, in the
以上のように、撮影画像の種類毎にレタッチ画面が表示されることで、その撮影画像の撮影範囲に応じた画像処理を選択させることができるので、例えば、認識用画像として全身画像だけが表示されるレタッチ画面において、アップ画像についての画像処理を選択させる場合と比較して、利用者に対して画像処理の内容が伝わりやすくなり、利用者が画像処理の内容を把握しやすくなる。 As described above, by displaying the retouch screen for each type of captured image, it is possible to select the image processing according to the shooting range of the captured image. Therefore, for example, only the whole body image is displayed as the recognition image. On the retouch screen to be displayed, the content of the image processing is easily transmitted to the user, and the user can easily grasp the content of the image processing, as compared with the case where the image processing for the close-up image is selected.
なお、図33および図34(図35)のレタッチ画面において、アップ画像についての画像処理を選択させるレタッチ画面と、全身画像についての画像処理を選択させるレタッチ画面との表示を切り替える切替ボタンが設けられるようにしてもよいし、これらのレタッチ画面が、所定時間毎に表示が切り替わるようにしてもよい。 In the retouch screens of FIGS. 33 and 34 (FIG. 35), a switching button is provided to switch the display between the retouch screen for selecting the image processing for the close-up image and the retouch screen for selecting the image processing for the whole body image. Alternatively, the display of these retouch screens may be switched at predetermined time intervals.
さらに、レタッチ画面においては、左右いずれの領域が、対応する利用者に対する画像処理を選択するための領域であるかがわかればよい。そこで、例えば、全身画像についての画像処理を選択させるレタッチ画面(図34または図35)において、利用者それぞれの全身画像が表示される画像表示領域651L,651Rに代えて、図36に示されるように、利用者それぞれの顔画像が表示される画像表示領域653L,653Rが設けられるようにしてもよい。これにより、利用者は、少なくとも、レタッチ画面の左右いずれに対して操作を行えばよいかを把握することができる。
Further, on the retouch screen, it is sufficient to know which of the left and right areas is the area for selecting the image processing for the corresponding user. Therefore, for example, on the retouch screen (FIG. 34 or 35) for selecting the image processing for the whole body image, as shown in FIG. 36 instead of the
また、レタッチ画面として、全身画像についての画像処理を選択させるレタッチ画面のみを表示するようにし、全身画像について選択された画像処理が、アップ画像にも反映されるようにしてもよい。 Further, as the retouch screen, only the retouch screen for selecting the image processing for the whole body image may be displayed, and the image processing selected for the whole body image may be reflected in the close-up image.
逆に、レタッチ画面として、アップ画像についての画像処理を選択させるレタッチ画面のみを表示するようにし、アップ画像について選択された画像処理が、全身画像にも反映されるようにしてもよい。例えば、アップ画像についての画像処理を選択させるレタッチ画面において、肌の明るさとして「美白」が選択された場合、肌の明るさを「美白」にする画像処理が、アップ画像における顔の部分に施される他、全身画像における腕や脚の部分に施されるようにする。 On the contrary, as the retouch screen, only the retouch screen for selecting the image processing for the up image may be displayed, and the image processing selected for the up image may be reflected in the whole body image. For example, when "whitening" is selected as the skin brightness on the retouch screen that selects the image processing for the close-up image, the image processing that makes the skin brightness "whitening" is applied to the face part in the close-up image. In addition to being applied, it should be applied to the arms and legs in the full-body image.
以上においては、レタッチ画面に表示される撮影画像として、認識用画像から所定の領域が切り出された画像が表示されるものとしたが、通常撮影により得られた撮影画像のうちの1枚が表示されるようにしてもよい。 In the above, it is assumed that an image in which a predetermined area is cut out from the recognition image is displayed as the captured image displayed on the retouch screen, but one of the captured images obtained by normal shooting is displayed. It may be done.
例えば、図37に示されるように、画像表示領域671L,671Rに、5枚の撮影画像のうちの所定の1枚が表示されるようにする。画像表示領域671L,671Rの左右両側には、切替ボタン681,682を設けるようにし、切替ボタン681,682がタッチペン132A,132Bにより操作されることで、画像表示領域671L,671Rに表示される撮影画像が切り替わるようにしてもよい。
For example, as shown in FIG. 37, a predetermined one of the five captured images is displayed in the
さらに、以上においては、レタッチ機能を提供する画面としてレタッチ画面が表示されるものとしたが、編集画面が、レタッチ画面の1つとして機能するようにしてもよい。 Further, in the above, the retouch screen is displayed as the screen that provides the retouch function, but the edit screen may function as one of the retouch screens.
編集画面は、基本的に、レタッチ画面と同様、主な構成が左右対称に設けられることによって構成される。左半分の領域は、タブレット内蔵モニタ131に向かって左側にいる利用者により用いられる領域である。右半分の領域は、タブレット内蔵モニタ131に向かって右側にいる利用者により用いられる領域である。このような編集画面の構成により、主に2人の利用者が同時に編集作業を行うことができる。
The edit screen is basically configured by providing the main configurations symmetrically like the retouch screen. The left half area is an area used by the user on the left side of the tablet built-in
図38においては、編集画面の左半分の領域(左半分領域)が示されている。 In FIG. 38, the left half area (left half area) of the editing screen is shown.
左半分領域の中央上部には、サムネイル表示領域711が設けられる。サムネイル表示領域711は、撮影画像を表すサムネイル画像の表示領域である。利用者は、サムネイル表示領域711に表示されているサムネイル画像を選択することによって、編集対象とする撮影画像を選択する。
A
図38の例では、5枚の撮影画像として、3枚のアップ画像と2枚の全身画像を表すサムネイル画像がサムネイル表示領域711に並んで表示されている。
In the example of FIG. 38, as five captured images, three close-up images and two thumbnail images representing whole body images are displayed side by side in the
左半分領域の略中央には、編集領域712が設けられる。編集領域712は、編集対象として選択された撮影画像の表示領域である。利用者は、タッチペン132Aを用いて編集ツールを選択し、編集領域712に表示された撮影画像の編集を行う。
An
編集領域712の左側には、メイクパレット713が表示される。メイクパレット713は、メイクツールを選択するためのアイコンの表示領域である。メイクツールが選択されることで、撮影画像に写る利用者の顔に対して、選択されたメイクツールに対応する画像処理が施される。
The
左半分領域の下部には、編集パレット714が表示される。編集パレット714は、ペンツール、スタンプツールなどの各種の編集ツール(合成用画像)の選択に用いられる。
The
編集パレット714においては、タブ毎に各編集ツールが用意されている。利用者は、それぞれのタブを選択することによって、編集パレット714に表示される編集ツールを切り替える。例えば、「スタンプ」の名前が付されたタブは、スタンプツールを選択するときに操作されるタブであり、「ペン」の名前が付されたタブは、ペンツールを選択するときに操作されるタブである。
In the
図38の例では、「レタッチ」の名前が付されたタブが選択されている。 In the example of FIG. 38, the tab named "Retouch" is selected.
「レタッチ」の名前が付されたタブが選択された編集パレット714においては、全身画像に写る利用者毎に、全身画像に対する画像処理の度合いとして、脚の長さが選択されるようにする。
In the
図38の編集パレット714において、左半分の領域の左端、右半分の領域の右端のそれぞれには、画像表示領域721L,721Rが設けられる。画像表示領域721L,721Rには、認識撮影により得られた認識用画像において認識部313により認識された人物の全身画像が、それぞれ表示される。
In the
画像表示領域721Lの右方、画像表示領域721Rの左方のそれぞれには、選択領域722L,722Rが設けられる。選択領域722L,722Rそれぞれには、編集領域712に表示されている全身画像に写る利用者の脚の長さを選択するためのボタン723−1乃至723−3が設けられる。
ボタン723−1乃至723−3のいずれかが選択されると、表示制御部321は、画像表示領域721L,721Rに表示されている全身画像を、選択されたボタンに対応する脚の長さに変える画像処理が施された全身画像に切り替える。このとき、編集領域712に表示されている全身画像に写る利用者のうち、ボタンが選択された選択領域に対応する利用者に対しても、選択されたボタンに対応する脚の長さに変える画像処理が施される。
When any of the buttons 723-1 to 723-3 is selected, the
なお、「レタッチ」の名前が付されたタブによって提供されるレタッチ機能は、編集領域712に表示されている撮影画像(編集対象となる撮影画像)に応じて変わる。例えば、編集対象となる撮影画像として、アップ画像が選択されている場合、「レタッチ」の名前が付されたタブは、例えば、目の大きさや肌の明るさなどを変えるレタッチ機能を提供するようになり、全身画像が選択されている場合、「レタッチ」の名前が付されたタブは、例えば、脚の長さや脚の細さなどを変えるレタッチ機能を提供するようになる。
The retouching function provided by the tab named "retouch" changes according to the captured image (photographed image to be edited) displayed in the
また、編集画面において、レタッチ機能を提供するための構成を、編集パレット714以外の領域に設けるようにしてもよい。
Further, on the edit screen, a configuration for providing the retouch function may be provided in an area other than the
例えば、編集画面のメイクパレット713に代えて、図39に示されるような選択領域731を設けるようにしてもよい。選択領域731は、編集パレット714に表示されるレタッチ機能を提供するための構成と異なり、編集画面上で常に表示される。
For example, instead of the
選択領域731には、編集領域712に表示されている全身画像に写る利用者の脚の長さを選択するためのボタン741−1乃至741−3が設けられる。また、ボタン741−3の下方には、画像処理の対象とする利用者を選択するためのボタン742−1乃至742−3が設けられる。
The
ボタン742−1は、編集領域712に表示されている全身画像に写る利用者の2人両方を画像処理の対象とするときに選択されるボタンである。ボタン742−2は、編集領域712に表示されている全身画像に写る利用者のうちの左側の利用者を画像処理の対象とするときに選択されるボタンであり、ボタン742−3は、編集領域712に表示されている全身画像に写る利用者のうちの右側の利用者を画像処理の対象とするときに選択されるボタンである。
Button 742-1 is a button selected when both of the users appearing in the whole body image displayed in the
このような構成により、全身画像それぞれについて、利用者毎に、所望の脚の長さを選択することができる。 With such a configuration, a desired leg length can be selected for each user for each whole body image.
なお、以上においては、選択された度合いの画像処理は、編集領域712に表示されている撮影画像のみに施されるものとしたが、それ以外の、編集対象でない撮影画像に施されるようにしてもよい。また、選択された度合いの画像処理が、編集領域712に表示されている撮影画像毎に施されるようにした場合であっても、一度も編集対象として選択されていない撮影画像については、直近で選択された度合いの画像処理が施されるようにしてもよい。
In the above, the selected degree of image processing is applied only to the captured image displayed in the
図39の例では、編集対象として全身画像が選択され、選択領域731には、全身画像についてのレタッチ機能を提供する構成が表示されるものとしたが、編集対象としてアップ画像が選択された場合には、図40に示されるように、選択領域751に、アップ画像についてのレタッチ機能を提供する構成が表示されるものとする。
In the example of FIG. 39, the whole body image is selected as the editing target, and the configuration for providing the retouch function for the whole body image is displayed in the
図40の選択領域751には、編集領域712に表示されているアップ画像に写る利用者の目の大きさを選択するためのボタン761−1乃至761−3が設けられる。また、ボタン761−3の右方には、画像処理の対象とする利用者を選択するためのボタン762−1乃至762−3が設けられる。
The
ボタン762−1は、編集領域712に表示されているアップ画像に写る利用者の2人両方を画像処理の対象とするときに選択されるボタンである。ボタン762−2は、編集領域712に表示されているアップ画像に写る利用者のうちの左側の利用者を画像処理の対象とするときに選択されるボタンであり、ボタン762−3は、編集領域712に表示されているアップ画像に写る利用者のうちの右側の利用者を画像処理の対象とするときに選択されるボタンである。
Button 762-1 is a button selected when both of the users appearing in the close-up image displayed in the
このような構成により、アップ画像それぞれについて、利用者毎に、所望の目の大きさを選択することができる。 With such a configuration, it is possible to select a desired eye size for each user for each close-up image.
なお、図39の選択領域731と、図40の選択領域751とは、編集画面において異なる位置に配置されている。具体的には、図39の例では、選択領域731は、編集領域712の横(左方)に配置され、図40の例では、選択領域751は、編集領域712の下方に配置されている。これにより、編集対象として選択されている撮影画像の種類(アップ画像/全身画像)が変わった場合、利用者にそのことを気づかせることができる。
The
以上においては、レタッチ機能を提供する構成が、編集パレットにおいてタブ表示されたり、編集画面上の所定の位置に常に表示される例について説明したが、サムネイル表示領域711に表示されているサムネイル画像が選択される度に、そのサムネイル画像に対応する撮影画像についてのレタッチ機能を提供する構成が、ポップアップとして表示されるようにしてもよい。これにより、編集画面のレイアウトによらず、レタッチ機能を提供する構成を大きく表示することができ、利用者の操作性を向上させることができる。
In the above, the example in which the configuration providing the retouch function is tab-displayed on the edit palette or always displayed at a predetermined position on the edit screen has been described, but the thumbnail image displayed in the
また、以上においては、レタッチ機能により画像処理が施される領域(利用者の部分)は、あらかじめ決まっており、その領域に施される画像処理に対応するボタンが選択領域に表示されるものとした。これに限らず、編集画面において、レタッチ機能を提供する構成が表示される場合には、編集領域712において、レタッチ機能により画像処理が施される領域がタッチペン132A(132B)によって指定されるようにしてもよい。
Further, in the above, the area (user part) to which the image processing is performed by the retouch function is determined in advance, and the button corresponding to the image processing applied to the area is displayed in the selection area. did. Not limited to this, when a configuration that provides the retouch function is displayed on the edit screen, the area to be image-processed by the retouch function is designated by the
この場合、選択領域には、指定された領域に施される画像処理に対応するボタンが表示されるようにする。例えば、編集領域712において、編集対象となる撮影画像に写る利用者の脚の部分が、タッチペン132A(132B)により囲まれるなどした場合、選択領域には、脚の長さを変えるためのボタンが表示されるようにする。これにより、利用者は、撮影画像に写る自分自身について、より良いスタイルにしたい部分を選択することができる。
In this case, the button corresponding to the image processing applied to the designated area is displayed in the selected area. For example, in the
さらに、図41に示されるように、レタッチ機能を提供する構成が、認識撮影時のライブビュー表示画面に表示されるようにしてもよい。 Further, as shown in FIG. 41, the configuration that provides the retouch function may be displayed on the live view display screen at the time of recognition shooting.
図41のライブビュー表示画面において、左右それぞれの領域の上側には、画像表示領域811L,811Rが設けられる。画像表示領域811L,811Rには、2人の利用者それぞれの全身が映る動画像がリアルタイムで表示される。
In the live view display screen of FIG. 41,
2人の利用者は、画像表示領域811L,811Rの表示を確認しながら、それぞれの全身が画像表示領域811L,811Rの枠に収まるように、立ち位置を調整する。
While checking the display of the
画像表示領域811L,811Rそれぞれの下方には、選択領域812L,812Rが設けられる。選択領域812L,812Rには、認識撮影の後に行われる通常撮影により得られる撮影画像(全身画像)に写る利用者の脚の長さを選択するためのボタン821−1乃至821−3が設けられる。
Below each of the
ボタン821−1乃至821−3の下方には、OKボタン822が設けられる。
An
選択領域812L,812Rにおいて選択されたボタンに対応する画像処理は、画像表示領域811L,811Rに表示されるライブビュー画像にリアルタイムに反映される。
The image processing corresponding to the button selected in the
図41の例では、1回の認識撮影に割り当てられる時間を、1回の通常撮影に割り当てられる時間より長く設定されるようにする。これにより、利用者に、レタッチ機能を提供するための画像処理を、余裕をもって選択させることができる。 In the example of FIG. 41, the time allotted for one recognition shooting is set longer than the time allotted for one normal shooting. As a result, the user can select the image processing for providing the retouch function with a margin.
また、図41の例では、認識撮影のライブビュー表示画面において、ライブビュー画像と、レタッチ機能を提供する構成とが同時に表示されるものとした。しかしながら、通常、写真シール機において、撮影空間に設けられるタッチパネルモニタは、編集空間に設けられるタブレット内蔵モニタよりも小さいため、図41の例では、ライブビュー画像が小さくなってしまう。そこで、認識撮影のライブビュー表示画面においては、レタッチ機能を提供する構成が表示された後に画面が切り替わり、ライブビュー画像が大きく表示されるようにしてもよい。 Further, in the example of FIG. 41, it is assumed that the live view image and the configuration that provides the retouch function are displayed at the same time on the live view display screen of the recognition shooting. However, in a photo sticker machine, the touch panel monitor provided in the shooting space is usually smaller than the monitor built in the tablet provided in the editing space, so that the live view image becomes smaller in the example of FIG. 41. Therefore, on the live view display screen for recognition shooting, the screen may be switched after the configuration for providing the retouch function is displayed so that the live view image is displayed in a large size.
なお、図41の例のように、認識撮影のライブビュー表示画面において、レタッチ機能を提供する構成が表示されるのではなく、通常撮影のライブビュー表示画面において、レタッチ機能を提供する構成が、通常撮影が行われる度に表示されるようにしてもよい。この場合、認識撮影は行われないものとする。 Note that, as in the example of FIG. 41, the configuration that provides the retouch function is not displayed on the live view display screen for recognition shooting, but the configuration that provides the retouch function on the live view display screen for normal shooting is It may be displayed every time a normal shooting is performed. In this case, recognition photography is not performed.
<出力物の例>
本実施の形態においては、写真シール作成ゲームの結果である出力物として、撮影画像が印刷されたシール紙が出力される他、所定のサーバを介して携帯端末へ送信される撮影画像(携帯送信画像)のデータが出力される。
<Example of output>
In the present embodiment, as an output as a result of the photo sticker creation game, a sticker paper on which a photographed image is printed is output, and a photographed image transmitted to a mobile terminal via a predetermined server (mobile transmission). Image) data is output.
(シール紙)
図42は、本実施の形態において出力されるシール紙の例を示す図である。
(Seal paper)
FIG. 42 is a diagram showing an example of a sticker paper output in the present embodiment.
図42に示されるシール紙は、横長の矩形形状にカットされており、5回の通常撮影により得られた5枚の撮影画像(以下、印刷画像ともいう)が、横一列に配置されて印刷されている。 The sticker paper shown in FIG. 42 is cut into a horizontally long rectangular shape, and five captured images (hereinafter, also referred to as printed images) obtained by five normal shots are arranged in a horizontal row and printed. Has been done.
図42に示されるシール紙850には、印刷画像として、1枚の正面全身画像851、3枚のアップ画像852乃至854、および、1枚の上から全身画像855が配置されている。
On the
印刷画像851,852の下方の領域には、アクセス用のメールアドレスおよびシール紙のIDを含む文字情報が配置されている。
In the area below the printed
さらに、印刷画像854,855の下方の領域には、レタッチ画面において選択されたレタッチ機能の内容(画像処理の度合い)を示す文字情報861が配置されている。図42の例では、文字情報861は、2人の利用者のうちの1人である「きょうこ」について、脚の長さ「おすすめ」、脚の細さ「モデル」が選択され、利用者のもう1人である「あき」について、脚の長さ「ナチュラル」、脚の細さ「おすすめ」が選択されたことを示している。
Further, in the area below the printed
利用者は、このような文字情報を、次回、写真シール作成ゲームをプレイする際にレタッチ機能の内容を選択するときの参考とすることができる。 The user can use such text information as a reference when selecting the content of the retouch function when playing the photo sticker creation game next time.
なお、シールレイアウトとして、利用者毎にシール紙がカットされて出力されるシールレイアウトが選択されている場合には、利用者毎に出力されるシール紙のそれぞれに、その利用者が選択したレタッチ機能の内容を示す文字情報が配置されるようにしてもよい。 When a sticker layout is selected as the sticker layout in which the sticker paper is cut and output for each user, the retouch selected by the user is applied to each sticker paper output for each user. Character information indicating the content of the function may be arranged.
(携帯送信画像)
携帯送信画像として携帯端末で閲覧可能な撮影画像について、写真シール作成装置1で選択された内容のレタッチ機能が、再度選択できるようにしてもよい。レタッチ機能の内容の再選択は、携帯送信画像が取得可能なWebページ上や、携帯端末にダウンロードされた専用のアプリケーション(専用アプリ)上などで行われるものとする。
(Image sent by mobile phone)
The retouching function of the content selected by the photo
携帯端末でのレタッチ機能は、写真シール作成ゲームの回転数を考慮する必要がないため、写真シール作成装置1で選択できるレタッチ機能の内容より細かい内容が選択できるようにしてもよい。さらに、写真シール作成装置1では提供されなかった内容のレタッチ機能が、上述したWebページ上や専用アプリ上で提供されるようにしてもよい。例えば、写真シール作成装置1で提供された、脚の長さを変える処理、および、脚の細さを変える処理に加え、肌の明るさを変える処理、および、首の長さを変える処理が、レタッチ機能を提供する画像処理として行われるようにする。
Since it is not necessary to consider the rotation speed of the photo sticker creation game for the retouch function on the mobile terminal, it may be possible to select more detailed contents than the contents of the retouch function that can be selected by the photo
また、レタッチ機能とは別に、携帯端末上で、撮影画像の色情報を変更したり、撮影画像に所定の質感や色のレイヤ画像を重畳したりする加工の種類が選択できる場合、選択された加工の種類に対応するレタッチ機能を提供する画像処理が、撮影画像に施されるようにしてもよい。 In addition to the retouch function, if the type of processing that can change the color information of the captured image or superimpose a layer image of a predetermined texture or color on the captured image can be selected on the mobile terminal, it is selected. Image processing that provides a retouching function corresponding to the type of processing may be applied to the captured image.
上述した実施の形態では、写真シール作成装置1は、得られた撮影画像や編集画像をシール紙に印刷するとともに、サーバに送信することで利用者の携帯端末に提供する構成を採るものとした。これに限らず、撮影画像や編集画像をシール紙に印刷せずに、サーバに送信することで利用者の携帯端末に提供するのみの構成を採ることも可能である。また逆に、撮影画像や編集画像をサーバに送信せずに、シール紙に印刷するのみの構成を採ることも可能である。
In the above-described embodiment, the photo
すなわち、本技術は、撮影画像や編集画像がシール紙に印刷された写真シールを作成する写真シール作成装置に限らず、単に、撮影画像や編集画像を作成するゲームを提供する写真作成ゲーム機に適用することができる。 That is, the present technology is not limited to a photo sticker creation device that creates a photo sticker in which a photographed image or an edited image is printed on a sticker paper, but simply a photo creation game machine that provides a game for creating a photographed image or an edited image. Can be applied.
上述した一連の処理は、ハードウェアにより実行させることもできるし、ソフトウェアにより実行させることもできる。上述した一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、ネットワークや記録媒体からインストールされる。 The series of processes described above can be executed by hardware or software. When the series of processes described above are executed by software, the programs constituting the software are installed from a network or a recording medium.
この記録媒体は、例えば、図7に示されるように、装置本体とは別に、写真シール作成装置1の管理者にプログラムを配信するために配布される、そのプログラムが記録されている磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROMおよびDVDを含む)、光磁気ディスク、もしくは半導体メモリなどよりなるリムーバブルメディア205により構成される。また、これらだけでなく、記録媒体は、装置本体にあらかじめ組み込まれた状態で管理者に配信されるプログラムが記録されているROM206や、記憶部202に含まれるハードディスクなどで構成される。
As shown in FIG. 7, this recording medium is, for example, a magnetic disk on which the program is recorded, which is distributed to the administrator of the photo
なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。 In the present specification, the steps for describing a program to be recorded on a recording medium are not necessarily processed in chronological order in the order described, but also in parallel or in parallel or not necessarily in chronological order. It also includes processes that are executed individually.
以上において、印刷媒体は、シール紙や写真紙に限られるものではない。例えば、所定のサイズの紙やフィルム、プリペイドカードやIC(Integrated Circuit)カードなどのカード、あるいは、Tシャツなどの布地などに、画像を印刷するようにしてもよい。この場合、1または複数の撮影画像が配置されたシールレイアウト画像が、これらの印刷媒体に印刷されるようにしてもよい。 In the above, the print medium is not limited to the sticker paper and the photographic paper. For example, the image may be printed on a paper or film of a predetermined size, a card such as a prepaid card or an IC (Integrated Circuit) card, or a cloth such as a T-shirt. In this case, the sticker layout image in which one or a plurality of captured images are arranged may be printed on these print media.
また、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。 Further, the embodiment of the present technology is not limited to the above-described embodiment, and various changes can be made without departing from the gist of the present technology.
1 写真シール作成装置
201 制御部
301 撮影処理部
302 編集処理部
303 印刷処理部
304 事後選択処理部
311 表示制御部
312 撮影制御部
313 認識部
314 登録部
321 表示制御部
322 編集制御部
323 認証部
324 画像処理部
325 通信制御部
1 Photo
Claims (12)
撮影により得られた撮影画像のうちの所定枚数の撮影画像において人物を認識する認識部と、
前記撮影画像が表示される第1の領域と、前記認識部による認識結果に基づいて前記利用者の全身が写る前記撮影画像に施される画像処理の度合いを選択するためのボタンが表示される第2の領域とを有する画面を表示する表示制御部と
を備え、
前記表示制御部は、前記第2の領域の前記ボタンが操作される毎に、前記第1の領域に表示される前記撮影画像を、異なる度合いの前記画像処理が施された前記撮影画像に切り替える
写真作成ゲーム機。 A shooting control unit that shoots the entire body of the user as a subject,
A recognition unit that recognizes a person in a predetermined number of shot images among the shot images obtained by shooting,
A first area in which the captured image is displayed and a button for selecting the degree of image processing applied to the captured image in which the entire body of the user is captured based on the recognition result by the recognition unit are displayed. A display control unit for displaying a screen having a second area is provided.
Each time the button in the second area is operated, the display control unit switches the photographed image displayed in the first area to the photographed image subjected to the image processing to a different degree. Photo creation game machine.
前記認識部は、前記認識撮影により得られた認識用画像において人物を認識し、
前記表示制御部は、前記第1の領域に、前記認識用画像を表示し、前記第2の領域に、前記認識撮影以外の通常撮影により得られた前記撮影画像に写る前記利用者の全身またはその一部に施される前記画像処理の度合いを選択するための前記ボタンを表示する
請求項1に記載の写真作成ゲーム機。 The shooting control unit performs at least one shooting out of the plurality of shootings as a recognition shooting for recognizing a person.
The recognition unit recognizes a person in the recognition image obtained by the recognition photographing, and recognizes a person.
The display control unit displays the recognition image in the first area, and the whole body of the user or the whole body of the user reflected in the photographed image obtained by normal photography other than the recognition photography in the second area. The photo-creating game machine according to claim 1, wherein the button for selecting the degree of image processing applied to a part thereof is displayed.
請求項2に記載の写真作成ゲーム機。 The second aspect of the present invention further comprises an image processing unit that performs the image processing to a degree corresponding to the button finally selected in the second region on the whole body or a part of the user reflected in the captured image. Described photo creation game machine.
請求項3に記載の写真作成ゲーム機。 The display control unit displays the recognition image in which the whole body of the user is captured in the first area, and the image processing of the photographed image is performed in the second area of the user. The photo-creating game machine according to claim 3, wherein the button including the image corresponding to the portion is displayed.
請求項4に記載の写真作成ゲーム機。 Each time the button in the second area is operated, the display control unit performs the image processing of the recognition image displayed in the first area on the user portion to a different degree. The photo-creating game machine according to claim 4, wherein the image is switched to the recognition image.
請求項5に記載の写真作成ゲーム機。 The photo-creating game machine according to claim 5, wherein the display control unit displays the screen having the first area and the second area for each user.
請求項6に記載の写真作成ゲーム機。 The photo creation game according to claim 6, further comprising a registration unit for registering a full-body image of a person who has been successfully recognized by the recognition unit as an image for collating a person appearing in the photographed image obtained by the normal shooting. Machine.
前記画像処理部は、前記撮影画像において、前記認証部による認証に成功した前記利用者毎の全身またはその一部に、前記利用者毎の前記第2の領域において最終的に操作された前記ボタンに対応した度合いの前記画像処理を施す
請求項7に記載の写真作成ゲーム機。 An authentication unit that authenticates the user in the photographed image by collating the whole body image registered by the registration unit with the person appearing in the photographed image is further provided.
In the photographed image, the image processing unit finally operates the button on the whole body or a part of each user who has succeeded in authentication by the authentication unit in the second region of each user. The photo-creating game machine according to claim 7, wherein the image processing is performed to a degree corresponding to the above.
請求項1乃至8のいずれかに記載の写真作成ゲーム機。 The photo-creating game machine according to any one of claims 1 to 8, wherein the display control unit displays one screen for each type of image processing.
請求項1乃至9のいずれかに記載の写真作成ゲーム機。 The photo-creating game machine according to any one of claims 1 to 9, further comprising a printing processing unit that prints and outputs the photographed image to which the image processing has been performed on a predetermined sticker paper.
請求項1乃至10のいずれかに記載の写真作成ゲーム機。 The photo-creating game machine according to any one of claims 1 to 10, further comprising a communication control unit that transmits the photographed image subjected to the image processing to a mobile terminal as data via a predetermined server.
撮影により得られた撮影画像のうちの所定枚数の撮影画像において人物を認識し、
前記撮影画像が表示される第1の領域と、前記人物の認識結果に基づいて前記利用者の全身が写る前記撮影画像に施される画像処理の度合いを選択するためのボタンが表示される第2の領域とを有する画面を表示し、
前記第2の領域の前記ボタンが操作される毎に、前記第1の領域に表示される前記撮影画像を、異なる度合いの前記画像処理が施された前記撮影画像に切り替える
ステップを含む表示方法。 Take a picture of the whole body of the user as a subject
A person is recognized in a predetermined number of captured images among the captured images obtained by shooting, and the person is recognized.
A first area in which the captured image is displayed and a button for selecting the degree of image processing applied to the captured image in which the whole body of the user is captured based on the recognition result of the person are displayed. Display a screen with 2 areas and
A display method including a step of switching the captured image displayed in the first region to the captured image subjected to the image processing to a different degree each time the button in the second region is operated.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016202230A JP6853475B2 (en) | 2016-10-14 | 2016-10-14 | Photo creation game console and display method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016202230A JP6853475B2 (en) | 2016-10-14 | 2016-10-14 | Photo creation game console and display method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018064220A JP2018064220A (en) | 2018-04-19 |
JP6853475B2 true JP6853475B2 (en) | 2021-03-31 |
Family
ID=61966973
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016202230A Active JP6853475B2 (en) | 2016-10-14 | 2016-10-14 | Photo creation game console and display method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6853475B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7140962B2 (en) * | 2018-04-27 | 2022-09-22 | フリュー株式会社 | Image processing device, control method, and program |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5874421B2 (en) * | 2012-02-08 | 2016-03-02 | 辰巳電子工業株式会社 | Game shooting device, game shooting method and program |
JP5418708B2 (en) * | 2012-04-25 | 2014-02-19 | フリュー株式会社 | Photo sealing machine, photo sealing machine processing method and program |
EP4184443A1 (en) * | 2012-12-18 | 2023-05-24 | Eyesmatch Ltd. | Devices, systems and methods of capturing and displaying appearances |
JP5825542B1 (en) * | 2015-06-29 | 2015-12-02 | フリュー株式会社 | Photo sticker creation apparatus and display method |
-
2016
- 2016-10-14 JP JP2016202230A patent/JP6853475B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2018064220A (en) | 2018-04-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5418708B2 (en) | Photo sealing machine, photo sealing machine processing method and program | |
JP6829380B2 (en) | Photo sticker making device and image processing method | |
JP6810336B2 (en) | Photo creation game console and display method | |
JP6880394B2 (en) | Photographing game console and shooting method | |
JP5825542B1 (en) | Photo sticker creation apparatus and display method | |
JP6853475B2 (en) | Photo creation game console and display method | |
JP6477780B2 (en) | Photo sticker creation apparatus, photo sticker creation method, and photo sticker creation processing program | |
JP7152687B2 (en) | Display control device, display control method, program | |
JP6712047B2 (en) | Photo creation game machine and image generation method | |
JP7074994B2 (en) | Photographing game console and image processing method | |
JP7401727B2 (en) | Image processing device, image processing method, and image processing program | |
JP2021043797A (en) | Image processing device, image processing method, and image processing program | |
JP2018107515A (en) | Photograph formation game machine and image processing method | |
JP7140962B2 (en) | Image processing device, control method, and program | |
JP7132492B2 (en) | Image processing device, display control method, and program | |
JP2020144780A (en) | Image processing device, image processing method, and image processing program | |
JP7121256B2 (en) | PHOTO-CREATION GAME MACHINE, IMAGE PROCESSING METHOD, AND PROGRAM | |
JP6687839B2 (en) | Photo creation game machine and display method | |
JP6982230B2 (en) | Photographing game console and image processing method | |
JP6376421B1 (en) | Photo creation game machine, display method, and program | |
JP7032642B2 (en) | Photo-creating game consoles, editing methods, and programs | |
JP5970013B2 (en) | Photo sticker making apparatus and photo sticker making method | |
JP6842038B2 (en) | Photographing game console and image processing method | |
JP6041024B1 (en) | Photo sticker creation apparatus and display method | |
JP2023040914A (en) | Image processing apparatus, image processing program, and mask generation method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190925 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200618 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200714 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200914 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210209 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210222 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6853475 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |