JP6646202B2 - Photo sticker making device and display method - Google Patents
Photo sticker making device and display method Download PDFInfo
- Publication number
- JP6646202B2 JP6646202B2 JP2015157336A JP2015157336A JP6646202B2 JP 6646202 B2 JP6646202 B2 JP 6646202B2 JP 2015157336 A JP2015157336 A JP 2015157336A JP 2015157336 A JP2015157336 A JP 2015157336A JP 6646202 B2 JP6646202 B2 JP 6646202B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- image processing
- unit
- user
- shooting
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 62
- 238000012545 processing Methods 0.000 claims description 298
- 210000000746 body region Anatomy 0.000 claims description 16
- 238000003384 imaging method Methods 0.000 description 68
- 230000008569 process Effects 0.000 description 53
- 238000010586 diagram Methods 0.000 description 20
- 230000008859 change Effects 0.000 description 13
- 238000005286 illumination Methods 0.000 description 13
- 238000005516 engineering process Methods 0.000 description 10
- 239000000203 mixture Substances 0.000 description 9
- 238000007639 printing Methods 0.000 description 8
- 208000029152 Small face Diseases 0.000 description 7
- NIXOWILDQLNWCW-UHFFFAOYSA-N acrylic acid group Chemical group C(C=C)(=O)O NIXOWILDQLNWCW-UHFFFAOYSA-N 0.000 description 7
- 230000006870 function Effects 0.000 description 6
- 238000004891 communication Methods 0.000 description 5
- 210000000887 face Anatomy 0.000 description 5
- 230000035945 sensitivity Effects 0.000 description 5
- 230000000694 effects Effects 0.000 description 4
- 238000003780 insertion Methods 0.000 description 4
- 230000037431 insertion Effects 0.000 description 4
- 230000009467 reduction Effects 0.000 description 4
- 229910052782 aluminium Inorganic materials 0.000 description 3
- XAGFODPZIPBFFR-UHFFFAOYSA-N aluminium Chemical compound [Al] XAGFODPZIPBFFR-UHFFFAOYSA-N 0.000 description 3
- 239000003086 colorant Substances 0.000 description 3
- 210000003128 head Anatomy 0.000 description 3
- 229910052751 metal Inorganic materials 0.000 description 3
- 239000002184 metal Substances 0.000 description 3
- 239000004065 semiconductor Substances 0.000 description 3
- 206010019030 Hair colour changes Diseases 0.000 description 2
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 230000008921 facial expression Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000036548 skin texture Effects 0.000 description 2
- 208000001692 Esotropia Diseases 0.000 description 1
- 240000002871 Tectona grandis Species 0.000 description 1
- 230000003796 beauty Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 239000003990 capacitor Substances 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000007599 discharging Methods 0.000 description 1
- 239000004744 fabric Substances 0.000 description 1
- 210000001061 forehead Anatomy 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 230000001771 impaired effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 230000011514 reflex Effects 0.000 description 1
- 239000011347 resin Substances 0.000 description 1
- 229920005989 resin Polymers 0.000 description 1
- 238000007665 sagging Methods 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 210000000216 zygoma Anatomy 0.000 description 1
Images
Landscapes
- Cameras Adapted For Combination With Other Photographic Or Optical Apparatuses (AREA)
- Studio Devices (AREA)
Description
本技術は、写真シール作成装置および表示方法に関し、特に、画像の仕上がりをイメージすることができるようにする写真シール作成装置および表示方法に関する。 The present technology relates to a photo sticker creating apparatus and a display method, and more particularly, to a photo sticker creating apparatus and a display method that enable the user to image the finish of an image.
従来、アミューズメント施設等に設置される写真シール機が知られている。写真シール機は、利用者を撮影し、利用者の操作に応じて撮影画像に対して編集を施す。写真シール機は、編集が施された撮影画像をシール紙に印刷する。 2. Description of the Related Art Conventionally, a photo sticker installed in an amusement facility or the like is known. The photo sticker shoots a user and edits the shot image according to the operation of the user. The photo sticker machine prints the edited photographed image on sticker paper.
このような写真シール機において、利用者は、自身が写るライブビュー画像を確認しながら撮影作業を行う。 In such a photo sticker, a user performs a photographing operation while checking a live view image in which the user is photographed.
例えば、特許文献1には、ライブビュー表示画面に、ライブビュー画像に写る利用者毎に目の大きさをさせる選択ボタンを表示する写真シール機が記載されている。選択ボタンが操作されると、ライブビュー画像において、その選択ボタンに対応する利用者の目の大きさが、その選択ボタンに対応する大きさに変更される。
For example,
また、特許文献2には、ライブビュー画像において利用者により選択された範囲の画像に対して所定の補正を行う写真シール機が記載されている。
上述した写真シール機においては、利用者が何らかの操作を行うことで、ライブビュー画像に対して画像処理が施されていた。しかしながら、写真シール機のゲームに慣れていない利用者は、これらの操作に戸惑い、撮影作業をスムーズに行えないおそれがあった。 In the above-described photo sticker, image processing is performed on a live view image by a user performing some operation. However, a user who is not accustomed to the game of the photo sticker machine may be puzzled by these operations, and may not be able to perform a shooting operation smoothly.
特に、利用者がいずれの操作も行うことなく、ライブビュー画像における人物領域に対して画像処理を施すことは行われていなかった。そのため、利用者は、容易に、そのような画像処理が施された画像の仕上がりをイメージすることができなかった。 In particular, image processing has not been performed on a person area in a live view image without a user performing any operation. Therefore, the user cannot easily imagine the finish of the image subjected to such image processing.
本技術は、このような状況に鑑みてなされたものであり、容易に画像の仕上がりをイメージすることができるようにするものである。 The present technology has been made in view of such a situation, and is intended to easily image the finish of an image.
本技術の一側面の写真シール作成装置は、被写体を撮影するカメラと、前記カメラに取り込まれた動画像における人物領域のうちの上半身領域に対して、利用者による直接的な選択によらず所定の画像処理を施す画像処理部と、前記画像処理が施された前記動画像がリアルタイムに表示されるライブビュー表示画面を表示する表示制御部とを備え、前記表示制御部は、前記動画像に前記画像処理が施される場合、前記動画像に前記画像処理が施されない場合と比べて、前記ライブビュー表示画面において前記動画像全体が表示される表示領域を大きくする写真シール作成装置。 According to one embodiment of the present technology, there is provided a photo sticker creating device that determines a camera for photographing a subject and an upper body region of a person region in a moving image captured by the camera without a direct selection by a user. An image processing unit that performs image processing of the, and a display control unit that displays a live view display screen in which the moving image subjected to the image processing is displayed in real time, the display control unit includes: A photo sticker creating device that, when the image processing is performed, enlarges a display area where the entire moving image is displayed on the live view display screen, as compared with a case where the image processing is not performed on the moving image .
前記画像処理部には、前記動画像における前記上半身領域に対して、複数種類の前記画像処理を施させることができる。 The image processing unit may perform a plurality of types of the image processing on the upper body region in the moving image.
前記画像処理部には、顔認識を行うことにより特定された前記上半身領域に対して、前記顔認識の結果を利用した前記画像処理を施させることができる。 The image processing unit may perform the image processing using the result of the face recognition on the upper body region specified by performing the face recognition.
前記画像処理部には、顔認識を行うことにより特定された顔領域に対して、前記顔認識の結果を利用した前記画像処理を施させることができる。 The image processing unit may cause the image processing using the result of the face recognition to be performed on the face area specified by performing the face recognition.
前記画像処理部には、前記人物領域を取得するマスク画像を生成することにより特定された前記上半身領域に対して、前記マスク画像を利用した前記画像処理を施させることができる。 The image processing unit may cause the image processing using the mask image to be performed on the upper body region specified by generating a mask image for acquiring the person region.
前記写真シール作成装置には、前記人物領域の色、形状、および大きさの少なくともいずれかを用いて、特定された前記上半身領域の妥当性を判定する領域判定部をさらに設けることができる。 The photo sticker creation device may further include an area determination unit that determines the validity of the specified upper body area using at least one of the color, shape, and size of the person area.
前記画像処理部には、前記被写体の顔および上半身を写すアップ撮影が行われる場合と、前記被写体の全身を写す全身撮影が行われる場合とで、前記上半身領域に対して、異なるパラメータで画像処理を施させることができる。 The image processing unit performs image processing with different parameters for the upper body region when performing up-shooting that captures the face and upper body of the subject and performing full-body imaging that captures the whole body of the subject. Can be applied.
前記表示制御部には、前記ライブビュー表示画面が表示される前に、撮影に関するコースを前記利用者に選択させるためのコース選択画面を表示させ、前記画像処理部には、前記コース選択画面において選択されたコースに応じた前記画像処理を、前記動画像における前記上半身領域に対して施させることができる。 The display control unit, before the live view display screen is displayed, displays a course selection screen for allowing the user to select a course related to shooting, the image processing unit, in the course selection screen The image processing according to the selected course can be performed on the upper body region in the moving image.
前記画像処理部には、撮影の結果得られる静止画像に対して前記画像処理を施させることができる。 The image processing unit may perform the image processing on a still image obtained as a result of shooting.
本技術の一側面の表示方法は、被写体を撮影するカメラを備える写真シール作成装置の表示方法であって、前記カメラに取り込まれた動画像における人物領域のうちの上半身領域に対して、利用者による直接的な選択によらず所定の画像処理を施し、前記画像処理が施された前記動画像がリアルタイムに表示されるライブビュー表示画面を表示し、前記動画像に前記画像処理が施される場合、前記動画像に前記画像処理が施されない場合と比べて、前記ライブビュー表示画面において前記動画像全体が表示される表示領域を大きくするステップを含む。 A display method according to one aspect of the present technology is a display method of a photo sticker creating device including a camera for photographing a subject, and a method for displaying a user image in a moving image captured by the camera, in which Performs a predetermined image processing regardless of direct selection by the user, displays a live view display screen in which the moving image subjected to the image processing is displayed in real time, and the image processing is performed on the moving image. In this case, the method includes a step of enlarging a display area where the entire moving image is displayed on the live view display screen, as compared with a case where the image processing is not performed on the moving image .
本技術の一側面においては、カメラに取り込まれた動画像における人物領域のうちの上半身領域に対して、利用者による直接的な選択によらず所定の画像処理が施され、画像処理が施された動画像がリアルタイムに表示されるライブビュー表示画面が表示され、動画像に画像処理が施される場合、動画像に画像処理が施されない場合と比べて、ライブビュー表示画面において動画像全体が表示される表示領域が大きくなる。 In one aspect of the present technology, predetermined image processing is performed on an upper body region of a human region in a moving image captured by a camera without direct selection by a user, and image processing is performed. The live view display screen where the moving image is displayed in real time is displayed, and when the image processing is performed on the moving image, the entire moving image is displayed on the live view display screen as compared with the case where the image processing is not performed on the moving image. The displayed display area increases.
本技術によれば、容易に画像の仕上がりをイメージすることが可能となる。 According to the present technology, it is possible to easily imagine the finish of an image.
以下、本技術を適用した具体的な実施の形態について、図面を参照しながら詳細に説明する。 Hereinafter, specific embodiments to which the present technology is applied will be described in detail with reference to the drawings.
<写真シール作成装置の外観構成>
図1は、写真シール作成装置1の外観の構成例を示す斜視図である。
<Appearance of photo sticker making device>
FIG. 1 is a perspective view showing a configuration example of the external appearance of the photo
写真シール作成装置1は、撮影画像や編集済み画像を提供するゲーム機である。写真シール作成装置1は、画像をシール紙に印刷したり、画像を利用者の携帯端末上で閲覧可能にするためにその画像をサーバに送信することで、利用者に画像を提供する。写真シール作成装置1は、アミューズメント施設や店舗に設置される。写真シール作成装置1の利用者は、主に女子高生や女子大生などの若い女性が中心とされる。写真シール作成装置1において、1組あたり主に2人や3人などの複数人の利用者がゲームを楽しむことができる。もちろん、1人の利用者がゲームを楽しむこともできる。
The photo
写真シール作成装置1において、利用者は、自身が被写体となって撮影作業を行う。利用者は、編集作業により、撮影によって得られた撮影画像の中から選択した画像に、手書きの文字やスタンプ画像などの合成用画像を合成させる。これにより、撮影画像が彩り豊かな画像に編集される。利用者は、編集済みの画像である編集画像が印刷されたシール紙を受け取って一連のゲームを終了させる。
In the photo
写真シール作成装置1は、撮影ユニット11と編集ユニット12が接した状態で設置されることによって構成される。撮影ユニット11と編集ユニット12は電気的に接続される。撮影ユニット11は、人が中に入ることができる程度の大きさを有する箱形状の筐体を有する。
The photo
撮影ユニット11は、撮影部21と背景部22から構成される。撮影部21と背景部22は離れて設置される。撮影部21と背景部22の間に設けられる空間が、利用者が撮影作業を行う撮影空間となる。
The
撮影部21は、利用者を被写体として撮影する装置である。撮影空間に臨む撮影部21の正面にはカメラなどが設けられる。撮影部21の、編集ユニット12と接する面には正面パネル41が設けられる。撮影空間にいる利用者から見て右側の面を右側面、左側の面を左側面とすると、撮影部21の右側面が側面パネル42Aにより構成され、左側面が側面パネル42B(図2)により構成される。
The photographing
背景部22は、それぞれ板状の部材である背面パネル51、側面パネル52A、および側面パネル52B(図2)から構成される。背面パネル51は、正面を向いている利用者の背面側に位置する。側面パネル52Aは、背面パネル51の右端に取り付けられ、側面パネル52Bは、背面パネル51の左端に取り付けられる。
The
側面パネル42Aと側面パネル52Aは、所定の間隔をあけてほぼ同一平面に設けられる。側面パネル42Aと側面パネル52Aの上部は、板状の部材である連結部31Aによって連結される。また、側面パネル42Aと側面パネル52Aの下部は、床面に設けられた例えば金属製の部材である連結部34によって連結される。
The
側面パネル42Bと側面パネル52Bも同様にほぼ同一平面に設けられる。側面パネル42Bと側面パネル52Bの上部は連結部31Bによって連結される。側面パネル42Aと側面パネル52Aの下部は、床面に設けた金属製の部材(図示せず)によって連結される。
Similarly, the
側面パネル42A、連結部31A、および側面パネル52Aに囲まれることによって形成される開口が、撮影空間の出入り口となる。また、側面パネル42B、連結部31B、および側面パネル52Bに囲まれることによって形成される開口もまた、撮影空間の出入り口となる。
An opening formed by being surrounded by the
撮影空間の上方には、撮影部21の正面パネル41、連結部31A、連結部31B、および背景部22の背面パネル51に囲まれる開口が形成される。その開口には、その一部を覆うように天井ストロボユニット32が設けられる。天井ストロボユニット32の一端は連結部31Aに固定され、他端は連結部31Bに固定される。
Above the shooting space, an opening is formed which is surrounded by the
天井ストロボユニット32は、撮影空間内に向けて光を照射するストロボ発光管を内蔵する。天井ストロボユニット32の内部には、ストロボ発光管の他に蛍光灯が設けられている。これにより、天井ストロボユニット32は、撮影空間の照明としても機能する。
The
編集ユニット12は、撮影画像に編集を施すための装置である。編集ユニット12は、一方の側面が撮影部21の正面パネル41に接するようにして、撮影ユニット11に連結している。
The
図1に示される編集ユニット12の構成を正面側の構成とすると、編集ユニット12の正面側と背面側のそれぞれに、編集作業で用いられる構成が設けられる。この構成により、2組の利用者が同時に編集を行うことができる。
Assuming that the configuration of the
編集ユニット12の正面側は、面12Aと、面12Aの上方に形成された斜面12Bから構成される。面12Aは、床面に対して垂直であり、撮影部21の側面パネル42Aとほぼ平行な面である。斜面12Bには、編集作業に用いられる構成として、タブレット内蔵モニタやタッチペンが設けられる。
The front side of the
斜面12Bの上方右側には、照明装置73の一端を支持する柱状の支持部71A(図5)が設けられる。斜面12Bの左側には、照明装置73の他端を支持する柱状の支持部71Bが設けられる。支持部71Aの右側には板状のパネル72が設けられる。パネル72の上面にはカーテンレール75を支持する支持部74が設けられる。
On the upper right side of the
編集ユニット12の上方にはカーテンレール75が取り付けられる。カーテンレール75は、3本のレール75A乃至75Cが組み合わされて構成される。3本のレール75A乃至75Cは、上から見たときの形状がコの字状となるように組み合わされる。平行に設けられるレール75Aとレール75Bの一端は、連結部31Aと連結部31Bにそれぞれ固定され、レール75Aとレール75Bの他端は、レール75Cの両端にそれぞれ接合される。
A
カーテンレール75には、編集ユニット12の正面前方の空間と背面前方の空間が外から見えないようにカーテンが取り付けられる。そのカーテンにより囲まれる編集ユニット12の正面前方の空間と背面後方の空間が、利用者が編集作業を行う編集空間となる。
A curtain is attached to the
また、後述するが、編集ユニット12の右側面には、印刷済みのシール紙が排出される排出口が設けられる。編集ユニット12の右側面前方の空間が、印刷が終了するのを利用者が待つ印刷待ち空間となる。
As will be described later, a discharge port for discharging printed seal paper is provided on the right side surface of the
<利用者の移動について>
ここで、写真シール作成ゲームの流れと、それに伴う利用者の移動について説明する。
<About user movement>
Here, the flow of the photo sticker creation game and the accompanying movement of the user will be described.
図2は、写真シール作成装置1を上から見た平面図である。
FIG. 2 is a plan view of the photo
まず、利用者は、白抜き矢印#1で示されるように出入り口G1から、または白抜き矢印#2で示されるように出入り口G2から、撮影部21と背景部22の間に形成された撮影空間A1に入る。出入り口G1は側面パネル42Aと側面パネル52Aの間の開口であり、出入り口G2は側面パネル42Bと側面パネル52Bの間の開口である。利用者は、撮影空間A1において、撮影部21に設けられたカメラやタッチパネルモニタなどを利用して撮影作業を行う。
First, the user takes a photographing space formed between the photographing
撮影作業を終えた利用者は、白抜き矢印#3で示されるように出入り口G1から撮影空間A1を出て編集空間A2−1に移動するか、白抜き矢印#4で示されるように出入り口G2から撮影空間A1を出て編集空間A2−2に移動する。
The user who has completed the photographing operation exits the photographing space A1 from the entrance G1 and moves to the editing space A2-1 as shown by the
編集空間A2−1は、編集ユニット12の正面側の編集空間である。一方、編集空間A2−2は、編集ユニット12の背面側の編集空間である。利用者が編集空間A2−1と編集空間A2−2のいずれの空間に移動するのかは、撮影部21のタッチパネルモニタの画面表示などによって案内される。例えば2つの編集空間のうちの空いている方が移動先として案内される。
The editing space A2-1 is an editing space on the front side of the
編集空間A2−1または編集空間A2−2に移動した利用者は、編集作業を開始する。編集空間A2−1の利用者と、編集空間A2−2の利用者は同時に編集作業を行うことができる。 The user who has moved to the editing space A2-1 or the editing space A2-2 starts editing work. The user of the editing space A2-1 and the user of the editing space A2-2 can perform editing work at the same time.
編集作業が終了した後、編集画像の印刷が開始される。印刷が開始されると、編集空間A2−1での編集作業を終えた利用者は、白抜き矢印#5で示されるように編集空間A2−1から印刷待ち空間A3に移動する。また、編集空間A2−2での編集作業を終えた利用者は、白抜き矢印#6で示されるように編集空間A2−2から印刷待ち空間A3に移動する。印刷待ち空間A3に移動した利用者は、印刷が終了するのを待つ間、例えば、サーバに送信する画像の選択や、利用者が持つ携帯端末のメールアドレスの入力を事後選択作業として行う。
After the editing work is completed, printing of the edited image is started. When printing is started, the user who has completed the editing work in the editing space A2-1 moves from the editing space A2-1 to the print waiting space A3 as indicated by the
印刷が終了すると、利用者は、編集ユニット12の右側面に設けられた排出口から排出されたシール紙を受け取り、一連の写真シール作成ゲームを終える。
When printing is completed, the user receives the sticker sheet discharged from the discharge port provided on the right side of the
次に、各部の構成について説明する。 Next, the configuration of each unit will be described.
<撮影部の構成>
図3は、撮影部21の正面の構成例を示す図である。撮影部21は、正面パネル41、側面パネル42A、および側面パネル42Bに囲まれるようにして構成される。
<Configuration of imaging unit>
FIG. 3 is a diagram illustrating a configuration example of the front of the
正面パネル41のほぼ中央には、カメラユニット81が設けられる。カメラユニット81は、カメラ91、正面ストロボユニット92、およびタッチパネルモニタ93から構成される。
A
カメラ91は、例えば一眼レフカメラであり、レンズが露出するようにカメラユニット81の内部に取り付けられる。カメラ91はCCD(Charge Coupled Device)イメージセンサやCMOS(Complementary Metal Oxide Semiconductor)イメージセンサなどの撮像素子を有し、撮影空間A1にいる利用者を撮影する。カメラ91により取り込まれた動画像(以下、ライブビュー画像ともいう)は、タッチパネルモニタ93にリアルタイムで表示される。撮影が指示されたときなどの所定のタイミングでカメラ91により取り込まれた静止画像は、撮影画像として保存される。
The
正面ストロボユニット92は、カメラ91の上方に設けられる。正面ストロボユニット92は、他のストロボユニットと同様にカメラ91による撮影に合わせて発光する。正面ストロボユニット92は、被写体としての利用者の顔付近に、その正面から光を照射する。
The
タッチパネルモニタ93は、カメラ91の下方に設けられる。タッチパネルモニタ93は、LCD(Liquid Crystal Display)などのモニタと、それに積層されたタッチパネルにより構成される。タッチパネルモニタ93は、カメラ91により取り込まれた動画像を表示するライブビューモニタとしての機能と、各種のGUI(Graphical User Interface)パーツを表示することで、利用者の選択操作を受け付ける機能とを備える。タッチパネルモニタ93には、カメラ91により取り込まれた動画像(ライブビュー画像)や静止画像(撮影画像)が表示される。
The touch panel monitor 93 is provided below the
正面パネル41において、カメラユニット81の上方には上ストロボユニット82が設置される。また、カメラユニット81の左方には左ストロボユニット83が設置され、カメラユニット81の右方には右ストロボユニット84が設置される。さらに、カメラユニット81の下方には箱状の足元ストロボユニット85が設置される。
On the
上ストロボユニット82は、前方上側から利用者に光を照射する。左ストロボユニット83は、前方左側から利用者に光を照射する。右ストロボユニット84は、前方右側から利用者に光を照射する。足元ストロボユニット85は、利用者の足元に光を照射する。
The
上ストロボユニット82、左ストロボユニット83、右ストロボユニット84、および足元ストロボユニット85の内部には蛍光灯が設けられる。これらの蛍光灯は、天井ストロボユニット32内部の蛍光灯とあわせて、撮影空間A1内の照明として用いられる。各蛍光灯の発光量が調整されることによって、または、発光する蛍光灯の数が調整されることによって、撮影空間A1内の明るさが適宜調整される。
Fluorescent lamps are provided inside the
足元ストロボユニット85の左右には、足元ストロボユニット85より高さの低い箱状部86A,86Bが設けられる。箱状部86A,86Bそれぞれの上面は、利用者が手荷物などを置くための荷物置き場となる。
On the left and right of the
さらに、箱状部86Aには、利用者が硬貨を投入する硬貨投入口87が設けられる。
Further, the box-shaped
また、図示はしないが、正面パネル41の例えば天井付近にはスピーカが設けられる。そのスピーカは、撮影作業に関する案内音声、BGM、効果音などを出力する。
Although not shown, a speaker is provided on the
<背景部の構成>
図4は、背景部22の撮影空間A1側の構成例を示す図である。
<Structure of background part>
FIG. 4 is a diagram illustrating a configuration example of the
背面パネル51の上方中央には背面上ストロボユニット121が設けられる。また、背面パネル51の上方右側(図中、左側)には背面右ストロボユニット122が設けられ、背面パネル51の上方左側(図中、右側)には背面左ストロボユニット123が設けられる。
An upper
背面上ストロボユニット121は、後方上側から利用者に光を照射する。背面右ストロボユニット122は、後方右側から利用者に光を照射する。背面左ストロボユニット123は、後方左側から利用者に光を照射する。
The upper
背面パネル51の撮影空間A1側(図中、手前側)の面には、背面カーテン124が貼り付けられる。背面カーテン124の色は、例えば緑色とされる。また、図示はしないが、側面パネル52A,52Bそれぞれの撮影空間A1側にも、背面カーテン124と同様の側面カーテンが貼り付けられる。側面カーテンの色は、背面カーテン124の色と同一とする。
A
これらのカーテンはクロマキー用のカーテンとして用いられる。これにより、撮影画像に対してクロマキー処理を施し、利用者が所望する背景画像を、撮影画像の背景部分に合成することができる。なお、これらのカーテンの色は、クロマキー処理を行うことができる色であればよく、青色など、その他の色であってもよい。 These curtains are used as chroma key curtains. Thereby, the chroma key processing is performed on the photographed image, and the background image desired by the user can be synthesized with the background portion of the photographed image. The color of these curtains may be any color that can perform chroma key processing, and may be other colors such as blue.
<編集ユニットの構成>
図5は、編集ユニット12の正面側(編集空間A2−1側)の構成例を示す図である。
<Configuration of editing unit>
FIG. 5 is a diagram illustrating a configuration example on the front side (the editing space A2-1 side) of the
斜面12Bのほぼ中央には、タブレット内蔵モニタ131が設けられる。タブレット内蔵モニタ131の左側にはタッチペン132Aが設けられる。タブレット内蔵モニタ131の右側にはタッチペン132Bが設けられる。
A tablet built-in
タブレット内蔵モニタ131は、タブレットがディスプレイを露出するように設けられることによって構成される。タブレットは、タッチペン132Aまたはタッチペン132Bを用いた操作入力を可能とする。タブレット内蔵モニタ131には、例えば、編集作業に用いられる編集画面が表示される。2人の利用者が同時に編集作業を行う場合、タッチペン132Aはタブレット内蔵モニタ131に向かって左側にいる利用者により用いられ、タッチペン132Bはタブレット内蔵モニタ131に向かって右側にいる利用者により用いられる。
The tablet built-in
図6は、編集ユニット12の右側面の構成例を示す図である。
FIG. 6 is a diagram illustrating a configuration example of the right side surface of the
編集ユニット12の右側面の一部を構成するパネル72には、タブレット内蔵モニタ141が設けられる。タブレット内蔵モニタ141には、事後選択作業に用いられる画面が表示される。
A panel built-in
編集ユニット12の右側面の下部には、シール紙排出口142が設けられる。編集ユニット12の内部にはプリンタが設けられている。そのプリンタにより、編集空間A2−1の利用者が写る画像、または、編集空間A2−2の利用者が写る画像が所定のレイアウト(以下、シールレイアウトという)でシール紙に印刷され、シール紙排出口142から排出される。
At the lower part on the right side of the
タブレット内蔵モニタ141の下方には、スピーカ143が設けられる。スピーカ143は、事後選択作業に関する案内音声、BGM、効果音等などを出力する。
A
<写真シール作成装置の内部構成>
図7は、写真シール作成装置1の内部の構成例を示すブロック図である。図7において、上述した構成と同じ構成には同じ符号を付してある。重複する説明については適宜省略する。
<Internal configuration of photo sticker creation device>
FIG. 7 is a block diagram showing an example of the internal configuration of the photo
制御部201は、CPU(Central Processing Unit)などにより構成される。制御部201は、ROM(Read Only Memory)206や記憶部202に記憶されているプログラムを実行し、写真シール作成装置1の全体の動作を制御する。制御部201には、記憶部202、通信部203、ドライブ204、ROM206、RAM(Random Access Memory)207が接続される。制御部201には、撮影部208、編集部209A,209B、および事後選択部210の各構成も接続される。
The
記憶部202は、ハードディスクやフラッシュメモリなどの不揮発性の記憶媒体である。記憶部202は、制御部201から供給された各種の設定情報などを記憶する。記憶部202に記憶されている情報は制御部201により適宜読み出される。
The
通信部203は、インターネットなどのネットワークのインタフェースである。通信部203は、制御部201による制御に従って外部の装置と通信を行う。通信部203は、例えば、利用者に選択された撮影画像や編集画像をサーバに送信する。通信部203から送信された画像は、サーバにおいて所定の記憶領域が割り当てられて保存され、サーバにアクセスしてきた携帯端末に表示されたり、ダウンロードされたりする。
The
ドライブ204には、光ディスクや半導体メモリなどよりなるリムーバブルメディア205が適宜装着される。ドライブ204によりリムーバブルメディア205から読み出されたプログラムやデータは、制御部201に供給され、記憶部202に記憶されたり、インストールされたりする。
In the
ROM206は、制御部201において実行されるプログラムやデータを記憶する。RAM207は、制御部201が処理するデータやプログラムを一時的に記憶する。
The
撮影部208は、撮影空間A1にいる利用者を対象とした撮影処理を実現する。撮影部208は、硬貨処理部221、照明装置222、カメラ91、タッチパネルモニタ93、およびスピーカ223から構成される。
The
硬貨処理部221は、硬貨投入口87への硬貨の投入を検出する。硬貨処理部221は、例えば400円などの所定の金額分の硬貨が投入されたことを検出した場合、ゲームの開始を指示する起動信号を制御部201に出力する。
The
照明装置222は、撮影空間A1内の各ストロボユニットであり、制御部201から供給される照明制御信号に従って発光する。
The
カメラ91は、制御部201によるシャッタ制御に従って撮影を行い、撮影によって得られた撮影画像(画像データ)を制御部201に出力する。
The
編集部209Aは、編集空間A2−1にいる利用者を対象とした編集処理を実現する。編集部209Aは、タブレット内蔵モニタ131、タッチペン132A,132B、およびスピーカ231から構成される。編集部209Bは、編集空間A2−2にいる利用者を対象とした編集処理を実現し、編集部209Aと同一の構成を有する。なお、以下、編集部209A,209Bを特に区別しない場合には、単に、編集部209という。
The
タブレット内蔵モニタ131は、制御部201による制御に従って編集画面を表示し、編集画面に対する利用者の操作を受け付ける。利用者の操作の内容を表す入力信号は制御部201に供給され、編集対象となる撮影画像が編集される。
The tablet built-in
事後選択部210は、印刷待ち空間A3にいる利用者を対象とした事後選択処理を実現する。事後選択処理は、事後選択作業を利用者に行わせるための処理である。事後選択部210は、タブレット内蔵モニタ141、スピーカ143、およびプリンタ241から構成される。プリンタ241にはシール紙ユニット242が装着される。
The post-selection unit 210 implements post-selection processing for users in the print waiting space A3. The post-selection process is a process for causing the user to perform a post-selection operation. The post-selection unit 210 includes a
タブレット内蔵モニタ141は、制御部201による制御に従って各種の選択画面等を表示し、その画面に対する利用者の操作を受け付ける。利用者の操作の内容を表す入力信号は制御部201に供給され、各種の設定が行われる。
The tablet built-in
プリンタ241は、制御部201から供給された印刷データに基づいて、シール紙ユニット242に収納されているシール紙に編集画像を印刷する。プリンタ241は、編集画像を所定のシールレイアウトで印刷したシール紙を、シール紙排出口142に排出する。
The printer 241 prints the edited image on the sticker sheet stored in the
<制御部の構成>
図8は、制御部201の機能構成例を示すブロック図である。図8に示す機能部のうちの少なくとも一部は、制御部201内のCPUにより所定のプログラムが実行されることによって実現される。
<Configuration of control unit>
FIG. 8 is a block diagram illustrating a functional configuration example of the
制御部201は、撮影処理部301、編集処理部302、印刷処理部303、および事後選択処理部304から構成される。
The
撮影処理部301は、撮影部208の各部を制御することで、撮影処理を行う。編集処理部302は、編集部209の各部を制御することで、編集処理を行う。印刷処理部303は、事後選択部210のプリンタ241を制御することで、印刷処理を行う。事後選択処理部304は、事後選択部210のタブレット内蔵モニタ141を制御することで、事後選択処理を行う。
The
<撮影処理部の構成例>
図9は、撮影処理部301の機能構成例を示すブロック図である。
<Example of configuration of photographing processing unit>
FIG. 9 is a block diagram illustrating a functional configuration example of the photographing
撮影処理部301は、表示制御部311、撮影制御部312、画像処理部313、および照明制御部314から構成される。
The
表示制御部311は、タッチパネルモニタ93の表示を制御する。例えば、表示制御部311は、タッチパネルモニタ93に、カメラ91に取り込まれたライブビュー画像を表示させたり、撮影結果である撮影画像を表示させたりする。
The
撮影制御部312は、カメラ91を制御することで、被写体が写る動画像をライブビュー画像として取り込んだり、撮影のタイミングで得られた静止画像を撮影画像として取り込む。
By controlling the
画像処理部313は、カメラ91に取り込まれたライブビュー画像や撮影画像に所定の画像処理を施す。
The
照明制御部314は、撮影空間A1内の照明装置222(各ストロボユニット)の発光を制御する。
The
<写真シール作成装置の動作>
ここで、図10のフローチャートを参照して、写真シール作成ゲームを提供する写真シール作成装置1の動作について説明する。図10の処理は、所定の金額分の硬貨が硬貨投入口87に投入されたときに開始される。
<Operation of the photo sticker creation device>
Here, the operation of the photo
ステップS1において、撮影処理部301は、撮影部208を制御することで、撮影処理を行う。具体的には、撮影処理部301は、カメラ91に取り込まれた被写体のライブビュー画像をタッチパネルモニタ93に表示させ、撮影空間A1にいる利用者を被写体として撮影し、撮影画像を生成する。
In step S1, the photographing
ステップS2において、編集処理部302は、撮影処理を終えた利用者の移動先とした方の編集空間に対応する編集部209を制御することで、編集処理を行う。具体的には、編集処理部302は、撮影処理により得られた撮影画像に対して利用者に編集作業を行わせることで、編集が施された編集画像を生成する。
In step S2, the
ステップS3において、印刷処理部303は、プリンタ241を制御することで、印刷処理を開始する。具体的には、印刷処理部303は、編集処理により得られた編集画像を、プリンタ241に出力してシール紙に印刷させる。なお、撮影処理により得られた撮影画像が、シール紙に印刷されるようにしてもよい。
In step S3, the
ステップS4において、事後選択処理部304は、タブレット内蔵モニタ141を制御することで、事後選択処理を行う。具体的には、事後選択処理部304は、印刷が終わるのを待っている利用者に事後選択作業を行わせ、選択された撮影画像や編集画像を利用者の携帯端末に送信するために、その画像をサーバに送信する。
In step S4, the post-selection processing unit 304 performs post-selection processing by controlling the tablet built-in
印刷が終了すると、ステップS5において、プリンタ241は、画像が印刷されたシール紙をシール紙排出口142に排出し、処理を終了させる。
When the printing is completed, in step S5, the printer 241 discharges the seal paper on which the image is printed to the
<撮影処理の詳細>
次に、図11のフローチャートを参照して、上述した写真シール作成ゲームの一連の処理におけるステップS1の撮影処理の詳細について説明する。
<Details of shooting processing>
Next, with reference to the flowchart of FIG. 11, the details of the photographing process of step S1 in the series of processes of the above-described photo sticker creation game will be described.
撮影処理が開始されると、ステップS21において、表示制御部311は、写りコース選択画面をタッチパネルモニタ93に表示させる。
When the photographing process is started, in step S21, the
写りコース選択画面は、撮影画像に写る被写体の写りを決定する写りコースの選択に用いられる画面である。写りコースには、「Lightコース」と「Clearコース」とがある。Lightコースは、肌の色を若干黄みを帯びた色にすることで、撮影画像に写る被写体の肌の質感を自然でうるおいのあるものとするための写りコースである。Clearコースは、肌の色を若干青みを帯びた色にすることで、撮影画像に写る被写体の肌の質感を色白で透明感のあるものとするための写りコースである。 The reflection course selection screen is a screen used to select a reflection course for determining the reflection of a subject in a captured image. The reflection course includes a “Light course” and a “Clear course”. The Light course is a reflection course for making the skin texture of a subject appearing in a captured image natural and moist by making the skin color slightly yellowish. The Clear course is a reflection course for making the skin texture of a subject appearing in a captured image fair and transparent by making the skin color slightly bluish.
写りコースにより決定される被写体の写りは、撮影画像に対して施される画像処理によって決定される。例えば、被写体の写りは、撮影画像における人物領域の彩度、明度、シャープネス、コントラストなどの少なくともいずれかを調整することで決定される。また、被写体の写りは、撮影空間A1内の各ストロボユニットの発光を制御することで決定されるようにしてもよい。 The image of the subject determined by the shooting course is determined by image processing performed on the captured image. For example, the appearance of a subject is determined by adjusting at least one of saturation, brightness, sharpness, contrast, and the like of a person region in a captured image. Further, the image of the subject may be determined by controlling the light emission of each strobe unit in the photographing space A1.
写りコース選択画面が操作されることによって、いずれかの写りコースが選択されると、撮影制御部312は、カメラ91を制御することで、動画像の取り込みを開始する。表示制御部311は、取り込まれた動画像をライブビュー画像としてタッチパネルモニタ93に表示させる。
When one of the shooting courses is selected by operating the shooting course selection screen, the
利用者は、タッチパネルモニタ93に表示されるライブビュー画像を見ることで自分たちの写り方を確認することができる。 The user can confirm how the user is projected by viewing the live view image displayed on the touch panel monitor 93.
ライブビュー画像の表示が開始されてから所定の時間が経過すると、ステップS22において、撮影制御部312は、1回目の撮影を行う。
When a predetermined time has elapsed since the start of the display of the live view image, in step S22, the
この撮影処理においては、6回の撮影が行われる。6回行われる撮影のうち、1乃至3回目としてアップ撮影が、4,5回目の撮影として斜め撮影が、6回目の撮影として全身撮影が行われる。 In this photographing process, six photographings are performed. Of the six shots performed, up shooting is performed as the first to third shots, oblique shooting is performed as the fourth and fifth shots, and whole body shooting is performed as the sixth shooting.
アップ撮影は、利用者の顔および上半身が写る撮影画像(以下、アップ画像ともいう)を得るための撮影である。斜め撮影は、利用者の顔および上半身が傾いて写る撮影画像(以下、斜め画像ともいう)を得るための撮影である。全身撮影は、利用者の全身が写る撮影画像(以下、全身画像ともいう)を得るための撮影である。 The up photographing is photographing for obtaining a photographed image (hereinafter, also referred to as an up image) in which the user's face and upper body are captured. Oblique photographing is photographing for obtaining a photographed image (hereinafter, also referred to as a slanted image) in which a user's face and upper body are photographed at an angle. Whole-body imaging is imaging for obtaining a captured image (hereinafter, also referred to as a full-body image) of the whole body of the user.
したがって、ステップS22においては、1回目の撮影として、アップ撮影が行われる。 Therefore, in step S22, up shooting is performed as the first shooting.
その後、ステップS23,S24において、撮影制御部312は、それぞれ2,3回目の撮影として、アップ撮影を行う。
Thereafter, in steps S23 and S24, the photographing
ステップS25において、撮影処理部301は、斜め撮影のガイダンスを行う。具体的には、表示制御部311は、斜め撮影の仕方を説明する画面をタッチパネルモニタ93に表示させる。その後、ライブビュー画像がタッチパネルモニタ93に表示された状態で撮影のタイミングになったとき、ステップS26において、撮影制御部312は、4回目の撮影として、斜め撮影を行う。
In step S25, the
その後、ステップS27において、撮影制御部312は、5回目の撮影として、斜め撮影を行う。
Thereafter, in step S27, the
ステップS28において、撮影処理部301は、立ち位置のガイダンスを行う。具体的には、表示制御部311は、全身撮影のための、カメラ91から離れた立ち位置を説明する画面をタッチパネルモニタ93に表示させる。その後、ライブビュー画像がタッチパネルモニタ93に表示された状態で撮影のタイミングになったとき、ステップS29において、撮影制御部312は、6回目の撮影として、全身撮影を行う。
In step S28, the
以上のようにして、6枚の撮影画像(静止画像)として、3枚のアップ画像、2枚の斜め画像、そして、1枚の全身画像が得られる。 As described above, three up images, two oblique images, and one whole body image are obtained as six captured images (still images).
ステップS30において、画像処理部313は、6枚の撮影画像それぞれに対して、写りコースに応じた画像処理を施す。
In step S30, the
具体的には、Lightコースが選択された場合、画像処理部313は、6枚の撮影画像それぞれに対して、被写体の肌の質感が自然でうるおいのあるものになるように、彩度、明度、シャープネス、およびコントラスト(輝度)を調整する。
Specifically, when the Light course is selected, the
また、Clearコースが選択された場合、画像処理部313は、6枚の撮影画像それぞれに対して、被写体の肌の質感を色白で透明感のあるものになるように、彩度、明度、シャープネス、およびコントラスト(輝度)を調整する。
When the Clear course is selected, the
その後、撮影処理部301は、写りコースに応じた画像処理が施された6枚の撮影画像を記憶部202に記憶させる。
After that, the photographing
ステップS31において、撮影処理部301は、撮影を終えた利用者に対して、編集空間A2−1または編集空間A2−2への移動を案内する。編集空間への移動の案内は、タッチパネルモニタ93に案内画面を表示させることによって、または音声をスピーカ231から出力させることによって行われる。
In step S31, the
上述した撮影処理においては、撮影の際にライブビュー画像が表示される。そこで、以下においては、ライブビュー画像を表示する処理の詳細について説明する。 In the above-described shooting processing, a live view image is displayed at the time of shooting. Therefore, in the following, details of the process of displaying the live view image will be described.
<ライブビュー画像表示処理の詳細>
図12は、ライブビュー画像表示処理の例について説明するフローチャートである。ここでは、アップ撮影が行われる際のライブビュー画像表示処理について説明する。
<Details of live view image display processing>
FIG. 12 is a flowchart illustrating an example of the live view image display processing. Here, a live view image display process when up-shooting is performed will be described.
まず、ステップS51において、表示制御部311は、ライブビュー画像が表示されるライブビュー表示画面を、タッチパネルモニタ93に表示させる。
First, in step S51, the
ステップS52において、撮影制御部312は、カメラ91を制御することで、利用者が映る動画像を取り込む。
In step S52, the
ステップS53において、画像処理部313は、動画像における人物領域を特定する。ここでは、アップ撮影が行われるので、動画像における人物領域は、被写体の上半身の領域である上半身領域とする。なお、上半身領域には、被写体の顔の領域である顔領域が含まれるものとする。
In step S53, the
具体的には、画像処理部313は、取り込まれた動画像に対して顔認識を行うことにより、動画像における人物領域(顔領域)を特定する。例えば、画像処理部313は、動画像において、目や鼻などの顔のパーツの相対位置や大きさ、頬骨や顎の輪郭の形状をもとに、1人の顔を認識する。なお、その他の顔認識アルゴリズムにより、顔認識が行われてももちろんよい。
Specifically, the
ステップS54において、画像処理部313は、動画像において特定された人物領域に対して画像処理を施す。ここでは、顔認識の結果を利用した画像処理として、以下に挙げるような画像処理が人物領域に対して施される。
In step S54, the
(1)小顔処理
例えば、まず、図13左に示されるように、取り込まれた動画像411に写る2人の被写体の顔の輪郭点f11乃至f15,f21乃至f25を抽出する。次に、図13中央に示されるように、抽出された輪郭点に基づいて、それらを含む矩形領域F1,F2を設定する。そして、図13右に示されるように、設定された矩形領域を、その上辺を固定した状態で縮小する処理を施す。
(1) Small Face Processing For example, as shown on the left side of FIG. 13, first, contour points f11 to f15 and f21 to f25 of the faces of two subjects appearing in the captured moving
具体的には、矩形領域の境界近傍の領域に対して、矩形領域の内側の領域を縮めるように、矩形領域の外側の領域を伸ばすようにして変形処理を施す。このようにして、矩形領域の境界近傍の領域において、画素の欠損を生じることなく、矩形領域を縮小する。 Specifically, a deformation process is performed on a region near the boundary of the rectangular region such that the region outside the rectangular region is extended so that the region inside the rectangular region is contracted. In this way, in the region near the boundary of the rectangular region, the rectangular region is reduced without causing pixel loss.
その他には、まず、図14左に示されるように、取り込まれた動画像411に写る2人の被写体の顔の輪郭線L1,L2を特定する。そして、図14右に示されるように、特定された輪郭線L1,L2を顔領域の内側に移動することで、新たな輪郭線C1,C2を設定する。
In addition, first, as shown on the left side of FIG. 14, the outlines L1 and L2 of the faces of the two subjects appearing in the captured moving
具体的には、輪郭線L1,L2を中心にして所定の幅をもつ境界領域に対して、境界領域の内側の領域を縮めるように、境界領域の外側の領域を伸ばすようにして変形処理を施す。このようにして、境界領域において、画素の欠損を生じることなく、輪郭線C1,C2を設定する。 Specifically, for the boundary region having a predetermined width around the contour lines L1 and L2, the deformation process is performed by expanding the region outside the boundary region so as to shrink the region inside the boundary region. Apply. In this way, the contour lines C1 and C2 are set in the boundary area without causing any pixel loss.
以上のような処理により、被写体の顔を小さくする。 Through the processing described above, the face of the subject is reduced.
(2)目サイズ変更処理
まず、動画像に映る被写体の顔領域において目領域の画像を抽出する。そして、抽出された目領域の画像を、所定の拡大率で拡大する。数パターンの拡大率が用意されるようにしてもよい。
(2) Eye Size Change Processing First, an image of an eye area is extracted from a face area of a subject appearing in a moving image. Then, the image of the extracted eye region is enlarged at a predetermined enlargement ratio. Several patterns of enlargement ratios may be prepared.
このような処理により、目のサイズを変更する。 The eye size is changed by such processing.
(3)美鼻処理
まず、動画像に映る被写体の顔領域において鼻領域の画像を抽出する。そして、抽出された鼻領域の画像の一部または全部を、所定の縮小率で縮小する。数パターンの縮小率が用意されるようにしてもよい。
(3) Nasal processing First, an image of a nose region is extracted from a face region of a subject appearing in a moving image. Then, part or all of the extracted image of the nose region is reduced at a predetermined reduction ratio. Several patterns of reduction ratios may be prepared.
このような処理により、鼻の大きさや形状を変更する。 Through such processing, the size and shape of the nose are changed.
(4)口サイズ変更処理
まず、動画像に映る被写体の顔領域において口領域の画像を抽出する。そして、抽出された口領域の画像を、所定の拡大率で拡大するか、または、所定の縮小率で縮小する。数パターンの拡大率や縮小率が用意されるようにしてもよい。
(4) Mouth Size Change Processing First, an image of the mouth area is extracted from the face area of the subject shown in the moving image. Then, the extracted image of the mouth region is enlarged at a predetermined enlargement ratio or reduced at a predetermined reduction ratio. An enlargement ratio and a reduction ratio of several patterns may be prepared.
このような処理により、口のサイズを変更する。 Through such processing, the size of the mouth is changed.
(5)目形状変更処理
まず、動画像に映る被写体の顔領域において目尻部分または目頭部分を特定する。そして、特定された目尻部分または目頭部分を、所定距離だけ上方向(頭の方向)や下方向(顎の方向)、その他の方向に移動する。
(5) Eye shape change processing First, the outer corner or the inner corner of the eye is specified in the face area of the subject shown in the moving image. Then, the specified outer or outer corner of the eye is moved upward (toward the head), downward (toward the chin), or another direction by a predetermined distance.
このような処理により、目の形状を変更し、たれ目やつり目など、目元の印象を変える。 Through such processing, the shape of the eyes is changed, and the impression of the eyes, such as the sagging eyes and the crossed eyes, is changed.
(6)口元変更処理
まず、動画像に映る被写体の顔領域において口角部分を特定する。そして、特定された口角部分を、所定距離だけ上方向(頭の方向)に移動する。
(6) Mouth Change Process First, a corner of the mouth is specified in the face area of the subject shown in the moving image. Then, the specified mouth corner portion is moved upward (toward the head) by a predetermined distance.
このような処理により、口元の形を変更し、微笑んだときの口元に変える。また、口角が上がりすぎている場合には、口角部分を下方向に移動することで、口元の形を変更するようにしてもよい。 By such processing, the shape of the lip is changed, and the lip is changed to the lip when smiling. If the corner of the mouth is too high, the shape of the mouth may be changed by moving the corner of the mouth downward.
(7)肌色変更処理
まず、肌領域を特定する。そして、特定された肌領域の色を調整する。
(7) Skin Color Change Processing First, a skin area is specified. Then, the color of the specified skin area is adjusted.
このような処理により、肌の色を変更する。 Through such processing, the skin color is changed.
(8)髪色変更処理
まず、髪領域を特定する。そして、特定された髪領域の色を調整する。
(8) Hair Color Change Processing First, a hair area is specified. Then, the color of the specified hair region is adjusted.
このような処理により、髪の色を変更する。 By such processing, the color of the hair is changed.
(9)化粧処理
まず、動画像に映る被写体の顔領域において頬部分や唇部分を特定する。そして、特定された頬部分や唇部分の領域の色を、ピンク色や赤色等に変更する。
(9) Makeup Processing First, a cheek portion and a lip portion are specified in a face region of a subject reflected in a moving image. Then, the color of the specified cheek or lip region is changed to pink or red.
このような処理により、チークや口紅などの化粧を施した顔に変更する。 By such processing, the face is changed to a face with makeup such as teak or lipstick.
(10)美肌処理
動画像全体や、動画像に映る被写体の肌領域に対して、ぼかし処理を施す。
(10) Beautiful Skin Processing Blur processing is performed on the entire moving image and the skin area of the subject appearing in the moving image.
このような処理により、肌をきれいに見えるようにする。 By such processing, the skin is made to look beautiful.
ステップS54においては、上述した画像処理のうち、少なくとも2種類以上の画像処理が人物領域に対して施される。なお、これらの画像処理は、利用者による一切の選択によらず施される。 In step S54, at least two or more types of image processing among the above-described image processing are performed on the person area. Note that these image processings are performed regardless of any selection by the user.
図12のフローチャートに戻り、ステップS55において、表示制御部311は、ライブビュー表示画面に、複数種類の画像処理が施された動画像を、ライブビュー画像としてリアルタイムに表示する。
Returning to the flowchart of FIG. 12, in step S55, the
図15は、ライブビュー表示画面の例を示す図である。 FIG. 15 is a diagram illustrating an example of the live view display screen.
ライブビュー表示画面のほぼ中央には、画像表示領域451が設けられる。画像表示領域451には、2人の利用者が映る動画像がリアルタイムで表示される。画像表示領域451の下側には、撮影結果表示領域461乃至466が設けられる。撮影結果表示領域461乃至466には、6回行われる撮影の結果得られる撮影画像が、撮影を終える毎に表示される。
An
図15の例では、画像表示領域451に表示される動画像には、複数種類の画像処理が施されているものとする。
In the example of FIG. 15, it is assumed that a moving image displayed in the
そして、ステップS56において、撮影制御部312は、撮影タイミングになったか否かを判定する。撮影タイミングになっていないと判定された場合、処理はステップS52に戻る。すなわち、継続して、複数種類の画像処理が施されたライブビュー画像が表示される。
Then, in step S56, the
一方、ステップS56において、撮影タイミングになったと判定された場合、ライブビュー画像の表示は終了し、撮影が行われる。 On the other hand, if it is determined in step S56 that the shooting timing has come, the display of the live view image ends, and shooting is performed.
以上の処理によれば、利用者がいずれの操作も行うことなく、ライブビュー画像における人物領域に対して画像処理が施される。これにより、利用者は、容易に画像の仕上がりをイメージすることが可能となる。 According to the above processing, the image processing is performed on the person area in the live view image without performing any operation by the user. Thereby, the user can easily imagine the finish of the image.
また、利用者がカメラ91の撮影範囲の端に立っている場合、顔認識が行われず、上述した画像処理が施されない可能性がある。したがって、利用者は、ライブビュー画像を確認しより良く映ろうとすることで、適切な立ち位置に立つことができる。
When the user is standing at the end of the shooting range of the
以上においては、顔認識の結果を利用した画像処理が顔領域に施されるものとした。 In the above description, the image processing using the result of the face recognition is performed on the face area.
これに限らず、顔領域や肌色領域を取得するマスク画像を生成し、そのマスク画像を利用した画像処理が顔領域に対して施されるようにしてもよい。 However, the present invention is not limited thereto, and a mask image for acquiring a face area or a skin color area may be generated, and image processing using the mask image may be performed on the face area.
さらに、全身撮影が行われる際のライブビュー画像表示処理においては、人物領域全体を取得するマスク画像を生成し、そのマスク画像を利用した画像処理が人物領域に対して施されるようにしてもよい。人物領域全体のマスク画像を利用した画像処理としては、被写体の脚を長くする脚長処理や、被写体の身体を細くする痩身処理などがある。 Furthermore, in the live view image display processing when whole body imaging is performed, a mask image for acquiring the entire human area may be generated, and image processing using the mask image may be performed on the human area. Good. Image processing using the mask image of the entire human area includes leg length processing for lengthening the subject's leg and slimming processing for making the subject's body thinner.
なお、上述したライブビュー画像表示処理は、6回行われる撮影それぞれについて行われるものとする。この場合、撮影の結果得られる6枚の撮影画像それぞれにも、ライブビュー画像と同様の画像処理が施されるものとする。 Note that the above-described live view image display processing is performed for each of the shootings performed six times. In this case, the same image processing as that of the live view image is performed on each of the six captured images obtained as a result of capturing.
なお、上述したライブビュー画像表示処理が、6回行われる撮影のうち、所定回の撮影については行われないようにしてもよい。 Note that the live view image display processing described above may not be performed for a predetermined number of times of imaging performed six times.
例えば、1回目の撮影については、上述したライブビュー画像表示処理が行われないようにする。これにより、利用者は、1回目の撮影時のライブビュー画像と、2回目の撮影時のライブビュー画像との違いにより、画像処理の効果をはっきりと認識することができる。この場合、1回目の撮影の結果得られる撮影画像は、シール紙に印刷されたり、携帯端末に送信されたりしないようにしてもよい。また、その撮影画像は、シール紙に印刷されず、携帯端末に送信されるようにしてもよい。 For example, for the first shooting, the live view image display processing described above is not performed. Thus, the user can clearly recognize the effect of the image processing due to the difference between the live view image at the time of the first shooting and the live view image at the time of the second shooting. In this case, the photographed image obtained as a result of the first photographing may not be printed on a sticker sheet or transmitted to the portable terminal. Further, the photographed image may be transmitted to the portable terminal without being printed on the sticker paper.
また、写真シール作成装置1が、複数種類の画像処理が施された動画像を記憶するようにしてもよい。さらに、写真シール作成装置1に記憶された動画像を、サーバを介して、利用者の携帯端末に送信されるようにしてもよい。これにより、利用者は、複数種類の画像処理が施された動画像を、ブログやSNS(Social Networking Service)などにアップロードすることができる。
Further, the photo
この場合、さらに、複数種類の画像処理が施された動画像が、撮影のタイミングの前後でも記憶されるようにしてもよい。 In this case, a moving image on which a plurality of types of image processing have been performed may be stored before and after the shooting timing.
従来、利用者が、例えば本来のシャッタタイミングで目を閉じてしまった場合、得られた撮影画像において目領域を特定することができない可能性があった。この場合、目領域に対する画像処理を施すことはできない。 Conventionally, when a user closes his / her eyes at an original shutter timing, for example, there is a possibility that an eye area cannot be specified in an obtained captured image. In this case, image processing cannot be performed on the eye region.
そこで、目領域に対する画像処理が施された動画像を、撮影のタイミングの前後でも記憶するようにする。これにより、上述のような場合でも、シャッタタイミングの前後のフレームから、目領域に対する画像処理が施された撮影画像(静止画像)を得ることができる。 Therefore, a moving image obtained by performing image processing on the eye region is stored before and after the photographing timing. Thus, even in the case described above, a captured image (still image) in which image processing has been performed on the eye region can be obtained from frames before and after the shutter timing.
<画像処理が施されるケースについて>
特定のケースでのみ、上述した画像処理がライブビュー画像に施されるようにしてもよい。
<About cases where image processing is performed>
The image processing described above may be performed on the live view image only in a specific case.
(撮影範囲に応じて画像処理を施すケース)
例えば、撮影範囲に応じて、上述した画像処理が施されるか否かが決定されるようにしてもよい。仮に、全身撮影が行われる際に、動画像における顔のパーツに画像処理が施されても、利用者はそれを確認しにくい。そこで、アップ撮影が行われる場合にのみ、動画像における顔のパーツに画像処理が施されるようにしてもよい。すなわち、全身撮影が行われる場合には、動画像における顔のパーツに画像処理が施されないようにしてもよい。また、全身撮影が行われる場合にのみ、動画像における人物領域に、上述した脚長処理や痩身処理が施されるようにしてもよい。さらに、全身撮影が行われる場合と、アップ撮影が行われる場合とで、動画像における人物領域において画像処理が施される身体の部位が変わるようにしてもよい。
(Case where image processing is performed according to the shooting range)
For example, whether or not the above-described image processing is performed may be determined according to the shooting range. Even if image processing is performed on a face part in a moving image when the whole body is photographed, it is difficult for a user to confirm the image processing. Therefore, the image processing may be performed on the face part in the moving image only when the close-up shooting is performed. That is, when full-body imaging is performed, image processing may not be performed on face parts in a moving image. Further, the leg length processing and the slimming processing described above may be performed on the person region in the moving image only when the whole body imaging is performed. Furthermore, a part of the body to be subjected to image processing in a person region in a moving image may be changed between a case where whole body imaging is performed and a case where close-up imaging is performed.
また、アップ撮影が行われる場合と全身撮影が行われる場合とで、異なるパラメータで画像処理が施されるようにしてもよい。 In addition, image processing may be performed with different parameters depending on whether up-shooting is performed or when whole-body shooting is performed.
具体的には、全身撮影が行われる場合よりアップ撮影が行われる場合に、顔のパーツに施される画像処理のパラメータ(顔の小ささ、目の大きさなど)を高くする。全身画像と比べてアップ画像の方が、顔が大きく写るので、利用者は画像処理の結果を確認しやすい。 More specifically, in the case where close-up shooting is performed rather than where full-body shooting is performed, the parameters of image processing (small face size, eye size, etc.) applied to the face parts are increased. Since the close-up image has a larger face than the whole-body image, the user can easily confirm the result of the image processing.
逆に、アップ撮影が行われる場合より全身撮影が行われる場合に、顔のパーツに施される画像処理のパラメータを高くする。この場合、利用者は、全身画像を拡大したときに、アップ画像と同じように細部にわたって画像処理が施されていることに気付く。これにより、利用者は、撮影結果である全身画像を、その日のコーディネートを記録するためのものとしてだけではなく、アップ画像のように顔の部分を記録するためのものとして扱うことができる。 Conversely, the parameters of the image processing performed on the face parts are higher when the whole body is photographed than when the close-up photographing is performed. In this case, when the user enlarges the whole-body image, he or she notices that image processing has been performed on the details in the same manner as the up image. Thereby, the user can handle the whole body image as the photographing result not only for recording the coordination of the day, but also for recording the face part like an up image.
もちろん、アップ撮影が行われる場合と全身撮影が行われる場合とで、同じパラメータで画像処理が施されるようにしてもよい。 Of course, the image processing may be performed with the same parameters when the up-photographing is performed and when the whole-body photographing is performed.
なお、アップ撮影が行われる場合と全身撮影が行われる場合とにおける画像処理のパラメータ(画像処理の強弱や、画像処理のON/OFF(有無)を含む)は、写真シール作成装置1が設定するようにしてもよいし、利用者に設定させるようにしてもよい。
Note that the image
(撮影コースに応じて画像処理を施すケース)
また、撮影に関するコースに応じて、上述した画像処理が施されるか否かが決定されるようにしてもよい。撮影に関するコースは、撮影に関わる種々の処理として、どのような処理が施されるかを決定するためのものである。撮影に関するコースは、利用者による選択により決定される。すなわち、利用者による直接的な選択によらず、撮影に関するコースの選択という、間接的な選択に応じて、上述した画像処理が施されるか否かが決定されるものとする。
(Case where image processing is performed according to the shooting course)
In addition, whether or not the above-described image processing is performed may be determined according to a course regarding shooting. The shooting course is for determining what kind of processing is performed as various processing related to shooting. The course for shooting is determined by the user's choice. That is, whether or not the above-described image processing is performed is determined in accordance with an indirect selection of selecting a course related to photographing, without depending on a direct selection by the user.
例えば、撮影前に、上述したような写りコースを利用者に選択させる場合、特定の写りコースが選択されたときに、上述した画像処理が施されるようにする。 For example, in a case where the user selects the above-described image capturing course before photographing, the above-described image processing is performed when a specific image capturing course is selected.
また、撮影前に、被写体の人数に応じた撮影の種類を決定する人数コースを、利用者に選択させるようにしてもよい。 Further, before photographing, the user may be allowed to select a number course for determining the type of photographing according to the number of subjects.
このとき、選択された人数コースに応じて、画像処理が施されるか否かが決定されるようにする。被写体の人数が多いほど、ライブビュー画像において、被写体同士の顔が重なり、顔認識が失敗する可能性が高まる。そこで、大人数に対応した撮影が行われる人数コースが選択された場合には、画像処理が施されないようにする。逆に、1人や2人などの少人数に対応した撮影が行われる人数コースが選択された場合には、画像処理が施されるようにする。 At this time, whether or not image processing is performed is determined according to the selected number course. As the number of subjects increases, the faces of the subjects overlap in the live view image, and the possibility of face recognition failure increases. Therefore, when a number course in which shooting corresponding to a large number of people is performed is selected, image processing is not performed. Conversely, when a number course in which photographing corresponding to a small number of persons such as one person or two persons is performed is selected, image processing is performed.
さらに、撮影前に、撮影画像の背景となる背景画像の種類を決定する背景コースを、利用者に選択させるようにしてもよい。この場合、ライブビュー画像の背景にも、選択された背景コースの背景画像が合成されるようにする。 Further, before shooting, the user may be allowed to select a background course that determines the type of background image that is the background of the shot image. In this case, the background image of the selected background course is also combined with the background of the live view image.
このとき、選択された背景コースに応じて、画像処理が施されるか否かが決定されるようにする。例えば、白色を基調とした背景画像が合成される背景コースが選択された場合、特にアップ画像においては顔領域が目立つため、画像処理が施されるようにする。一方、アップ画像において顔領域が目立たないような色の背景画像が合成される背景コースが選択された場合、画像処理が施されないようにする。なお、選択された背景コースに応じて、画像処理のパラメータ(画像処理の強弱)が変更されるようにしてもよい。 At this time, it is determined whether or not the image processing is to be performed according to the selected background course. For example, when a background course in which a background image based on white is combined is selected, especially in the up image, the face region is conspicuous, so that image processing is performed. On the other hand, when a background course in which a background image of a color in which the face area is not conspicuous in the up image is selected, image processing is not performed. Note that the parameters of the image processing (the strength of the image processing) may be changed according to the selected background course.
さらにまた、撮影前に、撮影画像に合成される合成用画像(スタンプ画像)を、利用者に選択させるようにしてもよい。この場合、スタンプ画像は、それ単独で選択されてもよいし、背景画像と組み合わされて選択されてもよい。 Furthermore, the user may be allowed to select an image for synthesis (stamp image) to be synthesized with the shot image before shooting. In this case, the stamp image may be selected independently, or may be selected in combination with the background image.
このようなスタンプ画像として、顔のパーツに対応したスタンプ画像を用意する。このスタンプ画像は、撮影画像(静止画像)に対する顔認識により、撮影画像において対応する顔のパーツに合成される。 A stamp image corresponding to a face part is prepared as such a stamp image. This stamp image is synthesized with the corresponding face part in the captured image by face recognition of the captured image (still image).
このとき、選択されたスタンプ画像に応じて、画像処理が施されるか否かが決定されるようにする。例えば、顔のパーツに対応したスタンプ画像が選択された場合、結果的には顔のパーツにスタンプ画像が合成されるため、その顔のパーツに対する画像処理は施されないようにする。 At this time, whether or not image processing is to be performed is determined according to the selected stamp image. For example, when a stamp image corresponding to a face part is selected, a stamp image is eventually combined with the face part, so that image processing is not performed on the face part.
また、撮影処理において、例えば1回目の撮影として、複数の利用者それぞれの顔を識別するための撮影が行われるようにしてもよい。この場合、識別結果を利用して、利用者毎に、ライブビュー画像に映る利用者の顔領域に対して画像処理を施すか否かを選択させるようにしてもよい。なお、複数回行われる撮影全てについて、この選択を行わせるようにしてもよいし、撮影の度に、この選択を行わせるようにしてもよい。 In the photographing process, for example, photographing for identifying the faces of a plurality of users may be performed as the first photographing. In this case, the user may be made to select whether or not to perform image processing on the face area of the user shown in the live view image using the identification result. Note that this selection may be made for all shootings performed a plurality of times, or this selection may be made for each shooting.
さらに、ライブビュー画像や、撮影結果としての撮影画像に施された画像処理の内容が、編集処理において利用者により変更されるようにしてもよい。これにより、例えば、利用者が、撮影処理において施された目サイズ変更処理の結果を気に入らなかった場合、編集処理において、撮影画像における目のサイズを好みのサイズに修正することができる。 Furthermore, the content of the image processing performed on the live view image or the captured image as a captured result may be changed by the user in the editing process. Thus, for example, when the user does not like the result of the eye size changing process performed in the photographing process, the eye size in the photographed image can be corrected to a desired size in the editing process.
<画像処理に応じたハードウェア構成の制御>
ライブビュー画像に対して画像処理が施されるか否かに応じて、または、施される画像処理の強弱やその種類の数に応じて、撮影空間A1内のハードウェア構成が制御されるようにしてもよい。
<Control of hardware configuration according to image processing>
The hardware configuration in the shooting space A1 is controlled according to whether or not image processing is performed on the live view image, or according to the level of image processing to be performed and the number of types of the image processing. It may be.
(照明装置の発光制御)
まず、ライブビュー画像に対して施される画像処理に応じて、撮影空間A1内に設けられる照明装置222(各ストロボユニット内に設けられる蛍光灯)が照射する定常光の発光が制御されるようにしてもよい。具体的には、各ストロボユニットの発光の有無、発光量などが制御されるようにする。
(Emission control of lighting equipment)
First, in accordance with image processing performed on a live view image, emission of steady light emitted from a lighting device 222 (fluorescent lamp provided in each strobe unit) provided in the imaging space A1 is controlled. It may be. Specifically, the presence / absence of light emission of each strobe unit and the amount of light emission are controlled.
ライブビュー画像に対して画像処理が施される場合、利用者は、画像処理が施されていることを確認するために、タッチパネルモニタ93を注視する。そこで、ライブビュー画像に対して画像処理が施される場合、タッチパネルモニタ93の近くに設けられる正面ストロボユニット92の発光量を大きくする。これにより、利用者は、タッチパネルモニタ93に表示されているライブビュー画像を確認しやすくなる。
When image processing is performed on the live view image, the user gazes at the touch panel monitor 93 in order to confirm that the image processing has been performed. Therefore, when image processing is performed on the live view image, the light emission amount of the
なお、上述した例では、撮影範囲に応じて、画像処理が施されるか否かが決定されるようにした。この場合、さらに、撮影範囲に応じて、各ストロボユニットの発光が制御されるようにしてもよい。例えば、全身撮影が行われる場合には、撮影空間A1内の全てのストロボユニットを発光させるようにする。一方、アップ撮影が行われる場合には、撮影空間A1内のストロボユニットのうち、天井ストロボユニット32、背面右ストロボユニット122、および背面左ストロボユニット123を除いたストロボユニットを発光させるようにする。
In the example described above, whether or not image processing is performed is determined according to the shooting range. In this case, the light emission of each strobe unit may be controlled in accordance with the shooting range. For example, when full-body imaging is performed, all strobe units in the imaging space A1 are caused to emit light. On the other hand, when the up-photographing is performed, among the strobe units in the photographing space A1, the strobe units excluding the
(カメラのパラメータ制御)
また、ライブビュー画像に対して施される画像処理に応じて、カメラ91のパラメータとして、F値、シャッタスピード、ISO感度が制御されるようにする。
(Camera parameter control)
Further, according to the image processing performed on the live view image, the F value, the shutter speed, and the ISO sensitivity are controlled as parameters of the
さらに、利用者の立ち位置などにより十分な明るさが確保できない場合には、カメラ91のF値、シャッタスピード、ISO感度を、以下の例のように制御する。1つめの例としては、F値のみを小さくする。2つめの例としては、ISO感度のみを大きくする。3つめの例としては、F値およびISO感度を大きくしシャッタスピードを遅くする。このようにして、十分な明るさが確保されるようにする。
Furthermore, when sufficient brightness cannot be secured due to the user's standing position, the F-number, shutter speed, and ISO sensitivity of the
また、ライブビュー画像に対して施される画像処理に応じて、カメラ91のパラメータとして、ホワイトバランス(色温度)が制御されるようにしてもよい。例えば、ライブビュー画像に対して、赤みを帯びた画像にする処理や、青みを帯びた画像にする処理が施される場合、これらの色に対応するようにホワイトバランスを制御する。これにより、画像処理の負荷を下げることができる。
Further, white balance (color temperature) may be controlled as a parameter of the
<画像処理に応じたライブビュー画像の表示制御>
さらに、ライブビュー画像に対して、上述した画像処理が施されるか否かに応じて、ライブビュー画像自体の表示が制御されるようにしてもよい。
<Display control of live view image according to image processing>
Furthermore, the display of the live view image itself may be controlled according to whether or not the above-described image processing is performed on the live view image.
例えば、ライブビュー画像に対して画像処理が施されるか否かに応じて(画像処理の有無に応じて)、ライブビュー表示画面におけるライブビュー画像の表示領域の大きさが変更されるようにする。具体的には、ライブビュー画像に対して画像処理が施される場合、図16のライブビュー表示画面に示されるように、ライブビュー画像の表示領域が、画像表示領域451から、それより大きい画像表示領域451Aに変わるようにする。なお、ライブビュー画像に対して画像処理が施されない場合には、ライブビュー画像の表示領域は、画像表示領域451のまま大きさは変更されないものとする。これにより、利用者は、画像処理が施されたライブビュー画像をよく確認することができる。
For example, the size of the display area of the live view image on the live view display screen is changed depending on whether or not image processing is performed on the live view image (in accordance with the presence or absence of the image processing). I do. Specifically, when image processing is performed on the live view image, the display area of the live view image is changed from the
なお、ライブビュー画像の表示領域は、拡大/縮小ボタンを押下する等の利用者の操作により拡大/縮小されるようにしてもよい。 The display area of the live view image may be enlarged / reduced by a user operation such as pressing an enlarge / reduce button.
また、ライブビュー画像に対して画像処理が施されるか否かに応じて、ライブビュー表示画面におけるライブビュー画像の表示時間が変更されるようにする。具体的には、ライブビュー画像に対して画像処理が施される場合、ライブビュー画像の表示時間を長くするする。なお、ライブビュー画像に対して画像処理が施されない場合には、ライブビュー画像の表示時間を短くする。これにより、利用者は、画像処理が施されたライブビュー画像をよく確認することができる。 Further, the display time of the live view image on the live view display screen is changed according to whether or not image processing is performed on the live view image. Specifically, when image processing is performed on the live view image, the display time of the live view image is lengthened. When image processing is not performed on the live view image, the display time of the live view image is shortened. Thereby, the user can often confirm the live view image on which the image processing has been performed.
さらに、ライブビュー画像に対して画像処理が施されるか否かに応じて、利用者がシャッタタイミングを選択できるようにしてもよい。具体的には、ライブビュー画像に対して画像処理が施される場合に、利用者がシャッタタイミングを選択できるようにする。これにより、利用者は、画像処理が施されたライブビュー画像を確認しながら、好みの瞬間のポーズや表情を撮影画像に残すことができる。 Further, the user may be able to select a shutter timing depending on whether or not image processing is performed on the live view image. Specifically, when image processing is performed on a live view image, a user can select a shutter timing. Thus, the user can leave a pose or expression at a desired moment in the captured image while checking the live view image on which the image processing has been performed.
<顔認識の誤認識とその対策>
ところで、ライブビュー画像に対して画像処理を施すときに行われる顔認識において、誤認識が発生するおそれがある。
<Face recognition errors and countermeasures>
By the way, erroneous recognition may occur in face recognition performed when performing image processing on a live view image.
例えば、利用者が、手を顎にあてがうようなポーズをとっている場合、その手の領域が顔認識の対象に含まれるおそれがある。また、利用者が、人物の顔がプリントされたTシャツなどを着ている場合、利用者の顔に加え、そのプリントされた顔も顔認識の対象となるおそれがある。 For example, when the user poses such that his / her hand is placed on the chin, the area of the hand may be included in the face recognition target. Further, when the user is wearing a T-shirt or the like on which the face of a person is printed, the printed face may be subjected to face recognition in addition to the face of the user.
そこで、以下においては、顔認識の誤認識に対する対策を施した構成および動作について説明する。 Therefore, in the following, a configuration and an operation in which measures against erroneous face recognition are taken will be described.
<撮影処理部の他の構成例>
図17は、撮影処理部の他の構成例を示す図である。
<Another configuration example of the photographing processing unit>
FIG. 17 is a diagram illustrating another configuration example of the photographing processing unit.
なお、図17の撮影処理部301の構成は、図9の撮影処理部301の構成と基本的に同様であるが、領域判定部501をさらに備える点で異なる。
Note that the configuration of the
領域判定部501は、画像処理部313により特定された、カメラ91に取り込まれた動画像における人物領域の妥当性を判定する。
The
<ライブビュー画像表示処理の他の例>
図18は、ライブビュー画像表示処理の他の例について説明するフローチャートである。
<Other example of live view image display processing>
FIG. 18 is a flowchart illustrating another example of the live view image display processing.
なお、図18のフローチャートにおけるステップS61乃至S63,S65乃至67の処理は、図12のフローチャートにおけるステップS51乃至S56のそれぞれと同様であるので、その説明は省略する。 The processes in steps S61 to S63 and S65 to S67 in the flowchart in FIG. 18 are the same as those in steps S51 to S56 in the flowchart in FIG. 12, and a description thereof will be omitted.
なお、ステップS63においては、取り込まれた動画像に対して顔認識を行うことにより、動画像における人物領域が特定されるものとする。 In step S63, it is assumed that a person area in the moving image is specified by performing face recognition on the captured moving image.
ステップS64において、領域判定部501は、人物領域の色、形状、大きさなどを用いて、特定された人物領域の妥当性を判定する。
In step S64, the
(例1)
例えば、アップ撮影の場合、領域判定部501は、取り込まれた動画像において肌色部分の領域を抽出する。ここでは、例えば、動画像において、色相、輝度、およびRGBのうちR成分が、所定値以上であるか、または、所定の範囲内の値であるか否かが判定されることで、肌色部分が特定される。そして、領域判定部501は、顔領域として特定された領域が、抽出された肌色領域に対応するか否かに基づいて、その領域の妥当性を判定する。このとき、肌色領域の形状や大きさに基づいて、顔領域として特定された領域の妥当性が判定されるようにしてもよい。
(Example 1)
For example, in the case of up-shooting, the
(例2)
また、アップ撮影の場合、領域判定部501は、顔領域として特定された領域に含まれる顔のパーツの形状や大きさ、顔領域として特定された領域の輪郭の形状や大きさを取得する。領域判定部501は、取得された顔パーツや輪郭の形状や大きさを、あらかじめ用意されたデータと比較することで、顔領域として特定された領域の妥当性を判定する。
(Example 2)
In the case of close-up shooting, the
(例3)
さらに、アップ撮影の場合、領域判定部501は、顔領域として特定された領域の所定の輪郭点を抽出することで、顔領域と思われる領域の傾きを算出する。領域判定部501は、算出された傾きが所定の範囲内であるか否かに基づいて、顔領域として特定された領域の妥当性を判定する。
(Example 3)
Further, in the case of close-up shooting, the
(例4)
また、領域判定部501は、取り込まれた動画像から背景領域を除いた領域を抽出する。領域判定部501は、抽出された領域に基づいて、人物領域として特定された領域の妥当性を判定する。なお、背景領域は、過去に取り込まれた動画像や撮影結果から特定されるようにしてもよいし、その色に基づいて特定されるようにしてもよい。
(Example 4)
In addition, the
以上のようにして、人物領域として特定された領域の妥当性が判定される。 As described above, the validity of the region specified as the person region is determined.
そして、ステップS65においては、妥当性があると判定された人物領域に対して、画像処理が施される。 Then, in step S65, image processing is performed on the person area determined to be valid.
以上の処理によれば、顔認識において誤認識が発生した場合であっても、結果として、ライブビュー画像における人物領域に対して適切に画像処理が施される。これにより、利用者は、容易かつ確実に、画像の仕上がりをイメージすることが可能となる。 According to the above-described processing, even when erroneous recognition occurs in face recognition, as a result, image processing is appropriately performed on a person region in a live view image. As a result, the user can easily and reliably imagine the finish of the image.
なお、上述した処理における妥当性の判定の結果、顔認識において誤認識が発生している場合には、ライブビュー表示画面の所定の領域に、「顔認識に失敗しています」等、誤認識が発生している旨のメッセージが表示されるようにしてもよい。このメッセージにより、利用者は、ポーズをとり直すことができる。 In addition, as a result of the validity determination in the above-described processing, if erroneous recognition has occurred in face recognition, the erroneous recognition such as “Failed in face recognition” is displayed in a predetermined area of the live view display screen. May be displayed. With this message, the user can reset the pose.
<変形例>
上述した例では、画像処理のパラメータ(画像処理の強弱)は、利用者による直接的な選択によらず決定されるものとした。しかしながら、画像処理のパラメータが、利用者の選択により決定されるようにしてもよい。
<Modification>
In the above example, the parameters of the image processing (the strength of the image processing) are determined without direct selection by the user. However, the image processing parameters may be determined by the user's selection.
例えば、ライブビュー表示画面が表示される前に、目サイズを選択させる選択画面が表示されるようにする。選択画面には、例えば3種類の目サイズに対応するボタンが表示される。選択画面においていずれかのボタンが選択されると、ライブビュー表示画面に表示されるライブビュー画像には、選択されたボタンに対応する目サイズ変更処理が施される。 For example, a selection screen for selecting an eye size is displayed before the live view display screen is displayed. On the selection screen, for example, buttons corresponding to three types of eye sizes are displayed. When any button is selected on the selection screen, an eye size change process corresponding to the selected button is performed on the live view image displayed on the live view display screen.
これにより、ライブビュー画像には利用者が所望する画像処理が施されるため、利用者は、画像の仕上がりをより良くイメージすることができる。 Thus, the image processing desired by the user is performed on the live view image, so that the user can better image the finish of the image.
また、ライブビュー表示画面において、ライブビュー画像の背景に合成される背景画像が選択可能とするようにしてもよい。これらの背景画像には、被写体の前景に合成されるスタンプ画像が前景画像として含まれるようにしてもよい。 Further, a background image to be combined with the background of the live view image may be selectable on the live view display screen. These background images may include a stamp image synthesized with the foreground of the subject as a foreground image.
この場合、利用者は、ライブビュー画像の背景に合成されて表示される背景画像を切り替えることができる。すなわち、利用者は、自身のとるポーズや表情によりマッチした背景画像を選択して、その仕上がりをイメージすることができる。 In this case, the user can switch the background image displayed by being synthesized with the background of the live view image. In other words, the user can select a background image that matches the pose or facial expression of the user, and image the finish.
<コース選択の課題>
ところで、従来、利用者の中には、撮影に関するコースを選択する際に、そのコースの違いを理解せずに選択していた利用者が少なからずいた。
<Course selection issues>
By the way, in the related art, when selecting a course related to shooting, not a few users have selected the course without understanding the difference between the courses.
例えば、上述した写りコース選択画面において、LightコースとClearコースとを選択させるための2つのボタンを設けられているものとする。それぞれのボタンには、それぞれのコースに応じて画像処理が施されたモデル画像が表示される。また、それぞれのボタンの近傍には、それぞれの写りコースにより、撮影画像がどのような写りになるかを説明するメッセージが記される。 For example, it is assumed that two buttons for selecting a Light course and a Clear course are provided on the above-mentioned reflection course selection screen. On each button, a model image that has been subjected to image processing according to each course is displayed. In the vicinity of each button, a message is described which describes what the captured image looks like in each of the shooting courses.
このような写りコース選択画面であっても、利用者は、それぞれのコースを選んだ場合に得られる画像の仕上がりをイメージすることはできなかった。その結果、利用者が所望する画像を提供できないおそれがあった。 Even with such a reflection course selection screen, the user could not imagine the finish of the image obtained when each of the courses was selected. As a result, the user may not be able to provide a desired image.
そこで、本実施の形態の写真シール作成装置1においては、写りコース選択画面においてライブビュー画像を表示し、選択されたコースに対応する画像処理を、そのライブビュー画像に対して施すようにする。
Therefore, in the photo
<写りコース選択処理の例>
図19は、写りコース選択処理の例について説明するフローチャートである。
<Example of reflection course selection processing>
FIG. 19 is a flowchart illustrating an example of the reflection course selection process.
まず、ステップS71において、表示制御部311は、写りコース選択画面を、タッチパネルモニタ93に表示させる。
First, in step S71, the
図20は、写りコース選択画面の例を示す図である。 FIG. 20 is a diagram illustrating an example of the reflection course selection screen.
写りコース選択画面の中央上部から中部には、画像表示領域511が設けられる。画像表示領域511は、カメラ91に取り込まれた動画像(ライブビュー画像)が表示される領域である。
An
画像表示領域511の左側には、ボタン521が設けられ、画像表示領域511の右側には、ボタン522が設けられる。ボタン521は、写りコースとしてLightコースを選択するためのボタンである。ボタン522は、写りコースとしてClearコースを選択するためのボタンである。
A
そして、ボタン522の下側には、OKボタン523が設けられる。OKボタン523は、ボタン521またはボタン522が操作されることで選択された写りコースを確定するためのボタンである。
An
図19のフローチャートに戻り、ステップS72において、撮影制御部312は、カメラ91を制御することで、利用者が映る動画像を取り込む。
Returning to the flowchart of FIG. 19, in step S72, the
ステップS73において、表示制御部311は、ボタン521またはボタン522に対する操作に基づいて、写りコースの選択を受け付ける。
In step S73, the
ステップS74において、画像処理部313は、カメラ91に取り込まれた動画像に対して、選択された写りコースに対応する画像処理を施す。
In step S74, the
具体的には、ボタン521が選択された場合(Lightコースが選択された場合)、画像処理部313は、カメラ91に取り込まれた動画像の人物領域に対して、被写体の肌の質感が自然でうるおいのあるものになるように、彩度、明度、シャープネス、およびコントラスト(輝度)を調整する。
Specifically, when the
また、ボタン522が選択された場合(Clearコースが選択された場合)、画像処理部313は、カメラ91に取り込まれた動画像の人物領域に対して、被写体の肌の質感を色白で透明感のあるものになるように、彩度、明度、シャープネス、およびコントラスト(輝度)を調整する。
Further, when the
ステップS75において、表示制御部311は、いずれかの画像処理が施された動画像をライブビュー画像として、写りコース選択画面の画像表示領域511にリアルタイムに表示させる。
In step S75, the
そして、ステップS76において、表示制御部311は、OKボタン523が押下されたか否かを判定する。OKボタン523が押下されていないと判定された場合、処理はステップS72に戻る。すなわち、継続して、写りコース選択画面(ライブビュー画像)が表示される。
Then, in step S76, the
一方、ステップS76において、OKボタン523が押下されたと判定された場合、そのときに選択されている写りコースが確定される。なお、写りコース選択画面が表示されてから所定時間が経過したときに、OKボタン523が押下されていない場合には、いずれか一方の写りコース(例えばLightコース)が確定される。その後、写りコース選択画面の表示は終了し、1回目の撮影が行われる(図11のステップS22)。
On the other hand, if it is determined in step S76 that the
以上の処理によれば、写りコース選択画面において、利用者が選択した写りコースに対応する画像処理が施されたライブビュー画像が、リアルタイムに表示される。これにより、利用者は、それぞれの写りコースによりライブビュー画像がどのような写りになるか、その違いを確認することができる。すなわち、利用者は、それぞれのコースを選んだ場合に得られる画像の仕上がりをイメージすることができる。結果として、利用者が所望する画像を提供することが可能となる。 According to the above processing, the live view image on which the image processing corresponding to the imaging course selected by the user has been performed is displayed in real time on the imaging course selection screen. This allows the user to check the difference between the live view images depending on the respective shooting courses. That is, the user can imagine the finish of the image obtained when each course is selected. As a result, an image desired by the user can be provided.
なお、上述した例において、ライブビュー画像における背景領域に、選択された写りコースに応じた背景画像が合成されるようにしてもよい。 In the example described above, a background image according to the selected shooting course may be combined with the background area in the live view image.
上述したClearコースのように、例えば、ライブビュー画像に対して青みを帯びた画像にする処理が施される場合、ライブビュー画像における背景領域に、青みを帯びた背景画像が合成されるようにする。これにより、背景領域に対する処理を軽減することができ、画像処理の負荷を下げることができる。 As in the above-described Clear course, for example, in the case where a process for converting a live view image to a bluish image is performed, a bluish background image is combined with a background region in the live view image. I do. As a result, it is possible to reduce the processing for the background area and reduce the load of image processing.
<ライブビュー画像の表示例>
上述した例では、写りコースの数は2つであったが、3つ以上であってもよい。写りコースの数が多ければ、写りの選択の自由度を高めることができる。
<Display example of live view image>
In the above-described example, the number of the reflection courses is two, but may be three or more. If the number of shooting courses is large, the degree of freedom in selecting the shooting can be increased.
また、所定の時間毎に、写りコースに対応する画像処理が切り替わってライブビュー画像に施されるようにしてもよい。これにより、利用者は、選択操作をすることなく、それぞれの写りコースによりライブビュー画像がどのような写りになるか、その違いを確認することができる。 Further, the image processing corresponding to the shooting course may be switched and performed on the live view image at predetermined time intervals. This allows the user to confirm the difference between the live view images depending on the respective shooting courses without performing a selection operation.
さらに、利用者の人数に応じて、ライブビュー画像の表示時間や表示サイズが変更されるようにしてもよい。 Further, the display time and display size of the live view image may be changed according to the number of users.
例えば、利用者の人数が多い場合、それぞれの利用者がライブビュー画像を確認するのに時間がかかる。そこで、利用者の人数が多い場合には、ライブビュー画像の表示時間を長くする。この場合、撮影回数を減じるようにしてもよい。また、利用者の人数が多い場合には、ライブビュー画像の表示サイズを大きくする。これにより、それぞれの利用者からの視認性を向上させることができる。 For example, when the number of users is large, it takes time for each user to check the live view image. Therefore, when the number of users is large, the display time of the live view image is lengthened. In this case, the number of times of shooting may be reduced. When the number of users is large, the display size of the live view image is increased. Thereby, the visibility from each user can be improved.
<写りコース選択のタイミング>
上述した例では、写りコースの選択は、1回目の撮影前に行われるものとした。これに限らず、写りコースの選択が、他の回の撮影前に行われるようにしてもよい。
<Timing of selection of reflection course>
In the example described above, the selection of the shooting course is performed before the first shooting. The present invention is not limited to this, and the selection of the shooting course may be performed before another shooting.
例えば、写りコースの選択が、6回行われる撮影のうちの最後の撮影前(5回目の撮影後)に行われるようにしてもよい。利用者は、撮影回数を重ねる度に、表情やポーズをとることに慣れ、余裕をもって撮影作業を行うことができる。そこで、最後の撮影前に写りコースの選択が行われるようにすることで、利用者は余裕をもって写りコースを選択することができるようになる。 For example, the shooting course may be selected before the last shooting (after the fifth shooting) of the six shootings. The user is accustomed to taking facial expressions and poses every time the number of times of shooting is increased, and can perform shooting work with a margin. Therefore, by making the selection of the shooting course before the last shooting, the user can select the shooting course with a margin.
この場合、6回行われる撮影により得られた6枚の撮影画像(静止画像)に対して、最後に選択された写りコースに対応する画像処理を施し、撮影結果として表示するようにしてもよい。 In this case, the image processing corresponding to the last selected shooting course may be performed on the six shot images (still images) obtained by the shooting performed six times, and displayed as a shooting result. .
また、1回目の撮影前に選択された写りコース以外の写りコースに対応する画像処理が、例えば、最後の撮影時に表示されるライブビュー画像に施されるようにしてもよい。 In addition, image processing corresponding to a shooting course other than the shooting course selected before the first shooting may be performed on, for example, a live view image displayed at the time of the last shooting.
さらに、写りコースの選択がいずれの回の撮影前に行われるかを、利用者に選択させるようにしてもよい。 Further, the user may be allowed to select which time the photographing course is selected before photographing.
また、写りコースの選択が行われるタイミングが2回以上あってもよい。例えば、2回目以降の撮影時のライブビュー表示画面において、1回目の撮影前に選択された写りコースを変更するためのボタンを表示させる。これにより、利用者は、最初に選択した写りコースに満足しなかった場合に、他の写りコースを選択することができる。 Further, there may be two or more timings at which the shooting course is selected. For example, on the live view display screen at the time of the second or subsequent shooting, a button for changing the shooting course selected before the first shooting is displayed. Thus, when the user is not satisfied with the initially selected shooting course, another shooting course can be selected.
さらにまた、写りコースの選択が、例えば6回の撮影それぞれの前に(撮影の度に)行われるようにしてもよい。この場合、撮影画像それぞれで異なる雰囲気の仕上がりとなり、バラエティに富んだシール紙が得られる。 Furthermore, the selection of the shooting course may be performed before (for example, each time of) each of the six shootings. In this case, each photographed image has a different atmosphere, and a variety of seal papers can be obtained.
なお、ライブビュー画像表示時に写りコースを選択させる場合、その回の撮影におけるライブビュー画像の表示時間を、他の回の撮影におけるライブビュー画像の表示時間より長く設定してもよい。これにより、利用者は、画像処理が施されたライブビュー画像を、納得のいくまで確認することができる。なお、ゲームに慣れている利用者は、さほど時間をかけることなく写りコースを選択できるので、余った時間の分、例えば編集処理の時間が延長されるようにしてもよい。 When the shooting course is selected when the live view image is displayed, the display time of the live view image in the current shooting may be set longer than the display time of the live view image in another shooting. Thereby, the user can confirm the live view image on which the image processing has been performed until the user is satisfied. It should be noted that a user accustomed to the game can select a shooting course without taking much time, so that the extra time, for example, the time of the editing process may be extended.
<その他のコース選択の例>
なお、写りコースに限らず、撮影に関するその他のコースを選択するための選択画面において、選択されたコースに対応する画像処理が施されたライブビュー画像が表示されるようにしてもよい。
<Other course selection examples>
In addition, a live view image on which image processing corresponding to the selected course has been performed may be displayed on a selection screen for selecting another course related to shooting without being limited to the shooting course.
撮影に関するコースには、例えば、人数コースや背景コースなどがある。 Courses related to shooting include, for example, a number course and a background course.
人数コースは、被写体の人数に応じた撮影の種類を決定するためのコースである。人数コースには、例えば、利用者が1人の場合に適した撮影が行われる1人用コース、利用者が2人の場合に適した撮影が行われる2人用コース、および、利用者が3人以上、特に4人以上の場合に適した撮影が行われる大人数コースがある。 The number course is a course for determining the type of shooting according to the number of subjects. The number-of-person course includes, for example, a one-person course in which shooting suitable for one user is performed, a two-person course in which shooting suitable for two users is performed, and There are a large number of courses in which shooting suitable for three or more, particularly four or more, is performed.
このような人数コースを選択するための人数コース選択画面には、例えば上述した人数コースを選択するためのボタンが設けられる。また、人数コース選択画面には、カメラ91に取り込まれた動画像(ライブビュー画像)が表示される画像表示領域が設けられる。
For example, a button for selecting the above-described number course is provided on the number course selection screen for selecting such a number course. In addition, the number course selection screen is provided with an image display area in which a moving image (live view image) captured by the
人数コース選択画面において、いずれかのボタン(人数コース)が選択されると、カメラ91に取り込まれた動画像に対して、選択された人数コースに対応する画像処理が施される。画像処理が施された動画像は、ライブビュー画像として画像表示領域にリアルタイムに表示される。このとき、ライブビュー画像には、選択された人数コースの人数分の顔が収まるべき位置を示す枠が重畳されて表示されるようにしてもよい。
When one of the buttons (number course) is selected on the number course selection screen, image processing corresponding to the selected number course is performed on the moving image captured by the
一方、背景コースは、撮影により得られる撮影画像の背景の種類を決定するためのコースである。背景コースには、彩度の低い黒や白を基調とした色の背景画像を用意することで、撮影画像の仕上がりを洗練された落ち着いた雰囲気にするための背景コースと、彩度の高い原色を基調とした色の背景画像を用意することで、撮影画像の仕上がりを華やかな雰囲気にするための背景コースとがある。 On the other hand, the background course is a course for determining the type of background of a captured image obtained by shooting. For the background course, a background image with a color based on black and white with low saturation is prepared, so that the finish of the captured image is refined and calm atmosphere, and the primary color with high saturation There is a background course for preparing a background image of a color based on the image to make the finish of the captured image a gorgeous atmosphere.
このような背景コースを選択するための背景コース選択画面には、例えば上述した背景コースを選択するためのボタンが設けられる。また、背景コース選択画面には、カメラ91に取り込まれた動画像(ライブビュー画像)が表示される画像表示領域が設けられる。
On the background course selection screen for selecting such a background course, for example, a button for selecting the above-described background course is provided. The background course selection screen is provided with an image display area in which a moving image (live view image) captured by the
背景コース選択画面において、いずれかのボタン(背景コース)が選択されると、カメラ91に取り込まれた動画像に対して、選択された背景コースに対応する画像処理が施される。画像処理が施された動画像は、ライブビュー画像として画像表示領域にリアルタイムに表示される。このとき、ライブビュー画像には、選択された背景コースの雰囲気に合った背景画像が合成されて表示されるようにしてもよい。
When any button (background course) is selected on the background course selection screen, the moving image captured by the
さらにまた、上述した撮影に関するコースに限らず、撮影画像に施される画像処理を選択するための選択画面において、選択された画像処理そのものが施されたライブビュー画像が表示されるようにしてもよい。 Furthermore, the live view image to which the selected image processing itself has been applied is displayed on the selection screen for selecting the image processing to be applied to the captured image, not limited to the above-described course related to the imaging. Good.
選択画面において選択される画像処理としては、例えば、上述した以下(1)乃至(10)の処理とされる。
(1)小顔処理
(2)目サイズ変更処理
(3)美鼻処理
(4)口サイズ変更処理
(5)目形状変更処理
(6)口元変更処理
(7)肌色変更処理
(8)髪色変更処理
(9)化粧処理
(10)美肌処理
The image processing selected on the selection screen includes, for example, the above-described processes (1) to (10) described above.
(1) Small face processing (2) Eye size change processing (3) Beauty nose processing (4) Mouth size change processing (5) Eye shape change processing (6) Mouth change processing (7) Skin color change processing (8) Hair color Change processing (9) Makeup processing (10) Beautiful skin processing
選択画面には、例えばこれらの画像処理のパラメータ(画像処理の強弱やON/OFF)を選択するためのボタンが設けられる。また、その選択画面には、カメラ91に取り込まれた動画像(ライブビュー画像)が表示される画像表示領域が設けられる。
The selection screen is provided with, for example, buttons for selecting these image processing parameters (image processing strength and ON / OFF). Further, the selection screen is provided with an image display area in which a moving image (live view image) captured by the
その選択画面において、いずれかのボタンが選択されると、カメラ91に取り込まれた動画像に対して、選択されたパラメータでの画像処理が施される。画像処理が施された動画像は、ライブビュー画像として画像表示領域にリアルタイムに表示される。
When any of the buttons is selected on the selection screen, the moving image captured by the
なお、画像処理には、上述したような顔のパーツに対する画像処理の他、上述した脚長処理や痩身処理等、被写体の全身に対する画像処理が含まれてもよい。 The image processing may include image processing for the whole body of the subject, such as the above-described leg length processing and slimming processing, in addition to the image processing for the face parts as described above.
ここで、利用者が複数人の場合、選択されたパラメータでの画像処理は、ライブビュー画像に映る被写体それぞれに対して一括して施されるようにしてもよいし、選択された被写体に対して個別に施されるようにしてもよい。 Here, when there are a plurality of users, the image processing with the selected parameters may be performed collectively on each of the subjects shown in the live view image, or may be performed on the selected subjects. May be applied individually.
なお、選択画面として、上述した撮影に関するコースや画像処理のいずれか1つを選択するための選択画面が表示されるだけでなく、複数の選択画面が1つずつ順番に表示されるようにしてもよい。例えば、写りコース選択画面、人数コース選択画面、背景コース選択画面が順番に表示された後、小顔処理の選択画面が表示されるようにしてもよい。また、写りコース選択画面が表示された後、小顔処理の選択画面、目サイズ変更処理の選択画面が順番に表示されるようにしてもよい。 As a selection screen, not only a selection screen for selecting any one of the above-described courses or image processing related to shooting is displayed, but also a plurality of selection screens are sequentially displayed one by one. Is also good. For example, a selection screen for small face processing may be displayed after a reflection course selection screen, a number course selection screen, and a background course selection screen are displayed in this order. Further, after the reflection course selection screen is displayed, a selection screen for small face processing and a selection screen for eye size change processing may be displayed in order.
なお、目サイズ変更処理などの、顔のパーツに対する画像処理は、近年の写真シール機において重要度の高い機能とされる。そこで、顔のパーツに対する画像処理をライブビュー画像には施さず、撮影に関するコースに対応する画像処理が施された撮影画像に対して施すようにしてもよい。これにより、利用者は、撮影画像に写る自身の顔を、より確実に所望の顔にすることができる。 Note that image processing for face parts, such as eye size change processing, is a highly important function in recent photo stickers. Therefore, the image processing on the face part may not be performed on the live view image, but may be performed on the captured image on which the image processing corresponding to the course related to the imaging has been performed. This allows the user to more reliably make his or her own face appearing in the captured image a desired face.
<コースに応じたハードウェア構成の制御>
また、選択された撮影に関するコースに応じて、撮影空間A1内のハードウェア構成が制御されるようにしてもよい。
<Control of hardware configuration according to course>
Further, the hardware configuration in the imaging space A1 may be controlled according to the selected course related to imaging.
具体的には、選択された撮影に関するコースに応じて、撮影空間A1内に設けられる照明装置222(各ストロボユニット内に設けられる蛍光灯)が照射する定常光の発光が制御されるようにする。 Specifically, the emission of the steady light emitted by the illumination device 222 (fluorescent lamp provided in each strobe unit) provided in the shooting space A1 is controlled according to the selected course related to the shooting. .
図21は、照明装置222の照明制御処理について説明するフローチャートである。図21の処理は、写りコース選択画面において写りコースが選択されると開始される。
FIG. 21 is a flowchart illustrating an illumination control process of the
ステップS81において、照明制御部314は、選択された写りコースに応じて、照明装置222(各ストロボユニット内に設けられる蛍光灯)の発光の有無、発光量、発光色(色温度)、発光時間などを制御する。
In step S81, the
例えば、選択された写りコースに応じて、ライブビュー画像に対して赤みを帯びた画像にする処理や、青みを帯びた画像にする処理が施される場合、これらの色に対応するように各ストロボユニット内に設けられる蛍光灯が発光する定常光の色温度を制御する。これにより、画像処理の負荷を下げることができる。その結果、画像処理速度が向上し、所望の画像処理が施された画像がより速く出力(表示)される。 For example, when a process for converting a live view image to a reddish image or a process for converting it to a bluish image is performed in accordance with the selected shooting course, each of the processes is performed so as to correspond to these colors. The color temperature of the steady light emitted from the fluorescent lamp provided in the strobe unit is controlled. Thereby, the load of image processing can be reduced. As a result, the image processing speed is improved, and the image subjected to the desired image processing is output (displayed) faster.
なお、発光色が制御される場合、各ストロボユニット内部には、蛍光灯に代えて、3色LED(Light Emitting Diode)などを設けるようにする。 When the emission color is controlled, a three-color LED (Light Emitting Diode) or the like is provided inside each strobe unit instead of the fluorescent lamp.
なお、上述した写真シール作成装置1においては、撮影空間A1内に、1つずつのカメラ91およびタッチパネルモニタ93が設けられるものとした。しかしながら、例えば、上下縦方向に2つずつのカメラおよびタッチパネルモニタが設けられるようにしてもよい。これにより、例えば、被写体をその正面から撮影できる他、被写体をその斜め上から撮影することもできる。
In the above-described photo
さらに、写真シール作成装置1の機能として、カメラが上下方向に可動する構成を採るようにしてもよい。この構成においても、例えば、被写体をその正面から撮影できる他、被写体をその斜め上から撮影することもできる。
Further, as a function of the photo
また、撮影空間外(例えば側面パネル42A,42B)などにカメラおよびタッチパネルモニタを設けるようにしてもよい。これにより、撮影処理が行われる前に、撮影に関するコースを選択させ、選択されたコースに応じた画像処理が施されたライブビュー画像を表示することができる。
Further, a camera and a touch panel monitor may be provided outside the shooting space (for example, the
上述で説明した例では、選択された撮影に関するコースに応じて、各ストロボユニット内に設けられる蛍光灯が照射する定常光の発光が制御されるものとした。 In the example described above, the emission of the steady light emitted from the fluorescent lamp provided in each strobe unit is controlled according to the selected course relating to the shooting.
ところで、撮影空間内に設けられる各ストロボユニットは、撮影に合わせて発光するストロボ発光管と、定常光を発光する定常光光源を有している。なお、左ストロボユニット83および右ストロボユニット84は、ストロボ発光管を有せず、定常光光源のみを有している。もちろん、左ストロボユニット83および右ストロボユニット84が、ストロボ発光管と定常光光源と有するようにしてもよい。
By the way, each strobe unit provided in the photographing space has a strobe light emitting tube that emits light in accordance with photographing and a steady light source that emits steady light. Note that the
撮影のタイミングでは、撮影に合わせてストロボ発光管が発光することで、撮影空間において、被写体が明るく写る撮影環境が提供される。一方、撮影前の時間帯では、ストロボ発光管は発光せず、定常光光源が発光するのみである。したがって、撮影前の時間帯の撮影空間は、撮影のタイミングの撮影空間とは異なる撮影環境となる。 At the time of shooting, the strobe light emitting tube emits light in synchronization with shooting, thereby providing a shooting environment in which the subject is brightly photographed in the shooting space. On the other hand, in a time zone before photographing, the strobe light emitting tube does not emit light, but only the stationary light source emits light. Therefore, the shooting space in the time zone before shooting has a shooting environment different from the shooting space at the shooting timing.
そのため、撮影前の時間帯に表示されるライブビュー画像は、撮影結果として表示される撮影画像とは異なる写りとなる。その結果、利用者は、ライブビュー画像と撮影画像との写りの違いに、違和感を覚えながら撮影作業を行うことになる。 Therefore, the live view image displayed in the time zone before shooting has a different image from the shot image displayed as the shooting result. As a result, the user performs the photographing operation while feeling uncomfortable with the difference in the appearance of the live view image and the photographed image.
そこで、以下においては、撮影前の時間帯の撮影空間を、撮影のタイミングの撮影空間と同じような撮影環境にする構成について説明する。 Therefore, hereinafter, a configuration will be described in which the shooting space in the time zone before shooting is set to the same shooting environment as the shooting space at the shooting timing.
<ストロボユニットの構成例>
(背面上ストロボユニットの構成例)
図22および図23は、背面上ストロボユニット121の外観の構成例を示している。
<Structure example of strobe unit>
(Example of the configuration of the upper flash unit)
22 and 23 show a configuration example of the appearance of the upper
図22は、撮影空間A1において、撮影部21(カメラ91)側からみた背面上ストロボユニット121の外観の構成例を示している。図23は、撮影空間A1において、利用者の立ち位置からみた背面上ストロボユニット121の外観の構成例を示している。
FIG. 22 shows a configuration example of the appearance of the upper
背面上ストロボユニット121の発光面は、撮影空間A1内に立つ利用者(被写体)に向けられる。すなわち、背面上ストロボユニット121は、その発光面が撮影空間A1内に立つ利用者に向くよう、水平面と所定の角をなすように設置されている。
The light emitting surface of the upper
背面上ストロボユニット121の発光面は、平面の透明アクリル板611により構成される。透明アクリル板611の奥には、ルーバー612が設けられる。さらに、ルーバー612の奥には、平面の乳白アクリル板(図示せず)が設けられる。乳白アクリル板により、背面上ストロボユニット121内部からの光が拡散され、ルーバーにより、その光が利用者の立ち位置の方向に導かれる。
The light emitting surface of the upper
図24は、透明アクリル板611やルーバー612などを取り外した状態の背面上ストロボユニット121の内部の構成例を示している。
FIG. 24 shows a configuration example of the inside of the
背面上ストロボユニット121の内部は、左右に横長の箱状の空間になっている。背面上ストロボユニット121の内部で、左右方向の中心の位置には、ストロボ発光部621が設けられる。
The inside of the upper
図25は、ストロボ発光部621の構成を示している。
FIG. 25 shows the configuration of the strobe
ストロボ発光部621は、撮影のタイミングで発光するストロボ発光管631、V字反射板632、および回路ユニット633から構成される。
The strobe
ストロボ発光管631は、円筒形の形状を有し、その円周面から360°方向に光を照射する。
The strobe
V字反射板632は、側面視でV字をなす2平面から構成される。V字反射板632は、ストロボ発光管631からみて発光面の反対側に設けられる。V字反射板632のV字の内角側の反射面により、ストロボ発光管631の発光による光が、発光面側に反射される。この反射光は、直接的に被写体側に照射されるので、その距離も短くなる。
The V-shaped
このような構成により、撮影空間A1内の利用者に対して固い光(光源から直接的に被写体に当たる光)が照射される。 With such a configuration, a hard light (light that directly hits a subject from a light source) is emitted to a user in the imaging space A1.
V字反射板632は、アルミ板により構成される。なお、アルミ板に限らず、その反射面の反射率が同等以上であれば、他の金属板や樹脂製の板で構成されるようにしてもよい。また、V字反射板632を、アルミ板やその他の材料で構成する場合、その反射面の色の明度を高くしたり、反射面を白色や黄色などの色彩にすることで、その反射率の高さを保つことができる。
The V-shaped
回路ユニット633は、ストロボ発光管631を発光させるための回路を内蔵している。
The
図24の説明に戻り、ストロボ発光部621の左側には、定常光光源622が設けられ、ストロボ発光部621の右側には、定常光光源623が設けられる。
Referring back to FIG. 24, a stationary
定常光光源622,623は、LED電球により構成され、撮影のタイミングにかかわらず常時点灯している。すなわち、定常光光源622,623は、図示せぬ乳白アクリル板、ルーバー612、および透明アクリル板611を介して、撮影空間A1内に定常光を照射する。
The stationary
定常光光源622,623は、その発光部分がストロボ発光部621に近くなるような位置に配置される。これにより、定常光光源622,623の発光を、ストロボ発光管631の発光に近づけることができる。具体的には、定常光光源622,623の発光の方向を、ストロボ発光管631の発光の方向と略同じにすることができる。すなわち、定常光光源622,623は、撮影空間A1内の利用者に対して、ストロボ発光管631と同じような光を照射することができる。その結果、撮影前の時間帯の撮影空間を、撮影のタイミングの撮影空間と同じような撮影環境にすることができる。
The stationary
なお、定常光光源622,623が電球型蛍光灯により構成されるようにした場合、その発光部分が発熱するため、定常光光源622,623を、ストロボ発光部621から離して配置する必要がある。そこで、定常光光源622,623がLED電球により構成されるようにすることで、その発光部分が発熱することなく、定常光光源622,623を、ストロボ発光部621に近づけて配置することができる。
When the stationary
(背面左右ストロボユニットの構成例)
次に、背面右ストロボユニット122および背面左ストロボユニット123の構成例について説明する。なお、背面右ストロボユニット122と背面左ストロボユニット123とは、基本的に同様の構成を採るので、以下においては、代表して、背面右ストロボユニット122の構成例について説明する。
(Example of rear left / right strobe unit)
Next, a configuration example of the rear
図26は、背面右ストロボユニット122の外観の構成例を示している。
FIG. 26 shows a configuration example of the appearance of the rear
図26は、出入り口G2方向からみた背面右ストロボユニット122の外観の構成例を示している。
FIG. 26 shows a configuration example of the appearance of the rear
背面右ストロボユニット122の発光面651は、撮影空間A1内に立つ利用者(被写体)に向けられる。また、発光面652は、背面パネル51の面に平行な方向に向けられる。すなわち、背面右ストロボユニット122は、発光面651が背面パネル51の面と所定の角をなすように、また、発光面652が背面パネル51の面と直角をなすように設置されている。
The
発光面651,652は、上述で説明した背面上ストロボユニット121の発光面と同様に構成される。
The
図27は、発光面651を取り外した状態の背面右ストロボユニット122の内部の構成例を示している。
FIG. 27 shows an example of the internal configuration of the rear
背面右ストロボユニット122の内部は、上下に縦長の箱状の空間になっている。背面右ストロボユニット122の内部で、上下方向の上端の位置には、ストロボ発光部661が設けられる。
The inside of the rear
ストロボ発光部661は、撮影のタイミングで発光するストロボ発光管を備えている。なお、ストロボ発光部661は、図25を参照して説明したストロボ発光部621と異なり、V字反射板を備えていない。すなわち、ストロボ発光部621のストロボ発光管の発光による光は、その円周面から360°方向に照射される。
The strobe
このような構成により、撮影空間A1内の利用者に対して柔らかい光(反射または拡散することで光源から間接的に被写体に当たる光)が照射される。 With such a configuration, soft light (light that indirectly hits a subject from a light source by being reflected or diffused) is emitted to a user in the imaging space A1.
ストロボ発光部661の下側には、定常光光源662が設けられる。
A stationary
定常光光源662は、LED電球により構成され、撮影のタイミングにかかわらず常時点灯している。すなわち、定常光光源662は、発光面651,652を介して、撮影空間A1内に定常光を照射する。
The stationary
定常光光源662が、LED電球により構成されるようにすることで、その発光部分を、背面上ストロボユニット121と同様、ストロボ発光部661に近くなるように配置することができる。これにより、定常光光源662の発光を、ストロボ発光部661の発光に近づけることができる。具体的には、定常光光源662の発光の方向を、ストロボ発光部661の発光の方向と略同じにすることができる。すなわち、定常光光源662は、撮影空間A1内の利用者に対して、ストロボ発光部661と同じような光を照射することができる。その結果、撮影前の時間帯の撮影空間を、撮影のタイミングの撮影空間と同じような撮影環境にすることができる。
When the stationary
なお、ストロボ発光部661は、図28に示される構成を採ることもできる。
Note that the strobe
図28のストロボ発光部661は、図25のストロボ発光部621と同様の構成(ストロボ発光管631(図示せず)、V字反射板632、および回路ユニット633)に加え、平面反射板671を有している。
The strobe
平面反射板671は、ストロボ発光管631からみて発光面651側に設けられる。平面反射板671は、その反射面で、ストロボ発光管631の発光により発光面651側に照射される光を、発光面651の反対側に反射する。
The flat reflecting
平面反射板671の高さ方向の長さは、V字反射板632のそれよりも長く、幅方向の長さも、V字反射板632のそれよりも長い。
The length in the height direction of the
このような構成により、ストロボ発光管631の発光による光は、直接的に発光面側に進むことはない。
With such a configuration, the light emitted by the
言い換えると、ストロボ発光管631の発光による光は、平面反射板671およびV字反射板632に反射することで、発光面651とは反対側の、背面右ストロボユニット122の内部の空間内に進む。そして、背面右ストロボユニット122の内部の空間内で反射した光が、発光面651や発光面652側に進む。すなわち、ストロボ発光管631の発光による光は、反射光として、間接的に発光面651や発光面652側に進む。
In other words, the light emitted by the strobe
このような構成により、撮影空間A1内の利用者に対して柔らかい光が照射されるようにすることもできる。 With such a configuration, it is possible to irradiate a soft light to the user in the photographing space A1.
<ストロボユニットの光量について>
背面上ストロボユニット121は、被写体となる利用者の頭頂部に対して、固い光を照射する。これにより、撮影画像において、利用者の髪全体が明るく写るようになる。
<Light intensity of strobe unit>
The upper
一方、背面右ストロボユニット122および背面左ストロボユニット123は、被写体となる利用者の左右両側に対して、柔らかい光を照射する。これにより、撮影画像において、背景と人物(利用者)との境界が際立つようになる。
On the other hand, the rear
ここで、背面右ストロボユニット122および背面左ストロボユニット123の光量を、背面上ストロボユニット121の光量を同等にした場合、利用者の顔、特に両頬に強い光が照射されてしまう。その結果、利用者の顔に「てかり」が生じるおそれがある。「てかり」は、額や頬がてかてか光ってみえることをいう。
Here, when the light amounts of the rear
また、背面上ストロボユニット121の光量を、背面右ストロボユニット122および背面左ストロボユニット123の光量と同等にした場合、利用者の髪全体が暗くなってしまう。その結果、利用者の顔の立体感が損なわれるおそれがある。
When the light amount of the upper
そこで、本実施の形態の写真シール作成装置1においては、背面上ストロボユニット121の光量を、背面右ストロボユニット122および背面左ストロボユニット123の光量より大きくする。これにより、利用者の顔に生じる「てかり」を抑え、利用者の顔の立体感を保つことができる。
Therefore, in the photo
この場合、背面上ストロボユニット121が有するストロボ発光管631の光量を、背面右ストロボユニット122および背面左ストロボユニット123それぞれが有するストロボ発光管(ストロボ発光部661)の光量より大きくなるようにする。
In this case, the light amount of the strobe
具体的には、背面上ストロボユニット121が有するストロボ発光管631のワット数を9Wとし、背面右ストロボユニット122および背面左ストロボユニット123それぞれが有するストロボ発光管それぞれのワット数を7Wとする。
Specifically, the wattage of the strobe
これに合わせて、背面上ストロボユニット121が有する定常光光源622,623の光量を、背面右ストロボユニット122および背面左ストロボユニット123それぞれが有する定常光光源662の光量より大きくなるようにする。
In accordance with this, the light amounts of the stationary
具体的には、背面上ストロボユニット121が有する定常光光源622,623それぞれのワット数を8.4W(合わせて16.8W)とし、背面右ストロボユニット122および背面左ストロボユニット123それぞれが有する定常光光源662それぞれのワット数を10Wとする。
Specifically, the wattage of each of the stationary
ここで、各ストロボユニットが有するストロボ発光管の発光による明るさと、定常光光源の発光による明るさとは等しいことが好ましい。これにより、撮影前の時間帯の撮影空間を、撮影のタイミングの撮影空間と同じような撮影環境にすることができる。しかしながら、ストロボ発光管の発光による明るさは、ストロボ発光管のコンデンサ容量や閃光時間、カメラ91のF値やISO感度に依存する。そのため、ストロボ発光管の発光による明るさを、定常光光源の発光による明るさと等しいするように制御することは容易ではない。
Here, it is preferable that the brightness of the strobe light emitting tube of each strobe unit is equal to the brightness of the steady light source. Thus, the shooting space in the time zone before shooting can be set to the same shooting environment as the shooting space at the shooting timing. However, the brightness of the flash tube due to light emission depends on the capacitor capacity of the flash tube, the flash duration, the F-number of the
そこで、背面上ストロボユニット121が有するストロボ発光管631の光量と、背面右ストロボユニット122および背面左ストロボユニット123それぞれが有するストロボ発光管(ストロボ発光部661)の光量との比を、背面上ストロボユニット121が有する定常光光源622,623の光量と、背面右ストロボユニット122および背面左ストロボユニット123それぞれが有する定常光光源662の光量との比と略同じとなるようにする。
Therefore, the ratio of the light amount of the strobe
具体的には、例えば、背面上ストロボユニットが有する定常光光源のEV値を、背面右ストロボユニットおよび背面左ストロボユニットそれぞれが有する定常光光源のEV値より約2.3EV大きくなるようにする。これらは、露出計による測定により確認することができる。 Specifically, for example, the EV value of the stationary light source of the rear upper strobe unit is set to be about 2.3 EV larger than the EV value of the stationary light source of each of the rear right strobe unit and the rear left strobe unit. These can be confirmed by measurement with a light meter.
また、背面上ストロボユニットが有するストロボ発光管のEV値を、背面右ストロボユニットおよび背面左ストロボユニットそれぞれが有するストロボ発光管のEV値より約2.3EV大きくなるようにする。これらは、F値から算出されるAV値と、シャッタスピードから算出されるTV値を用いた換算式により確認することができる。 Further, the EV value of the strobe light emitting tube of the rear upper strobe unit is set to be about 2.3 EV larger than the EV value of the strobe light emitting tube of each of the rear right strobe unit and the rear left strobe unit. These can be confirmed by a conversion formula using the AV value calculated from the F value and the TV value calculated from the shutter speed.
以上の構成によれば、撮影前の時間帯の撮影空間を、撮影のタイミングの撮影空間と同じような撮影環境にすることができる。これにより、撮影前の時間帯に表示されるライブビュー画像は、撮影結果として表示される撮影画像と略同じ写り具合となる。結果として、利用者は、ライブビュー画像と撮影画像との写りの違いに違和感を覚えることなく撮影作業を行うことが可能となる。 According to the above configuration, the shooting space in the time zone before shooting can be set to the same shooting environment as the shooting space at the shooting timing. As a result, the live view image displayed in the time zone before image capturing has almost the same appearance as the captured image displayed as the image capturing result. As a result, the user can perform the photographing operation without feeling uncomfortable with the difference between the live view image and the photographed image.
<変形例>
以上においては、撮影空間A1において利用者の背面側に設けられる背面上ストロボユニット121、背面右ストロボユニット122、および背面左ストロボユニット123の構成について説明してきた。
<Modification>
In the above, the configuration of the upper
ここで、撮影空間A1において利用者の正面側に設けられる上ストロボユニット82、左ストロボユニット83、および右ストロボユニット84が、上述した構成を採るようにしてもよい。
Here, the
具体的には、上ストロボユニット82、左ストロボユニット83、および右ストロボユニット84それぞれに、撮影に合わせて発光するストロボ発光管と、定常光を発光する定常光光源とを設けるようにする。
Specifically, each of the
そして、上ストロボユニット82の光量を、左ストロボユニット83および右ストロボユニット84の光量より大きくする。
Then, the light amount of the
具体的には、上ストロボユニット82が有するストロボ発光管の光量を、左ストロボユニット83および右ストロボユニット84それぞれが有するストロボ発光管の光量より大きくなるようにする。ここで、上ストロボユニット82が有するストロボ発光管の光量を、左ストロボユニット83および右ストロボユニット84それぞれが有するストロボ発光管の光量それぞれの総量より大きくなるようにしてもよい。
Specifically, the light amount of the strobe light emitting tube of the
これに合わせて、上ストロボユニット82が有する定常光光源の光量を、左ストロボユニット83および右ストロボユニット84それぞれが有する定常光光源の光量より大きくなるようにする。ここでも、上ストロボユニット82が有する定常光光源の光量を、左ストロボユニット83および右ストロボユニット84それぞれが有する定常光光源の光量それぞれの総量より大きくなるようにしてもよい。
In accordance with this, the light amount of the steady light source of the
さらに、上ストロボユニット82が有するストロボ発光管の光量と、左ストロボユニット83および右ストロボユニット84それぞれが有するストロボ発光管の光量との比を、上ストロボユニット82が有する定常光光源の光量と、左ストロボユニット83および右ストロボユニット84それぞれが有する定常光光源の光量との比と略同じとなるようにする。
Further, the ratio of the light amount of the strobe light emitting tube of the
このような構成においても、撮影前の時間帯の撮影空間を、撮影のタイミングの撮影空間と同じような撮影環境にすることができ、結果として、利用者は、ライブビュー画像と撮影画像との写りの違いに違和感を覚えることなく撮影作業を行うことが可能となる。 Even in such a configuration, the shooting space in the time zone before shooting can be set to the same shooting environment as the shooting space at the shooting timing, and as a result, the user can obtain the live view image and the shot image. The photographing operation can be performed without feeling uncomfortable with the difference in the image.
なお、左ストロボユニット83および右ストロボユニット84の光量を、それらの光と上ストロボユニット82の光とが干渉しない程度に抑えることで、利用者の顔の中央からその左右にかけての明暗の差がなだらかになり、利用者の顔に立体感をつくり出すことができる。さらに、このような構成においては、左ストロボユニット83および右ストロボユニット84を、キャッチライトとして機能させることができる。結果として、利用者の顔がより良く写る撮影画像を提供することができる。
By controlling the light amounts of the
また、上述で説明した全身撮影が行われる場合には、アップ撮影が行われる場合と比較して、背面上ストロボユニット121や上ストロボユニット82による光の照射範囲をより広い範囲とする必要がある。
In addition, when the whole-body imaging described above is performed, it is necessary to make the irradiation range of the light by the upper
そこで、全身撮影が行われるときの背面上ストロボユニット121や上ストロボユニット82の光量を、アップ撮影が行われるときのそれらの光量より大きくするようにしてもよい。
Therefore, the light amounts of the upper
なお、上述した実施の形態では、写真シール作成装置1は、得られた撮影画像や編集画像をシール紙に印刷するとともに、サーバに送信することで利用者の携帯端末に提供する構成を採るものとした。これに限らず、撮影画像や編集画像をシール紙に印刷せずに、サーバに送信することで利用者の携帯端末に提供するのみの構成を採ることも可能である。また逆に、撮影画像や編集画像をサーバに送信せずに、シール紙に印刷するのみの構成を採ることも可能である。
In the above-described embodiment, the photograph
上述した一連の処理は、ハードウェアにより実行させることもできるし、ソフトウェアにより実行させることもできる。上述した一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、ネットワークや記録媒体からインストールされる。 The series of processes described above can be executed by hardware or can be executed by software. When the series of processes described above are executed by software, a program constituting the software is installed from a network or a recording medium.
この記録媒体は、例えば、図7に示されるように、装置本体とは別に、写真シール作成装置1の管理者にプログラムを配信するために配布される、そのプログラムが記録されている磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROMおよびDVDを含む)、光磁気ディスク、もしくは半導体メモリなどよりなるリムーバブルメディア205により構成される。また、これらだけでなく、記録媒体は、装置本体にあらかじめ組み込まれた状態で管理者に配信されるプログラムが記録されているROM206や、記憶部202に含まれるハードディスクなどで構成される。
For example, as shown in FIG. 7, this recording medium is distributed separately from the apparatus main body to distribute the program to an administrator of the photo
なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。 In the present specification, the steps of describing a program recorded on a recording medium may be performed in chronological order according to the described order, or may be performed in parallel or This also includes processes executed individually.
以上において、印刷媒体は、シール紙や写真紙に限られるものではない。例えば、所定のサイズの紙やフィルム、プリペイドカードやIC(Integrated Circuit)カードなどのカード、あるいは、Tシャツなどの布地などに、画像を印刷するようにしてもよい。この場合、1または複数の撮影画像が配置されたシールレイアウト画像が、これらの印刷媒体に印刷されるようにしてもよい。 In the above, the print medium is not limited to sticker paper or photographic paper. For example, the image may be printed on paper or film of a predetermined size, a card such as a prepaid card or an IC (Integrated Circuit) card, or a cloth such as a T-shirt. In this case, a seal layout image on which one or a plurality of photographed images are arranged may be printed on these print media.
また、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。 Embodiments of the present technology are not limited to the above-described embodiments, and various changes can be made without departing from the gist of the present technology.
1 写真シール作成装置
91 カメラ
201 制御部
301 撮影処理部
311 表示制御部
312 撮影制御部
313 画像処理部
314 照明制御部
501 領域判定部
DESCRIPTION OF
Claims (10)
前記カメラに取り込まれた動画像における人物領域のうちの上半身領域に対して、利用者による直接的な選択によらず所定の画像処理を施す画像処理部と、
前記画像処理が施された前記動画像がリアルタイムに表示されるライブビュー表示画面を表示する表示制御部と
を備え、
前記表示制御部は、前記動画像に前記画像処理が施される場合、前記動画像に前記画像処理が施されない場合と比べて、前記ライブビュー表示画面において前記動画像全体が表示される表示領域を大きくする
写真シール作成装置。 A camera that shoots the subject,
An image processing unit that performs predetermined image processing without depending on a direct selection by a user for an upper body region of a person region in a moving image captured by the camera,
A display control unit that displays a live view display screen in which the moving image subjected to the image processing is displayed in real time.
The display control unit may include a display area where the entire moving image is displayed on the live view display screen when the image processing is performed on the moving image, compared to when the image processing is not performed on the moving image. Photo sticker making equipment.
請求項1に記載の写真シール作成装置。 The photograph sticker creation device according to claim 1, wherein the image processing unit performs a plurality of types of the image processing on the upper body region in the moving image.
請求項1または2に記載の写真シール作成装置。 The photo sticker creation device according to claim 1, wherein the image processing unit performs the image processing using the result of the face recognition on the upper body region specified by performing the face recognition.
請求項3に記載の写真シール作成装置。 The photo sticker creation device according to claim 3, wherein the image processing unit performs the image processing using the result of the face recognition on the face area specified by performing the face recognition.
請求項1または2に記載の写真シール作成装置。 The photo sticker according to claim 1, wherein the image processing unit performs the image processing using the mask image on the upper body region specified by generating a mask image for acquiring the person region. Creating device.
請求項3乃至5のいずれかに記載の写真シール作成装置。 The photograph sticker according to any one of claims 3 to 5, further comprising an area determination unit that determines the validity of the specified upper body area using at least one of a color, a shape, and a size of the person area. Creation device.
請求項1乃至6のいずれかに記載の写真シール作成装置。 The image processing unit performs image processing with different parameters for the upper body region in a case where a close-up image capturing the face and the upper body of the subject is performed and a case where a full body image capturing the whole body of the subject is performed. The photo sticker producing device according to any one of claims 1 to 6.
前記画像処理部は、前記コース選択画面において選択されたコースに応じた前記画像処理を、前記動画像における前記上半身領域に対して施す
請求項1乃至7のいずれかに記載の写真シール作成装置。 The display control unit, before the live view display screen is displayed, displays a course selection screen for allowing the user to select a course related to shooting,
The photograph sticker creation device according to any one of claims 1 to 7, wherein the image processing unit performs the image processing according to a course selected on the course selection screen on the upper body region in the moving image.
請求項1乃至8のいずれかに記載の写真シール作成装置。 The photograph sticker creation device according to claim 1, wherein the image processing unit performs the image processing on a still image obtained as a result of shooting.
前記カメラに取り込まれた動画像における人物領域のうちの上半身領域に対して、利用者による直接的な選択によらず所定の画像処理を施し、
前記画像処理が施された前記動画像がリアルタイムに表示されるライブビュー表示画面を表示し、
前記動画像に前記画像処理が施される場合、前記動画像に前記画像処理が施されない場合と比べて、前記ライブビュー表示画面において前記動画像全体が表示される表示領域を大きくする
ステップを含む表示方法。 A display method of a photo sticker creating device including a camera for photographing a subject,
For the upper body region of the person region in the moving image captured by the camera, perform predetermined image processing without direct selection by the user,
Display a live view display screen in which the moving image subjected to the image processing is displayed in real time,
Increasing the display area where the entire moving image is displayed on the live view display screen, when the image processing is performed on the moving image, compared to when the image processing is not performed on the moving image. Display method.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015076688 | 2015-04-03 | ||
JP2015076688 | 2015-04-03 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016197222A JP2016197222A (en) | 2016-11-24 |
JP6646202B2 true JP6646202B2 (en) | 2020-02-14 |
Family
ID=57357980
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015157336A Active JP6646202B2 (en) | 2015-04-03 | 2015-08-07 | Photo sticker making device and display method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6646202B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7252439B2 (en) * | 2018-08-03 | 2023-04-05 | フリュー株式会社 | Image capturing device and image capturing program |
JP2021044734A (en) * | 2019-09-12 | 2021-03-18 | フリュー株式会社 | Image processing device, image processing method, and program |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009153085A (en) * | 2007-12-25 | 2009-07-09 | Casio Hitachi Mobile Communications Co Ltd | Mobile terminal device and program |
JP5115528B2 (en) * | 2009-09-16 | 2013-01-09 | フリュー株式会社 | Photo sticker creation apparatus, photo sticker creation method, and program |
JP5500359B2 (en) * | 2010-04-28 | 2014-05-21 | フリュー株式会社 | Photo sticker creation apparatus, photo sticker creation method, and program |
JP6136769B2 (en) * | 2013-08-29 | 2017-05-31 | フリュー株式会社 | Image processing apparatus, image processing method, and program |
-
2015
- 2015-08-07 JP JP2015157336A patent/JP6646202B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2016197222A (en) | 2016-11-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5488526B2 (en) | Image processing apparatus and image processing method | |
JP5748651B2 (en) | Image processing apparatus, image processing method, and program | |
JP5825542B1 (en) | Photo sticker creation apparatus and display method | |
JP2017121044A (en) | Photo seal producing apparatus and image processing method | |
JP6646202B2 (en) | Photo sticker making device and display method | |
JP6477780B2 (en) | Photo sticker creation apparatus, photo sticker creation method, and photo sticker creation processing program | |
JP6853475B2 (en) | Photo creation game console and display method | |
JP6769004B2 (en) | Image providing device and image providing method | |
JP7560711B2 (en) | IMAGE PROCESSING APPARATUS, IMAGE PROCESSING METHOD, AND IMAGE PROCESSING | |
JP7132492B2 (en) | Image processing device, display control method, and program | |
JP7140962B2 (en) | Image processing device, control method, and program | |
JP2021182104A (en) | Photograph creation game machine, editing method and program | |
JP6664062B2 (en) | Photo sticker making device and photographing method | |
JP2020113878A (en) | Image processing apparatus, image processing method, and image processing program | |
JP6687839B2 (en) | Photo creation game machine and display method | |
JP2015130672A (en) | Imaging device and imaging method | |
JP7121256B2 (en) | PHOTO-CREATION GAME MACHINE, IMAGE PROCESSING METHOD, AND PROGRAM | |
JP5970013B2 (en) | Photo sticker making apparatus and photo sticker making method | |
JP5482948B2 (en) | Image processing apparatus and image processing method | |
JP6982230B2 (en) | Photographing game console and image processing method | |
JP6041024B1 (en) | Photo sticker creation apparatus and display method | |
JP2019032374A (en) | Image imaging device | |
JP6933799B2 (en) | Photographing game console and shooting method | |
JP6443028B2 (en) | Image generation apparatus, image generation method, and print medium | |
JP5594401B1 (en) | Imaging apparatus, imaging method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180801 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190411 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190610 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190730 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190925 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20191210 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20191223 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6646202 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |