JP2017121044A - Photo seal producing apparatus and image processing method - Google Patents
Photo seal producing apparatus and image processing method Download PDFInfo
- Publication number
- JP2017121044A JP2017121044A JP2016239068A JP2016239068A JP2017121044A JP 2017121044 A JP2017121044 A JP 2017121044A JP 2016239068 A JP2016239068 A JP 2016239068A JP 2016239068 A JP2016239068 A JP 2016239068A JP 2017121044 A JP2017121044 A JP 2017121044A
- Authority
- JP
- Japan
- Prior art keywords
- image
- face
- editing
- user
- person
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000003672 processing method Methods 0.000 title claims description 5
- 238000012545 processing Methods 0.000 claims abstract description 154
- 238000001514 detection method Methods 0.000 claims abstract description 21
- 238000000034 method Methods 0.000 claims description 107
- 230000008569 process Effects 0.000 claims description 104
- 239000000203 mixture Substances 0.000 claims description 14
- 230000015572 biosynthetic process Effects 0.000 claims description 12
- 238000003786 synthesis reaction Methods 0.000 claims description 12
- 230000003287 optical effect Effects 0.000 claims description 4
- 230000002194 synthesizing effect Effects 0.000 claims description 4
- 238000005516 engineering process Methods 0.000 abstract description 9
- 238000003384 imaging method Methods 0.000 description 30
- 238000010586 diagram Methods 0.000 description 16
- 230000008859 change Effects 0.000 description 13
- 235000002673 Dioscorea communis Nutrition 0.000 description 12
- 241000544230 Dioscorea communis Species 0.000 description 12
- 208000035753 Periorbital contusion Diseases 0.000 description 12
- 238000003860 storage Methods 0.000 description 9
- 210000000887 face Anatomy 0.000 description 8
- 230000001815 facial effect Effects 0.000 description 8
- 238000007639 printing Methods 0.000 description 8
- 238000004891 communication Methods 0.000 description 6
- 238000005286 illumination Methods 0.000 description 6
- 238000012937 correction Methods 0.000 description 5
- 210000000720 eyelash Anatomy 0.000 description 5
- 238000004519 manufacturing process Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 4
- 238000009966 trimming Methods 0.000 description 4
- 230000003247 decreasing effect Effects 0.000 description 3
- 238000003780 insertion Methods 0.000 description 3
- 230000037431 insertion Effects 0.000 description 3
- 238000003825 pressing Methods 0.000 description 3
- 101000628535 Homo sapiens Metalloreductase STEAP2 Proteins 0.000 description 2
- 101000880402 Homo sapiens Metalloreductase STEAP4 Proteins 0.000 description 2
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 2
- 102100026711 Metalloreductase STEAP2 Human genes 0.000 description 2
- 102100037654 Metalloreductase STEAP4 Human genes 0.000 description 2
- 240000002871 Tectona grandis Species 0.000 description 2
- 239000003086 colorant Substances 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 210000004709 eyebrow Anatomy 0.000 description 2
- 239000002184 metal Substances 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 210000000056 organ Anatomy 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 229910001111 Fine metal Inorganic materials 0.000 description 1
- NIXOWILDQLNWCW-UHFFFAOYSA-N acrylic acid group Chemical group C(C=C)(=O)O NIXOWILDQLNWCW-UHFFFAOYSA-N 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 239000011449 brick Substances 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 239000004744 fabric Substances 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 239000011888 foil Substances 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000002932 luster Substances 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 230000011514 reflex Effects 0.000 description 1
- 229920006395 saturated elastomer Polymers 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Landscapes
- Cameras Adapted For Combination With Other Photographic Or Optical Apparatuses (AREA)
- Image Processing (AREA)
- Studio Devices (AREA)
- Image Analysis (AREA)
Abstract
Description
本技術は、写真シール作成装置および画像処理方法に関し、特に、奥行き感のある画像を提供することができるようにする写真シール作成装置および画像処理方法に関する。 The present technology relates to a photographic sticker creating apparatus and an image processing method, and more particularly, to a photographic sticker creating apparatus and an image processing method capable of providing an image having a sense of depth.
従来、アミューズメント施設等に設置される写真シール機が知られている。写真シール機は、利用者を撮影し、利用者の操作に応じて撮影画像に対して編集を施す。写真シール機は、編集が施された撮影画像をシール紙に印刷する。 Conventionally, a photo sticker installed in an amusement facility or the like is known. The photo sticker machine photographs a user and edits the photographed image according to the user's operation. The photo sticker prints the edited photographed image on sticker paper.
近年、写真シール機においては、より良い仕上がりの画像を提供するために、画像に対して様々な画像処理が施される。例えば、特許文献1には、被写体の肌の部分を自動で認識し、認識された肌の部分における肌荒れ部分をぼかす処理を行う写真シール作成装置が記載されている。
In recent years, in a photo sticker, various image processing is performed on an image in order to provide a better finished image. For example,
一方、カメラの分野において、例えば特許文献2には、画像が拡大された際に、被写体の肌のあらが目立つことを避けるために、所定の拡大率以上になった場合に画像をぼかすことで、被写体の肌のあらが目立たないようにすることが記載されている。
On the other hand, in the field of cameras, for example,
また、特許文献3には、撮影画像から顔を検出し、検出された顔の位置や大きさ、向きに応じて絞りを調整することにより被写界深度を制御することが記載されている。これにより、撮影者は、その意図に沿った撮影を行うことができる。
ところで、撮影画像において被写体の背景をぼかすことで、その撮影画像に奥行き感をもたせることができる。これは、特許文献3の技術を用いて、被写体にピントを合わせ、背景をぼかすよう、被写界深度を浅くすることで実現される。
By the way, by blurring the background of the subject in the photographed image, the sensed depth can be given to the photographed image. This is achieved by using the technique of
一方、従来の写真シール機においては、被写体となる利用者が撮影空間内のどこに立ってもピントが合うよう、被写界深度が深く設定されている。そのため、従来の写真シール機においては、被写体だけでなく、背景にもピントが合ってしまっていた。 On the other hand, in a conventional photo sticker, the depth of field is set deep so that a user who is a subject is in focus anywhere in the shooting space. For this reason, conventional photo stickers focus on the background as well as the subject.
その結果、従来の写真シール機においては、背景の中に人物が埋没したような平面的な画像が得られることになる。 As a result, in a conventional photo sticker, a flat image in which a person is buried in the background can be obtained.
本技術は、このような状況に鑑みてなされたものであり、奥行き感のある画像を提供することができるようにするものである。 The present technology has been made in view of such a situation, and makes it possible to provide an image with a sense of depth.
本技術の一側面の写真シール作成装置は、利用者を被写体として撮影することで撮影画像を生成する撮影処理部と、前記撮影画像において人物の顔を検出する顔検出部と、検出された前記顔の大きさに基づいて、前記撮影画像に施される画像処理のパラメータを調整するパラメータ調整部と、調整された前記パラメータでの前記画像処理を、前記撮影画像の前記人物以外の領域に施す画像処理部とを備える。 A photo sticker creating apparatus according to an aspect of the present technology includes a shooting processing unit that generates a shot image by shooting a user as a subject, a face detection unit that detects a human face in the shot image, and the detected Based on the size of the face, a parameter adjustment unit that adjusts parameters of image processing to be performed on the captured image, and the image processing with the adjusted parameters is performed on an area other than the person in the captured image An image processing unit.
本技術の一側面の画像処理方法は、利用者を被写体として撮影することで撮影画像を生成し、前記撮影画像において人物の顔を検出し、検出された前記顔の大きさに基づいて、前記撮影画像に施される画像処理のパラメータを調整し、調整された前記パラメータでの前記画像処理を、前記撮影画像の前記人物以外の領域に施すステップを含む。 An image processing method according to one aspect of the present technology generates a captured image by capturing a user as a subject, detects a human face in the captured image, and based on the detected size of the face, Adjusting a parameter of image processing applied to the photographed image, and performing the image processing with the adjusted parameter on a region other than the person of the photographed image.
本技術の一側面においては、利用者を被写体として撮影することで撮影画像が生成され、撮影画像において人物の顔が検出され、検出された顔の大きさに基づいて、撮影画像に施される画像処理のパラメータが調整され、調整されたパラメータでの画像処理が、撮影画像の人物以外の領域に施される。 In one aspect of the present technology, a photographed image is generated by photographing a user as a subject, a human face is detected in the photographed image, and the photographed image is applied based on the detected face size. Image processing parameters are adjusted, and image processing with the adjusted parameters is performed on areas other than the person in the captured image.
本技術によれば、奥行き感のある画像を提供することが可能となる。 According to the present technology, it is possible to provide an image with a sense of depth.
<写真シール作成装置の外観構成>
図1は、写真シール作成装置1の外観の構成例を示す斜視図である。
<External structure of photo sticker creation device>
FIG. 1 is a perspective view showing a configuration example of the appearance of the photographic
写真シール作成装置1は、撮影画像や編集済みの画像を提供するゲーム機である。写真シール作成装置1は、画像をシール紙に印刷したり、利用者の携帯端末上で画像を閲覧可能にするためにその画像をサーバに送信したりすることで、利用者に画像を提供する。
The photo
写真シール作成装置1は、アミューズメント施設や店舗に設置される。写真シール作成装置1の利用者は、主に女子高校生や女子大学生などの若い女性が中心とされる。写真シール作成装置1において、1組あたり主に2人や3人などの複数人の利用者がゲームを楽しむことができる。もちろん、1人の利用者がゲームを楽しむこともできる。
The photo
写真シール作成装置1において、利用者は、自身が被写体となって撮影作業を行う。利用者は、編集作業を行うことによって、撮影によって得られた撮影画像に対して、背景画像や前景画像(手書きの文字やスタンプ画像など)である合成用画像を合成させる。これにより、撮影画像が彩り豊かな画像に編集される。利用者は、編集済みの画像である編集画像が印刷されたシール紙を受け取って一連のゲームを終了させる。
In the photo
写真シール作成装置1は、撮影ユニット11と編集ユニット12が接した状態で設置されることによって構成される。撮影ユニット11と編集ユニット12は電気的に接続される。撮影ユニット11は、人が中に入ることができる程度の大きさを有する箱形状の筐体を有する。
The photo
撮影ユニット11は、撮影部21と背景部22から構成される。撮影部21と背景部22は離して設置される。撮影部21と背景部22の間に設けられる空間が、利用者が撮影作業を行う撮影空間となる。
The photographing
撮影部21は、利用者を被写体として撮影する装置である。撮影空間に臨む撮影部21の正面にはカメラなどが設けられる。撮影部21の、編集ユニット12と接する面には正面パネル41が設けられる。撮影空間にいる利用者から見て右側の面を右側面、左側の面を左側面とすると、撮影部21の右側面が側面パネル42Aにより構成され、左側面が側面パネル42B(図2)により構成される。
The photographing
背景部22は、それぞれ板状の部材である背面パネル51、側面パネル52A、および側面パネル52B(図2)から構成される。背面パネル51は、正面を向いている利用者の背面側に位置する。側面パネル52Aは、背面パネル51の右端に取り付けられ、側面パネル52Bは、背面パネル51の左端に取り付けられる。
The
側面パネル42Aと側面パネル52Aは、所定の間隔をあけてほぼ同一平面に設けられる。側面パネル42Aと側面パネル52Aの上部は、板状の部材である連結部31Aによって連結される。また、側面パネル42Aと側面パネル52Aの下部は、床面に設けられた例えば金属製の部材である連結部34によって連結される。
The
側面パネル42Bと側面パネル52Bも同様にほぼ同一平面に設けられる。側面パネル42Bと側面パネル52Bの上部は連結部31Bによって連結される。側面パネル42Bと側面パネル52Bの下部は、床面に設けられた金属製の部材である連結部(図示せず)によって連結される。
Similarly, the
側面パネル42A、連結部31A、および側面パネル52Aに囲まれることによって形成される開口が、撮影空間の出入り口となる。また、側面パネル42B、連結部31B、および側面パネル52Bに囲まれることによって形成される開口も、撮影空間の出入り口となる。
An opening formed by being surrounded by the
撮影空間の上方には、撮影部21の正面パネル41、連結部31A、連結部31B、および背景部22の背面パネル51に囲まれる開口が形成される。その開口の一部を覆うように天井照明ユニット32が設けられる。天井照明ユニット32の一端は連結部31Aに固定され、他端は連結部31Bに固定される。
An opening surrounded by the
天井照明ユニット32の内部には蛍光灯が設けられる。天井照明ユニット32は、撮影空間の照明として機能するとともに、撮影を行っている利用者に対してストロボ光を照射する。
A fluorescent lamp is provided inside the
編集ユニット12は、撮影画像に編集を施すための装置である。編集ユニット12は、一方の側面が撮影部21の正面パネル41に接するようにして、撮影ユニット11に連結している。
The
図1に示される編集ユニット12の構成を正面側の構成とすると、編集ユニット12の正面側と背面側のそれぞれに、編集作業で用いられる構成が設けられる。この構成により、2組の利用者が同時に編集を行うことができる。
If the configuration of the
編集ユニット12の正面側は、床面に対して垂直な面である面12Aと、面12Aの上方に形成された斜面12Bから構成される。斜面12Bには、編集作業に用いられる構成として、タブレット内蔵モニタやタッチペンが設けられる。
The front side of the
斜面12Bの上方右側には、照明装置73の一端を支持する柱状の支持部71A(図6)が設けられる。斜面12Bの左側には、照明装置73の他端を支持する柱状の支持部71Bが設けられる。支持部71Aの右側には板状のパネル72が設けられる。パネル72の上面にはカーテンレール75を支持する支持部74が設けられる。
A
編集ユニット12の上方にはカーテンレール75が取り付けられる。カーテンレール75は、3本のレール75A乃至75Cが組み合わされて構成される。3本のレール75A乃至75Cは、上から見たときの形状がコの字状となるように組み合わされる。平行に設けられるレール75Aとレール75Bの一端は、連結部31Aと連結部31Bにそれぞれ固定され、レール75Aとレール75Bの他端は、レール75Cの両端にそれぞれ接合される。
A
カーテンレール75には、編集ユニット12の正面前方の空間と背面前方の空間が外から見えないようにカーテンが取り付けられる。そのカーテンにより囲まれる編集ユニット12の正面前方の空間と背面後方の空間が、利用者が編集作業を行う編集空間となる。
A curtain is attached to the
後述するように、編集ユニット12の右側面には、印刷済みのシール紙が排出される排出口が設けられる。編集ユニット12の右側面前方の空間が、印刷が終了するのを利用者が待つ印刷待ち空間となる。
As will be described later, the right side surface of the
<利用者の移動について>
ここで、写真シール作成ゲームの流れと、それに伴う利用者の移動について説明する。
<About user movement>
Here, the flow of the photo sticker creation game and the accompanying movement of the user will be described.
図2は、写真シール作成装置1を上から見た平面図である。
FIG. 2 is a plan view of the photo
まず、利用者は、白抜き矢印#1で示されるように出入り口G1から、または白抜き矢印#2で示されるように出入り口G2から、撮影部21と背景部22の間に形成された撮影空間A1に入る。出入り口G1は側面パネル42Aと側面パネル52Aの間の開口であり、出入り口G2は側面パネル42Bと側面パネル52Bの間の開口である。利用者は、撮影空間A1において、撮影部21に設けられたカメラやタッチパネルモニタなどを利用して撮影作業を行う。
First, the user takes a photographing space formed between the photographing
撮影作業を終えた利用者は、白抜き矢印#3で示されるように出入り口G1から撮影空間A1を出て編集空間A2−1に移動するか、白抜き矢印#4で示されるように出入り口G2から撮影空間A1を出て編集空間A2−2に移動する。
The user who has finished the shooting work exits the shooting space A1 from the doorway G1 as indicated by the
編集空間A2−1は、編集ユニット12の正面側の編集空間である。一方、編集空間A2−2は、編集ユニット12の背面側の編集空間である。利用者が編集空間A2−1と編集空間A2−2のいずれの空間に移動するのかは、撮影部21のタッチパネルモニタの画面表示などによって案内される。例えば2つの編集空間のうちの空いている方が移動先として案内される。
The editing space A2-1 is an editing space on the front side of the
編集空間A2−1または編集空間A2−2に移動した利用者は、編集作業を開始する。編集空間A2−1の利用者と編集空間A2−2の利用者は同時に編集作業を行うことができる。 The user who has moved to the editing space A2-1 or the editing space A2-2 starts editing work. The user of the editing space A2-1 and the user of the editing space A2-2 can perform editing work at the same time.
編集作業が終了した後、編集画像の印刷が開始される。印刷が開始されると、編集空間A2−1での編集作業を終えた利用者は、白抜き矢印#5で示されるように編集空間A2−1から印刷待ち空間A3に移動する。また、編集空間A2−2での編集作業を終えた利用者は、白抜き矢印#6で示されるように編集空間A2−2から印刷待ち空間A3に移動する。印刷待ち空間A3に移動した利用者は、印刷が終了するのを待つ。
After the editing operation is finished, printing of the edited image is started. When printing is started, the user who has finished the editing work in the editing space A2-1 moves from the editing space A2-1 to the print waiting space A3 as indicated by a
印刷が終了すると、利用者は、編集ユニット12の右側面に設けられた排出口から排出されたシール紙を受け取り、一連の写真シール作成ゲームを終える。
When printing is completed, the user receives the sticker paper discharged from the discharge port provided on the right side of the
次に、各部の構成について説明する。 Next, the configuration of each unit will be described.
<撮影部の構成>
図3は、撮影部21の構成例を示す斜視図であり、図4は、撮影部21の構成例を示す正面図である。
<Configuration of the shooting unit>
FIG. 3 is a perspective view illustrating a configuration example of the
撮影部21の外枠は、複数のキャスターが取り付けられたベース部43に、正面パネル41、側面パネル42A、および側面パネル42Bが立設して構成される。
The outer frame of the
正面パネル41の略中央には、略箱形状の撮影・表示ユニット101が設けられる。撮影・表示ユニット101の正面側には、上から順に、前下がりの斜面101A、垂直に対して僅かに前傾した斜面101B、および、斜面101Aより急な斜面101Cが形成される。
A substantially box-shaped photographing /
斜面101Bの略中央には円形の開口部が形成され、開口部には、撮影空間A1にいる利用者を撮影するカメラ111のレンズが設けられる。撮影・表示ユニット101の内部には、例えば一眼レフカメラであるカメラ111がチルト可能に取り付けられている。
A circular opening is formed in the approximate center of the
斜面101Cにはタッチパネルモニタ112が設けられる。タッチパネルモニタ112は、LCD(Liquid Crystal Display)などのモニタと、それに積層されたタッチパネルにより構成される。 A touch panel monitor 112 is provided on the slope 101C. The touch panel monitor 112 includes a monitor such as an LCD (Liquid Crystal Display) and a touch panel laminated thereon.
タッチパネルモニタ112は、カメラ111により取り込まれた動画像(以下、ライブビュー画像ともいう)を表示するライブビューモニタとしての機能と、各種のGUI(Graphical User Interface)を表示して利用者の操作を受け付ける機能とを備える。タッチパネルモニタ112には、カメラ111により取り込まれたライブビュー画像や撮影画像が表示される。撮影画像は、所定のタイミングでカメラ111により取り込まれた静止画像である。
The touch panel monitor 112 displays a moving image (hereinafter also referred to as a live view image) captured by the
後に詳述するように、利用者は、自身の全身が写る画像である全身画像と、顔部分を中心として、自身の略胸から上の範囲が大きく写る画像であるアップ画像を撮影することができる。 As will be described in detail later, the user can shoot a full-body image that is an image of the entire body of the user and an up image that is an image in which the range above the approximate chest is large with the face portion at the center. it can.
正面パネル41には、撮影・表示ユニット101を挟んで対称に発光部102Lと発光部102Rが形成される。発光部102Lと発光部102Rは、例えば正面パネル41に形成された細幅の溝に、透光性を有するカバーが嵌め込まれることによって構成される。正面パネル41に形成された細幅の溝にはLEDなどの発光体が設けられる。
On the
図4に示すように、撮影・表示ユニット101の左側の発光部102Lは、細幅の直線状部102L−1乃至102L−3から構成される。直線状部102L−2は、その長さを撮影・表示ユニット101の縦方向の長さと略同じ長さにするように垂直方向に形成される。直線状部102L−1は、直線状部102L−2の上端から右斜め上方に向けて形成され、直線状部102L−3は、直線状部102L−1の下端から右斜め下方に向けて形成される。
As shown in FIG. 4, the left
一方、撮影・表示ユニット101の右側の発光部102Rは、細幅の直線状部102R−1乃至102R−3から構成される。直線状部102R−2は、その長さを撮影・表示ユニット101の縦方向の長さと略同じ長さにするように垂直方向に形成される。直線状部102R−1は、直線状部102R−2の上端から左斜め上方に向けて形成され、直線状部102R−3は、直線状部102R−2の下端から左斜め下方に向けて形成される。
On the other hand, the
図4に示されるように、発光部102Lと発光部102Rを合わせた形状は略六角形になる。発光部102Lと発光部102Rが発光することにより、撮影空間A1の印象としてシャープな印象を演出することができる。
As shown in FIG. 4, the combined shape of the
撮影・表示ユニット101の上方には、曲面のカバーを利用者に向けた上ストロボユニット103が設置される。上ストロボユニット103は、所定の取り付け部材を用いて、正面パネル41などに固定される。上ストロボユニット103は、正面上方から、利用者の顔付近にストロボ光を照射する。
Above the photographing /
撮影・表示ユニット101の下方には、カメラ111による撮影に合わせて利用者の下半身にストロボ光を照射する足元ストロボユニット104が設けられる。足元ストロボユニット104の正面は垂直面を形成する板状部材121により構成され、上面は緩やかな斜面を形成する板状部材122により構成される。板状部材121と板状部材122は、乳白色のアクリル板などの透光性を有する板状部材である。
Below the photographing /
足元ストロボユニット104の板状部材121の左右には、垂直面を構成する板状部材123Lと板状部材123Rがそれぞれ設けられる。板状部材123Rには、利用者が硬貨を投入する硬貨投入口が設けられる。
On the left and right of the plate-
足元ストロボユニット104の板状部材122の左右には、板状部材122と同様の緩やかな斜面を形成する板状部材124Lと板状部材124Rがそれぞれ設けられる。板状部材124Lと板状部材124Rにより形成される斜面は、利用者が手荷物を置くためなどに用いられる。
On the left and right sides of the plate-
図示はしないが、正面パネル41の例えば天井付近にはスピーカが設けられる。そのスピーカは、撮影作業に関する案内音声、BGM、効果音などを出力する。
Although not illustrated, a speaker is provided near the ceiling of the
<背景部の構成>
図5は、背景部22の撮影空間A1側の構成例を示す図である。
<Configuration of background part>
FIG. 5 is a diagram illustrating a configuration example of the
背面パネル51の上方中央には背面上ストロボ131が設けられる。また、背面パネル51の上方右側(図中、左側)には背面右ストロボ132が設けられ、背面パネル51の上方左側(図中、右側)には背面左ストロボ133が設けられる。
A rear
背面上ストロボ131は、後方上側から利用者にストロボ光を照射する。背面右ストロボ132は、後方右側から利用者にストロボ光を照射する。背面左ストロボ133は、後方左側から利用者にストロボ光を照射する。
The rear
背面パネル51の撮影空間A1側(図中、手前側)の面は例えば緑色の面となる。また、図示はしないが、側面パネル52A,52Bそれぞれの撮影空間A1側の面も例えば緑色の面である。
The surface on the imaging space A1 side (the front side in the drawing) of the
これらの面の緑色は、クロマキ処理によって利用者の領域を抽出するための色である。これにより、撮影画像に対してクロマキ処理を施し、利用者が所望する背景画像を、撮影画像の背景部分に合成することができる。なお、これらの面の色は、クロマキ処理を行うことができる色であればよく、青色などの他の色であってもよい。 The green color of these surfaces is a color for extracting the user's area by chroma processing. Thereby, chroma processing is performed on the captured image, and a background image desired by the user can be combined with the background portion of the captured image. In addition, the color of these surfaces should just be a color which can perform a chroma process, and other colors, such as blue, may be sufficient as it.
<編集ユニットの構成>
図6は、編集ユニット12の正面側(編集空間A2−1側)の構成例を示す図である。
<Configuration of editing unit>
FIG. 6 is a diagram illustrating a configuration example of the
斜面12Bのほぼ中央には、タブレット内蔵モニタ141が設けられる。タブレット内蔵モニタ141の左右にはタッチペン142Aとタッチペン142Bが設けられる。
A tablet built-in
タブレット内蔵モニタ141は、タッチペン142A,142Bを用いた操作入力を受け付ける。タブレット内蔵モニタ141には、編集作業に用いられる編集画面などが表示される。例えば、タッチペン142Aはタブレット内蔵モニタ141に向かって左側に立つ利用者により用いられ、タッチペン142Bはタブレット内蔵モニタ141に向かって右側に立つ利用者により用いられる。以下、適宜、タッチペン142Aとタッチペン142Bを区別する必要がない場合、タッチペン142という。
The tablet built-in
図7は、編集ユニット12の右側面の構成例を示す図である。
FIG. 7 is a diagram illustrating a configuration example of the right side surface of the
編集ユニット12の右側面の下部にはシール紙排出口151が設けられる。編集ユニット12の内部にはプリンタが設けられる。そのプリンタにより、編集空間A2−1の利用者が編集を行った画像、または、編集空間A2−2の利用者が編集を行った画像が所定のレイアウトでシール紙に印刷され、シール紙排出口151から排出される。
A seal
<シール紙の例>
図8は、以上のような外観構成を有する写真シール作成装置1により作成されるシール紙の例を示す図である。
<Example of sticker paper>
FIG. 8 is a diagram showing an example of a sticker sheet created by the
図8に示す横長のシール紙には、5枚の編集画像である編集画像161−1乃至161−5が横に並べて印刷されている。 On the horizontally long sticker sheet shown in FIG. 8, five edited images 161-1 to 161-5 are printed side by side.
編集画像161−1乃至161−5のうち、編集画像161−1乃至161−3は、アップ画像に対して編集が施されることによって生成された画像であり、編集画像161−4と編集画像161−5は、全身画像に対して編集が施されることによって生成された画像である。 Of the edited images 161-1 to 161-5, the edited images 161-1 to 161-3 are images generated by editing the up image, and the edited image 161-4 and the edited image 161-5 is an image generated by editing the whole body image.
アップ画像と全身画像は縦横比が異なる。例えば、アップ画像の横方向の長さと縦方向の長さの比は1:1.2であり、全身画像の横方向の長さと縦方向の長さの比は3:4である。図8の例においては、アップ画像と全身画像が、横方向の長さを同じ長さとして印刷されている。なお、実際には、利用者の背景には、所定の色や柄の画像である背景画像が、前景には、手書きの文字やスタンプ画像などの前景画像が、それぞれ合成用画像として合成される。 The up image and the whole body image have different aspect ratios. For example, the ratio between the horizontal length and the vertical length of the up image is 1: 1.2, and the ratio between the horizontal length and the vertical length of the whole-body image is 3: 4. In the example of FIG. 8, the up image and the whole body image are printed with the same length in the horizontal direction. In practice, a background image, which is an image of a predetermined color or pattern, is synthesized on the background of the user, and a foreground image such as a handwritten character or a stamp image is synthesized on the foreground, respectively. .
シール紙の縁の余白には、機種名(LOVERY)と撮影日の他に、メールアドレス、IDなどが印刷される。余白領域に印刷されたメールアドレスとIDは、写真シール作成装置1からサーバに送信された画像を携帯電話機などの携帯端末で閲覧するときに利用される。
In addition to the model name (LOVERY) and shooting date, an e-mail address, ID, etc. are printed in the margin of the sticker paper. The mail address and ID printed in the blank area are used when viewing an image transmitted from the photo
図9は、編集画像のレイヤ構造の例を示す図である。 FIG. 9 is a diagram illustrating an example of a layer structure of an edited image.
左端の編集画像P1が編集によって生成される画像である。編集画像P1は、背景画像P11、撮影画像P12、前景画像P13の各レイヤの画像から構成される。 The leftmost edited image P1 is an image generated by editing. The edited image P1 is composed of images of each layer of a background image P11, a captured image P12, and a foreground image P13.
図9の例において、背景画像P11は、レンガを重ねた壁面の柄の画像である。前景画像P13は、「Love my friend」の手書き文字の画像とハート型の画像を含む画像である。「Love my friend」の手書き文字の画像は、撮影画像P12の中央下方の位置にペンツールを用いて利用者によって入力されたペン画像である。また、ハート型の画像は、撮影画像P12の左上の位置にスタンプツールを用いて利用者によって入力されたスタンプ画像である。 In the example of FIG. 9, the background image P <b> 11 is an image of a wall pattern on which bricks are stacked. The foreground image P13 is an image including a handwritten character image of “Love my friend” and a heart-shaped image. The handwritten character image of “Love my friend” is a pen image input by the user using a pen tool at a position below the center of the captured image P12. The heart-shaped image is a stamp image input by the user using a stamp tool at the upper left position of the captured image P12.
このように、編集画像P1は、クロマキ処理によって抽出した撮影画像P12の被写体の領域を背景画像P11に重ね、その上に前景画像P13を重ねることによって生成される。ペン画像やスタンプ画像を背景画像P11上に入力し、被写体の背景に表示させるようにすることも可能とされる。 In this way, the edited image P1 is generated by superimposing the subject area of the photographed image P12 extracted by the chroma process on the background image P11 and superimposing the foreground image P13 thereon. It is also possible to input a pen image or a stamp image on the background image P11 and display it on the background of the subject.
<写真シール作成装置の内部構成>
図10は、写真シール作成装置1の内部の構成例を示すブロック図である。上述した構成と同じ構成には同じ符号を付してある。重複する説明については適宜省略する。
<Internal configuration of photo sticker creation device>
FIG. 10 is a block diagram illustrating an internal configuration example of the photo
制御部201は、CPU(Central Processing Unit)などにより構成される。制御部201は、ROM(Read Only Memory)206や記憶部202に記憶されているプログラムを実行し、写真シール作成装置1の全体の動作を制御する。制御部201には、記憶部202、通信部203、ドライブ204、ROM206、RAM(Random Access Memory)207が接続される。制御部201には、撮影部208の各構成、編集部209A,209Bの各構成、およびプリンタ241も接続される。
The
記憶部202は、ハードディスクやフラッシュメモリなどの不揮発性の記憶媒体である。記憶部202は、制御部201から供給された各種の設定情報などを記憶する。記憶部202に記憶されている情報は制御部201により適宜読み出される。
The
通信部203は、インターネットなどのネットワークのインタフェースである。通信部203は、制御部201による制御に従って外部の装置と通信を行う。通信部203は、例えば、利用者により選択された撮影画像をサーバに送信する。通信部203から送信された画像は、サーバにおいて所定の記憶領域が割り当てられて保存され、サーバにアクセスしてきた携帯端末に表示されたり、ダウンロードされたりする。
The
ドライブ204には、光ディスクや半導体メモリなどよりなるリムーバブルメディア205が適宜装着される。ドライブ204によりリムーバブルメディア205から読み出されたプログラムやデータは、制御部201に供給され、記憶部202に記憶されたり、インストールされたりする。
A
ROM206は、制御部201において実行されるプログラムやデータを記憶する。RAM207は、制御部201が処理するデータやプログラムを一時的に記憶する。
The
撮影部208は、撮影空間A1にいる利用者を対象とした撮影処理を実現する。撮影部208は、硬貨処理部221、照明装置222、カメラ111、タッチパネルモニタ112、およびスピーカ223から構成される。
The photographing
硬貨処理部221は、硬貨投入口への硬貨の投入を検出する。硬貨処理部221は、例えば400円などの所定の金額分の硬貨が投入されたことを検出した場合、ゲームの開始を指示する起動信号を制御部201に出力する。
The
照明装置222は、上ストロボユニット103、足元ストロボユニット104などの、撮影空間A1内に設けられる各照明装置である。照明装置222のそれぞれは、制御部201から供給される照明制御信号に従って発光する。
The
カメラ111は、制御部201によるシャッタ制御に従って撮影を行い、撮影によって得られた撮影画像のデータを制御部201に出力する。
The
編集部209Aは、編集空間A2−1にいる利用者を対象とした編集処理を実現する。編集部209Aは、タブレット内蔵モニタ141、タッチペン142A,142B、およびスピーカ231から構成される。編集部209Bは、編集部209Aと同一の構成を有し、編集空間A2−2にいる利用者を対象とした編集処理を実現する。
The
タブレット内蔵モニタ141は、制御部201による制御に従って各種の画面を表示し、表示した画面に対する利用者の操作を受け付ける。利用者の操作の内容を表す入力信号は制御部201に供給される。
The tablet built-in
プリンタ241は、制御部201から供給された印刷データに基づいて、シール紙ユニット242に収納されているシール紙に編集画像を印刷する。プリンタ241は、編集画像を所定のレイアウトで印刷したシール紙をシール紙排出口151に排出する。
The printer 241 prints the edited image on the sticker paper stored in the
<制御部の構成>
図11は、制御部201の機能構成例を示すブロック図である。図11に示す機能部のうちの少なくとも一部は、制御部201内のCPUにより所定のプログラムが実行されることによって実現される。
<Configuration of control unit>
FIG. 11 is a block diagram illustrating a functional configuration example of the
制御部201は、撮影処理部301、編集処理部302、および印刷処理部303から構成される。
The
撮影処理部301は、撮影部208の各部を制御して撮影処理を行う。編集処理部302は、編集部209A,209Bの各部を制御して編集処理を行う。印刷処理部303は、プリンタ241を制御して編集画像をシール紙に印刷する。
The
図12は、編集処理部302の構成例を示すブロック図である。
FIG. 12 is a block diagram illustrating a configuration example of the
編集処理部302は、顔検出部311、パラメータ調整部312、合成部313、画像処理部314、および表示制御部315から構成される。
The
撮影処理によって得られた撮影画像は、顔検出部311および合成部313に供給される。撮影処理部301からは、5枚などの複数の撮影画像が供給される。合成部313に対しては、合成用画像(背景画像、および、ペン画像やスタンプ画像などの前景画像)のデータ、タッチペン142を用いて利用者により入力された操作の内容を表す情報なども入力される。
The photographed image obtained by the photographing process is supplied to the
顔検出部311は、撮影画像において人物の顔を検出する。
The
パラメータ調整部312は、顔検出部311によって検出された顔の大きさに基づいて、画像処理部314によって撮影画像に施される画像処理のパラメータを調整する。調整されたパラメータは、画像処理部314に供給される。
The
合成部313は、利用者の操作に基づいて、撮影画像に合成用画像を合成する。具体的には、合成部313は、ペンツールやスタンプツールなどの各種の編集ツールを用いて行われる利用者の操作に従って撮影画像の編集を行う。また、合成部313は、撮影画像に対してクロマキ処理を施し、利用者により選択された背景画像を、撮影画像に写る利用者の背景に合成することで、撮影画像の編集を行う。編集後の撮影画像は、編集が行われる毎に画像処理部314に供給される。
The synthesizing
画像処理部314は、パラメータ調整部312から供給されたパラメータでの画像処理を、合成部313から供給された撮影画像の人物以外の領域に施す。画像処理部314は、撮影画像に対して顔認識を行うことで、その画像処理を撮影画像の人物以外の領域に施すようにしてもよいし、撮影画像における人物の領域をマスク画像として抽出することで、その画像処理を撮影画像の人物以外の領域に施すようにしてもよい。画像処理が施された撮影画像は、表示制御部315に供給される。また、編集処理の終了後、編集済みの撮影画像である編集画像は、印刷処理部303に出力される。
The
表示制御部315は、タブレット内蔵モニタ141の画面の表示を制御する。例えば、表示制御部315は、編集画面をタブレット内蔵モニタ141に表示させ、編集画面の表示を利用者の操作に従って切り替える。
The
また、表示制御部315は、画像処理部314から供給された、編集後の撮影画像を編集画面に表示させる。表示制御部315は、編集処理の終了後、レイアウトの選択画面、印刷待ち空間A3への移動を案内する画面などの各種の画面を、タブレット内蔵モニタ141に表示させる。
In addition, the
<写真シール作成装置の動作>
ここで、図13のフローチャートを参照して、写真シール作成ゲームを提供する写真シール作成装置1の動作について説明する。図13の処理は、所定の金額分の硬貨が硬貨投入口に投入されたときに開始される。
<Operation of photo sticker creation device>
Here, with reference to the flowchart of FIG. 13, operation | movement of the photo
ステップS1において、撮影処理部301は、撮影部208を制御して撮影処理を行う。
In step S1, the
撮影処理において、撮影処理部301は、人数や撮影コースの選択画面をタッチパネルモニタ112に表示させ、それらの選択を行わせる。例えば、撮影コースに応じて、異なる写りの撮影画像が生成される。
In the shooting process, the
被写体の写りは、撮影画像に施す画像処理の種類などによって変わる。例えば、被写体の写りは、撮影画像における人物領域の彩度、明度、シャープネス、コントラストなどの少なくともいずれかを調整することで決定される。撮影画像に対しては、彩度、明度、シャープネス、コントラストなどの各種のパラメータを調整する画像処理が施される。被写体の写りを、撮影空間A1内の各ストロボの発光量や発光タイミングなどを制御することで変えるようにしてもよい。 The appearance of the subject varies depending on the type of image processing applied to the captured image. For example, the image of the subject is determined by adjusting at least one of the saturation, brightness, sharpness, and contrast of the person area in the captured image. The captured image is subjected to image processing for adjusting various parameters such as saturation, brightness, sharpness, and contrast. The image of the subject may be changed by controlling the light emission amount and the light emission timing of each strobe in the photographing space A1.
人数や撮影コースが選択されたとき、撮影処理部301は、カメラ111を制御して動画像の取り込みを開始する。撮影処理部301は、取り込まれた動画像をライブビュー画像としてタッチパネルモニタ112に表示させる。利用者は、ライブビュー画像を見ることで自分たちの写り方を確認することができる。
When the number of people or the shooting course is selected, the
ライブビュー画像が所定の時間表示された後、撮影前のカウントダウンが開始される。撮影のタイミングになったとき、撮影処理部301は1回目の撮影を行う。その後、撮影処理部301は、所定の回数分の撮影を繰り返し行う。
After the live view image is displayed for a predetermined time, a countdown before shooting is started. When it is time for shooting, the
例えば5回の撮影のうち1回目から3回目までの撮影がアップ画像の撮影であり、4回目と5回目の撮影が全身画像の撮影である場合、撮影処理部301は、それぞれの撮影画像の種類に応じて、カメラ111の画角を調整する等の処理を行う。
For example, when the first to third shootings out of five shootings are shooting up images, and when the fourth and fifth shootings are shooting whole body images, the
なお、全身画像として、斜め上から見た利用者の全身が写る画像と、正面から見た利用者の全身が写る画像が生成されるようにしてもよい。 In addition, as a whole body image, you may make it produce | generate the image which shows the user's whole body seen from diagonally upward, and the image which shows the user's whole body seen from the front.
この場合、例えば、カメラ111の角度を調整することが可能とされる。利用者は、アングル(撮影方向)が異なる全身画像を撮影することができる。
In this case, for example, the angle of the
また、撮影処理において、撮影処理部301は、被写界深度が深くなるよう光学系(カメラ111)の絞りを固定して、被写体としての利用者を撮影する。これにより、得られる撮影画像は、被写体となる利用者が撮影空間内のどこに立ってもピントが合った画像となる。
In the shooting process, the
5回などの所定の回数の撮影が行われた後、撮影処理部301は、撮影を終えた利用者に対して、編集空間A2−1または編集空間A2−2への移動を案内する。編集空間への移動の案内は、タッチパネルモニタ112に案内画面を表示させることによって、または音声をスピーカ223から出力させることによって行われる。
After shooting a predetermined number of times such as five times, the
図13のステップS2において、編集処理部302は編集処理を行い、編集画像を生成する。編集処理においては、編集画面がタブレット内蔵モニタ141に表示され、撮影画像の編集が行われる。編集画面が表示されるタブレット内蔵モニタ141は、撮影処理を終えた利用者の移動先とした方の編集空間に設けられているモニタである。
In step S <b> 2 of FIG. 13, the
編集画面を用いた撮影画像の編集は、予め設定された制限時間が経過するか、編集画面に表示された終了ボタンが操作されたときに終了される。撮影画像の編集が終了したとき、レイアウトの選択、携帯専用画像の選択などが行われ、その後、印刷待ち空間A3への移動が案内される。編集処理の詳細については図14のフローチャートを参照して後述する。 Editing of the captured image using the edit screen is ended when a preset time limit elapses or when an end button displayed on the edit screen is operated. When the editing of the photographed image is completed, the selection of the layout, the selection of the portable-only image, and the like are performed, and then the movement to the print waiting space A3 is guided. Details of the editing process will be described later with reference to the flowchart of FIG.
ステップS3において、印刷処理部303は、プリンタ241を制御し、編集処理によって得られた編集画像をシール紙に印刷する。なお、撮影処理により得られた撮影画像に対して編集が施されていない場合、撮影画像がそのままシール紙に印刷される。
In step S3, the
ステップS4において、プリンタ241は、編集画像が印刷されたシール紙をシール紙排出口151に排出し、処理を終了させる。
In step S4, the printer 241 discharges the sticker sheet on which the edited image is printed to the sticker
<編集処理>
次に、図14のフローチャートを参照して、図13のステップS2において行われる編集処理について説明する。
<Edit processing>
Next, the editing process performed in step S2 of FIG. 13 will be described with reference to the flowchart of FIG.
ステップS11において、編集処理部302は、写りに関する選択画面をタブレット内蔵モニタ141に表示させる。ここでは、例えば、目や顔の大きさ、肌の明るさ等の選択が行われる。
In step S <b> 11, the
編集処理部302は、撮影処理部301から取得した5枚の撮影画像のそれぞれに対して、利用者の選択内容に応じた画像処理を行い、目や顔の大きさと肌の明るさを調整する。編集対象となる撮影画像は、撮影画像に写る利用者の目と顔の大きさ、および、肌の明るさが調整された画像となる。
The
ステップS12において、編集処理部302は、名前入力画面をタブレット内蔵モニタ141に表示させる。名前入力画面に入力された利用者の名前に応じて、編集時に利用可能な編集ツールが変化する。例えば、利用者の名前を手書き風の文字で表すスタンプ画像などが編集ツールとして用意される。
In step S <b> 12, the
ステップS13において、編集処理部302は、編集画面をタブレット内蔵モニタ141に表示させる。背景画像の選択は、編集画面を用いて、撮影画像の編集に割り当てられた時間内で行われる。
In step S <b> 13, the
編集処理部302は、撮影画像を対象としてクロマキ処理を行うことによって利用者の領域を抽出し、編集画面のボタンを用いて選択された背景画像を撮影画像に合成する。また、編集処理部302は、背景画像を合成した撮影画像に対して、スタンプ画像、ペン画像等の合成用画像を利用者の操作に応じて合成し、編集画像を生成する。
The
撮影画像の編集が終了したとき、ステップS15において、編集処理部302は、分割数選択画面をタブレット内蔵モニタ141に表示させる。分割数選択画面は、シール紙に印刷する編集画像のレイアウトの選択に用いられる画面である。
When the editing of the photographed image is finished, in step S15, the
所定のレイアウトが選択されたとき、ステップS16において、編集処理部302は、携帯専用画像の選択画面をタブレット内蔵モニタ141に表示させる。携帯専用画像は、例えば撮影画像の中から選択された画像である。
When a predetermined layout is selected, in step S <b> 16, the
携帯専用画像として送信する撮影画像を選択した後、タブレット内蔵モニタ141には、例えば利用者の携帯端末のメールアドレスの入力画面が表示される。利用者は、メールアドレスを入力して、サーバから送信される電子メールを受信できる状態にする。
After selecting a captured image to be transmitted as a mobile-only image, the tablet built-in
ステップS17において、編集処理部302は、通信部203を制御し、利用者により選択された携帯専用画像をサーバに送信する。利用者は、自身の携帯端末を操作してサーバにアクセスし、シール紙の縁に印刷されたIDを入力することにより、携帯専用画像を携帯端末に取り込むことができる。
In step S <b> 17, the
ステップS18において、編集処理部302は、撮影画像の編集を終えた利用者に対して印刷待ち空間A3への移動を案内する。印刷待ち空間A3への移動の案内は、タブレット内蔵モニタ141に案内画面を表示させることによって、またはスピーカ231から音声を出力させることによって行われる。
In step S18, the
その後、図13のステップS2に戻り、それ以降の処理が行われる。印刷が終了したとき、利用者は、編集画像が印刷されたシール紙を受け取って写真シール作成装置1の利用を終える。
Thereafter, the process returns to step S2 in FIG. 13, and the subsequent processing is performed. When the printing is finished, the user receives the sticker sheet on which the edited image is printed and finishes using the photo
<編集画面の構成>
ここで、上述した編集処理のステップS13において表示される編集画面の構成について説明する。
<Configuration of edit screen>
Here, the configuration of the editing screen displayed in step S13 of the editing process described above will be described.
図15は、タブレット内蔵モニタ141に表示される編集画面の例を示す図である。
FIG. 15 is a diagram showing an example of an edit screen displayed on the tablet built-in
編集画面は、基本的に、縦長四角形の領域である背景選択領域401を挟んで、領域403Lと領域403Rが左右に形成されることによって構成される。背景選択領域401の下には、背景選択領域401と同じ幅の小さな領域である領域402が形成される。背景選択領域401の上には、編集作業に割り当てられた制限時間の残り時間などが表示される。
The edit screen is basically configured by forming a
背景選択領域401は、背景画像の選択に用いられるボタンなどの表示領域である。背景選択領域401は、編集画面が表示されている間、常時表示される。利用者は、編集画面を用いて編集を行っている間、背景画像の選択をいつでも行うことができる。すなわち、利用者は、編集作業において背景画像を選択することができるので、編集対象となる撮影画像に写る自身の表情やポーズなどに最適な背景画像を見つけ出すことができる。
The
領域402は、編集に関するガイダンスなどの音量の調整に用いられる領域である。背景選択領域401と領域402は、タブレット内蔵モニタ141に向かって左側にいる利用者と右側にいる利用者が共有して用いる領域である。
An
これに対して、領域403Lは、タブレット内蔵モニタ141に向かって左側にいる利用者により用いられる領域であり、領域403Rは、タブレット内蔵モニタ141に向かって右側にいる利用者により用いられる領域である。
On the other hand, the
すなわち、背景選択領域401と領域402の表示に対しては、タッチペン142A、タッチペン142Bのいずれのタッチペンを用いた操作も受け付けられるが、領域403Lの表示に対しては、タッチペン142Aを用いた操作のみが受け付けられ、領域403Rの表示に対しては、タッチペン142Bを用いた操作のみが受け付けられる。
That is, for the display of the
タブレット内蔵モニタ141に向かって左側にいる利用者がタッチペン142Aを用いて背景選択領域401のボタンを押下し、背景画像を選択した場合、その操作は、領域403Lの表示を用いて行っている編集に反映される。
When the user on the left side facing the
一方、右側にいる利用者がタッチペン142Bを用いて背景選択領域401のボタンを押下し、背景画像を選択した場合、その操作は、領域403Rの表示を用いて行っている編集に反映される。
On the other hand, when the user on the right side presses the button in the
このように、制御部201においては、編集画面の各領域に対する操作が、タッチペン142Aを用いて行われた操作であるのか、タッチペン142Bを用いて行われた操作であるのかが識別される。
As described above, the
領域403Lと領域403Rには、主な構成が左右対称に設けられる。なお、図15の各領域を囲む破線は画面に実際に表示されるものではない。
The main structures are provided symmetrically in the
領域403Lの中央上方のサムネイル表示領域411Lは、撮影画像を表すサムネイル画像の表示領域である。サムネイル画像は、例えば撮影画像をそれぞれ縮小することによって生成される。利用者(タブレット内蔵モニタ141に向かって左側にいる利用者)は、サムネイル表示領域411Lに表示されているサムネイル画像を選択することによって、編集対象とする撮影画像を選択する。
A
図15の例においては、5枚の撮影画像を表すサムネイル画像P21乃至P25がサムネイル表示領域411Lに並べて表示されている。また、左端のサムネイル画像P21が選択されることによって、1枚目の撮影画像が編集対象とされている。サムネイル画像P21にはカーソルC1が表示されている。
In the example of FIG. 15, thumbnail images P21 to P25 representing five captured images are displayed side by side in the
なお、サムネイル画像P21乃至P23はアップ画像のサムネイル画像であり、サムネイル画像P24,P25は全身画像のサムネイル画像である。 The thumbnail images P21 to P23 are thumbnail images of up images, and the thumbnail images P24 and P25 are thumbnail images of whole body images.
領域403Lの略中央に大きく形成された編集領域412Lは、編集対象として選択された撮影画像の表示領域である。利用者は、タッチペン142Aを用いて編集ツールを選択し、編集領域412Lに表示された撮影画像の編集を行うことができる。
An
編集領域412Lの左側には、編集の見本を表示するときに操作されるボタン413Lと、携帯専用画像を作成するときに操作されるボタン414Lが表示される。
On the left side of the
編集領域412Lの下には、横長長方形の領域である編集パレット415Lが表示される。編集パレット415Lは、ペンツール、スタンプツールなどの各種の編集ツール(コンテンツ)の選択に用いられるボタンなどが表示される領域である。
An
編集パレット415Lの上には6種類のタブ431Lが表示され、編集パレット415Lの右には6種類のタブ432Lが表示される。利用者は、編集パレット415Lに表示させる編集ツールの種類とカテゴリを、タブ431Lとタブ432Lを用いて切り替えることができる。
Six types of
タブ431Lは、「HIKARI」、「シンプル」、「手描き」、「かっちり」、「コラージュ」、「実写」の各タブから構成される。これらのタブは、編集ツールのカテゴリの選択に用いられる。
The
タブ432Lは、「PEN」、「STAMP1」、「STAMP2」、「MOJI」、「変身」、「質感」の各タブから構成される。これらのタブは、編集ツールの種類の選択に用いられる。
The
例えば「PEN」の名前が付されたタブはペンツールを選択するときに操作されるタブである。ペンツールは、それを選択した後、編集領域412Lにタッチペン142Aを押し当てた状態で動かすことによって、その軌跡に沿って所定のペン画像を入力することができる編集ツールである。
For example, a tab named “PEN” is a tab operated when a pen tool is selected. The pen tool is an editing tool that can input a predetermined pen image along the locus by selecting the pen tool and moving it while the
また、「STAMP1」、「STAMP2」の名前が付されたタブはスタンプツールを選択するときに操作されるタブである。スタンプツールは、それを選択した後、編集領域412Lにタッチペン142Aを押し当てることによって、タッチペン142Aを押し当てた位置に所定のスタンプ画像を入力することができる編集ツールである。
The tabs named “STAMP1” and “STAMP2” are tabs that are operated when the stamp tool is selected. The stamp tool is an editing tool that can input a predetermined stamp image at a position where the
例えばペンツールが選択された状態でタブ431Lが切り替えられる毎に、異なるカテゴリに属するペンツールを選択するときに操作されるボタンが編集パレット415Lに並べて表示される。各編集ツールにはカテゴリが設定されている。
For example, each time the
編集領域412Lの右側には修正ツール選択領域416Lが形成される。修正ツール選択領域416Lは、消しゴムツールの選択に用いられるボタン、1つ前または1つ後の作業に戻るときに操作される「進む」、「戻る」ボタン、既に入力済みの編集を全てキャンセルし、編集前の状態に戻すときに操作される「最初から」ボタンなどが縦に並べて表示される領域である。消しゴムツールは、入力した編集を消すときに用いられるツールである。修正ツール選択領域416Lには「1set戻る」ボタンも表示される。「1set戻る」ボタンを押すことにより、所定の時間の間に入力された編集をまとめて取り消すことができる。
A correction
修正ツール選択領域416Lの上には、編集処理を終了するときに操作される終了ボタン417Lが表示される。
On the correction
タブレット内蔵モニタ141に向かって右側にいる利用者が使う領域403Rには、以上のような領域403Lの構成と同じ構成が位置を対称にして配置される。図15の例においては、サムネイル表示領域411Rからサムネイル画像P22を選択することによって、2枚目の撮影画像が編集対象とされている。サムネイル画像P22にはカーソルC2が表示されている。カーソルC1とカーソルC2は例えば異なる色で表示される。
In the
一方の利用者が編集対象として選択中の撮影画像については、他方の利用者は編集対象として選択することができない。あるタイミングでは、領域403Lと領域403Rにおいてそれぞれ異なる撮影画像が編集対象として設定される。
For a captured image selected by one user as an editing target, the other user cannot select it as an editing target. At a certain timing, different captured images are set as edit targets in the
一方の利用者が編集対象の撮影画像を切り替えた場合、他方の利用者は、その一方の利用者が編集対象として選択していた撮影画像を、編集対象として新たに選択することができる。この場合、一方の利用者が行っていた編集の内容は、そのまま維持される。他方の利用者は、一方の利用者により編集が行われた撮影画像に対して、さらに編集を行うことになる。 When one user switches the captured image to be edited, the other user can newly select the captured image selected by the one user as the editing target. In this case, the contents of the editing performed by one user are maintained as they are. The other user further edits the photographed image edited by one user.
編集処理においては、このような編集画面が左右の利用者により用いられ、撮影画像に対して編集が施される。編集画面には、背景選択領域401を中央にして、サムネイル表示領域411L、編集領域412L、編集パレット415Lが主に配置された領域403Lと、サムネイル表示領域411R、編集領域412R、編集パレット415Rが主に配置された領域403Rとが、同時に表示されることになる。
In the editing process, such an editing screen is used by the right and left users to edit the captured image. In the editing screen, the
さて、編集画面に表示される、編集対象として選択された撮影画像には、上述したような編集が施される(合成用画像が合成される)他、撮影画像に写る顔の大きさに応じた画像処理として、ぼかし処理が施される。 The captured image selected as the editing target displayed on the editing screen is subjected to the above-described editing (compositing image is combined), and depending on the size of the face appearing in the captured image. As the image processing, blurring processing is performed.
<ぼかし処理>
ここで、図16のフローチャートを参照して、編集対象として選択された撮影画像に対するぼかし処理について説明する。図16の処理は、編集対象となる撮影画像としてアップ画像が選択され、そのアップ画像に対して背景画像が合成される度に実行されるが、編集対象となる撮影画像として全身画像が選択された場合には実行されない。
<Blur processing>
Here, with reference to the flowchart of FIG. 16, the blurring process for the captured image selected as the editing target will be described. The process in FIG. 16 is executed whenever an up image is selected as a captured image to be edited and a background image is combined with the up image, but a whole-body image is selected as a captured image to be edited. It will not be executed if
ステップS31において、顔検出部311は、編集対象として選択された撮影画像において、人物の顔を検出する。
In step S31, the
一般的に、写真シール機において、撮影画像は、撮影により得られた原画像が所定の縦横比でトリミングされることで生成される。そこで、顔検出部311は、編集対象として選択された撮影画像の原画像において、人物の顔を検出するようにする。撮影画像においては、トリミングの結果、人物の顔が見切れてしまうおそれがある。そこで、撮影画像より撮影範囲が広い原画像に対して顔検出を行うことで、より確実に人物の顔を検出することができる。なお、顔検出を行った後でトリミングした後の撮影画像において人物の顔が見切れないような場合には、トリミング後の撮影画像に対して顔検出が行われるようにしてもよい。
Generally, in a photographic sticker, a photographed image is generated by trimming an original image obtained by photographing at a predetermined aspect ratio. Therefore, the
ステップS32において、パラメータ調整部312は、顔検出部311によって検出された顔の大きさに基づいて、ぼかし処理のぼかし具合を表すパラメータを調整する。具体的には、検出された顔の大きさが大きい程、ぼかし具合が大きくなるようなパラメータが設定され、検出された顔の大きさが小さい程、ぼかし具合が小さくなるようなパラメータが設定される。
In step S <b> 32, the
なお、検出された顔の大きさが、所定の上限値を上回る場合、ぼかし具合が最大となるパラメータが設定される。検出された顔の大きさが、所定の下限値を下回る場合、ぼかし具合が最小(またはぼかし無し)となるパラメータが設定される。 When the detected face size exceeds a predetermined upper limit value, a parameter that maximizes the degree of blurring is set. When the size of the detected face is below a predetermined lower limit value, a parameter that minimizes the degree of blurring (or no blurring) is set.
また、被写体となる利用者が複数人の場合、検出された複数の顔のうち、最も小さい顔の大きさに基づいて、パラメータが調整されるようにする。これにより、必要以上にぼかし具合が大きくなるようなパラメータが設定され、ぼかし処理が施される背景画像のデザインが確認しにくくなることを防ぐことができる。なお、背景画像のデザインが細かな絵柄を含まないような場合などには、検出された複数の顔のうち、最も大きい顔の大きさや、複数の顔の平均の大きさに基づいて、パラメータが調整されるようにしてもよい。 When there are a plurality of users as subjects, the parameter is adjusted based on the size of the smallest face among the detected faces. Accordingly, it is possible to prevent a parameter that increases the blurring condition from being necessary more than necessary and make it difficult to confirm the design of the background image on which the blurring process is performed. Note that when the background image design does not include a fine pattern, the parameter is determined based on the largest face size of the detected faces or the average face size. It may be adjusted.
なお、必要以上にぼかし具合が大きくなってしまうと、背景が過度にぼけてしまい、人物と背景との間が不自然に離れたように見えてしまう。すなわち、人物が背景よりも極めて前に立っているような、バランスの悪い画像が得られることになる。そこで、利用者の人数にかかわらず、必要以上にぼかし具合が大きくなるようなパラメータが設定されないようにすることもできる。 Note that if the degree of blur becomes larger than necessary, the background will be excessively blurred, and the person and the background will appear to be unnaturally separated. That is, an unbalanced image in which a person is standing in front of the background is obtained. Therefore, regardless of the number of users, it is possible not to set a parameter that increases the degree of blurring more than necessary.
また、検出された顔ではなく、検出された顔に含まれる器官(目、鼻など)の大きさに基づいて、パラメータが調整されるようにしてもよい。さらに、検出された顔の大きさではなく、撮影画像における肌色領域の大きさに基づいて、パラメータが調整されるようにしてもよい。 Further, the parameter may be adjusted based on the size of an organ (eyes, nose, etc.) included in the detected face instead of the detected face. Furthermore, the parameter may be adjusted based on the size of the skin color area in the captured image, not the size of the detected face.
ステップS33において、画像処理部314は、パラメータ調整部312によって調整されたパラメータで表されるぼかし具合のぼかし処理を、編集対象として選択された撮影画像に合成された背景画像に施す。具体的には、画像処理部314は、パラメータ調整部312からのパラメータに応じて、背景画像のシャープネスを調整する。
In step S <b> 33, the
すなわち、ぼかし具合が大きくなるようなパラメータが設定された場合には、ぼかし具合が大きくなるよう背景画像のシャープネスが調整され、ぼかし具合が小さくなるようなパラメータが設定された場合には、ぼかし具合が小さくなるよう背景画像のシャープネスが調整される。 In other words, when a parameter that increases the degree of blurring is set, the sharpness of the background image is adjusted so that the degree of blurring increases, and when a parameter that decreases the degree of blurring is set, The sharpness of the background image is adjusted so as to reduce.
なお、ぼかし具合が最大となるパラメータが設定された場合、ぼかし具合が最大となるよう背景画像のシャープネスが調整され、ぼかし具合が最小(またはぼかし無し)となるパラメータが設定された場合、背景画像のシャープネスは調整されない。 When the parameter that maximizes the blur condition is set, the sharpness of the background image is adjusted to maximize the blur condition, and when the parameter that minimizes the blur condition (or no blur) is set, the background image The sharpness is not adjusted.
ここで、図17を参照して、撮影画像における人物の顔の大きさと背景のぼかし量について説明する。 Here, with reference to FIG. 17, the size of a person's face and the amount of background blur in a captured image will be described.
図17には、3種類の撮影画像511,512,513が示されている。撮影画像511,512,513それぞれには、背景画像521a,521b,521cが合成されている。背景画像521a,521b,521cは、いずれも同じ背景画像であり、異なるぼかし具合のぼかし処理が施されている。
FIG. 17 shows three types of captured
また、撮影画像511,512,513の下には、それぞれの撮影画像についての、撮影空間A1における利用者の立ち位置、撮影画像それぞれにおける人物(利用者)の顔の大きさ、そして、背景画像に施されるぼかし処理のぼかし量(ぼかし具合)が示されている。
Below the captured
撮影画像511においては、利用者の立ち位置が後ろ(カメラ111から遠い位置)であるので、利用者の顔の大きさは小さくなる。したがって、背景画像521aには、ぼかし量を小さくするぼかし処理が施される。
In the captured
撮影画像512においては、利用者の立ち位置が中ほど(カメラ111と背面パネル51の略中間となる位置)であるので、利用者の顔の大きさも中程度となる。したがって、背景画像521bには、ぼかし量を中程度とするぼかし処理が施される。
In the photographed
撮影画像513においては、利用者の立ち位置が前(カメラ111に近い位置)であるので、利用者の顔の大きさは大きくなる。したがって、背景画像521cには、ぼかし量を大きくするぼかし処理が施される。
In the captured
このように、撮影画像に写る顔が大きいほど、背景のぼかし量が大きくなるので、人物と背景との間に距離があるように見えるようになる。 As described above, the larger the face appearing in the captured image, the larger the blur amount of the background. Therefore, it appears that there is a distance between the person and the background.
すなわち、以上の処理によれば、被写体となる利用者が撮影空間内のどこに立ってもピントが合うよう、被写界深度が深く設定されている写真シール機であっても、奥行き感のある画像を提供することが可能となる。 That is, according to the above processing, even if the photo sticker has a deep depth of field so that the subject user can focus anywhere in the shooting space, there is a sense of depth. Images can be provided.
なお、以上においては、編集対象として選択されているアップ画像に対して背景画像が合成される度に、背景画像にぼかし処理が施されるものとしたが、1つの背景画像について、異なるぼかし具合のぼかし処理が施された背景画像が複数用意されるようにしてもよい。この場合、背景選択領域401において、1つの背景画像が選択されると、その背景画像に対して異なるぼかし具合のぼかし処理が施された背景画像の中から、編集対象となる撮影画像に写る人物の顔の大きさに対応したぼかし具合のぼかし処理が施された背景画像が選択され、その撮影画像に合成される。
In the above description, the background image is subjected to the blurring process every time the background image is combined with the up image selected as the editing target. A plurality of background images subjected to the blur processing may be prepared. In this case, when one background image is selected in the
また、以上においては、編集対象としてアップ画像が選択された場合に、背景画像にぼかし処理が施されるものとした。アップ画像においては、全身画像と比べて人物の顔が大きく写るため、奥行き感がより強調されるようになる。特に、利用者が、写真シール機の利用者で最も多い2人組が撮影画像において互いに離れて写った場合には、奥行き感がより一層強調される。 In the above description, the background image is subjected to the blurring process when the up image is selected as the editing target. In the up image, since the face of the person is shown larger than the whole body image, the sense of depth is more emphasized. In particular, the depth feeling is further emphasized when a pair of users, who are the largest number of users of a photo sticker, are photographed apart from each other in the photographed image.
なお、上述した例とは逆に、編集対象として全身画像が選択された場合であっても、背景画像にぼかし処理が施されるようにしてもよい。この場合でも、撮影空間A1において利用者の立ち位置がカメラ111に近づくほど、奥行き感が出るようになる。
Contrary to the example described above, the background image may be subjected to the blurring process even when the whole body image is selected as the editing target. Even in this case, the closer the user's standing position to the
また、顔の大きさ以外の、顔の状態に応じたぼかし具合のぼかし処理が背景画像に施されるようにしてもよい。 In addition, the background image may be subjected to a blurring process according to the face condition other than the face size.
例えば、顔の向きに応じたぼかし具合のぼかし処理が背景画像に施されるようにしてもよい。具体的には、顔が正面を向いているほど、ぼかし具合が大きくなるようにし、顔が横を向いているほど、ぼかし具合が小さくなるようにする。この場合、撮影の際、利用者がカメラ111に対して顔をまっすぐ向けるほど、奥行き感のある画像が提供されるようになる。
For example, the background image may be subjected to a blurring process according to the direction of the face. Specifically, the degree of blurring is increased as the face is facing front, and the degree of blurring is decreased as the face is sideways. In this case, an image with a sense of depth is provided as the user turns his face straight toward the
また、顔の位置に応じたぼかし具合のぼかし処理が背景画像に施されるようにしてもよい。具体的には、顔の中心(例えば鼻)が、撮影範囲において画像全体のバランスが最も良くなる所定位置に近いほど、ぼかし具合が大きくなるようにし、顔の中心が所定位置から遠いほど、ぼかし具合が小さくなるようにする。この場合、撮影の際、利用者が所定位置に顔を近づけるほど、奥行き感のある、かつ、バランスの良い画像が提供されるようになる。 Further, the background image may be subjected to a blurring process according to the position of the face. Specifically, the blurring degree increases as the center of the face (for example, the nose) is closer to a predetermined position where the balance of the entire image is the best in the shooting range, and the blurring is increased as the center of the face is farther from the predetermined position. Try to reduce the condition. In this case, an image with a sense of depth and good balance is provided as the user brings his face closer to a predetermined position at the time of shooting.
さらに、顔の数に応じたぼかし具合のぼかし処理が背景画像に施されるようにしてもよい。具体的には、顔の数が2に近いほど、ぼかし具合が大きくなるようにする。この場合、写真シール作成装置1の利用者として最も多い2人組が被写体となることで、奥行き感のある画像が提供されるようになる。なお、利用者の人数が多いほど、撮影画像に写る背景の領域は小さくなるので、顔の数が多いほど、ぼかし具合が小さくなるようにしても、そのことは画像の見た目には大きく影響しない。
Further, the background image may be subjected to a blurring process according to the number of faces according to the number of faces. Specifically, the closer the number of faces is to 2, the greater the degree of blurring. In this case, an image with a sense of depth can be provided by making the most common duo as users of the photo
以上においては、顔の大きさに応じたぼかし具合のぼかし処理が背景画像に施されるものとしたが、前景画像に施されるようにしてもよい。 In the above description, the blurring process according to the size of the face is performed on the background image, but may be performed on the foreground image.
図18は、ぼかし処理が前景画像に施される場合の、人物の顔の大きさと前景のぼかし量について説明する図である。 FIG. 18 is a diagram for explaining the size of a person's face and the amount of foreground blur when the blur process is performed on the foreground image.
図18において、撮影画像511,512,513それぞれには、前景画像としての星型のスタンプ画像531a,531b,531cと、ハート型のスタンプ画像532a,532b,532cが合成されている。スタンプ画像531a,531b,531cは、いずれも同じスタンプ画像であり、異なるぼかし具合のぼかし処理が施されている。スタンプ画像532a,532b,532cもまた、いずれも同じスタンプ画像であり、異なるぼかし具合のぼかし処理が施されている。
In FIG. 18, star-shaped
撮影画像511においては、利用者の立ち位置が後ろであるので、利用者の顔の大きさは小さくなる。したがって、スタンプ画像531a,532aには、ぼかし量を小さくするぼかし処理が施される。
In the captured
撮影画像512においては、利用者の立ち位置が中ほどであるので、利用者の顔の大きさも中程度となる。したがって、スタンプ画像531b,532bには、ぼかし量を中程度とするぼかし処理が施される。
In the photographed
撮影画像513においては、利用者の立ち位置が前であるので、利用者の顔の大きさは大きくなる。したがって、スタンプ画像531c,532cには、ぼかし量を大きくするぼかし処理が施される。
In the captured
このように、撮影画像に写る顔が大きいほど、前景のぼかし量が大きくなるので、人物にピントが合ったように見えるようになる。 As described above, the larger the face in the captured image, the greater the amount of blur in the foreground, so that the person appears to be in focus.
すなわち、以上の例によれば、被写体となる利用者が撮影空間内のどこに立ってもピントが合うよう、被写界深度が深く設定されている写真シール機であっても、被写界深度を浅く設定して撮影したような、前景と人物との間に奥行き感のある画像を提供することが可能となる。 That is, according to the above example, even if the photo sticker has a deep depth of field so that the subject user can focus anywhere in the shooting space, the depth of field It is possible to provide an image having a sense of depth between the foreground and the person, such as when the image is set shallowly.
なお、上述したぼかし処理は、撮影画像に合成される背景画像および前景画像のいずれか一方に施されるようにしてもよいし、背景画像および前景画像の両方に施されるようにしてもよい。特に、上述したぼかし処理が、背景画像および前景画像の両方に施されるようにした場合には、背景画像および前景画像のいずれか一方に施される場合と比較して、より奥行き感のある画像を提供することができる。 Note that the blurring process described above may be performed on either the background image or the foreground image combined with the captured image, or may be performed on both the background image and the foreground image. . In particular, when the blurring process described above is applied to both the background image and the foreground image, there is a sense of depth compared to the case where it is applied to either the background image or the foreground image. Images can be provided.
以上においては、編集対象となる撮影画像にぼかし処理が施される例について説明してきたが、他の画像にぼかし処理が施されるようにしてもよい。 In the above, the example in which the blurring process is performed on the captured image to be edited has been described, but the blurring process may be performed on other images.
例えば、撮影処理において表示されるライブビュー画像に合成用画像(背景画像や前景画像)が合成されるようにし、その合成用画像に上述したぼかし処理が施されるようにする。また、撮影処理において表示される、撮影結果としての撮影画像に合成用画像が合成されるようにし、その合成用画像に上述したぼかし処理が施されるようにしてもよい。 For example, a synthesis image (background image or foreground image) is synthesized with the live view image displayed in the shooting process, and the above-described blurring process is performed on the synthesis image. Further, the composition image may be combined with the photographed image as the photographing result displayed in the photographing process, and the above-described blurring process may be performed on the composition image.
また、撮影処理や編集処理において表示される撮影画像や編集画像には、上述したぼかし処理が施されないようにし、シール紙に印刷されたり、携帯専用画像としてサーバに送信される撮影画像や編集画像に、上述したぼかし処理が施されるようにしてもよい。 In addition, the photographed image and the edited image displayed in the photographing process and the editing process are not subjected to the blurring process described above, and the photographed image or the edited image that is printed on the sticker paper or transmitted to the server as a portable-only image. In addition, the blurring process described above may be performed.
以上においては、撮影画像に写る顔の大きさに応じた画像処理として、ぼかし処理が施される例について説明してきたが、ぼかし処理以外の画像処理が施されるようにしてもよい。 In the above description, the example in which the blurring process is performed as the image processing corresponding to the size of the face shown in the photographed image has been described. However, image processing other than the blurring process may be performed.
<画像処理の例1>
撮影画像に写る顔の大きさに応じた画像処理として、明度、彩度、色相などの色情報を調整する処理が施されるようにしてもよい。
<Example 1 of image processing>
As image processing corresponding to the size of the face shown in the photographed image, processing for adjusting color information such as brightness, saturation, and hue may be performed.
例えば、撮影画像に写る顔の大きさが大きい程、背景画像が明るくなるように、明度(明るさ)を調整する明るさ調整処理が施され、撮影画像に写る顔の大きさが小さい程、背景画像が暗くなるように、明るさ調整処理が施されるようにする。明るさ調整処理においては、トーンカーブなどの色調補正機能が用いられる。 For example, brightness adjustment processing is performed to adjust the brightness (brightness) so that the background image becomes brighter as the size of the face reflected in the captured image increases, and the smaller the size of the face reflected in the captured image, Brightness adjustment processing is performed so that the background image becomes dark. In the brightness adjustment process, a tone correction function such as a tone curve is used.
図19は、明るさ調整処理が背景画像に施される場合の、人物の顔の大きさと背景の明るさについて説明する図である。 FIG. 19 is a diagram for explaining the size of a person's face and the brightness of the background when the brightness adjustment process is performed on the background image.
図19において、撮影画像511,512,513それぞれには、背景画像541a,541b,541cが合成されている。背景画像541a,541b,541cは、いずれも同じ背景画像であり、異なる明るさとなる明るさ調整処理が施されている。
In FIG. 19,
撮影画像511においては、利用者の立ち位置が後ろであるので、利用者の顔の大きさは小さくなる。したがって、背景画像541aには、背景の明るさを小さくする明るさ調整処理が施される。
In the captured
撮影画像512においては、利用者の立ち位置が中ほどであるので、利用者の顔の大きさも中程度となる。したがって、背景画像541bには、背景の明るさを中程度とする明るさ調整処理が施される。
In the photographed
撮影画像513においては、利用者の立ち位置が前であるので、利用者の顔の大きさは大きくなる。したがって、背景画像541cには、背景の明るさを大きくする明るさ調整処理が施される。
In the captured
利用者の立ち位置がカメラ111に近いほど、利用者には、上ストロボユニット103からの光が十分にあたり、撮影画像において利用者は明るく写るようになる。一方、利用者の立ち位置がカメラ111から遠いほど、利用者には、上ストロボユニット103からの光が十分にあたらず、撮影画像において利用者は暗く写るようになる。
The closer the user's standing position is to the
そこで、撮影画像に写る顔が大きいほど、背景画像を明るくすることで、人物と背景の明るさの差が小さくなる。また、撮影画像に写る顔が小さいほど、背景画像を暗くすることで、人物と背景の明るさの差が小さくなる。 Therefore, the larger the face that appears in the captured image, the brighter the background image, so that the difference in brightness between the person and the background becomes smaller. In addition, the smaller the face that appears in the captured image, the darker the background image, thereby reducing the difference in brightness between the person and the background.
すなわち、以上の例によれば、被写体となる利用者が撮影空間内のどこに立っても、人物と背景の明るさのバランスがとれた画像を提供することが可能となる。 That is, according to the above example, it is possible to provide an image in which the brightness of the person and the background is balanced regardless of where the user as the subject stands in the shooting space.
なお、撮影画像に写る顔が小さいほど、撮影画像における人物領域の明るさを大きくする明るさ調整処理が施されるようにしてもよい。これにより、利用者の立ち位置がカメラ111から遠く、利用者に上ストロボユニット103からの光が十分にあたらないような場合であっても、利用者の立ち位置がカメラ111から近いときと同程度に、撮影画像において利用者が明るく写るようにすることができる。
Note that brightness adjustment processing may be performed to increase the brightness of the person area in the captured image as the face in the captured image is smaller. As a result, even when the user's standing position is far from the
また、ライブビュー画像に明るさ調整処理を施すようにした場合、ライブビュー画像に写る顔が小さいほど、ライブビュー画像における人物領域の明るさを小さく、ライブビュー画像に写る顔が大きいほど、ライブビュー画像における人物領域の明るさを大きくする明るさ調整処理が施されるようにしてもよい。通常、ライブビュー画像を確認しながら撮影作業を行う利用者は、ライブビュー画像において自身が暗く映ることを好まない。そこで、ライブビュー画像に写る顔が大きいほど、ライブビュー画像における人物領域の明るさを大きくすることで、結果的に、利用者を、カメラ111に近い位置に誘導することができる。
In addition, when brightness adjustment processing is performed on a live view image, the smaller the face that appears in the live view image, the lower the brightness of the person area in the live view image, and the larger the face that appears in the live view image, A brightness adjustment process for increasing the brightness of the person area in the view image may be performed. Usually, a user who performs a shooting operation while confirming a live view image does not like to appear dark in the live view image. Therefore, by increasing the brightness of the person area in the live view image as the face captured in the live view image increases, the user can be guided to a position closer to the
<画像処理の例2>
撮影画像に写る顔の大きさに応じた画像処理として、合成用画像の大きさを調整する処理が施されるようにしてもよい。
<Example 2 of image processing>
As image processing corresponding to the size of the face shown in the photographed image, processing for adjusting the size of the composition image may be performed.
例えば、撮影画像に写る顔の大きさが大きい程、合成用画像が大きくなるように、その大きさを調整するサイズ調整処理が施され、撮影画像に写る顔の大きさが小さい程、合成用画像が小さくなるように、サイズ調整処理が施されるようにする。 For example, a size adjustment process is performed to adjust the size of the face so that the larger the face size in the captured image is, the larger the size of the composite image is. Size adjustment processing is performed so that the image becomes smaller.
図20は、サイズ調整処理が合成用画像に施される場合の、人物の顔の大きさと合成用画像の大きさについて説明する図である。 FIG. 20 is a diagram illustrating the size of a person's face and the size of a composition image when size adjustment processing is performed on the composition image.
図20において、撮影画像511,512,513それぞれには、前景画像としての星型のスタンプ画像551a,551b,551cと、ハート型のスタンプ画像552a,552b,552cが合成されている。スタンプ画像551a,551b,551cは、いずれも同じスタンプ画像であり、異なる大きさとなるサイズ調整処理が施されている。スタンプ画像552a,552b,552cもまた、いずれも同じスタンプ画像であり、異なる大きさとなるサイズ調整処理が施されている。
In FIG. 20, the star-shaped
撮影画像511においては、利用者の立ち位置が後ろ(カメラ111から遠い位置)であるので、利用者の顔の大きさは小さくなる。したがって、スタンプ画像551a,552aには、サイズを小さくするサイズ調整処理が施される。
In the captured
撮影画像512においては、利用者の立ち位置が中ほど(カメラ111と背面パネル51の略中間となる位置)であるので、利用者の顔の大きさも中程度となる。したがって、スタンプ画像551b,552bには、サイズを中程度とするサイズ調整処理が施される。
In the photographed
撮影画像513においては、利用者の立ち位置が前(カメラ111に近い位置)であるので、利用者の顔の大きさは大きくなる。したがって、スタンプ画像551c,552cには、サイズを大きくするサイズ調整処理が施される。
In the captured
また、図20において、撮影画像511,512,513それぞれには、背景画像561a,561b,561cが合成されている。背景画像561a,561b,561cは、いずれも同じ文字を含む背景画像であり、その背景画像(文字)が異なる大きさとなるサイズ調整処理が施されている。
In FIG. 20,
撮影画像511においては、利用者の立ち位置が後ろであるので、利用者の顔の大きさは小さくなる。背景画像561aには、背景画像(文字)のサイズを極めて小さくするサイズ調整処理が施される。
In the captured
撮影画像512においては、利用者の立ち位置が中ほどであるので、利用者の顔の大きさも中程度となる。背景画像561bには、背景画像(文字)のサイズを小さくするサイズ調整処理が施される。
In the photographed
撮影画像513においては、利用者の立ち位置が前であるので、利用者の顔の大きさは大きくなる。背景画像561cには、背景画像(文字)のサイズを中程度とするサイズ調整処理が施される。
In the captured
このように、撮影画像に写る顔が大きいほど、スタンプ画像や背景の文字を大きくすることで、人物とスタンプ画像や背景の文字との大きさの差が小さくなる。また、撮影画像に写る顔が小さいほど、スタンプ画像や背景の文字を小さくすることで、人物とスタンプ画像や背景の文字との大きさの差が小さくなる。 As described above, the larger the face appearing in the photographed image, the larger the stamp image or background character, so that the difference in size between the person and the stamp image or background character becomes smaller. In addition, the smaller the face that appears in the captured image, the smaller the stamp image or background character, so that the difference in size between the person and the stamp image or background character becomes smaller.
すなわち、以上の例によれば、被写体となる利用者が撮影空間内のどこに立っても、人物とスタンプ画像や背景の文字の大きさのバランスがとれた画像を提供することが可能となる。 In other words, according to the above example, it is possible to provide an image in which the size of the person and the stamp image and the background text are balanced regardless of where the subject user stands in the shooting space.
なお、従来の写真シール機において、スタンプ画像のサイズを変更するには、編集画面に対する操作が必要であったが、上述した例によれば、編集画面に対する操作の必要なく、スタンプ画像のサイズを変更することができる。 It should be noted that, in the conventional photo sticker, in order to change the size of the stamp image, an operation on the edit screen is required. However, according to the above-described example, the size of the stamp image is not required without an operation on the edit screen. Can be changed.
さらに、図20の例において、撮影画像に写る顔が大きいほど、背景画像のぼかし量を大きくし、撮影画像に写る顔が小さいほど、背景画像のぼかし量を小さくするようにしてもよい。 Further, in the example of FIG. 20, the blurring amount of the background image may be increased as the face appearing in the captured image is larger, and the blurring amount of the background image may be decreased as the face reflected in the captured image is smaller.
また、図20の例とは逆に、撮影画像に写る顔が大きいほど、背景の文字を小さくするようにしてもよい。この場合、人物と背景との間に距離があるように見えるようになり、奥行き感のある画像を提供することができる。 In contrast to the example of FIG. 20, the background character may be made smaller as the face appearing in the captured image is larger. In this case, it seems that there is a distance between the person and the background, and an image with a sense of depth can be provided.
なお、図20の例では、スタンプ画像が前景画像として撮影画像に合成されるものとしたが、ペン画像が前景画像として撮影画像に合成されるようにしてもよい。さらに、スタンプ画像やペン画像が、背景画像として撮影画像に合成されるようにしてもよい。 In the example of FIG. 20, the stamp image is combined with the captured image as the foreground image, but the pen image may be combined with the captured image as the foreground image. Furthermore, a stamp image or a pen image may be combined with the captured image as a background image.
また、上述した例において、これらスタンプ画像やペン画像のぼかし量を、背景画像のぼかし量と同等にしてもよい。さらに、前景画像として合成されるスタンプ画像(ペン画像)は大きく(太く)なるように、背景画像として合成されるスタンプ画像(ペン画像)は小さく(細く)なるように、サイズ調整処理が施されるようにしてもよい。さらにまた、スタンプ画像やペン画像が、前景画像であるか背景画像であるかに応じて、その透過度などが調整されるようにしてもよい。 In the above-described example, the blur amount of the stamp image or the pen image may be equal to the blur amount of the background image. Furthermore, the size adjustment processing is performed so that the stamp image (pen image) combined as the foreground image becomes large (thick) and the stamp image (pen image) combined as the background image becomes small (thin). You may make it do. Furthermore, the transparency or the like may be adjusted according to whether the stamp image or pen image is a foreground image or a background image.
<撮影画像上の位置に応じたパラメータ調整>
以上においては、撮影画像に写る顔の大きさに基づいて、画像処理のパラメータが調整されるものとしたが、撮影画像上の位置(座標)に応じて、画像処理のパラメータが調整されるようにしてもよい。
<Parameter adjustment according to the position on the captured image>
In the above, the image processing parameters are adjusted based on the size of the face appearing in the captured image. However, the image processing parameters are adjusted according to the position (coordinates) on the captured image. It may be.
例えば、図21に示されるように、撮影画像571上の位置が上であるほど、ぼかし具合が小さくなるようなパラメータが設定され、撮影画像571上の位置が下であるほど、ぼかし具合が大きくなるようなパラメータが設定されるようにしてもよい。
For example, as shown in FIG. 21, a parameter is set such that the higher the position on the photographed
この場合、特に、撮影画像571が、図21に示されるような、斜め上から見た利用者の全身が写る全身画像である場合、撮影画像における下側の領域に写る床面の背景画像に、ぼかし量の大きいぼかし処理が施されるようになる。これにより、高さ方向に奥行き感(立体感)のある画像を提供することが可能となる。
In this case, in particular, when the photographed
<その他>
以上においては、撮影画像に写る顔の大きさが大きいほど、ぼかし量の大きいぼかし処理が施される例について説明したが、ぼかし具合によっては、そのぼかし処理が施される合成用画像がどのようなものなのか認識できなくなるおそれがある。
<Others>
In the above description, the example in which the blurring process with the larger blur amount is performed as the face size in the photographed image is larger has been described. There is a risk that it will not be possible to recognize what is wrong.
そこで、撮影画像に施されるぼかし処理の有無を利用者に選択させるようにしてもよい。 Therefore, the user may be allowed to select whether or not to perform the blurring process performed on the captured image.
例えば、図22に示される編集画面において、編集領域412Lの左側に、ぼかしONボタン611−1およびぼかしOFFボタン611−2が設けられるようにする。
For example, on the editing screen shown in FIG. 22, a blur ON button 611-1 and a blur OFF button 611-2 are provided on the left side of the
ぼかしONボタン611−1およびぼかしOFFボタン611−2は、ぼかし処理をON/OFFするために操作される。タッチペンにより、ぼかしONボタン611−1が操作されると、編集領域412Lに表示されている撮影画像は、撮影画像に写る顔の大きさに基づいたぼかし処理が施された状態となる。また、この状態で、タッチペンにより、ぼかしOFFボタン611−2が操作されると、編集領域412Lに表示されている撮影画像は、ぼかし処理が施されていない状態となる。
The blur ON button 611-1 and the blur OFF button 611-2 are operated to turn ON / OFF the blur processing. When the blur ON button 611-1 is operated with the touch pen, the photographed image displayed in the
また、撮影画像に施されたぼかし処理のぼかし具合を利用者に選択させるようにしてもよい。 Further, the user may be allowed to select the degree of blurring of the blurring process performed on the captured image.
例えば、図23に示される編集画面において、編集領域412Lの左側に、スライダー612が設けられるようにする。
For example, in the editing screen shown in FIG. 23, a
スライダー612は、ぼかし処理のぼかし具合を調整するために操作される。タッチペンにより、スライダー612が+側(図中上側)に操作される程、編集領域412Lに表示されている撮影画像は、人物以外の領域(例えば背景画像)にぼかし量の大きいぼかし処理が施された状態となる。また、タッチペンにより、スライダー612が−側(図中下側)に操作される程、編集領域412Lに表示されている撮影画像は、人物以外の領域にぼかし量の小さいぼかし処理が施された状態となる。
The
また、図示はしないが、ぼかし処理のぼかし具合を調整するために操作されるGUIとして、編集画面において、所定のペンアイコンを設けるようにしてもよい。タッチペンにより、このペンアイコンが操作された後、タブレット内蔵モニタ141(編集画面)上の所定の領域がなぞられると、タッチペンの軌跡の距離に応じて、人物以外の領域に対して施されるぼかし処理のぼかし具合が調整される。 Further, although not shown, a predetermined pen icon may be provided on the editing screen as a GUI operated to adjust the blurring degree of the blurring process. When a predetermined area on the tablet built-in monitor 141 (editing screen) is traced after the pen icon is operated by the touch pen, blurring is performed on areas other than the person according to the distance of the path of the touch pen. The blur of processing is adjusted.
また、タッチペンの軌跡の長さではなく、タッチペンとタブレット内蔵モニタ141との接触時間の長さに応じて、人物領域に対して施されるぼかし処理のぼかし具合が調整されるようしてもよい。
Further, the degree of blurring of the blurring process performed on the person area may be adjusted according to the length of the contact time between the touch pen and the tablet built-in
これらの場合、タッチペンの軌跡の距離や、タブレット内蔵モニタ141との接触時間の長さに対応して、ぼかし処理のぼかし量の大小が周期的に変化するようにする。
In these cases, the amount of blurring in the blurring process is changed periodically according to the distance of the locus of the touch pen and the length of the contact time with the tablet built-in
さらに、タブレット内蔵モニタ141上のタッチペンの移動方向に応じて、人物以外の領域に対して施されるぼかし処理のぼかし具合が調整されるようにしてもよい。例えば、タブレット内蔵モニタ141上で、タッチペンが右または上に移動するほど、人物以外の領域に対してぼかし量の大きいぼかし処理が施され、タッチペンが左または下に移動するほど、人物以外の領域に対してぼかし量の小さいぼかし処理が施されるようにする。
Furthermore, according to the moving direction of the touch pen on the tablet built-in
また、上述したタブレット内蔵モニタ141に対する操作に、タッチペンに代えて指を用いるようにしてもよい。この場合、ピンチインやピンチアウト等の操作によって、ぼかし処理のぼかし具合が調整されるようしてもよい。具体的には、ピンチアウトの操作により、人物以外の領域に対して施されるぼかし処理が強くなり、ピンチインの操作により、人物以外の領域に対して施されるぼかし処理が弱くなるようにする。
Moreover, you may make it use a finger instead of a touch pen for operation with respect to the
さらに、ぼかし処理のぼかし具合を調整するために操作される物理的なボタンやキー等の操作部が、タブレット内蔵モニタ141の周辺に設けられるようにしてもよい。
Furthermore, an operation unit such as a physical button or key operated to adjust the blurring degree of the blurring process may be provided around the tablet built-in
さらにまた、上述したぼかし処理のぼかし具合を調整するためのGUI、物理的な操作部、および指による操作が、任意に組み合わされて用いられるようにしてもよい。 Furthermore, a GUI for adjusting the blurring degree of the blurring process described above, a physical operation unit, and an operation with a finger may be arbitrarily combined and used.
これにより、利用者は、撮影画像に対して、好みのぼかし具合のぼかし処理を施すことができる。 As a result, the user can perform a blurring process with a desired degree of blurring on the captured image.
また、撮影画像の用途に応じて、背景画像に施されるぼかし処理のぼかし具合が調整されるようにしてもよい。 Further, the degree of blurring of the blurring process performed on the background image may be adjusted according to the use of the captured image.
具体的には、撮影画像が携帯専用画像である場合、特に、撮影画像がSNS(Social Networking Service)のトップ画像(プロフィール画像)に用いられる場合、このトップ画像は顔が大きく写るアップ画像であることが多いため、背景画像に施されるぼかし処理が強くなるようにする。これにより、トップ画像として、奥行きのある画像を提供することができる。 Specifically, when the photographed image is a mobile-only image, particularly when the photographed image is used as a top image (profile image) of SNS (Social Networking Service), the top image is an up image with a large face. In many cases, the blurring process applied to the background image is strengthened. Thereby, a deep image can be provided as a top image.
また、上述した例とは逆に、撮影画像が携帯専用画像である場合、携帯専用画像は携帯端末上でのアプリケーション(アプリ)により加工可能とされるため、背景画像にぼかし処理が施されないようにしてもよい。 Contrary to the above-described example, when the captured image is a portable-only image, the portable-only image can be processed by an application (app) on the portable terminal, so that the background image is not blurred. It may be.
<他の実施の形態>
上述した実施の形態においては、検出された顔の大きさに基づいて、撮影画像に施される画像処理のパラメータが調整(変更)されるものとした。以下においては、検出された顔の器官(パーツ)の大きさや形状に応じて、撮影画像に施される画像処理が変更される例について説明する。
<Other embodiments>
In the above-described embodiment, the parameters of image processing to be performed on the captured image are adjusted (changed) based on the detected face size. In the following, an example will be described in which the image processing applied to the photographed image is changed according to the size and shape of the detected facial organ (part).
図24は、編集画面のさらに他の例を示す図である。 FIG. 24 is a diagram showing still another example of the editing screen.
図24の編集画面においては、編集領域412Lの左端に、メイクパレット621が設けられる。メイクパレット621は、メイクツールを選択するためのアイコンの表示領域である。メイクツールは、撮影画像に写る利用者の顔を、化粧(メイク)を施したような顔にするための編集ツールである。メイクツールが選択されることで、撮影画像に写る利用者の顔に対して、選択されたメイクツールに対応する画像処理が施される。
In the editing screen of FIG. 24, a
図24の例では、唇部分の色を変更するための「リップ」、頬部分の色を変更するための「チーク」、目の形状を変更するための「目のかたち」、および、まつ毛の濃さを変更するための「マスカラ」の、4つのメイクツールが用意されている。これらのメイクツールに対応する画像処理は、メイクパレット621に対する利用者の選択操作(具体的には、メイクパレット621に設けられる「2人同時」ボタンまたは「1人ずつ」ボタンの押下)により、編集領域412Lに表示されている編集対象となる撮影画像に写る2人の利用者それぞれの顔に施されたり、利用者1人ずつの顔に施されるようにすることができる。
In the example of FIG. 24, “lip” for changing the color of the lip portion, “teak” for changing the color of the cheek portion, “shape of the eye” for changing the shape of the eye, and eyelashes There are four makeup tools, “Mascara” for changing the density. The image processing corresponding to these makeup tools is performed by a user's selection operation on the makeup palette 621 (specifically, pressing of the “two simultaneous” button or the “one person” button provided on the makeup palette 621). It can be applied to the face of each of the two users shown in the shot image to be edited displayed in the
また、図24の例では、メイクツールとして「リップ」が選択された場合、唇部分の色に加えて、唇部分のテクスチャが変更(選択)されるようになされている。 In the example of FIG. 24, when “lip” is selected as the makeup tool, the texture of the lip portion is changed (selected) in addition to the color of the lip portion.
ここでいうテクスチャは、艶やマットなどの質感、色、ぼかし具合、模様、明るさのうちのいずれかであるものとする。図24の例では、唇部分のテクスチャとして、濡れ感(濡れたような艶)を出すための「ティント」と、ラメ(微小な金属箔を模したもの)入りのグロスを塗ったような質感を出すための「ラメグロス」とが用意されている。 The texture here is assumed to be any one of a texture such as gloss and matte, a color, a blurring condition, a pattern, and brightness. In the example of FIG. 24, as the texture of the lips, “tint” for giving a feeling of wetness (wet luster) and glossy texture with lame (simulating a fine metal foil) are applied. "Lamegross" to prepare
本実施の形態においては、例えば、テクスチャとして「ラメグロス」が選択されると、撮影画像に写る顔の唇の大きさに基づいて、唇部分のテクスチャを変更する処理が実行される。 In the present embodiment, for example, when “lame gloss” is selected as the texture, a process of changing the texture of the lip portion is executed based on the size of the lip of the face shown in the photographed image.
<テクスチャ変更処理>
ここで、図25のフローチャートを参照して、顔のパーツのテクスチャ変更処理について説明する。
<Texture change processing>
Here, with reference to the flowchart of FIG. 25, the texture change process of the facial part will be described.
ステップS51において、顔検出部311は、編集対象となる撮影画像において、顔のパーツ(ここでは唇)を検出する。
In step S51, the
例えば、顔検出部311は、撮影画像において顔を検出した後、顔の各パーツの位置関係に基づいて唇を検出する。顔の検出は、鼻、これを挟む目、およびこれらを囲む輪郭を認識することで行われるようにしてもよいし、顔の輪郭点を複数抽出しそれらの位置を判別することで行われるようにしてもよい。また、最終的に唇の領域が特定されればよく、顔の検出を行わずに、唇の輪郭点を抽出するなどして、唇を検出するようにしてもよい。
For example, the
なお、テクスチャ変更処理は、撮影画像がアップ画像であるか全身画像であるかにかかわらず実行されるようにすることができる。この場合、全身画像は、アップ画像と比較して顔の部分が小さくなるので、誤検出を避けるために、抽出される輪郭点の数をより多くするなどしてもよい。 The texture change process can be executed regardless of whether the captured image is an up image or a whole body image. In this case, the whole-body image has a smaller face portion than the up-image, so that the number of contour points to be extracted may be increased to avoid erroneous detection.
ステップS52において、顔検出部311は、検出された唇部分についてのマスク画像を生成する。例えば、図26の上段左および中央に示されるように、撮影画像において検出された唇部分の画像631に基づいて、唇部分の領域が黒画素で、それ以外の領域が白画素となるマスク画像632が生成される。
In step S52, the
ステップS53において、パラメータ調整部312は、マスク画像のマスク部分(黒画素の部分)の大きさに基づいて、テクスチャ画像の大きさを変更する。ここでは、テクスチャ画像は、ラメ入りのグロスを塗ったような質感を有する矩形状の画像とされる。
In step S53, the
具体的には、図26の上段右に示されるように、所定の大きさのテクスチャ画像633が、マスク画像632における黒画素の部分(唇部分)を囲む最小の矩形領域F1と同一の大きさになるように縮小される。これにより、図26の中段右に示されるような、大きさが変更された(縮小された)テクスチャ画像634が得られる。なお、唇部分を囲む領域の形状は矩形に限らず、例えば楕円などであってもよい。この場合、テクスチャ画像の形状も、その形状に合わせて楕円などであることが望ましい。
Specifically, as shown in the upper right of FIG. 26, the
縮小される前のテクスチャ画像633においては、ラメを模した模様が所定の密度で配置されることで、その質感(テクスチャ)がつくり出されている。テクスチャ画像633の大きさが変更された場合、ラメを模した模様の密度が変化し、そのテクスチャは変化することになる。すなわち、テクスチャ画像は、唇部分の大きさに基づいて、そのテクスチャが変更される。なお、唇部分の大きさによっては、テクスチャ画像633が拡大されることで、そのテクスチャが変更されるようにもなる。
In the
ステップS54において、画像処理部314は、マスク画像を用いて、テクスチャが変更されたテクスチャ画像を、撮影画像における顔のパーツ(唇)に合成する。具体的には、図26における画像631に、テクスチャ画像634からマスク画像632の黒画素の部分を抽出した画像が合成される。これにより、図26の下段中央に示されるように、画像631における唇部分のテクスチャが、その大きさに応じたテクスチャに変更されるようになる。
In step S54, the
以上においては、唇の大きさに応じて、唇部分のテクスチャが変更されるものとしたが、唇の形状に応じて、唇部分のテクスチャが変更されるようにしてもよい。 In the above description, the texture of the lip portion is changed according to the size of the lips. However, the texture of the lip portion may be changed according to the shape of the lips.
例えば、唇がぽってりして厚みのある場合、ラメを模した模様の密度を低くするようにし、唇が薄く厚みのない場合、ラメを模した模様の密度を高くするようにする。これにより、撮影画像に写る利用者の唇を、その厚み(形状)に合った見た目の質感に仕上げることができる。唇の厚みは、例えば、上唇部分を囲む最小の矩形、および、下唇部分を囲む最小の矩形それぞれの縦横比が、所定の値以上であるか否かによって判別されるようにする。 For example, when the lips are thick and thick, the density of the pattern imitating the glitter is lowered, and when the lips are thin and not thick, the density of the pattern imitating the glitter is increased. As a result, the user's lips appearing in the photographed image can be finished to an appearance that matches the thickness (shape) of the user. The thickness of the lips is determined based on whether or not the aspect ratio of each of the minimum rectangle surrounding the upper lip portion and the minimum rectangle surrounding the lower lip portion is equal to or greater than a predetermined value.
また、メイクパレット621において選択された唇部分の色に応じて、唇部分のテクスチャが変更されるようにしてもよい。
Further, the texture of the lip portion may be changed according to the color of the lip portion selected in the
例えば、選択された唇部分の色に応じて、唇部分においてテクスチャ画像が合成される領域が変更されるようにする。具体的には、例えば、唇部分の色としてピンク色が選択された場合と、オレンジ色が選択された場合とで、上述した矩形領域F1の、左右方向の中心を基準とした幅を変更するようにする。これにより、選択された唇部分の色によって、テクスチャの変更される範囲が変わり、唇部分の色に応じた合成感を抑えることができる。 For example, the region where the texture image is synthesized in the lip portion is changed according to the color of the selected lip portion. Specifically, for example, when the pink color is selected as the color of the lip portion and when the orange color is selected, the width of the rectangular area F1 described above with respect to the center in the left-right direction is changed. Like that. Thereby, the range in which the texture is changed varies depending on the color of the selected lip portion, and it is possible to suppress a feeling of synthesis according to the color of the lip portion.
また、選択された唇部分の色に応じて、テクスチャ画像の濃淡やグラデーションが変更されるようにしてもよい。具体的には、例えば、唇部分の色としてピンク色が選択された場合には、テクスチャ画像におけるラメを模した模様を均一にし、唇部分の色としてオレンジ色が選択された場合には、テクスチャ画像におけるラメを模した模様に濃淡やグラデーションをもたせるようにする。 Further, the shading or gradation of the texture image may be changed according to the color of the selected lip portion. Specifically, for example, when pink is selected as the color of the lip portion, the pattern imitating the glitter in the texture image is made uniform, and when orange is selected as the color of the lip portion, Make the pattern imitating the lamé in the image to have shading and gradation.
さらに、選択された唇部分の色に応じて、テクスチャ画像の明るさが変更されるようにしてもよい。具体的には、例えば、唇部分の色としてピンク色が選択された場合、ピンク色はオレンジ色より彩度が高いので、テクスチャ画像の明るさを低くする。逆に、唇部分の色としてオレンジ色が選択された場合、オレンジ色はピンク色より彩度が低いので、テクスチャ画像の明るさを高くする。 Furthermore, the brightness of the texture image may be changed according to the color of the selected lip portion. Specifically, for example, when pink is selected as the color of the lip portion, the pink color has a higher saturation than the orange color, so the brightness of the texture image is lowered. On the contrary, when orange is selected as the color of the lips, the orange is less saturated than pink, so the brightness of the texture image is increased.
<他のパーツのテクスチャ変更>
以上においては、唇の大きさや形状に応じて、唇部分のテクスチャが変更される例について説明したが、唇以外の顔のパーツについても同様に、その部分のテクスチャが変更されるようにしてもよい。
<Change the texture of other parts>
In the above, the example in which the texture of the lip portion is changed according to the size and shape of the lips has been described. However, the facial texture other than the lips may be changed similarly. Good.
(チークの例)
図24の例で、メイクツールとして「チーク」が選択された場合、頬部分の色に加えて、頬部分のテクスチャが変更されるようにしてもよい。
(Example of teak)
In the example of FIG. 24, when “blush” is selected as the makeup tool, the texture of the cheek portion may be changed in addition to the color of the cheek portion.
頬部分へのテクスチャ画像の合成は、頬部分についてのマスク画像を生成することで行われ、頬部分についてのマスク画像の生成は、頬の領域を特定することで行われる。 The synthesis of the texture image to the cheek portion is performed by generating a mask image for the cheek portion, and the mask image for the cheek portion is generated by specifying the cheek region.
頬の領域を特定する手法としては、例えば、目を認識し、その目尻および目頭の2点を結ぶ線分、目尻および目頭の2点から鉛直下方向に下ろした2直線、これらに直交し、目尻と顔の輪郭との交点を通る直線で囲まれる矩形領域から目の領域を除いた領域を、頬の領域とする。 As a method for identifying the cheek region, for example, the eye is recognized, a line segment connecting the two points of the corner of the eye and the eye, two straight lines drawn downward from the two points of the corner of the eye and the eye, and perpendicular to these, A region obtained by removing the eye region from a rectangular region surrounded by a straight line passing through the intersection of the corner of the eye and the face outline is defined as a cheek region.
そして、頬の領域の大きさに応じて、頬部分のテクスチャが変更されるようにする。 The texture of the cheek portion is changed according to the size of the cheek region.
テクスチャ画像の形状は、特定される頬の領域の形状に合わせて矩形状とされるが、楕円などの形状であってもよい。なお、テクスチャ画像の形状は、顔の形状に応じて変化するものとする。例えば、顔が丸顔の場合、特定される頬の領域は正方形や正円に近い形状となるので、テクスチャ画像の形状も正方形や正円に近い形状となる。また、顔が面長の場合、特定される頬の領域は縦長の長方形や縦長の楕円に近い形状となるので、テクスチャ画像の形状も縦長の長方形や縦長の楕円に近い形状となる。 The shape of the texture image is rectangular according to the shape of the cheek region specified, but may be an ellipse or the like. It is assumed that the shape of the texture image changes according to the shape of the face. For example, when the face is a round face, the specified cheek region has a shape close to a square or a perfect circle, and thus the shape of the texture image also has a shape close to a square or a perfect circle. In addition, when the face is a face length, the cheek region to be specified has a shape close to a vertically long rectangle or a vertically long ellipse, and thus the shape of the texture image also has a shape close to a vertically long rectangle or a vertically long ellipse.
(黒目の例)
図24の例のメイクツールによってテクスチャが変更されるパーツ以外にも、例えば、黒目の大きさに応じて、黒目部分のテクスチャが変更されるようにしてもよい。
(Example of black eyes)
In addition to the parts whose texture is changed by the makeup tool in the example of FIG. 24, for example, the texture of the black eye portion may be changed according to the size of the black eye.
ここでは、黒目部分のテクスチャとして、黒目に写り込むキャッチライトの大きさが変更されるものとする。したがって、特定された黒目の領域の大きさに応じて、黒目に写り込むキャッチライトの大きさが変更されるようにする。例えば、黒目の領域全体のN%の大きさのキャッチライトを模した画像(テクスチャ画像)が、黒目の領域に合成される。 Here, it is assumed that the size of the catch light reflected in the black eye is changed as the texture of the black eye part. Therefore, the size of the catchlight reflected in the black eye is changed according to the size of the specified black eye area. For example, an image (texture image) simulating a catch light having a size of N% of the entire black eye area is combined with the black eye area.
写真シール作成装置1においては、メインライトとなる上ストロボユニット103からの光と、足元ストロボユニット104からの光がキャッチライトとなる。
In the photo
そこで、上ストロボユニット103に対応するテクスチャ画像の大きさを黒目の領域全体のn%とし、足元ストロボユニット104に対応するテクスチャ画像の大きさを黒目の領域全体のm%とするようにしてもよい(但し、n>mとする)。
Therefore, the size of the texture image corresponding to the
この例によれば、黒目の大きさに適したキャッチライトが、黒目に写り込んだような画像が得られ、違和感なく画像の完成度を高めることができる。 According to this example, an image in which a catchlight suitable for the size of the black eye is reflected in the black eye can be obtained, and the completeness of the image can be increased without a sense of incongruity.
(まつ毛の例)
図24の例で、メイクツールとして「マスカラ」が選択された場合、目の大きさに応じて、まつ毛部分のテクスチャが変更されるようにしてもよい。
(Example of eyelashes)
In the example of FIG. 24, when “mascara” is selected as the makeup tool, the texture of the eyelash portion may be changed according to the size of the eyes.
ここでは、まつ毛部分のテクスチャとして、マスカラを模した画像(テクスチャ画像)で表現されるマスカラの濃さが変更されるものとする。したがって、特定された目の領域の大きさに応じて、マスカラの濃さが変更されるようにする。例えば、目の領域が小さいほど、マスカラが濃くなるようにする。これにより、目が小さい場合であっても、目を強調させることができる。 Here, it is assumed that the mascara density expressed by an image (texture image) simulating mascara is changed as the texture of the eyelash portion. Therefore, the density of the mascara is changed according to the size of the specified eye area. For example, the smaller the eye area, the darker the mascara. Thereby, even when the eyes are small, the eyes can be emphasized.
また、まつ毛部分のテクスチャと同様に、眉毛部分のテクスチャ(アイブロウの濃さ)が変更されるようにしてもよい。 Further, the texture (eyebrow density) of the eyebrows may be changed in the same manner as the texture of the eyelashes.
<変形例>
以上においては、利用者が2人の場合、メイクツールに対応する画像処理やテクスチャ変更処理は、利用者の選択操作により、撮影画像に写る2人の利用者それぞれの顔に施されたり、利用者1人ずつの顔に施されるものとした。
<Modification>
In the above, when there are two users, the image processing and texture change processing corresponding to the makeup tool are applied to the faces of the two users shown in the photographed image or used by the user's selection operation. It was given to each person's face.
利用者が3人以上の場合には、メイクツールに対応する画像処理やテクスチャ変更処理は、利用者の選択操作によらず、撮影画像に写る利用者全ての顔に施されるようにしてもよい。さらに、利用者が1人の場合には、利用者の選択操作に制限を設け、メイクツールに対応する画像処理やテクスチャ変更処理が、撮影画像に写る利用者の顔パーツの一部のみに施されるようにしてもよい。 When there are three or more users, the image processing and texture change processing corresponding to the makeup tool may be performed on all faces of the user who appear in the photographed image, regardless of the user's selection operation. Good. In addition, when there is only one user, the user's selection operation is limited, and image processing and texture change processing corresponding to the makeup tool are performed only on a part of the user's facial parts that appear in the captured image. You may be made to do.
また、メイクツールは、図24で示されたように、編集画面において選択されるようにしてもよいし、編集画面とは別に表示される専用の選択画面において選択されるようにしてもよい。 In addition, the makeup tool may be selected on the editing screen as shown in FIG. 24, or may be selected on a dedicated selection screen that is displayed separately from the editing screen.
さらに、例えば、編集画面の編集領域412L(412R)に表示されている編集対象となる撮影画像において、利用者がタッチペン142A(142B)により顔のパーツを囲むことで、メイクツールに対応する画像処理やテクスチャ変更処理の対象となる顔のパーツが選択されるようにしてもよい。
Furthermore, for example, in the captured image to be edited displayed in the
上述した実施の形態では、写真シール作成装置1は、得られた撮影画像や編集画像をシール紙に印刷するとともに、サーバに送信することで利用者の携帯端末に提供する構成を採るものとした。これに限らず、撮影画像や編集画像をシール紙に印刷せずに、サーバに送信することで利用者の携帯端末に提供するのみの構成を採ることも可能である。また逆に、撮影画像や編集画像をサーバに送信せずに、シール紙に印刷するのみの構成を採ることも可能である。
In the above-described embodiment, the photo
上述した一連の処理は、ハードウェアにより実行させることもできるし、ソフトウェアにより実行させることもできる。上述した一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、ネットワークや記録媒体からインストールされる。 The series of processes described above can be executed by hardware or can be executed by software. When the above-described series of processing is executed by software, a program constituting the software is installed from a network or a recording medium.
この記録媒体は、例えば、図10に示されるように、装置本体とは別に、写真シール作成装置1の管理者にプログラムを配信するために配布される、そのプログラムが記録されている磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROMおよびDVDを含む)、光磁気ディスク、もしくは半導体メモリなどよりなるリムーバブルメディア205により構成される。また、これらだけでなく、記録媒体は、装置本体にあらかじめ組み込まれた状態で管理者に配信されるプログラムが記録されているROM206や、記憶部202に含まれるハードディスクなどで構成される。
For example, as shown in FIG. 10, this recording medium is distributed to distribute the program to the administrator of the photo
なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。 In the present specification, the step of describing the program recorded on the recording medium is not limited to the processing performed in chronological order according to the described order, but is not necessarily performed in chronological order. It also includes processes that are executed individually.
以上において、印刷媒体は、シール紙や写真紙に限られるものではない。例えば、所定のサイズの紙やフィルム、プリペイドカードやIC(Integrated Circuit)カードなどのカード、あるいは、Tシャツなどの布地などに、画像を印刷するようにしてもよい。この場合、1または複数の撮影画像が配置されたシールレイアウト画像が、これらの印刷媒体に印刷されるようにしてもよい。 In the above, the printing medium is not limited to sticker paper or photographic paper. For example, an image may be printed on a predetermined size of paper or film, a card such as a prepaid card or an IC (Integrated Circuit) card, or a cloth such as a T-shirt. In this case, a sticker layout image in which one or a plurality of photographed images are arranged may be printed on these print media.
また、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。 The embodiments of the present technology are not limited to the above-described embodiments, and various modifications can be made without departing from the gist of the present technology.
1 写真シール作成装置
301 撮影処理部
302 編集処理部
311 顔検出部
312 パラメータ調整部
313 合成部
314 画像処理部
315 表示制御部
DESCRIPTION OF
Claims (13)
前記撮影画像において人物の顔を検出する顔検出部と、
検出された前記顔の大きさに基づいて、前記撮影画像に施される画像処理のパラメータを調整するパラメータ調整部と、
調整された前記パラメータでの前記画像処理を、前記撮影画像の前記人物以外の領域に施す画像処理部と
を備える写真シール作成装置。 A shooting processing unit that generates a shot image by shooting a user as a subject;
A face detection unit for detecting a human face in the captured image;
A parameter adjustment unit that adjusts parameters of image processing performed on the captured image based on the size of the detected face;
An image processing unit comprising: an image processing unit that performs the image processing with the adjusted parameters on an area other than the person of the photographed image.
前記画像処理部は、調整された前記パラメータでの前記画像処理を、前記撮影画像に合成された前記合成用画像に施す
請求項1に記載の写真シール作成装置。 A synthesis unit for synthesizing an image for synthesis with the captured image;
The photo sticker creating apparatus according to claim 1, wherein the image processing unit performs the image processing with the adjusted parameters on the image for synthesis combined with the captured image.
請求項2に記載の写真シール作成装置。 The photo sticker creating apparatus according to claim 2, wherein the composition image is a background image synthesized with the background of the person in the photographed image or a foreground image synthesized with the foreground of the person in the photographed image.
請求項2に記載の写真シール作成装置。 The photo sticker creating apparatus according to claim 2, wherein the composition image is a background image synthesized with the background of the person in the photographed image and a foreground image synthesized with the foreground of the person in the photographed image.
請求項2乃至4のいずれかに記載の写真シール作成装置。 The photographic sticker creating apparatus according to claim 2, wherein the composition image is an image for editing the photographed image.
前記画像処理部は、調整された前記パラメータで表されるぼかし具合の前記ぼかし処理を、前記撮影画像の前記人物以外の領域に施す
請求項1乃至5のいずれかに記載の写真シール作成装置。 The parameter adjustment unit adjusts a parameter representing a blurring degree of a blurring process performed on a region other than the person of the captured image based on the detected size of the face,
The photographic sticker creating apparatus according to any one of claims 1 to 5, wherein the image processing unit performs the blurring process of the blurring degree represented by the adjusted parameter on a region other than the person of the photographed image.
請求項1乃至6のいずれかに記載の写真シール作成装置。 The photo sticker creating apparatus according to any one of claims 1 to 6, wherein the image processing unit performs the image processing according to a shooting range of the person appearing in the shot image.
前記画像処理部は、前記アップ画像が生成された場合、前記画像処理を前記アップ画像の前記人物以外の領域に施し、前記全身画像が生成された場合、前記画像処理を前記全身画像に施さない
請求項7に記載の写真シール作成装置。 The photographing processing unit generates, as the photographed image, an up image in which the face and upper body of the person are photographed, and a whole body image in which the whole body of the person is photographed,
The image processing unit applies the image processing to a region other than the person in the up image when the up image is generated, and does not apply the image processing to the whole body image when the whole body image is generated. The photo sticker creating apparatus according to claim 7.
請求項1乃至8のいずれかに記載の写真シール作成装置。 9. The photo sticker creating apparatus according to claim 1, wherein the photographing processing unit photographs the subject while fixing a diaphragm of an optical system so that a depth of field becomes deep.
請求項1乃至9のいずれかに記載の写真シール作成装置。 The photographic sticker creating apparatus according to claim 1, wherein the image processing unit performs the image processing on an area other than the person in the photographed image by performing face recognition on the photographed image.
請求項1乃至9のいずれかに記載の写真シール作成装置。 The photograph according to any one of claims 1 to 9, wherein the image processing unit performs the image processing on a region other than the person in the photographed image by extracting the person region in the photographed image as a mask image. Seal making device.
前記パラメータ調整部は、前記ライブビュー画像において検出された前記顔の大きさに基づいて、前記パラメータを調整し、
前記画像処理部は、調整された前記パラメータでの前記画像処理を、前記ライブビュー画像の前記人物以外の領域に施す
請求項1に記載の写真シール作成装置。 The face detection unit detects the face in a live view image captured by a camera,
The parameter adjustment unit adjusts the parameter based on the size of the face detected in the live view image,
The photo sticker creating apparatus according to claim 1, wherein the image processing unit performs the image processing with the adjusted parameters on an area other than the person of the live view image.
前記撮影画像において人物の顔を検出し、
検出された前記顔の大きさに基づいて、前記撮影画像に施される画像処理のパラメータを調整し、
調整された前記パラメータでの前記画像処理を、前記撮影画像の前記人物以外の領域に施す
ステップを含む画像処理方法。 Create a shot image by shooting the user as a subject,
Detecting a human face in the captured image;
Based on the detected size of the face, adjust parameters of image processing performed on the captured image,
An image processing method including a step of applying the image processing with the adjusted parameter to an area other than the person of the photographed image.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015254038 | 2015-12-25 | ||
JP2015254038 | 2015-12-25 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017121044A true JP2017121044A (en) | 2017-07-06 |
JP6829380B2 JP6829380B2 (en) | 2021-02-10 |
Family
ID=59272535
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016239068A Active JP6829380B2 (en) | 2015-12-25 | 2016-12-09 | Photo sticker making device and image processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6829380B2 (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108830892A (en) * | 2018-06-13 | 2018-11-16 | 北京微播视界科技有限公司 | Face image processing process, device, electronic equipment and computer readable storage medium |
JP2020053831A (en) * | 2018-09-27 | 2020-04-02 | フリュー株式会社 | Photo-creating game machine, image processing method, and program |
JP2021132321A (en) * | 2020-02-20 | 2021-09-09 | 株式会社セガ | Photographing game device and program |
JP7412348B2 (en) | 2018-10-29 | 2024-01-12 | サターン ライセンシング エルエルシー | Display device and display control method |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009031870A (en) * | 2007-07-24 | 2009-02-12 | Seiko Epson Corp | Image processing for estimation of photographic object distance |
JP2013041117A (en) * | 2011-08-16 | 2013-02-28 | Pentax Ricoh Imaging Co Ltd | Imaging apparatus and distance information acquisition method |
JP2013157677A (en) * | 2012-01-26 | 2013-08-15 | Canon Inc | Electronic apparatus, control method for electronic apparatus, program, and storage medium |
JP2013243466A (en) * | 2012-05-18 | 2013-12-05 | Tatsumi Denshi Kogyo Kk | Imaging apparatus for game, imaging method for game, and program |
JP2014216947A (en) * | 2013-04-26 | 2014-11-17 | フリュー株式会社 | Imaging apparatus and method, and program |
JP5825542B1 (en) * | 2015-06-29 | 2015-12-02 | フリュー株式会社 | Photo sticker creation apparatus and display method |
-
2016
- 2016-12-09 JP JP2016239068A patent/JP6829380B2/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009031870A (en) * | 2007-07-24 | 2009-02-12 | Seiko Epson Corp | Image processing for estimation of photographic object distance |
JP2013041117A (en) * | 2011-08-16 | 2013-02-28 | Pentax Ricoh Imaging Co Ltd | Imaging apparatus and distance information acquisition method |
JP2013157677A (en) * | 2012-01-26 | 2013-08-15 | Canon Inc | Electronic apparatus, control method for electronic apparatus, program, and storage medium |
JP2013243466A (en) * | 2012-05-18 | 2013-12-05 | Tatsumi Denshi Kogyo Kk | Imaging apparatus for game, imaging method for game, and program |
JP2014216947A (en) * | 2013-04-26 | 2014-11-17 | フリュー株式会社 | Imaging apparatus and method, and program |
JP5825542B1 (en) * | 2015-06-29 | 2015-12-02 | フリュー株式会社 | Photo sticker creation apparatus and display method |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108830892A (en) * | 2018-06-13 | 2018-11-16 | 北京微播视界科技有限公司 | Face image processing process, device, electronic equipment and computer readable storage medium |
WO2019237745A1 (en) * | 2018-06-13 | 2019-12-19 | 北京微播视界科技有限公司 | Facial image processing method and apparatus, electronic device and computer readable storage medium |
CN108830892B (en) * | 2018-06-13 | 2020-03-06 | 北京微播视界科技有限公司 | Face image processing method and device, electronic equipment and computer readable storage medium |
US11176355B2 (en) | 2018-06-13 | 2021-11-16 | Beijing Microlive Vision Technology Co., Ltd | Facial image processing method and apparatus, electronic device and computer readable storage medium |
JP2020053831A (en) * | 2018-09-27 | 2020-04-02 | フリュー株式会社 | Photo-creating game machine, image processing method, and program |
JP7412348B2 (en) | 2018-10-29 | 2024-01-12 | サターン ライセンシング エルエルシー | Display device and display control method |
JP2021132321A (en) * | 2020-02-20 | 2021-09-09 | 株式会社セガ | Photographing game device and program |
Also Published As
Publication number | Publication date |
---|---|
JP6829380B2 (en) | 2021-02-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6829380B2 (en) | Photo sticker making device and image processing method | |
JP2019013013A (en) | Photo sticker generation apparatus, photo sticker generation method, and program | |
JP6880394B2 (en) | Photographing game console and shooting method | |
JP2015035765A (en) | Imaging apparatus and display control method | |
JP6810336B2 (en) | Photo creation game console and display method | |
JP5472767B2 (en) | Image processing apparatus and image processing method | |
JP6213791B2 (en) | Image processing apparatus and image processing method | |
JP5825542B1 (en) | Photo sticker creation apparatus and display method | |
JP6477780B2 (en) | Photo sticker creation apparatus, photo sticker creation method, and photo sticker creation processing program | |
JP5483136B1 (en) | Imaging apparatus and display control method | |
JP6853475B2 (en) | Photo creation game console and display method | |
JP6262643B2 (en) | Image processing apparatus and image processing method | |
JP7339515B2 (en) | Image processing device, image processing method, and program | |
JP2018107515A (en) | Photograph formation game machine and image processing method | |
JP2016197222A (en) | Photograph sticker creating apparatus and display method | |
JP7074994B2 (en) | Photographing game console and image processing method | |
JP2021043797A (en) | Image processing device, image processing method, and image processing program | |
JP6465333B2 (en) | Image processing apparatus and image processing method | |
JP6032378B1 (en) | Photo creation game machine and image processing method | |
JP6443028B2 (en) | Image generation apparatus, image generation method, and print medium | |
JP5962643B2 (en) | Imaging apparatus and display control method | |
JP7121256B2 (en) | PHOTO-CREATION GAME MACHINE, IMAGE PROCESSING METHOD, AND PROGRAM | |
JP6982230B2 (en) | Photographing game console and image processing method | |
JP6041024B1 (en) | Photo sticker creation apparatus and display method | |
JP2018201183A (en) | Photograph making game machine, display method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20191125 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200710 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200721 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200923 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20201006 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201204 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20201222 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210104 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6829380 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |