JP6671015B2 - Photo sticker making apparatus and image processing method - Google Patents
Photo sticker making apparatus and image processing method Download PDFInfo
- Publication number
- JP6671015B2 JP6671015B2 JP2019034589A JP2019034589A JP6671015B2 JP 6671015 B2 JP6671015 B2 JP 6671015B2 JP 2019034589 A JP2019034589 A JP 2019034589A JP 2019034589 A JP2019034589 A JP 2019034589A JP 6671015 B2 JP6671015 B2 JP 6671015B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- captured image
- user
- captured
- area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000003672 processing method Methods 0.000 title description 5
- 238000012545 processing Methods 0.000 claims description 125
- 238000013461 design Methods 0.000 claims description 102
- 238000000034 method Methods 0.000 claims description 79
- 230000008569 process Effects 0.000 claims description 78
- 238000003384 imaging method Methods 0.000 claims description 69
- 230000000873 masking effect Effects 0.000 claims description 8
- 230000002194 synthesizing effect Effects 0.000 claims description 8
- 230000009885 systemic effect Effects 0.000 claims 2
- KRQUFUKTQHISJB-YYADALCUSA-N 2-[(E)-N-[2-(4-chlorophenoxy)propoxy]-C-propylcarbonimidoyl]-3-hydroxy-5-(thian-3-yl)cyclohex-2-en-1-one Chemical compound CCC\C(=N/OCC(C)OC1=CC=C(Cl)C=C1)C1=C(O)CC(CC1=O)C1CCCSC1 KRQUFUKTQHISJB-YYADALCUSA-N 0.000 description 106
- 238000010586 diagram Methods 0.000 description 35
- 230000015572 biosynthetic process Effects 0.000 description 14
- 239000002131 composite material Substances 0.000 description 14
- 238000003786 synthesis reaction Methods 0.000 description 14
- 238000009966 trimming Methods 0.000 description 14
- 239000003086 colorant Substances 0.000 description 13
- 238000004891 communication Methods 0.000 description 13
- 230000005540 biological transmission Effects 0.000 description 10
- 238000005516 engineering process Methods 0.000 description 10
- 239000000203 mixture Substances 0.000 description 9
- 238000007639 printing Methods 0.000 description 9
- 230000009467 reduction Effects 0.000 description 9
- 238000012790 confirmation Methods 0.000 description 7
- 230000006870 function Effects 0.000 description 5
- 238000005286 illumination Methods 0.000 description 4
- 238000003780 insertion Methods 0.000 description 3
- 230000037431 insertion Effects 0.000 description 3
- 230000001678 irradiating effect Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 239000004065 semiconductor Substances 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 210000003128 head Anatomy 0.000 description 2
- 230000006855 networking Effects 0.000 description 2
- 241000238370 Sepia Species 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000005034 decoration Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000007599 discharging Methods 0.000 description 1
- 239000004744 fabric Substances 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000002184 metal Substances 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 230000011514 reflex Effects 0.000 description 1
- 229920006395 saturated elastomer Polymers 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- PICXIOQBANWBIZ-UHFFFAOYSA-N zinc;1-oxidopyridine-2-thione Chemical class [Zn+2].[O-]N1C=CC=CC1=S.[O-]N1C=CC=CC1=S PICXIOQBANWBIZ-UHFFFAOYSA-N 0.000 description 1
Images
Landscapes
- Cameras Adapted For Combination With Other Photographic Or Optical Apparatuses (AREA)
- Studio Devices (AREA)
Description
本技術は、写真シール作成装置および画像処理方法に関し、特に、従来にないデザイン性の高い画像を得ることができるようにする写真シール作成装置および画像処理方法に関する。 The present technology relates to a photograph sticker creating apparatus and an image processing method, and more particularly to a photograph sticker creating apparatus and an image processing method that can obtain an image with a high design that has not been achieved in the past.
従来、アミューズメント施設等に設置される写真シール機が知られている。写真シール機は、利用者を撮影し、利用者の操作に応じて撮影画像に対して編集を施す。写真シール機は、編集が施された撮影画像をシール紙に印刷する。 2. Description of the Related Art Photo stickers installed in amusement facilities and the like are conventionally known. The photo sticker shoots a user and edits the shot image according to the operation of the user. The photo sticker machine prints the edited photographed image on sticker paper.
写真シール機の中には、撮影画像に写る被写体の輪郭に沿って、文字や図形などの装飾画像を合成するものがある。 2. Description of the Related Art Some photo stickers synthesize decorative images such as characters and figures along contours of a subject appearing in a photographed image.
例えば、特許文献1には、写真シール機が、利用者により選択された背景色に応じた色の装飾画像を、撮影画像に合成することが記載されている。
For example,
ところで、従来、被写体の要部である顔が隠れるように他の被写体を重畳することは行われていなかった。 By the way, conventionally, it has not been performed to superimpose another subject so that a face, which is a main part of the subject, is hidden.
本技術は、このような状況に鑑みてなされたものであり、従来にないデザイン性の高い画像を得ることができるようにするものである。 The present technology has been made in view of such a situation, and is intended to obtain an image having a high design quality that has not been achieved in the past.
本技術の写真シール作成装置は、被写体を撮影し、撮影画像を生成する撮影処理部と、前記撮影画像の被写体領域をマスクするマスク画像を生成するマスク生成部と、前記マスク画像を用いて、所定のデザインを有するデザイン画像に前記撮影画像を合成する合成部とを備え、前記撮影処理部は、1回の撮影により、第1の撮影画像および第2の撮影画像を生成し、前記マスク生成部は、前記第1の撮影画像に基づいて、前記第1の撮影画像の被写体領域をマスクする第1のマスク画像を生成し、かつ、前記第2の撮影画像に基づいて、前記第2の撮影画像の被写体領域をマスクする第2のマスク画像を生成し、前記合成部は、前記第1のマスク画像を用いて、前記デザイン画像に前記第1の撮影画像を合成し、さらに、前記第1の撮影画像の顔領域の一部または全部に前記第2の撮影画像の被写体領域が重なるように、前記第2のマスク画像を用いて、前記第1の撮影画像の被写体領域が合成された前記デザイン画像に前記第2の撮影画像を合成する。 A photograph sticker creating device of the present technology shoots a subject, a shooting processing unit that generates a shot image, a mask generation unit that generates a mask image that masks a subject area of the shot image, and the mask image, A combining unit for combining the photographed image with a design image having a predetermined design, wherein the photographing processing unit generates a first photographed image and a second photographed image by one photographing, and generates the mask. parts, based on the first captured image, first generates a mask image for masking an object area of the first captured image, and, based on the second captured image, the second Generating a second mask image for masking a subject area of the captured image; the combining unit combining the first captured image with the design image using the first mask image; 1 shot image The second mask image is used to combine the subject area of the first captured image with the design image, such that the subject area of the second captured image overlaps a part or the entirety of the face area. The second captured image is synthesized.
本技術の画像処理方法は、被写体を撮影し、撮影画像を生成する撮影処理部と、前記撮影画像の被写体領域をマスクするマスク画像を生成するマスク生成部と、前記マスク画像を用いて、所定のデザインを有するデザイン画像に前記撮影画像を合成する合成部とを備える写真シール作成装置が、1回の撮影により、第1の撮影画像および第2の撮影画像を生成し、前記第1の撮影画像に基づいて、前記第1の撮影画像の被写体領域をマスクする第1のマスク画像を生成し、前記第2の撮影画像に基づいて、前記第2の撮影画像の被写体領域をマスクする第2のマスク画像を生成し、前記第1のマスク画像を用いて、前記デザイン画像に前記第1の撮影画像を合成し、さらに、前記第1の撮影画像の顔領域の一部または全部に前記第2の撮影画像の被写体領域が重なるように、前記第2のマスク画像を用いて、前記第1の撮影画像の被写体領域が合成された前記デザイン画像に前記第2の撮影画像を合成するステップを含む。
An image processing method according to an embodiment of the present technology includes: a photographing processing unit that photographs a subject and generates a photographed image; a mask generating unit that generates a mask image that masks a subject region of the photographed image; A photograph sticker creating apparatus comprising: a design unit having a design image having the design described above; and a combining unit configured to combine the photographed image with the design image having the design described above . based on the image, the generating a first mask image for masking the subject area of the first captured image, based on the second captured image, a masking the subject area of the second captured
本技術においては、1回の撮影により、第1の撮影画像および第2の撮影画像が生成され、前記第1の撮影画像に基づいて、前記第1の撮影画像の被写体領域をマスクする第1のマスク画像が生成され、前記第2の撮影画像に基づいて、前記第2の撮影画像の被写体領域をマスクする第2のマスク画像が生成され、前記第1のマスク画像を用いて、前記デザイン画像に前記第1の撮影画像が合成され、さらに、前記第1の撮影画像の顔領域の一部または全部に前記第2の撮影画像の被写体領域が重なるように、前記第2のマスク画像を用いて、前記第1の撮影画像の被写体領域が合成された前記デザイン画像に前記第2の撮影画像が合成される。 In the present technology, a first photographed image and a second photographed image are generated by one photographing, and based on the first photographed image, a first masked image of a subject area of the first photographed image is formed. mask image is generated based on the second captured image, the second mask image for masking the subject area of the second captured image is generated by using the first mask image, the design The first captured image is combined with the image, and the second mask image is further combined such that the subject region of the second captured image overlaps part or all of the face region of the first captured image. The second captured image is combined with the design image in which the subject area of the first captured image is combined.
本技術によれば、従来にないデザイン性の高い画像を得ることが可能となる。 According to the embodiments of the present technology, it is possible to obtain an image having a high design quality, which has not existed conventionally.
以下、本技術を適用した具体的な実施の形態について、図面を参照しながら詳細に説明する。 Hereinafter, specific embodiments to which the present technology is applied will be described in detail with reference to the drawings.
<写真シール作成装置の外観構成>
図1および図2は、写真シール作成装置1の外観の構成例を示す斜視図である。
<Appearance of photo sticker making device>
1 and 2 are perspective views showing an example of the configuration of the appearance of the photo
写真シール作成装置1は、撮影画像や編集済み画像を提供するゲーム機である。写真シール作成装置1は、画像をシール紙に印刷したり、画像を利用者の携帯端末上で閲覧可能にするためにその画像をサーバに送信することで、利用者に画像を提供する。写真シール作成装置1は、アミューズメント施設や店舗に設置される。写真シール作成装置1の利用者は、主に女子高生や女子大生などの若い女性が中心とされる。写真シール作成装置1において、1組あたり主に2人や3人などの複数人の利用者がゲームを楽しむことができる。もちろん、1人の利用者がゲームを楽しむこともできる。
The photo
写真シール作成装置1において、利用者は、自身が被写体となって撮影作業を行う。利用者は、編集作業により、撮影によって得られた撮影画像の中から選択した画像に、手書きの文字やスタンプ画像などの合成用画像を合成させる。これにより、撮影画像が彩り豊かな画像に編集される。利用者は、編集済みの画像である編集画像が印刷されたシール紙を受け取って一連のゲームを終了させる。
In the photo
図1に示すように、写真シール作成装置1は、基本的に、撮影ユニット11と編集ユニット12が接した状態で設置されることによって構成される。
As shown in FIG. 1, the photo
撮影ユニット11は、事前選択部20、撮影部21、および背景部22から構成される。事前選択部20は、撮影部21の側面に設置される。事前選択部20の前方の空間が、事前選択処理が行われる事前選択空間となる。また、撮影部21と背景部22とは所定の距離だけ離れて設置される。撮影部21と背景部22との間に形成される空間が、撮影処理が行われる撮影空間となる。
The photographing
事前選択部20は、事前選択処理として、写真シール作成装置1によって提供されるゲームを紹介するガイダンスを行ったり、撮影空間で行われる撮影処理における各種の設定を行ったりする。事前選択部20には、利用者が代金を投入する硬貨投入口や、各種の操作に用いられるタッチパネルモニタなどが設けられる。事前選択部20は、撮影空間の空き状況に応じて、適宜、事前選択空間にいる利用者を撮影空間へと案内する。
The
撮影部21は、利用者を被写体として撮影するための装置である。撮影部21は、撮影空間に入った利用者の正面に位置する。撮影空間に臨む撮影部21の正面には、カメラや、各種の操作に用いられるタッチパネルモニタなどが設けられる。撮影空間にいる利用者から見て左側の面を左側面、右側の面を右側面とすると、撮影部21の左側面が側面パネル41Aにより構成され、右側面が側面パネル41B(図3)により構成される。さらに、撮影部21の正面が正面パネル42により構成される。側面パネル41Aには、上述した事前選択部20が設置されるものとする。なお、事前選択部20は、側面パネル41Bに設置されるようにしてもよいし、側面パネル41A,41Bの両方に設置されるようにしてもよい。
The photographing
背景部22は、背面パネル51、側面パネル52A、および側面パネル52B(図3)から構成される。背面パネル51は、正面を向いている利用者の背面側に位置する板状の部材である。側面パネル52Aは、背面パネル51の左端に取り付けられ、側面パネル41Aより横幅の狭い板状の部材である。側面パネル52Bは、背面パネル51の右端に取り付けられ、側面パネル41Bより横幅の狭い板状の部材である。
The
側面パネル41Aと側面パネル52Aは、ほぼ同一平面に設けられる。側面パネル41Aと側面パネル52Aの上部は、板状の部材である連結部23Aによって連結される。側面パネル41Aと側面パネル52Aの下部は、床面に設けた例えば金属製の部材である連結部23A’によって連結される。側面パネル41Bと側面パネル52Bも同様に、ほぼ同一平面に設けられる。側面パネル41Bと側面パネル52Bの上部は、連結部23B(図示せず)によって連結される。側面パネル41Bと側面パネル52Bの下部は、連結部23B’(図示せず)によって連結される。
The
側面パネル41A、連結部23A、および側面パネル52Aに囲まれることによって形成される開口が撮影空間の出入り口となる。また、側面パネル41B、連結部23B、および側面パネル52Bに囲まれることによって形成される開口も撮影空間の出入り口となる。
An opening formed by being surrounded by the
撮影空間の上方には、撮影部21の正面パネル42、連結部23A、および連結部23Bに囲まれた天井が形成される。その天井の一部に、天井ストロボユニット24が設けられる。天井ストロボユニット24の一端は連結部23Aに固定され、その他端は連結部23Bに固定される。天井ストロボユニット24は、撮影に合わせて撮影空間内に向けて光を照射するストロボを内蔵する。天井ストロボユニット24の内部には、ストロボの他に蛍光灯が設けられている。これにより、天井ストロボユニット24は、撮影空間の照明としても機能する。
Above the imaging space, a ceiling surrounded by the
編集ユニット12は、撮影画像に編集を施すための装置である。編集ユニット12は、一方の側面が撮影部21の正面パネル42に接するようにして、撮影ユニット11に連結している。
The
図1および図2に示される編集ユニット12の構成を正面側の構成とすると、編集ユニット12の正面側と背面側のそれぞれに、編集作業で用いられる構成が設けられる。この構成により、2組の利用者が同時に編集を行うことができる。
Assuming that the configuration of the
編集ユニット12の正面側は、面61と、面61の上方に形成された斜面62から構成される。面61は、床面に対して垂直で、撮影部21の側面パネル41Aとほぼ平行な面である。斜面62には、編集作業に用いられる構成として、タブレット内蔵モニタやタッチペンが設けられる。斜面62の左側には、照明装置64の一端を支持する柱状の支持部63Aが設けられる。斜面62の右側には、照明装置64の他端を支持する柱状の支持部63Bが設けられる。支持部63Aの上面にはカーテンレール25を支持する支持部65が設けられる。
The front side of the
編集ユニット12の上方にはカーテンレール25が取り付けられる。カーテンレール25は、3本のレール25A乃至25Cが組み合わされて構成される。3本のレール25A乃至25Cは、上から見たときの形状がコの字状となるように組み合わされる。平行に設けられるレール25Aとレール25Bの一端は、連結部23Aと連結部23Bにそれぞれ固定され、レール25Aとレール25Bの他端は、レール25Cの両端にそれぞれ接合される。
A
カーテンレール25には、編集ユニット12の正面前方の空間と背面前方の空間が外から見えないようにカーテンが取り付けられる。そのカーテンにより囲まれる編集ユニット12の正面前方の空間と背面後方の空間が、利用者が編集作業を行う編集空間となる。
A curtain is attached to the
また、後述するが、編集ユニット12の左側面には、印刷済みのシール紙が排出される排出口が設けられる。編集ユニット12の左側面前方の空間が、利用者が印刷済みのシール紙が排出されるのを待つ印刷待ち空間となる。
As will be described later, on the left side surface of the
<利用者の移動について>
ここで、写真シール作成ゲームの流れと、それに伴う利用者の移動について説明する。図3は、写真シール作成装置1を上から見た平面図である。
<About user movement>
Here, the flow of the photo sticker creation game and the accompanying movement of the user will be described. FIG. 3 is a plan view of the photo
まず、利用者は、事前選択部20の前方の空間である事前選択空間A0において硬貨投入口に代金を投入する。次に、利用者は、タッチパネルモニタに表示される画面に従って各種の選択操作を行う。利用者は、例えば、撮影空間で行われる撮影処理のコース選択や、撮影画像の背景選択を事前選択作業として行う。
First, the user inserts money into a coin insertion slot in a preselection space A0 which is a space in front of the
事前選択作業を終えた利用者は、白抜き矢印#1で示すように、側面パネル41Aと側面パネル52Aの間の出入り口G1から、撮影部21と背景部22の間に形成された撮影空間A1に入る。そして利用者は、撮影部21に設けられたカメラやタッチパネルモニタなど利用して撮影作業を行う。
The user who has completed the pre-selection work can take a photographing space A1 formed between the photographing
撮影作業を終えた利用者は、白抜き矢印#2で示すように出入り口G2から撮影空間A1を出て編集空間A2−1に移動するか、または、白抜き矢印#3で示すように出入り口G1から撮影空間A1を出て編集空間A2−2に移動する。
After completing the photographing operation, the user exits the photographing space A1 from the entrance G2 and moves to the editing space A2-1 as shown by the
編集空間A2−1は、編集ユニット12の背面側の編集空間である。一方、編集空間A2−2は、編集ユニット12の正面側の編集空間である。利用者が編集空間A2−1と編集空間A2−2のいずれの空間に移動するのかは、撮影部21のタッチパネルモニタの画面表示などによって案内される。例えば2つの編集空間のうちの空いている方が移動先として案内される。編集空間A2−1または編集空間A2−2に移動した利用者は、編集作業を開始する。編集空間A2−1の利用者と、編集空間A2−2の利用者は同時に編集作業を行うことができる。
The editing space A2-1 is an editing space on the back side of the
編集作業が終了した後、編集画像の印刷が開始される。印刷が開始されると、編集空間A2−1での編集作業を終えた利用者は、白抜き矢印#4で示すように編集空間A2−1から印刷待ち空間A3に移動する。また、編集空間A2−2での編集作業を終えた利用者は、白抜き矢印#5で示すように編集空間A2−2から印刷待ち空間A3に移動する。
After the editing work is completed, printing of the edited image is started. When printing is started, the user who has completed the editing work in the editing space A2-1 moves from the editing space A2-1 to the print waiting space A3 as indicated by the
印刷待ち空間A3に移動した利用者は、画像の印刷の終了を待つ。印刷が終了すると、利用者は、編集ユニット12の左側面に設けられた排出口から排出されたシール紙を受け取り、一連の写真シール作成ゲームを終える。
The user who has moved to the print waiting space A3 waits for the end of printing the image. When the printing is completed, the user receives the seal paper discharged from the discharge port provided on the left side surface of the
次に、各装置の構成について説明する。 Next, the configuration of each device will be described.
<事前選択部の構成>
図4は、事前選択部20の構成例を示す図である。
<Configuration of preselection unit>
FIG. 4 is a diagram illustrating a configuration example of the
事前選択部20の上側にはタッチパネルモニタ71が設けられる。タッチパネルモニタ71は、LCD(Liquid Crystal Display)などのモニタと、それに積層されたタッチパネルにより構成される。タッチパネルモニタ71は、各種のGUI(Graphical User Interface)を表示し、利用者の選択操作を受け付ける機能を備えている。タッチパネルモニタ71には、撮影処理のコース選択や、撮影画像の背景選択などを行わせる事前選択処理に用いられる画面が表示される。
A touch panel monitor 71 is provided above the
タッチパネルモニタ71の下方には、2つのスピーカ72が設けられる。2つのスピーカ72は、事前選択処理の案内音声、BGM(Back Ground Music)、効果音などを出力する。また、2つのスピーカ72に挟まれるようにして、利用者が硬貨を投入する硬貨投入返却口73が設けられる。
Below the touch panel monitor 71, two
<撮影部の構成>
図5は、撮影部21の構成例を示す図である。撮影部21は、側面パネル41A、側面パネル41B、および正面パネル42に囲まれるようにして構成される。
<Configuration of imaging unit>
FIG. 5 is a diagram illustrating a configuration example of the
正面パネル42の中央には、カメラユニット81が設けられる。カメラユニット81は、カメラ91およびタッチパネルモニタ92から構成される。
At the center of the
カメラ91は、例えば一眼レフカメラであり、レンズが露出するようにカメラユニット81の内部に取り付けられる。カメラ91はCCD(Charge Coupled Device)イメージセンサやCMOS(Complementary Metal Oxide Semiconductor)イメージセンサなどの撮像素子を有し、撮影空間A1にいる利用者を撮影する。カメラ91により取り込まれた動画像(以下、ライブビュー画像ともいう)は、タッチパネルモニタ92にリアルタイムで表示される。撮影が指示されたときなどの所定のタイミングでカメラ91により取り込まれた静止画像は、撮影画像として保存される。
The
タッチパネルモニタ92は、カメラ91の下方に設けられる。タッチパネルモニタ92は、LCDなどのモニタと、それに積層されたタッチパネルにより構成される。タッチパネルモニタ92は、カメラ91により取り込まれた動画像を表示するライブビューモニタとしての機能と、各種のGUIを表示し、利用者の選択操作を受け付ける機能を備えている。タッチパネルモニタ92には、カメラ91により取り込まれた動画像(ライブビュー画像)や静止画像(撮影画像)が表示される。
The touch panel monitor 92 is provided below the
なお、詳細は後述するが、カメラユニット81は、行われる撮影の種類によって、上下方向に可動する構造を有し、その高さが調整可能される。また、カメラ91は、仰角または俯角(以下、チルト角ともいう)が調整可能される。
Although details will be described later, the
カメラユニット81の上方には、曲面の発光面を利用者に向けた上ストロボ82が設置される。上ストロボ82は、上方から利用者の顔および上半身に光を照射する。カメラユニット81の利用者から見て左側には、前方左側から利用者に光を照射する左ストロボ83が設置される。カメラユニット81の利用者から見て右側には、前方右側から利用者に光を照射する右ストロボ84が設置される。また、カメラユニット81の下方には、利用者の下半身および足元に光を照射する足元ストロボ85が設置される。
Above the
足元ストロボ85の左右両側には空間が設けられる。これらの空間は、利用者が手荷物などを置くための荷物置き場となる。また、図示はしないが、正面パネル42の例えば天井付近にはスピーカが設けられる。そのスピーカは、撮影処理の案内音声、BGM、効果音などを出力する。
Spaces are provided on both left and right sides of the
<背景部の構成>
図6は、背景部22の撮影空間A1側の構成例を示す図である。
<Structure of background part>
FIG. 6 is a diagram illustrating a configuration example of the
背面パネル51の撮影空間A1側(図中、手前側)の面には、背面カーテン121が貼り付けられる。背面カーテン121の色は、例えば緑色とされる。また、図示はしないが、側面パネル52A,52Bそれぞれの撮影空間A1側にも、背面カーテン121と同様の側面カーテンが貼り付けられる。側面カーテンの色は、背面カーテン121の色と同一とする。
A
これらのカーテンはクロマキー用のカーテンとして用いられる。これにより、撮影画像に対してクロマキー処理を施し、利用者が所望する背景画像を、撮影画像の背景部分に合成することができる。なお、これらのカーテンの色は、クロマキー処理を行うことができる色であればよく、青色など、その他の色であってもよい。 These curtains are used as chroma key curtains. Thereby, the chroma key processing is performed on the photographed image, and the background image desired by the user can be synthesized with the background portion of the photographed image. The color of these curtains may be any color that can perform chroma key processing, and may be other colors such as blue.
<編集ユニットの構成>
図7は、編集ユニット12の正面側(編集空間A2−2側)の構成例を示す図である。
<Configuration of editing unit>
FIG. 7 is a diagram illustrating a configuration example of the front side (the editing space A2-2 side) of the
斜面62のほぼ中央には、タブレット内蔵モニタ131が設けられる。タブレット内蔵モニタ131の左側にはタッチペン132Aが設けられる。タブレット内蔵モニタ131の右側にはタッチペン132Bが設けられる。
A tablet built-in
タブレット内蔵モニタ131は、タブレットがディスプレイを露出するように設けられることによって構成される。タブレットは、タッチペン132Aまたはタッチペン132Bを用いた操作入力を可能とする。タブレット内蔵モニタ131には、例えば、編集作業に用いられる編集画面が表示される。2人の利用者が同時に編集作業を行う場合、タッチペン132Aはタブレット内蔵モニタ131に向かって左側にいる利用者により用いられ、タッチペン132Bはタブレット内蔵モニタ131に向かって右側にいる利用者により用いられる。
The tablet built-in
図8は、編集ユニット12の左側面の構成例を示す図である。
FIG. 8 is a diagram illustrating a configuration example of the left side surface of the
編集ユニット12の左側面の下側にはシール紙排出口161が設けられる。編集ユニット12の内部にはプリンタが設けられている。そのプリンタにより、編集空間A2−1の利用者が写る画像、または、編集空間A2−2の利用者が写る画像が所定のレイアウト(以下、シールレイアウトという)でシール紙に印刷され、シール紙排出口161から排出される。
A
<写真シール作成装置の内部構成>
図9は、写真シール作成装置1の内部の構成例を示すブロック図である。図9において、上述した構成と同じ構成には同じ符号を付してある。重複する説明については適宜省略する。
<Internal configuration of photo sticker creation device>
FIG. 9 is a block diagram showing an example of the internal configuration of the photo
制御部201は、CPU(Central Processing Unit)などにより構成される。制御部201は、ROM(Read Only Memory)206や記憶部202に記憶されているプログラムを実行し、写真シール作成装置1の全体の動作を制御する。制御部201には、記憶部202、通信部203、ドライブ204、ROM206、RAM(Random Access Memory)207が接続される。制御部201には、事前選択部208、撮影部209、編集部210A,210B、および印刷部211の各構成も接続される。
The
記憶部202は、ハードディスクやフラッシュメモリなどの不揮発性の記憶媒体である。記憶部202は、制御部201から供給された各種の設定情報などを記憶する。記憶部202に記憶されている情報は制御部201により適宜読み出される。
The
通信部203は、インターネットなどのネットワークのインタフェースである。通信部203は、制御部201による制御に従って外部の装置と通信を行う。通信部203は、例えば、利用者に選択された撮影画像や編集画像をサーバに送信する。通信部203から送信された画像は、サーバにおいて所定の記憶領域が割り当てられて保存され、サーバにアクセスしてきた携帯端末に表示されたり、ダウンロードされたりする。
The
ドライブ204には、光ディスクや半導体メモリなどよりなるリムーバブルメディア205が適宜装着される。ドライブ204によりリムーバブルメディア205から読み出されたプログラムやデータは、制御部201に供給され、記憶部202に記憶されたり、インストールされたりする。
In the
ROM206は、制御部201において実行されるプログラムやデータを記憶する。RAM207は、制御部201が処理するデータやプログラムを一時的に記憶する。
The
事前選択部208は、事前選択空間A0にいる利用者を対象とした事前選択処理を実現する。事前選択部208は、タッチパネルモニタ71、スピーカ72、および硬貨処理部221から構成される。
The
タッチパネルモニタ71は、制御部201による制御に従って各種の選択画面を表示し、選択画面に対する利用者の操作を受け付ける。利用者の操作の内容を表す入力信号は制御部201に供給され、各種の設定が行われる。
The touch panel monitor 71 displays various selection screens under the control of the
硬貨処理部221は、硬貨投入返却口73への硬貨の投入を検出する。硬貨処理部221は、例えば400円などの所定の金額分の硬貨が投入されたことを検出した場合、ゲームの開始を指示する起動信号を制御部201に出力する。
The
撮影部209は、撮影空間A1にいる利用者を対象とした撮影処理を実現する。撮影部209は、照明装置231、カメラ91、タッチパネルモニタ92、およびスピーカ232から構成される。
The
照明装置231は、撮影空間A1内の各ストロボであり、制御部201から供給される照明制御信号に従って発光する。
The
カメラ91は、制御部201によるシャッタ制御に従って撮影を行い、撮影によって得られた撮影画像(画像データ)を制御部201に出力する。
The
編集部210Aは、編集空間A2−1にいる利用者を対象とした編集処理を実現する。編集部210Aは、タブレット内蔵モニタ131、タッチペン132A,132B、およびスピーカ241から構成される。編集部210Bは、編集空間A2−2にいる利用者を対象とした編集処理を実現し、編集部210Aと同一の構成を有する。なお、以下、編集部210A,210Bを特に区別しない場合には、単に、編集部210という。
The
タブレット内蔵モニタ131は、制御部201による制御に従って編集画面を表示し、編集画面に対する利用者の操作を受け付ける。利用者の操作の内容を表す入力信号は制御部201に供給され、編集対象となる撮影画像が編集される。
The tablet built-in
印刷部211は、印刷待ち空間A3にいる利用者に、印刷済みのシール紙を提供する印刷処理を実現する。印刷部211は、プリンタ251を含むように構成される。プリンタ251にはシール紙ユニット252が装着される。
The
プリンタ251は、制御部201から供給された印刷データに基づいて、編集画像をシール紙ユニット252に収納されているシール紙261に印刷し、シール紙排出口161に排出する。
The printer 251 prints the edited image on the
<制御部の構成>
図10は、制御部201の機能構成例を示すブロック図である。図10に示す機能部のうちの少なくとも一部は、制御部201内のCPUにより所定のプログラムが実行されることによって実現される。
<Configuration of control unit>
FIG. 10 is a block diagram illustrating a functional configuration example of the
制御部201は、事前選択処理部301、撮影処理部302、編集処理部303、および印刷処理部304から構成される。
The
事前選択処理部301は、事前選択部208の各部を制御することで、事前選択処理を行う。撮影処理部302は、撮影部209の各部を制御することで、撮影処理を行う。編集処理部303は、編集部210の各部を制御することで、編集処理を行う。印刷処理部304は、印刷部211のプリンタ251を制御することで、印刷処理を行う。
The
<事前選択処理部の構成例>
図11は、事前選択処理部301の機能構成例を示すブロック図である。
<Configuration example of preselection processing unit>
FIG. 11 is a block diagram illustrating a functional configuration example of the
事前選択処理部301は、表示制御部311、入力受付部312、およびガイダンス出力制御部313から構成される。
The
表示制御部311は、タッチパネルモニタ71の表示を制御する。例えば、表示制御部311は、撮影空間において行われる撮影処理のコース選択のための選択画面や、撮影画像の背景選択のための選択画面をタッチパネルモニタ71に表示させる。
The
入力受付部312は、タッチパネルモニタ71に対する、利用者の操作入力を受け付ける。具体的には、入力受付部312は、タッチパネルモニタ71に表示された選択画面に対する選択の操作入力を受け付ける。
The
ガイダンス出力制御部313は、各種の選択操作を説明するガイダンスの出力を制御する。ガイダンス出力制御部313は、各種の選択操作を説明する画面をタッチパネルモニタ71に表示させたり、各種の選択操作を説明する音声をスピーカ72から出力させたりする。
The guidance output control unit 313 controls the output of guidance explaining various selection operations. The guidance output control unit 313 causes the touch panel monitor 71 to display a screen explaining various selection operations, and causes the
<撮影処理部の構成例>
図12は、撮影処理部302の機能構成例を示すブロック図である。
<Example of configuration of photographing processing unit>
FIG. 12 is a block diagram illustrating a functional configuration example of the photographing
撮影処理部302は、表示制御部321、入力受付部322、撮影制御部323、画像処理部324、およびガイダンス出力制御部325から構成される。
The photographing
表示制御部321は、タッチパネルモニタ92の表示を制御する。例えば、表示制御部321は、タッチパネルモニタ92に、カメラ91に取り込まれたライブビュー画像を表示させたり、撮影結果である撮影画像を表示させたりする。
The
入力受付部322は、タッチパネルモニタ92に対する、利用者の操作入力を受け付ける。
The
撮影制御部323は、カメラ91を制御することで、利用者を被写体として撮影し、撮影画像を生成する。
The photographing
画像処理部324は、カメラ91に取り込まれたライブビュー画像や撮影画像に所定の画像処理を施す。
The
ガイダンス出力制御部325は、撮影作業の進め方などを説明するガイダンスの出力を制御する。ガイダンス出力制御部325は、撮影作業の進め方などを説明する画面をタッチパネルモニタ92に表示させたり、撮影作業の進め方などを説明する音声をスピーカ232から出力させたりする。
The guidance output control unit 325 controls the output of guidance for explaining how to proceed with the photographing operation. The guidance output control unit 325 causes the touch panel monitor 92 to display a screen that describes how to proceed with the photographing operation, and causes the
<編集処理部の構成例>
図13は、編集処理部303の機能構成例を示すブロック図である。
<Configuration example of editing processing unit>
FIG. 13 is a block diagram illustrating a functional configuration example of the
編集処理部303は、表示制御部331、入力受付部332、画像処理部333、編集部334、ガイダンス出力制御部335、および通信制御部336から構成される。
The
表示制御部331は、タブレット内蔵モニタ131の表示を制御する。例えば、表示制御部331は、タブレット内蔵モニタ131に、撮影画像に施される画像処理の内容の選択のための選択画面や、利用者による編集作業のための編集画面を表示させる。
The
入力受付部332は、タブレット内蔵モニタ131に対する、タッチペン132A,132Bを用いた利用者の操作入力を受け付ける。例えば、入力受付部312は、選択画面に対する画像処理の内容の選択や、編集画面に対する入力を受け付ける。
The
画像処理部333は、選択画面に対する選択操作に応じて、撮影画像に所定の画像処理を施す。
The
編集部334は、編集画面に対する入力操作に応じて、撮影画像に編集を施す。
The
ガイダンス出力制御部335は、編集作業の進め方などを説明するガイダンスの出力を制御する。ガイダンス出力制御部335は、編集作業の進め方などを説明する画面をタブレット内蔵モニタ131に表示させたり、編集作業の進め方などを説明する音声をスピーカ241から出力させたりする。
The guidance
通信制御部336は、通信部203を制御し、インターネットなどのネットワークを介した通信に関する処理を行う。例えば、通信制御部336は、通信部203を制御することで、撮影処理において得られた撮影画像や、編集処理において得られた編集画像を、外部のサーバへ送信する。
The
<写真シール作成装置の動作>
ここで、図14のフローチャートを参照して、写真シール作成ゲームを提供する写真シール作成装置1の動作について説明する。
<Operation of the photo sticker creation device>
Here, the operation of the photo
ステップS1において、事前選択処理部301は、所定の金額分の硬貨が投入されたか否かを、硬貨処理部221から供給される起動信号に基づいて判定する。事前選択処理部301は、硬貨が投入されたと判定するまで待機する。
In step S <b> 1, the
ステップS1において、硬貨が投入されたと判定された場合、処理はステップS2に進む。ステップS2において、事前選択処理部301は、事前選択部208を制御することで、事前選択処理を行う。具体的には、事前選択処理部301は、撮影空間で行われる撮影処理のコース選択や、撮影画像の背景選択などを利用者に行わせることで、各種の設定を行う。
If it is determined in step S1 that a coin has been inserted, the process proceeds to step S2. In step S2, the
ステップS3において、撮影処理部302は、撮影部209を制御することで、撮影処理を行う。具体的には、撮影処理部302は、カメラ91に取り込まれた被写体のライブビュー画像をタッチパネルモニタ92に表示させ、撮影空間A1にいる利用者を被写体として撮影し、撮影画像を生成する。
In step S3, the
ステップS4において、編集処理部303は、編集空間A2−1と編集空間A2−2のうち、撮影処理を終えた利用者の移動先とした方の編集空間に対応する編集部210を制御することで、編集処理を行う。具体的には、編集処理部303は、撮影処理により得られた撮影画像に対して利用者に編集作業を行わせることで、編集が施された編集画像を生成する。
In step S4, the
ステップS5において、印刷処理部304は、プリンタ251を制御することで、印刷処理を行う(開始する)。具体的には、印刷処理部304は、編集処理により得られた編集画像を、プリンタ251に出力してシール紙に印刷する。なお、撮影処理により得られた撮影画像が、シール紙に印刷されるようにしてもよい。
In step S5, the
印刷が終了すると、ステップS6において、プリンタ251は、画像が印刷されたシール紙をシール紙排出口161に排出し、処理を終了させる。
When the printing is completed, in step S6, the printer 251 discharges the seal paper on which the image is printed to the seal
<事前選択処理の詳細>
次に、図15のフローチャートを参照して、上述した写真シール作成ゲームの一連の処理におけるステップS2の事前選択処理の詳細について説明する。
<Details of preselection process>
Next, the details of the pre-selection process of step S2 in the series of processes of the above-described photo sticker creation game will be described with reference to the flowchart of FIG.
事前選択処理が開始されると、ステップS11において、表示制御部311は、人数コース選択画面をタッチパネルモニタ71に表示させる。
When the preselection process is started, in step S11, the
人数コース選択画面は、利用者の人数に応じて行われる撮影の種類を決定する人数コースの選択に用いられる画面である。人数コースには、利用者が2人の場合に適した撮影が行われる2人用コースと、利用者が3人以上、特に4人以上の場合に適した撮影が行われる大人数コースとがある。 The number-of-person course selection screen is a screen used to select a number-of-person course that determines the type of shooting to be performed according to the number of users. The number of people course includes a two-person course where shooting is suitable for two users and a large number course where shooting is suitable for three or more, especially four or more users. is there.
人数コース選択画面が操作されることによって、入力受付部312は、人数コースの選択を受け付ける。いずれかの人数コースの選択が受け付けられると、処理はステップS12に進む。
By operating the number course selection screen, the
ステップS12において、表示制御部311は、背景コース選択画面をタッチパネルモニタ71に表示させる。
In step S12, the
背景コース選択画面は、撮影により得られる撮影画像の背景の種類を決定する背景コースの選択に用いられる画面である。背景コースには、「KUROコース」と「IROコース」とがある。「KUROコース」は、背景の色として彩度の低い黒や白を基調とした色を用意することで、撮影画像の仕上がりを洗練された落ち着いた雰囲気にするための背景コースである。「IROコース」は、背景の色として彩度の高い原色を基調とした色を用意することで、撮影画像の仕上がりを華やかな雰囲気にするための背景コースである。 The background course selection screen is a screen used to select a background course that determines the type of background of a captured image obtained by shooting. The background course includes a “KURO course” and an “IRO course”. The "KURO course" is a background course for preparing a finished image with a sophisticated and calm atmosphere by preparing a color based on low saturation black or white as the background color. The “IRO course” is a background course for preparing a captured image with a gorgeous atmosphere by preparing colors based on highly saturated primary colors as background colors.
背景コース選択画面が操作されることによって、入力受付部312は、背景コースの選択を受け付ける。このとき、ステップS11において、人数コースとして2人用コースの選択が受け付けられている場合、処理はステップS13に進む。
By operating the background course selection screen, the
ステップS13において、表示制御部311は、全身撮影枚数選択画面をタッチパネルモニタ71に表示させる。
In step S13, the
全身撮影枚数選択画面は、全身撮影により得られる撮影画像の枚数(全身撮影が行われる回数)の選択に用いられる画面である。 The whole body photographing number selection screen is a screen used for selecting the number of photographed images obtained by the whole body photographing (the number of times the whole body photographing is performed).
本実施の形態の撮影処理においては、合計6回の撮影が行われる。詳細は後述するが、そのうちの6回目の撮影は、利用者が所有する携帯端末に送信するためだけの携帯送信専用の画像を得るための撮影(以下、適宜、携帯専用撮影という)とされる。一方、1乃至5回目の撮影により得られる撮影画像は、編集処理の対象とされてシール紙に印刷されることはもちろん、携帯端末に送信される対象にもなり得る。 In the photographing process of the present embodiment, a total of six times of photographing are performed. Although the details will be described later, the sixth shooting is an imaging for obtaining an image dedicated to mobile transmission only for transmission to a mobile terminal owned by the user (hereinafter, appropriately referred to as mobile-only imaging). . On the other hand, the captured image obtained by the first to fifth captures is not only the target of the editing process and is printed on the sticker paper but also the target transmitted to the mobile terminal.
全身撮影枚数選択画面においては、その1乃至5回目の撮影のうち、全身撮影が行われる回数が利用者により選択される。1乃至5回目の撮影のうち、全身撮影が行われる回数として4回以下の回数が選択された場合、全身撮影以外の残りの撮影として、アップ撮影が行われる。また、全身撮影が行われる回数として5回が選択された場合、全身撮影のみが行われ、アップ撮影は行われないようになる。 On the whole body photographing number selection screen, the number of times the whole body photographing is performed is selected by the user from the first to fifth photographings. When four or less times are selected as the number of times of performing the whole-body imaging from the first to fifth times, the up imaging is performed as the remaining imaging other than the whole-body imaging. Also, when five times are selected as the number of times the whole-body imaging is performed, only the whole-body imaging is performed and the up-photographing is not performed.
ここで、全身撮影は、利用者の全身を撮影するための撮影とされ、アップ撮影は、主に利用者の顔および上半身を撮影するための撮影とされる。そして、全身撮影には、利用者の全身を利用者の正面から撮影する正面全身撮影と、利用者の全身を利用者の斜め上から撮影する上から全身撮影の2種類がある。すなわち、全身撮影には、異なる撮影アングルで行われる2種類の全身撮影がある。 Here, the whole body photographing is taken for photographing the whole body of the user, and the close-up photographing is mainly taken for photographing the face and upper body of the user. There are two types of whole-body imaging: frontal full-body imaging where the whole body of the user is imaged from the front of the user, and full-body imaging where the whole body of the user is imaged from obliquely above the user. That is, there are two types of whole-body imaging performed at different imaging angles in full-body imaging.
全身撮影枚数選択画面が操作されることによって、入力受付部312は、全身撮影の回数の選択を受け付ける。いずれかの回数の選択が受け付けられると、処理はステップS14に進む。
By operating the whole body imaging number selection screen, the
ステップS14において、表示制御部311は、全身撮影種類選択画面をタッチパネルモニタ71に表示させる。
In step S14, the
全身撮影種類選択画面は、全身撮影枚数選択画面において選択された回数だけ行われる全身撮影の種類の選択に用いられる画面である。全身撮影の種類には、上述した正面全身撮影と上から全身撮影とがある。 The whole body imaging type selection screen is a screen used for selecting the type of the whole body imaging to be performed the number of times selected in the whole body imaging number selection screen. The types of whole-body imaging include the above-described full-body imaging from the front and the whole-body imaging from above.
全身撮影種類選択画面が操作されることによって、入力受付部312は、行われる全身撮影それぞれの種類の選択を受け付ける。行われる全身撮影それぞれの種類の選択が受け付けられると、処理はステップS15に進む。
By operating the whole body imaging type selection screen, the
一方、ステップS12の後、ステップS11において、人数コースとして大人数コースの選択が受け付けられている場合、ステップS13,S14はスキップされ、処理はステップS15に進む。 On the other hand, after step S12, in step S11, when the selection of the large number course is accepted as the number course, steps S13 and S14 are skipped, and the process proceeds to step S15.
ステップS15において、表示制御部311は、背景選択画面をタッチパネルモニタ71に表示させる。
In step S15, the
背景選択画面は、撮影により得られる撮影画像の背景となる背景画像の選択に用いられる画面である。背景選択画面には、ステップS12において選択された背景コースに対応した背景画像が複数枚表示される。利用者は、その複数枚の背景画像の中から、撮影処理において行われる撮影により得られる撮影画像の枚数と同じ数、すなわち5枚の背景画像を選択することができる。 The background selection screen is a screen used for selecting a background image that is a background of a captured image obtained by shooting. On the background selection screen, a plurality of background images corresponding to the background course selected in step S12 are displayed. The user can select, from the plurality of background images, the same number as the number of captured images obtained by the imaging performed in the imaging processing, that is, five background images.
背景選択画面が操作されることによって、入力受付部312は、背景画像の選択を受け付ける。5枚の背景画像の選択が受け付けられると、処理はステップS16に進む。
By operating the background selection screen, the
ステップS16において、表示制御部311は、BGM選択画面をタッチパネルモニタ71に表示させる。
In step S16, the
BGM選択画面は、撮影空間において流れるBGMの選択に用いられる画面である。BGM選択画面には、BGMの候補を表すボタンが設けられ、利用者は、その中から、いずれかのボタンを選択することができる。 The BGM selection screen is a screen used for selecting BGM flowing in the shooting space. The BGM selection screen is provided with buttons representing BGM candidates, and the user can select any one of the buttons.
BGM選択画面が操作されることによって、入力受付部312は、BGMの選択を受け付ける。BGMの選択が受け付けられると、処理はステップS17に進む。
By operating the BGM selection screen, the
ステップS17において、表示制御部311は、携帯専用画像選択画面をタッチパネルモニタ71に表示させる。
In step S17, the
携帯専用画像選択画面は、6回目の撮影(携帯専用撮影)により取得される撮影画像に合成するデザイン画像の選択に用いられる画面である。デザイン画像は、複数の背景画像や前景画像が組み合わされて構成される画像である。デザイン画像は、その合成後の撮影画像を、携帯端末での表示に相応しい、綺麗で繊細なデザインを有するものとするための画像である。すなわち、デザイン画像が撮影画像に合成されることで、その撮影画像の仕上がりはデザイン性の高いものとなる。 The mobile-only image selection screen is a screen used to select a design image to be synthesized with a captured image obtained by the sixth shooting (mobile-only shooting). The design image is an image configured by combining a plurality of background images and foreground images. The design image is an image for making the captured image after the synthesis have a beautiful and delicate design suitable for display on a mobile terminal. That is, by combining the design image with the photographed image, the finish of the photographed image has high designability.
携帯専用画像選択画面が操作されることによって、入力受付部312は、デザイン画像の選択を受け付ける。デザイン画像の選択が受け付けられると、処理はステップS18に進む。
By operating the mobile-only image selection screen, the
ステップS18において、ガイダンス出力制御部313は、事前選択空間A0にいる利用者に対して、撮影空間A1への移動を案内する。撮影空間A1への移動の案内は、タッチパネルモニタ71に案内画面を表示させることによって、または音声をスピーカ72から出力させることによって行われる。
In step S18, the guidance output control unit 313 guides the user in the pre-selected space A0 to move to the shooting space A1. The guidance of the movement to the photographing space A1 is performed by displaying a guidance screen on the touch panel monitor 71 or outputting sound from the
<撮影処理の詳細>
次に、図16のフローチャートを参照して、上述した写真シール作成ゲームの一連の処理におけるステップS3の撮影処理の詳細について説明する。
<Details of shooting processing>
Next, with reference to the flowchart of FIG. 16, the details of the photographing process of step S3 in the series of processes of the above-described photo sticker creation game will be described.
撮影処理が開始されると、ガイダンス出力制御部325が、撮影の仕方を説明する画面をタッチパネルモニタ92に表示させる。その後、ライブビュー画像がタッチパネルモニタ92に表示された状態で撮影のタイミングになったとき、ステップS31において、撮影制御部323は、1回目の撮影を行う。表示制御部321は、撮影によって得られた静止画像である撮影画像をタッチパネルモニタ92に表示させる。利用者は、1回目の撮影結果を確認しながら、次の撮影の準備を行うことができる。
When the photographing process is started, the guidance output control unit 325 causes the touch panel monitor 92 to display a screen explaining how to photograph. Thereafter, when it is time to shoot while the live view image is displayed on the touch panel monitor 92, the
その後、2回目以降の撮影が行われる。すなわち、2回目の撮影タイミングになったとき、ステップS32において、撮影制御部323は、2回目の撮影を行う。
Thereafter, the second and subsequent shootings are performed. That is, when the second shooting timing comes, in step S32, the
同様にして、ステップS33乃至S35において、撮影制御部323は、それぞれ3乃至5回目の撮影を行う。
Similarly, in steps S33 to S35, the
なお、このようにして5回行われる撮影は、事前選択処理において選択された人数コースによって異なる。 Note that the shooting performed five times in this manner differs depending on the number of courses selected in the preselection process.
具体的には、事前選択処理において、人数コースとして2人用コースが選択されている場合には、5回行われる撮影のうち、利用者に選択された回数、利用者に選択された種類の全身撮影が行われ、全身撮影以外の残りの撮影としてアップ撮影が行われる。 Specifically, in the pre-selection processing, when the two-person course is selected as the number course, the number of times selected by the user and the type of the type selected by the user among the five shootings are performed. Full-body photography is performed, and up-photography is performed as the remaining photography other than full-body photography.
なお、アップ撮影、正面全身撮影、および上から全身撮影のそれぞれにおいて、カメラユニット81の高さ、および、カメラ91のチルト角が、撮影制御部323によって制御される。
Note that the height of the
具体的には、正面全身撮影が行われるときのカメラユニット81の高さ(以下、カメラ高さという)およびカメラ91のチルト角(カメラ91のレンズの光軸が水平方向にある状態)をデフォルトの状態とすると、アップ撮影が行われるときには、カメラユニット81がデフォルトの状態より所定距離だけ上方向に移動するようにカメラ高さが調整され、カメラ91がデフォルトの状態より所定角度だけ前傾するようにチルト角が調整される。また、上から全身撮影が行われるときには、カメラユニット81がアップ撮影時と同じ距離だけ上方向に移動するようにカメラ高さが調整され、カメラ91がアップ撮影時よりも前傾するようにチルト角が調整される。
More specifically, the height of the camera unit 81 (hereinafter, referred to as camera height) and the tilt angle of the camera 91 (the state in which the optical axis of the lens of the
また、アップ撮影、正面全身撮影、および上から全身撮影のそれぞれが行われるときには、カメラ高さおよびチルト角が制御されるだけではなく、ガイダンス出力制御部325により出力されるガイダンスにより、利用者の立ち位置も変更される。 In addition, when each of the up shooting, the frontal whole body shooting, and the whole body shooting from the top is performed, not only the camera height and the tilt angle are controlled, but also the guidance output by the guidance output control unit 325, the user's guidance is given. The standing position is also changed.
例えば、撮影空間の床面には、カメラ91から最も近い立ち位置、2番目に近い立ち位置、最も遠い立ち位置の、3つの立ち位置を示すラベルが貼付してある。アップ撮影が行われるときには、利用者に対して、カメラ91から最も近い立ち位置に立つように指示するガイダンスが出力される。上から全身撮影が行われるときには、利用者に対して、カメラ91から2番目に近い立ち位置に立つように指示するガイダンスが出力される。また、正面全身撮影が行われるときには、利用者に対して、カメラ91から最も遠い立ち位置に立つように指示するガイダンスが出力される。
For example, labels indicating three standing positions, that is, a standing position closest to the
このようにして、ステップS31乃至S35において、5回の撮影が終わった後、ステップS36において、撮影制御部323は、携帯専用撮影を行う。
In this way, after five shootings are completed in steps S31 to S35, in step S36, the
携帯専用撮影により得られる撮影画像(携帯専用画像)は、例えば、利用者により選択された、所定の質感や色のレイヤ画像を重畳する加工が施され、縦横比が1:1となるようにトリミングされる。このようにして得られる撮影画像は、主に、SNS(Social Networking Service)やミニブログ、ブログのサービスなどのサイトに投稿するための画像として用いられる。 A captured image (mobile-only image) obtained by mobile-only shooting is subjected to, for example, a process of superimposing a layer image of a predetermined texture and color selected by a user so that the aspect ratio is 1: 1. Trimmed. The captured image obtained in this manner is mainly used as an image to be posted on sites such as a social networking service (SNS), a mini blog, and a blog service.
なお、事前選択処理において、人数コースとして大人数コースが選択されている場合、ステップS36はスキップされる。 It should be noted that, in the pre-selection process, when the large number course is selected as the number course, step S36 is skipped.
ステップS36の後、ステップS37において、ガイダンス出力制御部325は、撮影を終えた利用者に対して、編集空間A2−1または編集空間A2−2への移動を案内する。編集空間A2−1または編集空間A2−2への移動の案内は、タッチパネルモニタ92に案内画面を表示させることによって、または音声をスピーカ232から出力させることによって行われる。
After step S36, in step S37, the guidance output control unit 325 guides the user who has finished shooting to move to the editing space A2-1 or the editing space A2-2. The guidance of the movement to the editing space A2-1 or the editing space A2-2 is performed by displaying a guidance screen on the touch panel monitor 92 or outputting sound from the
<編集処理の詳細>
次に、図17のフローチャートを参照して、上述した写真シール作成ゲームの一連の処理におけるステップS4の編集処理の詳細について説明する。
<Details of editing process>
Next, the details of the editing process in step S4 in the series of processes of the photo sticker creation game described above will be described with reference to the flowchart in FIG.
ステップS51において、表示制御部331は、目・明るさ選択画面をタブレット内蔵モニタ131に表示させる。
In step S51, the
目・明るさ選択画面は、撮影画像における人物(利用者)の目の大きさおよび肌の明るさの選択に用いられる画面である。 The eye / brightness selection screen is a screen used to select the size of eyes and skin brightness of a person (user) in a captured image.
目・明るさ選択画面が操作されることによって、入力受付部332は、目の大きさおよび肌の明るさの選択を受け付ける。画像処理部333は、選択された目の大きさおよび肌の明るさに応じて、撮影画像における利用者の目の大きさおよび肌の明るさを調整する。
By operating the eye / brightness selection screen, the
ステップS52において、表示制御部331は、名前入力画面をタブレット内蔵モニタ131に表示させる。
In step S52, the
名前入力画面は、利用者による名前の入力に用いられる画面である。 The name input screen is a screen used by the user to input a name.
名前入力画面が操作されることによって、入力受付部332は、利用者それぞれの名前の入力を受け付ける。入力された利用者の名前は、例えば、後述する編集作業に用いられるスタンプ画像の一部として、利用者に提供される。
By operating the name input screen, the
名前入力画面において名前の入力が終了されると、ガイダンス出力制御部335が、表示制御部331を制御し、編集の仕方を説明する画面をタブレット内蔵モニタ131に表示させる。そして、ステップS53において、表示制御部331は、編集画面をタブレット内蔵モニタ131に表示させる。
When the input of the name on the name input screen is completed, the guidance
ステップS54において、入力受付部332は、編集部210の各部を制御して、利用者による撮影画像に対する編集作業を受け付ける。編集部334は、撮影画像に対する編集を行う。
In step S54, the
編集作業が終了すると、ステップS55において、表示制御部331は、タブレット内蔵モニタ131に分割数選択画面を表示させる。入力受付部332は、利用者からの指示を受け付けることで、利用者にシール紙の分割数を選択させる。本実施の形態においては、5回行われた撮影画像それぞれのサイズの組み合わせに応じて、シールレイアウト(シールレイアウト画像)が決定される。
When the editing operation is completed, in step S55, the
シールレイアウトを表す情報は、印刷処理部304に供給される。印刷処理部304は、この情報を用いて、利用者に選択された分割数で分割されたシール紙の各領域に、撮影画像または編集済み画像が配置されたシールレイアウト画像をシール紙に印刷する。
Information indicating the seal layout is supplied to the
ステップS56において、表示制御部331は、タブレット内蔵モニタ131に携帯送信用画像選択画面を表示させる。入力受付部332は、利用者からの指示を受け付けることで、利用者に、携帯送信用画像として例えば1枚の撮影画像を選択させる。ここで、撮影画像に限らず、携帯送信用画像として編集済み画像が選択されるようにしてもよい。また、携帯送信用画像として選択される画像は、1枚に限らず、2枚以上であってもよい。
In step S56, the
ステップS57において、表示制御部331は、タブレット内蔵モニタ131にメールアドレス入力画面を表示させる。入力受付部332は、利用者の所有する携帯端末のメールアドレスの入力を受け付ける。
In step S57, the
その後、所定の時間が経過したか、または終了ボタンが操作されると、処理はステップS58に進む。ステップS58において、通信制御部336は、通信部203を制御し、インターネットなどのネットワークを介して、利用者により選択された携帯送信用画像を、利用者により入力されたメールアドレスとともに、例えば写真シール作成装置1の製造メーカが管理するサーバに送信する。
Thereafter, when a predetermined time has elapsed or the end button is operated, the process proceeds to step S58. In step S58, the
なお、人数コースとして2人用コースが選択されている場合、携帯専用撮影により得られた携帯専用画像もまた、携帯送信用画像として、上述したサーバに送信される。 When the two-person course is selected as the number-of-persons course, the mobile-only image obtained by the mobile-only shooting is also transmitted to the server as the mobile transmission image.
サーバは、利用者により入力されたメールアドレス宛てに、携帯端末がサーバにアクセスするのに必要なURLが記載されたメールを送信する。そして、利用者が所有する携帯端末が、そのURLに基づいてネットワークを介してサーバにアクセスすることで、サーバに送信された携帯送信用画像が携帯端末に提供される。 The server sends an e-mail to the e-mail address entered by the user, in which a URL necessary for the mobile terminal to access the server is described. Then, the mobile terminal owned by the user accesses the server via the network based on the URL, whereby the mobile transmission image transmitted to the server is provided to the mobile terminal.
さて、ステップS59において、ガイダンス出力制御部335は、編集を終えた利用者に対して、印刷待ち空間A3への移動を案内する。印刷待ち空間A3への移動の案内は、タブレット内蔵モニタ131に案内画面を表示させることによって、または音声をスピーカ241から出力させることによって行われる。
By the way, in step S59, the guidance
<編集画面の例>
ここで、図18を参照して、図17のステップS53において表示される編集画面の例について説明する。
<Example of edit screen>
Here, an example of the editing screen displayed in step S53 of FIG. 17 will be described with reference to FIG.
図18に示されるように、編集画面は、基本的に、主な構成が左右対称に設けられることによって構成される。左半分の領域は、タブレット内蔵モニタ131に向かって左側にいる利用者により用いられる領域である。右半分の領域は、タブレット内蔵モニタ131に向かって右側にいる利用者により用いられる領域である。このような編集画面の構成により、主に2人の利用者が同時に編集作業を行うことができる。
As shown in FIG. 18, the editing screen is basically configured by providing main components symmetrically. The left half area is an area used by a user on the left side of the tablet built-in
以下、編集画面の左半分の領域について説明する。 Hereinafter, the left half area of the editing screen will be described.
左半分の領域の左上側には、サムネイル画像表示領域411Lが設けられる。サムネイル画像表示領域411Lは、撮影画像を表すサムネイル画像の表示領域である。利用者は、サムネイル画像表示領域411Lに表示されているサムネイル画像を選択することによって、編集対象とする撮影画像を選択することができる。
A thumbnail
左半分の領域の左側中央には、編集領域412Lが設けられる。編集領域412Lは、編集対象として選択された撮影画像の表示領域である。利用者は、タッチペン132Aを用いて編集ツールを選択し、編集領域412Lに表示された撮影画像に対する編集作業を行う。
An
編集領域412Lの右方には、編集パレット表示領域413Lが設けられる。編集パレット表示領域413Lは、スタンプ画像などの各種の編集ツール(合成用画像)の選択に用いられる編集パレットの表示領域である。編集パレットには、複数の合成用画像が表示される。編集パレットに表示される合成用画像はカテゴリ毎に分かれており、それぞれのカテゴリ名が付されたタブが選択されることで、編集パレットに表示される合成用画像が切り替わる。
An editing
利用者は、タッチペン132Aを用いて編集パレットから選択したスタンプ画像などを、編集領域412L上の所定の位置へ重畳することで、編集対象となる撮影画像に対する合成用画像の合成(落書き)を行うことができる。
The user superimposes a stamp image or the like selected from the editing palette using the
編集パレット表示領域413Lの上方には、一発落書きボタン414Lおよび携帯おまけボタン415Lが設けられる。
Above the editing
一発落書きボタン414L、一発落書きを行うときに操作されるボタンである。一発落書きは、あらかじめ設定された内容の落書きを、1回の操作で行わせる機能である。一発落書きボタン414Lが操作されることにより、あらかじめ決められた複数の合成用画像が一括して撮影画像に合成されるようになる。これにより、落書きに慣れていない利用者でも、落書きを簡単に済ませることができる。
One
携帯おまけボタン415Lは、携帯おまけの作成を行うときに操作されるボタンである。携帯おまけは、携帯端末の待ち受け画像や、メールに添付されたり、ブログを含むSNS(Social Networking Service)にアップロードされたりする画像等、携帯端末上で用いられることを前提とした画像である。作成された携帯おまけは、携帯送信用画像としてサーバに送信される。
The
<オーラ画像について>
ところで、編集パレットに表示されるスタンプ画像の1つに、オーラ画像がある。
<About Aura Image>
By the way, an aura image is one of the stamp images displayed on the editing palette.
オーラ画像は、撮影画像に写る被写体(利用者)を装飾する装飾画像である。オーラ画像は、文字、図形、または所定の色が配された画像であり、撮影画像に写る被写体(利用者)の領域に沿った領域に合成される。編集パレットにおいて、スタンプ画像としてオーラ画像が選択されると、撮影画像に写る利用者の輪郭から外側に向かって所定幅の領域に、複数の文字や図形がその輪郭に沿って連続的に合成されたり、所定の色が付される。 The aura image is a decoration image for decorating a subject (user) shown in the captured image. The aura image is an image in which characters, figures, or predetermined colors are arranged, and is synthesized with an area along the area of the subject (user) in the captured image. When an aura image is selected as a stamp image in the editing palette, a plurality of characters and figures are continuously synthesized along the outline in a region of a predetermined width outward from the outline of the user in the photographed image. Or a predetermined color.
ここで、3人以上の利用者が写る撮影画像において、利用者毎にオーラ画像が合成された場合、利用者同士の間にオーラ画像が合成されると、画像の見た目が煩雑になるおそれがある。 Here, when an aura image is synthesized for each user in a captured image in which three or more users appear, if the aura images are synthesized between users, the appearance of the image may be complicated. is there.
そこで、本実施の形態においては、複数の利用者が写る撮影画像において、利用者同士の間にオーラ画像が合成されないようにする。 Therefore, in the present embodiment, an aura image is prevented from being synthesized between users in a captured image in which a plurality of users are captured.
図19は、オーラ画像が合成された撮影画像の例を示している。 FIG. 19 illustrates an example of a captured image in which an aura image is combined.
図19に示される撮影画像431には、2人の利用者U1,U2の全身が写っている。すなわち、撮影画像431は、全身撮影により得られた撮影画像である。また、撮影画像431において、利用者U1,U2全体の領域に沿った上側、右側、および左側の領域には、複数のアルファベットが配されたオーラ画像431aが合成されている。但し、このオーラ画像431aは、利用者U1,U2同士の間の領域には合成されない。
The photographed
このように、利用者同士の間にオーラ画像が合成されないので、画像の見た目が煩雑にならず、画像の見た目の印象は良いものとなる。 As described above, since the aura images are not synthesized between the users, the appearance of the images does not become complicated, and the impression of the appearance of the images becomes good.
<オーラ画像合成処理の例1>
ここで、図20のフローチャートを参照して、図19に示されるようなオーラ画像の合成処理について説明する。図20のオーラ画像合成処理は、タッチペン132A(132B)を用いて、編集パレットにおいてオーラ画像を示すアイコンが選択され、編集領域412L(412R)上の所定の領域が押下されると開始される。
<Example 1 of aura image synthesis processing>
Here, with reference to the flow chart of FIG. 20, the process of synthesizing an aura image as shown in FIG. 19 will be described. 20 is started when an icon indicating an aura image is selected on the editing palette using the
ステップS71において、画像処理部333は、オーラ画像が合成される人物領域を決定する。ここでいう人物領域は、撮影画像に写る複数の利用者全体の領域である。
In step S71, the
図21は、図19の撮影画像431における利用者U1,U2の領域と、利用者U1,U2の領域以外の領域とを2値化したマスク画像である。マスク画像432において、白色(白画素)の領域W1,W2は、撮影画像431における利用者U1,U2の領域に対応する。また、マスク画像432において、黒色(黒画素)の領域Bは、撮影画像431における利用者U1,U2の領域以外の領域に対応する。
FIG. 21 is a mask image obtained by binarizing an area of the users U1 and U2 and an area other than the areas of the users U1 and U2 in the captured
まず、画像処理部333は、マスク画像432において、横方向に並ぶ画素で、かつ、領域W1,W2と領域Bとの境界にある画素のうち、最も外側にある白画素(以下、輪郭画素という)を探索する。なお、ここでいう横方向は、撮影画像に写る被写体の高さ方向に直交する方向ということもできる。
First, the
具体的には、図21の矢印で示されるように、画像処理部333は、マスク画像432の1画素行毎に、左端の黒画素から領域W1,W2の白画素を探索するとともに、右端の黒画素から領域W1,W2の白画素を探索する。画像処理部333は、この処理を、マスク画像432の最も上の画素行から最も下の画素行まで行う。
Specifically, as indicated by the arrow in FIG. 21, the
そして、画像処理部333は、図22に示されるように、全ての画素行について探索された輪郭画素より内側の画素領域を、白画素の領域W3とする。すなわち、撮影画像431において、マスク画像433の領域W3に対応する領域が、人物領域に決定される。
Then, as illustrated in FIG. 22, the
なお、マスク画像432において、縦方向(撮影画像に写る被写体の高さ方向)に並ぶ画素で、かつ、領域W1,W2と領域Bとの境界にある画素のうち、最も外側にある白画素を探索することで、輪郭画素が探索されるようにしてもよい。
In the
図20のフローチャートに戻り、ステップS72において、画像処理部333は、人物領域を囲む領域(人物領域に沿った領域)にオーラ画像を合成する。
Returning to the flowchart of FIG. 20, in step S72, the
人物領域を囲む領域、すなわちオーラ画像が合成される合成領域は、例えば、人物領域を拡大および/または移動することによって設定される。図23に示されるマスク画像434には、人物領域に対応する領域W3を囲む上側、右側、および左側に合成領域Rが設定されている。
The area surrounding the person area, that is, the synthesis area where the aura image is synthesized is set by, for example, enlarging and / or moving the person area. In the
まず、領域W3の輪郭画素を、領域W3の中心(重心)点から遠ざかる方向に所定距離だけ移動させた領域を設定する。この領域は、領域W3を上下左右方向に拡大した領域となる。次に、この領域を所定距離だけ上方向に移動させる。この移動後の領域から領域W3を除いた領域が、合成領域Rとなる。そして、画像処理部333は、撮影画像431において合成領域Rに対応する領域に、オーラ画像を合成する。
First, an area is set by moving the contour pixels of the area W3 by a predetermined distance in a direction away from the center (center of gravity) of the area W3. This region is a region obtained by expanding the region W3 in the up, down, left, and right directions. Next, this area is moved upward by a predetermined distance. The area obtained by removing the area W3 from the area after the movement becomes the composite area R. Then, the
このようにして、図19に示される撮影画像431が得られる。
Thus, the photographed
なお、領域W3を移動・拡大させる方向や距離は、上述したものに限られない。例えば、領域W3を移動・拡大させる方向や距離は、事前選択処理において選択された各種のコース毎、撮影画像毎、撮影画像に写る利用者毎で異なる値に決まるようにしてもよい。例えば、後述するように、領域W3を移動・拡大させる方向や距離が、人数コース(利用者の人数)によって決まるようにしてもよい。これにより、オーラ画像が合成される合成領域を多様な形状にすることができる。 Note that the direction and distance for moving and expanding the area W3 are not limited to those described above. For example, the direction and the distance in which the region W3 is moved / enlarged may be determined to be different values for each of the various courses selected in the preselection processing, for each of the captured images, and for each of the users who appear in the captured images. For example, as described later, the direction and the distance in which the area W3 is moved / enlarged may be determined by the number of courses (the number of users). Thereby, the synthesis area in which the aura image is synthesized can be formed into various shapes.
図20のフローチャートに戻り、ステップS73において、表示制御部331は、編集画面の編集領域412L(412R)に、オーラ画像が合成された撮影画像を表示させる。
Returning to the flowchart of FIG. 20, in step S73, the
以上の処理によれば、利用者同士の間にオーラ画像が合成されないので、画像の見た目が煩雑にならず、画像の見た目の印象を良くすることが可能となる。 According to the above processing, since the aura image is not synthesized between the users, the appearance of the image does not become complicated, and the impression of the appearance of the image can be improved.
上述した例では、撮影画像に写る利用者が2人であったが、3人以上であってももちろんよい。 In the above-described example, two users appear in the captured image. However, three or more users may be used.
例えば、図24に示される撮影画像441には、3人の利用者U1,U2,U3の全身が写っている。撮影画像441において、利用者U1,U2,U3全体の領域に沿った上側、右側、および左側の領域には、複数のアルファベットが配されたオーラ画像441aが合成されている。但し、このオーラ画像441aは、利用者U1,U3同士および利用者U2,U3同士の間の領域には合成されない。
For example, the photographed
このように、上述した処理によれば、3人以上の利用者が写る撮影画像についても、その見た目が煩雑にならず、その見た目の印象を良くすることができる。 As described above, according to the above-described processing, the appearance of a captured image in which three or more users are captured is not complicated, and the appearance of the image can be improved.
図25は、オーラ画像が合成された撮影画像の他の例を示している。 FIG. 25 illustrates another example of a captured image in which an aura image is combined.
図25に示される撮影画像451には、2人の利用者U1,U2の全身が写っている。すなわち、撮影画像451もまた、全身撮影により得られた撮影画像である。また、撮影画像451において、利用者U1の領域に沿った左側(すなわち、利用者U2が隣接しない側)の領域には、複数のアルファベットが配されたオーラ画像451aが合成されている。さらに、撮影画像451において、利用者U2の領域に沿った右側(すなわち、利用者U1が隣接しない側)の領域には、複数のアルファベットが配されたオーラ画像451bが合成されている。これらのオーラ画像451a,451bは、利用者U1,U2同士の間の領域には合成されない。
The photographed
このように、利用者同士の間にオーラ画像が合成されないので、画像の見た目が煩雑にならず、画像の見た目の印象は良いものとなる。 As described above, since the aura images are not synthesized between the users, the appearance of the images does not become complicated, and the impression of the appearance of the images becomes good.
<オーラ画像合成処理の例2>
ここで、図26のフローチャートを参照して、図25に示されるようなオーラ画像の合成処理について説明する。図26のオーラ画像合成処理もまた、タッチペン132A(132B)を用いて、編集パレットにおいてオーラ画像を示すアイコンが選択され、編集領域412L(412R)上の所定の領域が押下されると開始される。
<Example 2 of aura image synthesis processing>
Here, with reference to the flow chart of FIG. 26, the process of synthesizing an aura image as shown in FIG. 25 will be described. 26 is also started when the icon indicating the aura image is selected on the editing palette using the
ステップS81において、画像処理部333は、編集領域412L(412R)に表示されている撮影画像に対して顔認識を行う。
In step S81, the
ステップS82において、画像処理部333は、顔認識の結果に基づいて、外側の人物領域を特定する。ここでいう人物領域は、撮影画像に写る複数の利用者それぞれの領域である。すなわち、画像処理部333は、顔認識の結果に基づいて、人物領域のうち、他の利用者が横方向の両側に隣接しない人物領域を特定する。なお、ここでいう横方向は、撮影画像に写る被写体の高さ方向に直交する方向である。
In step S82, the
例えば、図25の撮影画像451のように、撮影画像に2人の利用者が横に並んで写っている場合、いずれの利用者も他の利用者が横方向の両側に隣接しない。したがって、撮影画像における2人の利用者の領域それぞれが、外側の人物領域となる。
For example, when two users appear side by side in a captured image as in a captured
また、撮影画像に3人の利用者が横に並んで写っている場合、中央の利用者は他の利用者が横方向の両側に隣接する一方、両端の利用者は他の利用者が横方向の両側に隣接しない。したがって、この場合、撮影画像における両端2人の利用者の領域それぞれが、外側の人物領域となる。さらに、例えば、3人の利用者のうち、2人が前列に、1人が後列に位置するように並んで写っている場合には、いずれの利用者も他の利用者が横方向の両側に隣接しない。したがって、撮影画像における2人の利用者の領域それぞれが、外側の人物領域となる。 Also, when three users appear side by side in the captured image, the center user is adjacent to other users on both sides in the horizontal direction, while the users at both ends are sideways by other users. Not adjacent to both sides of the direction. Therefore, in this case, the areas of the two users at both ends in the captured image are the outer person areas. Further, for example, if two of the three users are located side by side in the front row and one is located in the back row, then all of the users are located on both sides in the horizontal direction. Not adjacent to Therefore, each of the two user areas in the captured image is an outer person area.
なお、人物領域の特定は、利用者の領域と、利用者の領域以外の領域とを2値化したマスク画像を用いて行われる。 Note that the identification of the person area is performed using a mask image obtained by binarizing the user area and an area other than the user area.
ステップS83において、画像処理部333は、外側の人物領域を囲む領域(外側の人物領域に沿った領域)の一部にオーラ画像を合成する。
In step S83, the
人物領域を囲む領域の一部、すなわちオーラ画像が合成される合成領域は、例えば、人物領域を拡大および/または移動することによって設定される。図27に示されるマスク画像452には、外側の人物領域のうち、左側の人物領域に対応する領域W1の左側(すなわち、利用者U2が隣接しない側)に領域R1が設定され、右側の人物領域に対応する領域W2の右側(すなわち、利用者U1が隣接しない側)に領域R2が設定されている。
A part of the region surrounding the person region, that is, the combination region where the aura image is combined is set by, for example, enlarging and / or moving the person region. In the
まず、領域W1と同一の領域を設定する。次に、この領域を所定距離だけ左方向(隣接する利用者のいない方向)に移動させる。この移動後の領域から領域W1を除いた領域が領域R1となる。同様に、領域W2と同一の領域を設定する。次に、この領域を所定距離だけ右方向(隣接する利用者のいない方向)に移動させる。この移動後の領域から領域W2を除いた領域が、領域R2となる。そして、画像処理部333は、撮影画像431において領域R1,R2に対応する領域に、オーラ画像を合成する。
First, the same area as the area W1 is set. Next, this area is moved to the left by a predetermined distance (a direction in which there is no adjacent user). A region excluding the region W1 from the region after the movement becomes a region R1. Similarly, the same area as the area W2 is set. Next, this region is moved to the right by a predetermined distance (a direction in which there is no adjacent user). An area excluding the area W2 from the area after the movement becomes an area R2. Then, the
このようにして、図25に示される撮影画像451が得られる。
Thus, a captured
なお、領域W1,W2を移動させる距離は、上述したものに限られない。さらに、領域W1,W2の移動に加え、領域W1,W2の拡大が行われるようにしてもよい。これにより、オーラ画像が合成される合成領域を多様な形状にすることができる。 Note that the distance by which the regions W1 and W2 are moved is not limited to the above. Furthermore, in addition to the movement of the areas W1 and W2, the areas W1 and W2 may be enlarged. Thereby, the synthesis area in which the aura image is synthesized can be formed into various shapes.
図26のフローチャートに戻り、ステップS84において、表示制御部331は、編集画面の編集領域412L(412R)に、オーラ画像が合成された撮影画像を表示させる。
Returning to the flowchart of FIG. 26, in step S84, the
以上の処理によれば、利用者同士の間にオーラ画像が合成されないので、画像の見た目が煩雑にならず、画像の見た目の印象を良くすることが可能となる。 According to the above processing, since the aura image is not synthesized between the users, the appearance of the image does not become complicated, and the impression of the appearance of the image can be improved.
なお、上述した処理において、複数の利用者のうち、他の利用者が縦方向(撮影画像に写る被写体の高さ方向)の両側に隣接しない利用者の領域に沿った領域に、オーラ画像が合成されるようにしてもよい。 In the above-described processing, the aura image is placed in an area along the user area that is not adjacent to both sides of the plurality of users in the vertical direction (the height direction of the subject in the captured image). They may be combined.
上述した例では、撮影画像に写る利用者が2人であったが、3人以上であってももちろんよい。 In the above-described example, two users appear in the captured image. However, three or more users may be used.
例えば、図28に示される撮影画像461には、3人の利用者U1,U2,U3の全身が写っている。撮影画像461において、左端の利用者U1の左側の領域には、複数のアルファベットが配されたオーラ画像461aが合成されている。また、右端の利用者U2の右側の領域には、複数のアルファベットが配されたオーラ画像461bが合成されている。これらのオーラ画像461a,461bは、利用者U1,U3の間および利用者U2,U3の間には合成されない。
For example, in the captured
このように、上述した処理によれば、3人以上の利用者が写る撮影画像についても、その見た目が煩雑にならず、その見た目の印象を良くすることができる。 As described above, according to the above-described processing, the appearance of a captured image in which three or more users are captured is not complicated, and the appearance of the image can be improved.
なお、図25や図29に示される撮影画像は、図20のオーラ画像合成処理の合成領域の設定において、領域W3(図23)を左右方向のみに拡大することによっても得ることができる。 Note that the captured images shown in FIGS. 25 and 29 can also be obtained by enlarging the area W3 (FIG. 23) only in the left-right direction in setting the synthesis area in the aura image synthesis processing in FIG.
図29は、オーラ画像が合成された撮影画像の他の例を示している。 FIG. 29 illustrates another example of a captured image in which an aura image is combined.
図29に示される撮影画像462において、左端の利用者U1の領域に沿った上側、左側、右側の領域には、複数のアルファベットが配されたオーラ画像462aが合成されている。また、利用者U2の領域に沿った上側、左側、右側の領域には、複数のアルファベットが配されたオーラ画像462bが合成されている。これらのオーラ画像462a,462bは、利用者U3の領域に沿った領域には合成されない。
In the photographed
オーラ画像462a,462bは、図27を参照して説明した合成領域の設定において、領域W1,W2を上下左右方向に拡大した領域を、上方向に移動させることによって得ることができる。
The
また、図29のオーラ画像462a,462bを合成する処理と、図24のオーラ画像441aを合成する処理とを合わせて行うことで、図30に示される撮影画像463が得られるようにしてもよい。
In addition, by performing the process of combining the
図30に示される撮影画像463において、利用者U1,U2,U3全体の領域に沿った上側、左側、右側の領域、利用者U1の領域に沿った右側の領域、および、利用者U2の領域に沿った左側の領域には、複数のアルファベットが配されたオーラ画像463aが合成されている。
In the captured
なお、上述した例では、オーラ画像は、複数のアルファベットが配されたものとして説明してきた。これに限らず、オーラ画像は、複数の文字として、ひらがなやカタカナ、数字などが配されたものであってもよい。 In the example described above, the aura image has been described as being provided with a plurality of alphabets. However, the present invention is not limited to this, and the aura image may be one in which hiragana, katakana, numerals, and the like are arranged as a plurality of characters.
例えば、オーラ画像は、名前入力画面において入力された利用者の名前を表す文字が配されたものであってもよい。この場合、撮影画像に写る利用者毎に、対応する名前を表す文字が配されたオーラ画像が合成されるようにしてもよい。 For example, the aura image may be one in which characters representing the name of the user input on the name input screen are arranged. In this case, an aura image in which characters representing the corresponding name are arranged may be combined for each user appearing in the captured image.
なお、文字が配されたオーラ画像において、個々の文字が途切れて合成されると、利用者は、その文字を認識することができなくなる。そこで、オーラ画像が合成される合成領域の大きさ(幅)に応じて、オーラ画像に配される文字のサイズが変更されたり、配される文字自体が他の文字に変更されるなどしてもよい。 Note that if individual characters are interrupted and synthesized in the aura image on which the characters are arranged, the user cannot recognize the characters. Therefore, depending on the size (width) of the synthesis area where the aura image is synthesized, the size of the character arranged in the aura image is changed, or the arranged character itself is changed to another character. Is also good.
さらに、オーラ画像として配される文字は、上述した例のように同じ向きで配されるようにしてもよいし、ランダムな向きで配されるようにしてもよい。 Further, the characters arranged as the aura image may be arranged in the same direction as in the above-described example, or may be arranged in a random direction.
また、オーラ画像は、複数の図形や色が配されたものであってもよい。 Further, the aura image may be one in which a plurality of figures and colors are arranged.
図31は、複数の図形が配されたオーラ画像が合成された撮影画像の例を示している。 FIG. 31 illustrates an example of a captured image in which an aura image in which a plurality of figures are arranged is synthesized.
図31に示される撮影画像471において、利用者U1,U2全体の領域に沿った上側、右側、および左側の領域には、複数のハートが配されたオーラ画像471aが合成されている。
In the photographed
なお、オーラ画像は、複数の図形として、ハート以外の他の図形が配されたものであってももちろんよい。さらに、オーラ画像は、複数の図形として、編集パレットに表示される所定のスタンプ画像が配されたものであってもよい。 The aura image may, of course, be one in which a figure other than a heart is arranged as a plurality of figures. Further, the aura image may be one in which a predetermined stamp image displayed on the editing palette is arranged as a plurality of figures.
図32は、色が配されたオーラ画像が合成された撮影画像の例を示している。 FIG. 32 illustrates an example of a captured image in which aura images with colors are combined.
図32に示される撮影画像472において、利用者U1の領域に沿った左側の領域には、所定の色が配されたオーラ画像472aが合成されている。さらに、撮影画像472において、利用者U2の領域に沿った右側の領域には、所定の色が配されたオーラ画像472bが合成されている。
In the photographed
なお、オーラ画像472a,472bに配される色はどのような色であってもよい。例えば、オーラ画像472a,472bに配される色を黒やグレーにすることで、オーラ画像472a,472bは、利用者U1,U2の影を模した画像となる。また、オーラ画像472a,472bに配される色にグラデーションが施されるようにしてもよい。さらに、オーラ画像472a,472bに配される色は複数の色であってもよい。
It should be noted that the colors arranged in the
また、オーラ画像が合成される合成領域が、利用者の人数に応じて設定されるようにしてもよい。 Further, the combination area where the aura image is combined may be set according to the number of users.
例えば、撮影画像431(図19)のように、利用者が2人の場合には、利用者の頭から足を囲む領域を合成領域とする。利用者が3人の場合には、例えば利用者の頭から腰を囲む領域を合成領域とする。また、利用者が4人以上の場合には、例えば利用者の頭から肩を囲む領域を合成領域とする。 For example, when the number of users is two as in the captured image 431 (FIG. 19), an area surrounding the user's head and feet is used as the composite area. When there are three users, for example, an area surrounding the user's head and waist is set as a composite area. When there are four or more users, for example, an area surrounding the user's head and shoulders is set as a composite area.
撮影画像に写る利用者が多いほど、撮影画像における利用者以外の領域、言い換えると、合成領域になり得る領域が小さくなる。そこで、撮影画像に写る利用者が多いほど、合成領域を小さくすることで、オーラ画像が合成された撮影画像の見た目が煩雑になることを避けることができる。 As the number of users appearing in the captured image increases, the area of the captured image other than the user, in other words, the area that can be a composite area becomes smaller. Thus, by reducing the combination area as the number of users appearing in the captured image increases, the appearance of the captured image combined with the aura image can be prevented from becoming complicated.
また、単に、撮影画像における人物領域以外の領域の大きさに応じて、オーラ画像が合成される合成領域が設定されるようにしてもよい。例えば、人物領域以外の領域の大きさが小さいほど、小さい合成領域が設定されるようにすることで、オーラ画像が合成された撮影画像の見た目が煩雑になることを避けることができる。 Alternatively, a combination area where an aura image is combined may be simply set according to the size of an area other than the person area in the captured image. For example, by setting a smaller combined area as the size of the area other than the person area is smaller, it is possible to avoid a complicated appearance of the captured image in which the aura image is combined.
また、以上においては、全身撮影により得られた撮影画像にオーラ画像が合成される例について説明してきた。そこで、上から全身撮影により得られた撮影画像と、正面全身撮影により得られた撮影画像とで、オーラ画像が合成される合成領域が異なるようにしてもよい。 In the above, an example in which an aura image is combined with a captured image obtained by full-body imaging has been described. Therefore, a combined area where the aura image is combined may be different between a captured image obtained by full-body imaging from above and a captured image obtained by frontal full-body imaging.
さらに、全身撮影により得られた撮影画像に限らず、アップ撮影により得られた撮影画像にオーラ画像が合成されるようにしてもよい。この場合、全身撮影により得られた撮影画像と、アップ撮影により得られた撮影画像とで、設定される合成領域が異なるようにしてもよい。 Furthermore, an aura image may be combined with a captured image obtained by up-shooting, without being limited to a captured image obtained by full-body imaging. In this case, the set composite area may be different between a captured image obtained by full-body imaging and a captured image obtained by close-up imaging.
さらにまた、撮影画像において、利用者により選択された領域が、オーラ画像が合成される合成領域に設定されるようにしてもよい。 Furthermore, in the captured image, the area selected by the user may be set as a synthesis area where the aura image is synthesized.
上述した例で図示されたオーラ画像は、利用者の足元の領域には合成されないものとした。しかしながら、オーラ画像が、利用者の足元の領域にも、すなわち、利用者の領域に沿った領域全部に合成されるようにすることもできる。 The aura image illustrated in the above-described example is not combined with the area at the foot of the user. However, the aura image may be combined with the area under the user's feet, that is, with the entire area along the user's area.
また、図26のオーラ画像合成処理のように、撮影画像に対して顔認識を行う場合には、顔認識の結果に基づいて、撮影画像において外側に写る利用者の顔を囲む領域のみに、オーラ画像が合成されるようにしてもよい。この場合、撮影画像における顔領域の画素の輝度値を上げたり下げたりしてもよい。 Also, when face recognition is performed on a captured image as in the aura image synthesis processing in FIG. 26, based on the result of face recognition, only the region surrounding the user's face that appears outside in the captured image is An aura image may be synthesized. In this case, the brightness value of the pixel in the face area in the captured image may be increased or decreased.
なお、以上においては、編集作業の中で、編集パレットにおいてオーラ画像を示すアイコンが選択されることで、オーラ画像の合成処理が開始されるものした。これに限らず、事前選択作業や撮影作業の中で、オーラ画像を選択させるようにしてもよい。この場合、撮影処理において表示されるライブビュー画像や撮影結果としての撮影画像に、オーラ画像が合成されるようにしてもよい。さらにこの場合、合成されたオーラ画像を、編集処理において変更可能とするようにしてもよい。 In the above description, during the editing operation, an aura image combining process is started by selecting an icon indicating an aura image on the editing palette. The present invention is not limited to this, and an aura image may be selected during a pre-selection operation or a photographing operation. In this case, an aura image may be combined with a live view image displayed in the shooting process or a shot image as a shooting result. Further, in this case, the synthesized aura image may be changed in the editing process.
さらには、利用者の直接的な操作によらず、撮影画像にオーラ画像が合成されるようにしてもよい。例えば、事前選択処理において選択された背景画像のデザインに応じたオーラ画像が、撮影画像に合成されるようにしてもよい。 Furthermore, the aura image may be combined with the captured image without depending on the direct operation of the user. For example, an aura image according to the design of the background image selected in the preselection process may be combined with the captured image.
<携帯おまけの作成について>
ところで、編集画面(図18)において、携帯おまけボタン415L(415R)が操作されると、携帯おまけの作成を行うための携帯おまけ作成画面が表示される。
<About making a mobile phone bonus>
By the way, when the
まず、編集画面において、携帯おまけボタン415Lが操作されると、携帯おまけ作成画面として、作成コース選択画面が表示される。
First, when the mobile
図33は、作成コース選択画面の例を示す図である。 FIG. 33 is a diagram illustrating an example of a creation course selection screen.
図33に示される作成コース選択画面には、携帯おまけの作成コースとして「正方形コース」を選択させるためのボタン511と、「通常コース」を選択させるためのボタン512が設けられる。「正方形コース」は、撮影画像の形状を正方形に加工した上に、所定のデザインを施すためのコースである。正方形に加工された画像は、上述した携帯専用画像と同様、SNSの利用者自身のプロフィールを掲載するページなどに用いられる。また、「通常コース」は、撮影画像に、所定の画像処理を施すためのコースである。
The creation course selection screen shown in FIG. 33 is provided with a
また、ボタン513は、携帯おまけの作成を終了させるためのボタンである。ボタン513が操作されると、作成コース選択画面は閉じられ、編集画面(図18)が再び表示される。
The
作成コース選択画面において、利用者によりボタン511が操作されると、携帯おまけ作成画面として、デザイン選択画面が表示される。
When the user operates the
図34は、デザイン選択画面の例を示す図である。 FIG. 34 is a diagram illustrating an example of the design selection screen.
図34に示されるデザイン選択画面には、9枚のデザイン画像521−1乃至521−9が表示される。デザイン画像521−1乃至521−9は、それぞれ異なるデザインが施された画像である。なお、デザイン画像521−1乃至521−9は、上述した携帯専用画像選択画面で選択されるデザイン画像とは異なる画像処理が施されることで得られた画像である。 On the design selection screen shown in FIG. 34, nine design images 521-1 to 521-9 are displayed. The design images 521-1 to 521-9 are images to which different designs are applied. Note that the design images 521-1 to 521-9 are images obtained by performing image processing different from the design image selected on the above-described portable image selection screen.
ボタン522は、選択されたデザイン画像に施されているデザインを、撮影画像に施すデザインに決定するためのボタンである。ボタン523は、携帯おまけ作成画面の表示を1つ前の表示(作成コース選択画面)に戻すためのボタンである。また、ボタン524は、携帯おまけの作成を終了させるためのボタンである。ボタン524が操作されると、デザイン選択画面は閉じられ、編集画面(図18)が再び表示される。
The
ここで、デザイン画像が選択されることによって施されるデザイン(画像処理)について例示する。ここでは、撮影画像の所定の領域が所定の形状で切り取られた画像を移動または回転させて、元の撮影画像に合成する画像処理の例について説明する。なお、これらの画像処理は、後述する正方形への加工の後に、撮影画像に対して施される。 Here, a design (image processing) performed by selecting a design image will be exemplified. Here, an example of image processing in which an image obtained by cutting out a predetermined region of a captured image in a predetermined shape is moved or rotated and combined with the original captured image will be described. Note that these image processings are performed on a captured image after processing into a square described later.
(デザイン例1)
図35は、デザイン選択画面において、デザイン画像521−3が選択されることによって施されるデザインについて説明する図である。
(Design example 1)
FIG. 35 is a diagram illustrating a design performed by selecting a design image 521-3 on the design selection screen.
まず、撮影画像551の一部(下側三分の一程度)が、斜めに切り取られる。これにより、台形状の切り取り画像552が得られる。
First, a part (about the lower third) of the photographed
次に、切り取り画像552が、撮影画像551に合成される。このとき、切り取り画像552は、撮影画像551に対して左方向にずれるようにして、撮影画像551に合成される。ここで、切り取り画像552に対して、元の撮影画像551の色と異なる色にする処理が施されるようにしてもよい。さらに、例えば、切り取り画像552の人物領域に沿った領域に、上述したオーラ画像が合成されるようにしてもよい。
Next, the
このようにして、デザイン画像553が得られる。
Thus, the
(デザイン例2)
図36は、デザイン選択画面において、デザイン画像521−6が選択されることによって施されるデザインについて説明する図である。
(Design example 2)
FIG. 36 is a diagram illustrating a design performed by selecting a design image 521-6 on the design selection screen.
まず、撮影画像561の一部(矩形の破線部分)が切り取られる。これにより、矩形状の切り取り画像562−1,562−2が得られる。
First, a part (rectangular broken line part) of the captured
次に、切り取り画像562−1,562−2が、撮影画像561に合成される。このとき、切り取り画像562−1は撮影画像561に対して左方向に、切り取り画像562−2は撮影画像561に対して右方向にずれるようにして、撮影画像561に合成される。
Next, the cut images 562-1 and 562-2 are combined with the captured
このようにして、デザイン画像563が得られる。
Thus, the
(デザイン例3)
図37は、デザイン選択画面において、デザイン画像521−6が選択されることによって施されるデザインについて説明する図である。
(Design example 3)
FIG. 37 is a diagram illustrating a design performed when a design image 521-6 is selected on the design selection screen.
まず、撮影画像571の一部(正方形の破線部分)が切り取られる。これにより、正方形状の切り取り画像572が得られる。なお、切り取り画像572は、縦横比の異なる矩形であってもよい。
First, a part of the captured image 571 (square broken line part) is cut out. Thereby, a
次に、切り取り画像572が、撮影画像571に合成される。このとき、切り取り画像572は撮影画像571に対して左回りに回転して、撮影画像571に合成される。なお、撮影画像571にはぼかし処理が施される。
Next, the
このようにして、デザイン画像573が得られる。
Thus, a
以上のように、撮影画像の所定の領域が所定の形状で切り取られた画像を移動または回転させて、元の撮影画像に合成することで、従来にないデザイン性の高い画像が得られる。なお、所定の形状で切り取られた切り取り画像に対してのみ、上述したオーラ画像が合成されるようにしてもよい。 As described above, by moving or rotating an image in which a predetermined region of a captured image is cut out in a predetermined shape and combining it with the original captured image, an image with a high design quality that has not been obtained in the past can be obtained. Note that the aura image described above may be combined only with a clipped image clipped in a predetermined shape.
さて、図34のデザイン選択画面において、利用者によりボタン522が操作されると、携帯おまけ作成画面として、画像切り取り画面が表示される。
Now, when the user operates the
図38は、画像切り取り画面の例を示す図である。 FIG. 38 is a diagram illustrating an example of the image cutout screen.
画像切り取り画面の左上側には、サムネイル画像表示領域581が設けられる。サムネイル画像表示領域581は、撮影画像を表すサムネイル画像の表示領域である。利用者は、サムネイル画像表示領域581に表示されているサムネイル画像を選択することによって、携帯おまけとする撮影画像を選択することができる。
A thumbnail
画像切り取り画面の右上側には、デザイン画像表示部582が設けられる。デザイン画像表示部582には、デザイン選択画面において利用者により選択されたデザイン画像が表示される。
A design
画像切り取り画面のほぼ中央には、選択画像表示領域583が設けられる。選択画像表示領域583には、サムネイル画像表示領域581に表示されているサムネイル画像において、利用者により選択されたサムネイル画像に対応する撮影画像が表示される。
A selected
なお、撮影画像の形状は縦長の矩形であるが、選択画像表示領域583の形状は正方形である。すなわち、選択画像表示領域583に表示される撮影画像は、その形状を正方形とする加工が施されている。
Although the shape of the captured image is a vertically long rectangle, the shape of the selected
選択画像表示領域583の左方には、選択ボタン584,585が設けられる。選択ボタン584,585は、撮影画像の形状を正方形とする加工の方法を選択するためのボタンである。
選択ボタン584が選択されると、撮影画像の横の長さに合わせてその形状が正方形となるように、撮影画像が加工される。
When the
具体的には、図39に示されるように、撮影画像591に対して、その横の長さと同じ間隔を有する2本の切り取り線H1,H2を設定する。切り取り線H1,H2で挟まれる領域を切り出すことで、正方形の形状を有する撮影画像592が得られる。
Specifically, as shown in FIG. 39, two cut lines H1 and H2 having the same interval as the horizontal length are set for the captured
一方、選択ボタン585が選択されると、撮影画像の縦の長さに合わせてその形状が正方形となるように、撮影画像が加工される。
On the other hand, when the
具体的には、図40に示されるように、撮影画像591の横の長さが、その縦の長さと同じとなるような画像V1,V2を、撮影画像591の左右に合成する。これにより、正方形の形状を有する撮影画像593が得られる。画像V1,V2には、所定の図柄や色が施されるようにしてもよい。
More specifically, as shown in FIG. 40, images V1 and V2 in which the horizontal length of the captured
ここで、撮影画像592の大きさと、撮影画像593の大きさとは互いに異なるが、選択画像表示領域583に表示される際に、それらの大きさは調整されるものとする。
Here, the size of the captured
従来、携帯おまけの作成において、撮影画像の形状を正方形にするには、利用者の操作により、正方形のトリミング枠を選択したり設定する必要があった。一方、この例では、選択ボタン584,585を選択するだけで、撮影画像の形状を正方形にすることができる。すなわち、従来と比較して、より簡単な操作で、撮影画像の形状を正方形にすることができる。
Conventionally, in making a mobile bonus, in order to make a captured image into a square shape, it was necessary to select or set a square trimming frame by a user operation. On the other hand, in this example, the shape of the captured image can be made square by simply selecting the
なお、選択画像表示領域583に表示された正方形形状の撮影画像は、利用者の操作に応じて、選択画像表示領域583に対して相対的に移動および拡大/縮小可能される。
The square-shaped captured image displayed in the selected
さて、図38の説明に戻り、ボタン586は、選択画像表示領域583に表示されている状態の撮影画像を携帯おまけの編集対象に決定するためのボタンである。また、ボタン587は、携帯おまけの作成を終了させるためのボタンである。ボタン587が操作されると、画像切り取り画面は閉じられ、編集画面(図18)が再び表示される。
Now, returning to the description of FIG. 38, the
画像切り取り画面において、利用者によりボタン586が操作されると、携帯おまけ作成画面として、携帯おまけ編集画面が表示される。図示はしないが、携帯おまけ編集画面には、正方形の撮影画像と、携帯おまけ専用の編集パレットとが表示される。
When the user operates the
携帯おまけ編集画面に表示される撮影画像には、デザイン選択画面において選択されたデザイン画像に対応するデザイン(画像処理)が施されているものとする。 It is assumed that the captured image displayed on the mobile phone bonus editing screen has been subjected to a design (image processing) corresponding to the design image selected on the design selection screen.
(切り取り画像の変形例)
ここで、撮影画像から切り取られる切り取り画像の形状は、複数の形状(矩形、円形等)から利用者により選択された形状としてもよいし、タッチペンによりなぞられた形状としてもよい。
(Modified example of cut image)
Here, the shape of the cut image cut from the captured image may be a shape selected by the user from a plurality of shapes (rectangular, circular, etc.), or may be a shape traced by a touch pen.
また、撮影画像から切り取られる領域(切り取り画像)の数が、利用者に選択されるようにしてもよい。なお、デザイン画像より先に、切り取られる領域の数を選択させる場合には、選択された数だけ切り取られる領域が設定されているデザイン画像のみが、利用者に選択可能とされるようにしてもよい。 Further, the number of regions (cut images) cut out from the captured image may be selected by the user. In the case where the number of areas to be cut out is selected prior to the design image, the user may select only the design image in which the selected number of areas to be cut out is set. Good.
さらに、携帯おまけ編集画面に表示される撮影画像において、切り取り画像の移動の移動量や移動方向、回転の回転量や回転方向が、利用者により指定されるようにしてもよい。これにより、1つのデザイン画像から、見た目の印象の異なる画像を生成することができる。 Further, in the captured image displayed on the mobile bonus editing screen, the user may specify the moving amount and moving direction of the cut image, the rotating amount and the rotating direction of the rotation of the cut image. As a result, it is possible to generate images having different visual impressions from one design image.
以下においては、利用者の操作による、切り取り画像の移動および回転の詳細な例について説明する。 In the following, a detailed example of the movement and rotation of the cut image by the operation of the user will be described.
(移動について)
例えば、携帯おまけ編集画面において、切り取り画像が合成された撮影画像とともに、手の形をしたアイコンを表示させる。タッチペンによりそのアイコンを操作することで、切り取り画像を移動させるようにする。
(About movement)
For example, a hand-shaped icon is displayed on the mobile phone bonus editing screen together with the captured image in which the cut image is synthesized. By operating the icon with a touch pen, the cut image is moved.
携帯おまけ編集画面の所定の領域に、上下左右の4方向を示す十字キーを設け、その十字キーに対する操作によって、切り取り画像を移動させるようにしてもよい。 A cross key indicating up, down, left, and right directions may be provided in a predetermined area of the mobile bonus editing screen, and the cut image may be moved by operating the cross key.
また、切り取り画像が矩形の場合、携帯おまけ編集画面において撮影画像上に表示されている切り取り画像の上下左右の四辺それぞれの近傍に、矢印ボタンを設けるようにしてもよい。それぞれの矢印ボタンが選択されると、切り取り画像が上下左右方向へ移動される。 When the cutout image is rectangular, arrow buttons may be provided near the four sides of the cutout image displayed on the captured image on the mobile bonus editing screen. When each arrow button is selected, the cut image is moved in the up, down, left, and right directions.
さらに、携帯おまけ編集画面の所定の領域に、切り取り画像を移動させるための移動ボタンを設けるようにしてもよい。例えば、1回目に移動ボタンが操作されると、切り取り画像が上方向へ移動され、2回目に移動ボタンが操作されると、切り取り画像が下方向へ移動される。また、3回目に移動ボタンが操作されると、切り取り画像が右方向へ移動され、4回目に移動ボタンが操作されると、切り取り画像が左方向へ移動される。 Further, a move button for moving the cut image may be provided in a predetermined area of the mobile bonus editing screen. For example, when the move button is operated for the first time, the cut image is moved upward, and when the move button is operated for the second time, the cut image is moved downward. When the move button is operated for the third time, the cut image is moved rightward, and when the move button is operated for the fourth time, the cut image is moved leftward.
また、携帯おまけ編集画面の所定の領域に、x方向(横方向)およびy方向(縦方向)への移動量を入力させるテキストボックスを設けるようにしてもよい。テキストボックスに入力される値は、ピクセル単位であってもよいし、撮影画像の表示領域に目盛を表示させるようにした場合には、その目盛の数値であってもよい。 Further, a text box for inputting the amount of movement in the x direction (horizontal direction) and the y direction (vertical direction) may be provided in a predetermined area of the mobile bonus editing screen. The value input to the text box may be a pixel unit or, if a scale is displayed in the display area of the captured image, may be a numerical value of the scale.
さらに、携帯おまけ編集画面の所定の領域に、ランダムボタンを設けるようにしてもよい。ランダムボタンが操作されると、無作為的に、切り取り画像が移動量および/または移動方向を変えて移動される。 Further, a random button may be provided in a predetermined area of the mobile bonus editing screen. When the random button is operated, the cut image is moved at random by changing the moving amount and / or the moving direction.
(回転について)
例えば、タブレット内蔵モニタ131上でのタッチペンの軌跡によって、切り取り画像が回転されるようにする。例えば、携帯おまけ編集画面上で、タッチペンが右回りで円弧を描くように移動されると、切り取り画像が時計回りに回転されるようにする。また、携帯おまけ編集画面上で、タッチペンが左回りで円弧を描くように移動されると、切り取り画像が反時計回りに回転されるようにする。
(About rotation)
For example, the cut image is rotated according to the locus of the touch pen on the
また、携帯おまけ編集画面の所定の領域に、回転角度を入力させるテキストボックスを設けるようにしてもよい。テキストボックスに入力される値(角度)は、0°乃至359°とする。 Further, a text box for inputting a rotation angle may be provided in a predetermined area of the mobile phone bonus editing screen. The value (angle) input to the text box is 0 ° to 359 °.
なお、テキストボックスに入力される角度を、−90°乃至90°としてもよい。この場合、例えばテキストボックスの近傍に、切り取り画像を上下反転させるための上下反転ボタンを設けるようにする。これにより、回転角度として0°乃至359°をカバーすることができる。 Note that the angle input to the text box may be from −90 ° to 90 °. In this case, for example, an upside down button for upside down the cut image is provided near the text box. Thereby, a rotation angle of 0 ° to 359 ° can be covered.
また、テキストボックスに入力される角度を、0°乃至90°としてもよい。この場合、例えばテキストボックスの近傍に、上述した上下反転ボタンに加え、切り取り画像を左右反転させるための左右反転ボタンを設けるようにする。これにより、回転角度として0°乃至359°をカバーすることができる。 Further, the angle input to the text box may be 0 ° to 90 °. In this case, for example, in addition to the above-mentioned upside down button, a left / right inversion button for left / right inversion of the cut image is provided near the text box. Thereby, a rotation angle of 0 ° to 359 ° can be covered.
なお、具体的な回転角度を入力するテキストボックスを設けず、単に、上下反転ボタンおよび左右反転ボタンのみを設けるようにしてもよい。 Note that a text box for inputting a specific rotation angle may not be provided, and only a vertical inversion button and a horizontal inversion button may be provided.
さらに、携帯おまけ編集画面上に、回転ボタンを設けるようにしてもよい。回転ボタンが選択されると、切り取り画像が所定角度ずつ回転されるようにする。 Further, a rotation button may be provided on the mobile phone bonus editing screen. When the rotation button is selected, the cut image is rotated by a predetermined angle.
また、撮影画像に合成されている切り取り画像上に、回転の中心点を表示させるようにしてもよい。さらに、切り取り画像上で、利用者の操作(タッチペンまたは指)により選択された位置が、回転の中心点に変更されるようにしてもよい。なお、この場合、デフォルトの状態では、切り取り画像の中心に、回転の中心点が表示されるようにする。 Further, the center point of the rotation may be displayed on the cut image synthesized with the captured image. Further, a position selected by a user operation (touch pen or finger) on the cut image may be changed to a center point of rotation. In this case, in the default state, the center point of rotation is displayed at the center of the cut image.
なお、回転により、撮影画像から切り取り画像の一部がはみ出してしまうような場合には、「はみ出してるよ」等のメッセージを、携帯おまけ編集画面上に表示させるようにしてもよい。 If a part of the cut image protrudes from the photographed image due to the rotation, a message such as “It protrudes” may be displayed on the mobile bonus editing screen.
(拡大/縮小について)
以上においては、利用者の操作による、切り取り画像の移動および回転の例について説明してきた。さらに、利用者の操作により、切り取り画像の拡大/縮小が行われるようにしてもよい。
(About enlargement / reduction)
In the above, the example of the movement and rotation of the cut image by the operation of the user has been described. Furthermore, the cut-out image may be enlarged / reduced by a user operation.
例えば、携帯おまけ編集画面上に、切り取り画像の大きさを調整するためのスライダーを設けるようにする。スライダーが操作されることで、切り取り画像が拡大/縮小される。 For example, a slider for adjusting the size of the cut image is provided on the mobile bonus editing screen. The cut image is enlarged / reduced by operating the slider.
スライダーに代えて、携帯おまけ編集画面の所定の領域に、サイズの異なる複数の矩形が表示された領域を設けるようにしてもよい。複数の矩形のうちのいずれかが選択されると、その矩形のサイズに応じて、切り取り画像が拡大/縮小されるようにする。 Instead of the slider, a region where a plurality of rectangles having different sizes are displayed may be provided in a predetermined region of the mobile bonus editing screen. When any one of the rectangles is selected, the cutout image is enlarged / reduced according to the size of the rectangle.
また、スライダーに代えて、倍率(例えば0%乃至200%等)を入力させるテキストボックスを設けるようにしてもよい。 Further, a text box for inputting a magnification (for example, 0% to 200%) may be provided instead of the slider.
さらに、タッチペンとタブレット内蔵モニタ131(撮影画像の表示領域)との接触時間の長さに応じて、切り取り画像の拡大/縮小の拡大率(縮小率)が調整されるようしてもよい。 Furthermore, the enlargement / reduction ratio (reduction ratio) of the enlargement / reduction of the cut-out image may be adjusted according to the length of contact time between the touch pen and the tablet built-in monitor 131 (the display region of the captured image).
また、タブレット内蔵モニタ131上でのタッチペンの軌跡によって、切り取り画像が拡大/縮小されるようにしてもよい。例えば、タブレット内蔵モニタ131上で、タッチペンが左下から右上に移動されると、切り取り画像が拡大され、タッチペンが右上から左下に移動されると、切り取り画像が縮小されるようにする。
Further, the cut image may be enlarged / reduced by the locus of the touch pen on the
なお、上述したタブレット内蔵モニタ131に対する操作に、タッチペンに代えて指を用いるようにしてもよい。この場合、ピンチインやピンチアウト等の操作によって、切り取り画像が拡大/縮小されるようにしてもよい。
Note that a finger may be used in place of the touch pen for the operation on the tablet built-in
上述した例では、拡大/縮小の中心は、切り取り画像の中心であるものとするが、切り取り画像上で、利用者の操作(タッチペンまたは指)により選択された位置を中心に、拡大/縮小されるようにしてもよい。この場合、利用者は、自身が興味のある領域を中心に拡大/縮小することができる。 In the above-described example, the center of the enlargement / reduction is assumed to be the center of the cutout image. You may make it. In this case, the user can enlarge / reduce the area of interest.
また、切り取り画像が拡大/縮小される際に、撮影画像の表示領域に固定のグリッドが表示されるようにしてもよい。これにより、利用者は、撮影画像の表示領域に表示されているグリッドのマス目の大きさにより、切り取り画像の拡大の度合いを把握することができる。 Further, when the cut image is enlarged / reduced, a fixed grid may be displayed in the display area of the captured image. Thus, the user can grasp the degree of enlargement of the cut image based on the size of the grid displayed on the display area of the captured image.
(鏡映について)
さらにまた、利用者の操作により、切り取り画像の鏡映が行われるようにしてもよい。
(About mirror)
Furthermore, the cut-out image may be mirrored by a user's operation.
例えば、携帯おまけ編集画面上に、切り取り画像を鏡映反転するためのボタンを設けるようにする。このボタンが操作されることで、切り取り画像が上下または左右に鏡映反転される。 For example, a button for mirroring and inverting the cut image is provided on the mobile phone bonus editing screen. By operating this button, the cut image is mirror-inverted vertically or horizontally.
なお、デザイン画像によっては、前景画像が合成されるものもある。この場合、上述で説明した、利用者の操作による切り取り画像の移動、回転、拡大/縮小、および鏡映は、その前景画像を避けるように行われるものとする。 Note that some design images are combined with a foreground image. In this case, the movement, rotation, enlargement / reduction, and mirroring of the cut image by the user's operation described above are performed so as to avoid the foreground image.
また、利用者の人数に応じて、切り取り画像の移動、回転、拡大/縮小、および鏡映の操作が制限されるようにしてもよい。例えば、利用者の人数が多いと、撮影画像において利用者の顔の占める割合も大きくなる。そこで、利用者の人数が多い場合には、切り取り画像の移動、回転、拡大/縮小、および鏡映の操作が制限されるようにする。これにより、撮影画像において利用者の顔が確実に写るようになる。 In addition, the operations of moving, rotating, enlarging / reducing, and mirroring the cut image may be limited according to the number of users. For example, if the number of users is large, the proportion of the user's face in the captured image also increases. Therefore, when the number of users is large, the operations of moving, rotating, enlarging / reducing, and mirroring the cut image are restricted. This ensures that the user's face is captured in the captured image.
さらに、切り取り画像に対して、上述したオーラ画像が合成されるようにし、その切り取り画像の移動、回転、拡大/縮小、および鏡映が、利用者の操作により行われるようにしてもよい。 Further, the above-described aura image may be combined with the cut image, and the movement, rotation, enlargement / reduction, and mirroring of the cut image may be performed by a user operation.
以上においては、1枚の撮影画像から、1枚の携帯おまけが作成される例について説明してきた。しかしながら、1枚の撮影画像から、2枚以上の携帯おまけが作成されるようにしてもよい。 In the above, an example has been described in which one mobile bonus is created from one captured image. However, two or more mobile bonuses may be created from one captured image.
例えば、利用者により選択されたデザイン画像に基づいて、切り取り画像の移動の向き(例えば縦/横など)が異なる2枚の携帯おまけが作成されるようにする。また、利用者により選択されたデザイン画像に基づいて、前景画像として合成される図柄や文字などが異なる2枚の携帯おまけが作成されるようにしてもよい。そして、作成された2枚の携帯おまけのうち、利用者に選択された方を、最終的に利用者の携帯端末に送信されるようにする。これにより、利用者は、より所望の画像を携帯おまけとして手に入れることができる。 For example, based on the design image selected by the user, two mobile bonuses having different movement directions (for example, vertical / horizontal) of the cut image are created. Further, based on the design image selected by the user, two mobile bonuses having different designs, characters, and the like to be combined as the foreground image may be created. Then, of the two mobile bonuses created, the one selected by the user is finally transmitted to the mobile terminal of the user. This allows the user to obtain a more desired image as a mobile bonus.
また、1枚の撮影画像について選択されたデザイン画像のデザイン(画像処理)が、他の撮影画像に反映されるようにしてもよい。これにより、利用者は、1回の操作で、複数の撮影画像に対して所望のデザインを施すことができる。 Further, the design (image processing) of the design image selected for one captured image may be reflected on another captured image. This allows the user to apply a desired design to a plurality of captured images with a single operation.
本実施の形態においては、利用者の携帯端末に、上述した携帯おまけの他、携帯専用画像が送信される。 In the present embodiment, a mobile-specific image is transmitted to the user's mobile terminal in addition to the mobile bonus described above.
そこで、以下においては、携帯専用画像について説明する。 Therefore, the following describes the mobile-only image.
<携帯専用画像について>
図41は、事前選択処理(図15のステップS17)において表示される携帯専用画像選択画面の例を示す図である。
<About mobile-only images>
FIG. 41 is a diagram showing an example of a mobile-only image selection screen displayed in the pre-selection process (step S17 in FIG. 15).
携帯専用画像選択画面の上方には、「撮りたいデザインを選んでね」のメッセージが表示される。そのメッセージの下方には、8枚のデザイン画像611乃至618が表示される。上述したように、デザイン画像611乃至618は、6回目の撮影(携帯専用撮影)により取得される撮影画像に合成されることで、その撮影画像の仕上がりをデザイン性の高いものにする。
A message "Please select a design you want to take" is displayed above the mobile-specific image selection screen. Below the message, eight
図41の例では、デザイン画像611乃至618には、モデルを被写体として撮影されたモデル画像が合成されている。
In the example of FIG. 41, the
また、携帯専用撮影においては、適宜ピン撮が行われる。ここで、ピン撮とは、利用者が2人の場合、2人の利用者を被写体とした1回の撮影により、同時に1人ずつの画像を得る撮影方法をいう。 In mobile-only shooting, pin shooting is performed as appropriate. Here, the pin shooting refers to a shooting method in which, when there are two users, an image of one user is simultaneously obtained by one shooting with two users as subjects.
例えば、デザイン画像615には、ピン撮により得られた、1人の利用者が写るピン撮画像が合成されるようになされている。
For example, the
図42は、デザイン画像615が選択された場合に、携帯専用撮影の際、タッチパネル92に表示されるガイダンス画面の例を示す図である。
FIG. 42 is a diagram illustrating an example of a guidance screen displayed on the
ガイダンス画面の中央には、携帯専用画像選択画面において選択されたデザイン画像615が表示される。デザイン画像615の下方には、デザイン画像615のデザインで携帯専用撮影が行われる旨のメッセージと、利用者に立ち位置を指示するメッセージが表示される。
At the center of the guidance screen, a
ガイダンス画面の表示が終わると、ピン撮用のライブビュー表示画面が表示される。 When the guidance screen is displayed, a live view display screen for pin shooting is displayed.
図43は、ライブビュー表示画面の例を示す図である。 FIG. 43 is a diagram illustrating an example of the live view display screen.
ライブビュー表示画面の画像表示領域631,632には、2人の利用者U11,U12それぞれが映るライブビュー画像がリアルタイムで表示される。
In the
利用者U11,U12は、直前までガイダンス画面に表示されていたデザイン画像のモデルと同様のポーズをとりながら、全身が画像表示領域631,632に収まるように、体の位置を調整する。
The users U11 and U12 adjust the positions of their bodies so that the whole body fits in the
なお、2人用コースであっても、顔認識の結果などにより、利用者が1人であると判定される場合には、ライブビュー表示画面には、1つの画像表示領域のみが表示されるようにしてもよい。 In the case of a two-person course, if it is determined that there is only one user based on the result of face recognition or the like, only one image display area is displayed on the live view display screen. You may do so.
さらに、顔認識の結果などにより、ライブビュー表示画面に表示される画像表示領域の大きさが変更されるようにしてもよい。具体的には、顔認識の結果、顔の大きさが所定の大きさより大きいと判定された場合には、画像表示領域全体の大きさを大きくしたり、画像表示領域の顔に対応する部分の大きさを大きくする。 Further, the size of the image display area displayed on the live view display screen may be changed according to the result of face recognition or the like. Specifically, as a result of the face recognition, when it is determined that the size of the face is larger than the predetermined size, the size of the entire image display area is increased, or the size of the portion corresponding to the face in the image display area is increased. Increase the size.
なお、画像表示領域において顔の位置が定まれば、身体全体の位置もほぼ定まる。そこで、全身撮影が行われる場合であっても、ライブビュー表示画面には、顔の付近のみが表示される画像表示領域が設けられるようにしてもよい。 When the position of the face is determined in the image display area, the position of the entire body is substantially determined. Therefore, even when the whole body is photographed, the live view display screen may be provided with an image display area in which only the vicinity of the face is displayed.
また、携帯専用撮影でアップ撮影が行われる場合、顔認識を行うことで、顔の部分のみの撮影画像が得られるようなアップ撮影が行われるようにしてもよい。このとき、顔および上半身が写る撮影画像が同時に得られるようにしてもよい。この場合、得られた2枚の撮影画像のうち、携帯専用撮影に用いられる撮影画像を利用者に選択させるようにする。 Further, in the case where the close-up shooting is performed in the mobile-only shooting, the close-up shooting may be performed by performing face recognition to obtain a shot image of only the face portion. At this time, a captured image in which the face and the upper body are captured may be obtained at the same time. In this case, the user is caused to select a photographed image used for carrying-only photographing from the obtained two photographed images.
このようなライブビュー画像が所定の時間表示された後、撮影前のカウントダウンが開始される。そして、撮影のタイミングになったとき、撮影の撮影結果がタッチパネルモニタ92に表示される。 After such a live view image is displayed for a predetermined time, a countdown before photographing is started. Then, when it is time to take a photograph, the photographing result of the photographing is displayed on the touch panel monitor 92.
図44は、利用者U11の撮影結果確認画面の例を示す図である。 FIG. 44 is a diagram illustrating an example of a shooting result confirmation screen of the user U11.
撮影結果確認画面には、デザイン画像615に、ピン撮によって得られた利用者U11の撮影画像が合成された合成画像641が表示される。利用者U11の撮影結果確認画面が所定時間表示された後、利用者U12の撮影結果がタッチパネルモニタ92に表示される。
On the photographing result confirmation screen, a combined
図45は、利用者U2の撮影結果確認画面の例を示す図である。 FIG. 45 is a diagram illustrating an example of a photographing result confirmation screen of the user U2.
撮影結果確認画面には、デザイン画像615に、ピン撮によって得られた利用者U12の撮影画像が合成された合成画像642が表示される。
On the photographing result confirmation screen, a combined
このように、2人の利用者の撮影結果を1枚ずつ表示させることで、それぞれの撮影結果を大きく表示させることができる。これにより、利用者は、撮影結果の細部まで確認することが可能となる。 In this way, by displaying the photographing results of two users one by one, each photographing result can be displayed large. As a result, the user can check the details of the photographing result.
なお、例えばタッチパネルモニタ92の大きさが十分であれば、2人の利用者の撮影結果を同時に表示させるようにしてもよい。 Note that, for example, if the size of the touch panel monitor 92 is sufficient, the photographing results of two users may be displayed simultaneously.
ここで、図46を参照して、デザイン画像615が選択された場合に得られる携帯専用画像(合成画像)のレイヤ構成について説明する。
Here, with reference to FIG. 46, a layer configuration of a portable-only image (composite image) obtained when the
図46に示されるように、携帯専用画像は、背景レイヤ651、被写体レイヤ652,653から構成される。背景レイヤ651は、背景画像に相当するレイヤである。被写体レイヤ652,653は、いずれも撮影画像に相当するレイヤである。具体的には、被写体レイヤ653は、被写体の全身が写る撮影画像に相当するレイヤである。一方、被写体レイヤ652は、被写体の顔および上半身が写る撮影画像に相当するレイヤである。被写体レイヤ652の撮影画像には、ぼかし処理が施されている。
As shown in FIG. 46, the mobile-only image includes a
さらに、被写体レイヤ652には、被写体レイヤ653の被写体領域に対応する2つの被写体画像が、被写体レイヤ653の被写体領域の位置から左にずれて合成されている。これらの被写体画像は、被写体レイヤ653に基づいて生成される人物マスク画像を左にずらして、被写体レイヤ653を被写体レイヤ652に合成することを、2回繰り返すことでで得られる。このとき、合成される被写体レイヤ653の被写体領域には、フィルタ加工や色相を変える等、所定の画像処理が施されるようにしてもよい。なお、人物マスク画像をずらす向きは、上下左右いずれであってもよいし、上下左右のうちの2つ以上の方向であってもよい。
Further, in the
これにより、全身が写る被写体をプリズムを通して見たような画像が得られる。 As a result, an image can be obtained as if the subject in which the whole body was captured was viewed through the prism.
なお、人物マスク画像をずらして合成される画像を、黒やグレー等の色画像にすることで、被写体レイヤ653の被写体に影ができたような画像を得ることもできる。
Note that an image in which a shadow is formed on the subject of the
(携帯専用撮影処理の詳細について)
次に、図47のフローチャートを参照して、図46の携帯専用画像を得るための携帯専用撮影処理の詳細について説明する。
(Details of the mobile-only shooting process)
Next, with reference to the flowchart in FIG. 47, the details of the mobile-specific photographing process for obtaining the mobile-specific image in FIG. 46 will be described.
ステップS91において、撮影処理部302は、被写体(利用者)を撮影し、2枚の撮影画像を生成する。ここでは、ピン撮により、利用者1人につき2枚の撮影画像が生成される。したがって、利用者が2人の場合には、4枚の撮影画像が生成される。
In step S91, the photographing
例えば、図48に示されるように、2枚の撮影画像として、被写体の全身が写る撮影画像661と、被写体の顔および上半身が写る撮影画像662とが生成される。撮影画像661および撮影画像662は、1回の撮影により得られた画像が、それぞれ異なるトリミング範囲でトリミングされることで生成される。
For example, as shown in FIG. 48, as two captured images, a captured
ステップS92において、画像処理部324は、1枚目の撮影画像に基づいて、人物マスクを生成する。例えば、撮影画像662に写る被写体の顔および上半身をマスクする人物マスク画像が生成される。
In step S92, the
ステップS93において、画像処理部324は、生成された人物マスクを用いて、背景画像に1枚目の撮影画像を合成する。例えば、図48に示されるように、背景画像663に、上述したマスク画像を用いて撮影画像662が合成される。これにより、背景画像663に撮影画像662に写る被写体の顔および上半身の部分のみが合成された合成画像664が得られる。
In step S93, the
なお、撮影画像622は、背景画像663に合成される際に、拡大処理とぼかし処理が施されるようにする。
Note that, when the captured image 622 is combined with the
ステップS94において、画像処理部324は、2枚目の撮影画像に基づいて、人物マスクを生成する。例えば、撮影画像661に写る被写体の全身をマスクする人物マスク画像が生成される。
In step S94, the
ステップS95において、画像処理部324は、生成された人物マスクを用いて、合成画像に2枚目の撮影画像を合成する。例えば、図49に示されるように、合成画像664に、上述したマスク画像を用いて撮影画像661が合成される。これにより、合成画像664に、撮影画像661に写る被写体の全身の部分のみが合成された合成画像665が得られる。
In step S95, the
このとき、合成画像664に合成された撮影画像662の被写体領域の要部(具体的には顔)の一部に、撮影画像661の被写体領域が重なるように、合成画像664に撮影画像661が合成される。
At this time, the captured
そして、ステップS96において、表示制御部321は、合成画像665を撮影結果としてタッチパネルモニタ92に表示させる。
Then, in step S96, the
従来は、被写体の要部である顔が隠れるように他の被写体を重畳することは行われていなかった。一方、以上の処理によれば、1枚の撮影画像に写る被写体により、他の1枚の撮影画像に写る顔の部分が隠れるようになる。これにより、従来にない、デザイン性の高い画像が得られるようになる。 Conventionally, it has not been performed to superimpose another subject so that a face, which is a main part of the subject, is hidden. On the other hand, according to the above-described processing, the face portion appearing in another photographed image is hidden by the subject appearing in one photographed image. This makes it possible to obtain an image with a high design quality, which has not been achieved in the past.
以下においては、携帯専用画像の変形例について説明する。 Hereinafter, a modified example of the mobile-only image will be described.
(変形例)
上述した説明では、撮影画像661,662が、1回の撮影により得られた画像とした。これとは逆に、撮影画像661,662が、個別の撮影(例えば2回の撮影それぞれ)により得られた画像であってもよい。
(Modification)
In the above description, the
これにより、被写体である利用者は、それぞれの撮影の際に異なる表情やポーズをとることができる。結果として、それぞれの被写体部分が合成される合成画像665を、面白味のある画像とすることができる。なお、この場合、撮影画像661,662それぞれのトリミング範囲は同じであってもよいし、異なっていてもよい。
This allows the user as the subject to take different facial expressions and poses at the time of each shooting. As a result, the combined
また、上述した説明では、1回の撮影により得られた撮影画像661,662のトリミング範囲は異なるものとしたが、同じであってもよい。この場合、撮影画像661,662それぞれの被写体領域の重なり具合を調整するようにする。これにより、それぞれの被写体部分が合成される合成画像665を、面白味のある画像とすることができる。
In the above description, the trimming ranges of the
さらに、撮影画像661,662として、携帯専用撮影より前に行われる、1乃至5回目の撮影により得られた撮影画像が用いられるようにしてもよい。この場合、撮影画像661,662は、同一回の撮影により得られた撮影画像であってもよいし、異なる回の撮影により得られた撮影画像であってもよい。
Further, the
さらにまた、撮影画像661,662として用いられる撮影画像を、利用者に選択させるようにしてもよい。この場合、例えば、アップ撮影により得られた撮影画像であるか、全身撮影により得られた撮影画像であるかに応じて、選択の可否が切り替わるようにしてもよい。さらに、どちらの撮影画像を上層または下層のレイヤに合成するかを、利用者に選択させるようにしてもよい。
Furthermore, the user may be allowed to select a captured image to be used as the captured
また、携帯専用撮影処理において、顔認識の結果に基づいて被写体の顔のパーツに所定の画像処理を施すような場合、顔認識が成功しない撮影画像は、撮影画像661,662として用いられないようにすることもできる。
In addition, in the case of carrying out a predetermined image processing on a part of the face of the subject based on the result of the face recognition in the portable photographing process, a photographed image for which face recognition is not successful is not used as the photographed
もちろん、本例に用いられる撮影画像は、2枚に限らず、3枚以上であってもよい。この場合、選択されたデザイン画像によって、用いられる撮影画像が選択されてもよいし、選択されたデザイン画像によって、撮影処理における撮影回数自体が変更されてもよい。 Of course, the number of captured images used in this example is not limited to two, and may be three or more. In this case, a photographed image to be used may be selected according to the selected design image, or the number of times of photographing in the photographing process may be changed according to the selected design image.
また、撮影画像661,662のトリミング範囲を、利用者に選択させるようにしてもよい。この場合、複数のトリミング範囲を利用者に提示し、そのいずれか選択させるようにしてもよい。例えば、アップ撮影が行われた場合には、顔認識の結果により、最適なトリミング範囲を利用者に提示し、選択させるようにしてもよい。また、全身撮影が行われた場合には、人物領域の検出結果により、最適なトリミング範囲を利用者に提示し、選択させるようにしてもよい。
Further, the user may be allowed to select a trimming range of the captured
さらに、撮影画像661,662のトリミング範囲を決定する座標を、利用者に入力させるようにしてもよい。
Further, the user may input coordinates for determining the trimming range of the captured
また、トリミング範囲は、カメラ91の撮影範囲の中で設定される。そして、カメラ91の撮影範囲は、カメラ91の焦点距離によって決定される。そこで、カメラ91の焦点距離を選択させることで、トリミング範囲が変更されるようにしてもよい。
The trimming range is set within the shooting range of the
上述した例では、アップ撮影により得られた撮影画像と、全身撮影により得られた撮影画像とでは、それぞれ縦横比が異なるものとした。そこで、それぞれの撮影画像が合成画像に用いられる場合、それぞれのトリミング範囲の縦横比を固定とし、トリミングされる領域のみが変更されるようにしてもよい。 In the example described above, the shot image obtained by the up shooting and the shot image obtained by the whole body shooting have different aspect ratios. Therefore, when each captured image is used for a composite image, the aspect ratio of each trimming range may be fixed, and only the area to be trimmed may be changed.
なお、アップ撮影により得られた撮影画像と、全身撮影により得られた撮影とで、トリミング範囲を同じとしてもよいし、異なるようにしてもよい。 Note that the trimming range may be the same or different between the captured image obtained by the up shooting and the shooting obtained by the whole body shooting.
また、合成画像665において、撮影画像661の被写体領域が合成される位置や、撮影画像662の被写体領域が合成される位置が、利用者の操作により指定されるようにしてもよい。また、撮影画像661,662それぞれの被写体領域に対して、先述した携帯おまけにおける切り取り画像と同様に、利用者の操作による移動、回転、拡大/縮小、および鏡映が行われるようにしてもよい。さらに、撮影画像661,662それぞれの被写体領域に対して、上述したオーラ画像が合成されるようにし、その撮影画像661,662それぞれの被写体領域の移動、回転、拡大/縮小、および鏡映が、利用者の操作により行われるようにしてもよい。
Further, in the
なお、合成画像665において、撮影画像661,662の被写体領域が合成される位置は、例えば、撮影画像661の被写体の要部(具体的には顔)の一部または全部が隠れるなど、所定の範囲で指定されるものとする。
Note that, in the
上述した例では、下層のレイヤに合成される撮影画像(撮影画像662)に対してぼかし処理が施されるものとした。これに限らず、下層のレイヤに合成される撮影画像に対して、モノトーン調にしたりセピア調にする画像処理が施されるようにしてもよい。なお、これらの画像処理は、下層のレイヤに合成される撮影画像に限らず、上層のレイヤに合成される撮影画像に施されるようにしてもよい。 In the example described above, the blurring process is performed on the captured image (the captured image 662) to be combined with the lower layer. However, the present invention is not limited to this, and it is also possible to perform image processing for obtaining a monotone tone or a sepia tone on a captured image to be synthesized with the lower layer. Note that these image processes are not limited to a captured image combined with a lower layer, and may be performed on a captured image combined with an upper layer.
また、上述の画像処理が施される領域(例えば、顔の領域のみなど)が指定されるようにしてもよい。さらに、1枚の撮影画像に対して、上述の画像処理が組み合わされて施されるようにしてもよい。もちろん、施される画像処理は、利用者により選択されるようにしてもよい。 Further, an area where the above-described image processing is performed (for example, only a face area) may be designated. Further, the above-described image processing may be performed in combination on one captured image. Of course, the image processing to be performed may be selected by the user.
上述した一連の処理は、ハードウェアにより実行させることもできるし、ソフトウェアにより実行させることもできる。上述した一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、ネットワークや記録媒体からインストールされる。 The series of processes described above can be executed by hardware or can be executed by software. When the series of processes described above are executed by software, a program constituting the software is installed from a network or a recording medium.
この記録媒体は、例えば、図9に示されるように、装置本体とは別に、写真シール作成装置1の管理者にプログラムを配信するために配布される、そのプログラムが記録されている磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROMおよびDVDを含む)、光磁気ディスク、もしくは半導体メモリなどよりなるリムーバブルメディア205により構成される。また、これらだけでなく、記録媒体は、装置本体にあらかじめ組み込まれた状態で管理者に配信されるプログラムが記録されているROM206や、記憶部202に含まれるハードディスクなどで構成される。
For example, as shown in FIG. 9, this recording medium is distributed separately from the main body of the apparatus to distribute the program to an administrator of the photo
なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。 In the present specification, the steps of describing a program recorded on a recording medium may be performed in chronological order according to the described order, or may be performed in parallel or even if not necessarily performed in chronological order. This also includes processes executed individually.
以上において、印刷媒体は、シール紙や写真紙に限られるものではない。例えば、所定のサイズの紙やフィルム、プリペイドカードやIC(Integrated Circuit)カードなどのカード、あるいは、Tシャツなどの布地などに、画像を印刷するようにしてもよい。この場合、1または複数の撮影画像が配置されたシールレイアウト画像が、これらの印刷媒体に印刷されるようにしてもよい。 In the above, the print medium is not limited to sticker paper or photographic paper. For example, the image may be printed on paper or film of a predetermined size, a card such as a prepaid card or an IC (Integrated Circuit) card, or a cloth such as a T-shirt. In this case, a seal layout image on which one or a plurality of photographed images are arranged may be printed on these print media.
また、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。 Embodiments of the present technology are not limited to the above-described embodiments, and various changes can be made without departing from the gist of the present technology.
1 写真シール作成装置
201 制御部
301 事前選択処理部
302 撮影処理部
303 編集処理部
304 印刷処理部
321 表示制御部
323 撮影制御部
324 画像処理部
331 表示制御部
333 画像処理部
Claims (7)
前記撮影画像の被写体領域をマスクするマスク画像を生成するマスク生成部と、
前記マスク画像を用いて、所定のデザインを有するデザイン画像に前記撮影画像を合成する合成部と
を備え、
前記撮影処理部は、1回の撮影により、第1の撮影画像および第2の撮影画像を生成し、
前記マスク生成部は、前記第1の撮影画像に基づいて、前記第1の撮影画像の被写体領域をマスクする第1のマスク画像を生成し、かつ、前記第2の撮影画像に基づいて、前記第2の撮影画像の被写体領域をマスクする第2のマスク画像を生成し、
前記合成部は、前記第1のマスク画像を用いて、前記デザイン画像に前記第1の撮影画像を合成し、さらに、前記第1の撮影画像の顔領域の一部または全部に前記第2の撮影画像の被写体領域が重なるように、前記第2のマスク画像を用いて、前記第1の撮影画像の被写体領域が合成された前記デザイン画像に前記第2の撮影画像を合成する
写真シール作成装置。 A shooting processing unit that shoots a subject and generates a shot image;
A mask generation unit that generates a mask image that masks a subject area of the captured image,
A synthesizing unit that synthesizes the photographed image with a design image having a predetermined design using the mask image,
The photographing processing unit generates a first photographed image and a second photographed image by one photographing,
The mask generating unit, based on the first captured image, to generate a first mask image for masking the subject area of the first captured image, and, based on the second captured image, wherein Generating a second mask image that masks the subject area of the second captured image;
The synthesizing unit synthesizes the first captured image with the design image using the first mask image, and further includes the second mask on a part or all of the face area of the first captured image. Photo sticker creating device that combines the second captured image with the design image in which the subject region of the first captured image is combined using the second mask image so that the subject region of the captured image overlaps. .
請求項1に記載の写真シール作成装置。 The photograph sticker creation device according to claim 1 , wherein the photographing processing unit generates the first photographed image and the second photographed image in which the subject is captured in different ranges.
請求項2に記載の写真シール作成装置。 3. The photograph sticker creating device according to claim 2 , wherein the photographing processing unit generates an up image as the photographed image in which the face and the upper body of the subject are photographed and a whole body image as the photographed image in which the whole body of the subject is photographed. 4. .
請求項1乃至3のいずれかに記載の写真シール作成装置。 The combining unit, after applying the blurring process on the first captured image, photo sticker generating apparatus according to any of claims 1 to 3 for synthesizing the first captured image to the design image.
請求項1に記載の写真シール作成装置。 The photographing processing unit photographs the plurality of subjects once, and generates, for each of the subjects, the first photographed image and the second photographed image in which ranges in which the subjects are photographed are different from each other. Photo sticker making equipment.
請求項5に記載の写真シール作成装置。 The imaging processing unit, for each of the object, up image is the captured image in which the face and upper body of the subject objects appear, and, according to claim 5 to generate a systemic image is the captured image systemic said object objects appear Photo sticker making equipment.
前記撮影画像の被写体領域をマスクするマスク画像を生成するマスク生成部と、
前記マスク画像を用いて、所定のデザインを有するデザイン画像に前記撮影画像を合成する合成部とを備える写真シール作成装置が、
1回の撮影により、第1の撮影画像および第2の撮影画像を生成し、
前記第1の撮影画像に基づいて、前記第1の撮影画像の被写体領域をマスクする第1のマスク画像を生成し、
前記第2の撮影画像に基づいて、前記第2の撮影画像の被写体領域をマスクする第2のマスク画像を生成し、
前記第1のマスク画像を用いて、前記デザイン画像に前記第1の撮影画像を合成し、
さらに、前記第1の撮影画像の顔領域の一部または全部に前記第2の撮影画像の被写体領域が重なるように、前記第2のマスク画像を用いて、前記第1の撮影画像の被写体領域が合成された前記デザイン画像に前記第2の撮影画像を合成する
ステップを含む画像処理方法。 A shooting processing unit that shoots a subject and generates a shot image;
A mask generation unit that generates a mask image that masks a subject area of the captured image,
Using the mask image, a photo sticker creating device including a synthesizing unit that synthesizes the photographed image with a design image having a predetermined design,
A first shooting image and a second shooting image are generated by one shooting,
Based on the first captured image, to generate a first mask image for masking the subject area of the first captured image,
Based on the second captured image, to generate a second mask image for masking the subject area of the second captured image,
Using the first mask image, synthesizing the first captured image with the design image,
Further, the subject area of the first captured image is used by using the second mask image so that the subject area of the second captured image overlaps part or all of the face area of the first captured image. Synthesizing the second captured image with the design image in which the image is synthesized.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019034589A JP6671015B2 (en) | 2019-02-27 | 2019-02-27 | Photo sticker making apparatus and image processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019034589A JP6671015B2 (en) | 2019-02-27 | 2019-02-27 | Photo sticker making apparatus and image processing method |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015055344A Division JP2016177015A (en) | 2015-03-18 | 2015-03-18 | Photo seal creation device and image processing method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019135835A JP2019135835A (en) | 2019-08-15 |
JP6671015B2 true JP6671015B2 (en) | 2020-03-25 |
Family
ID=67624217
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019034589A Active JP6671015B2 (en) | 2019-02-27 | 2019-02-27 | Photo sticker making apparatus and image processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6671015B2 (en) |
-
2019
- 2019-02-27 JP JP2019034589A patent/JP6671015B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2019135835A (en) | 2019-08-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4316001B1 (en) | Photography game machine, photography game method and photography game program | |
JP5201430B1 (en) | Photo sticker creation apparatus and method, and program | |
JP6115774B2 (en) | Image editing apparatus, image editing method, and program | |
JP4316002B1 (en) | Photography game machine, photography game method and photography game program | |
US9549084B2 (en) | Photo decoration device | |
JP6575085B2 (en) | Photo sticker creation apparatus and image generation method | |
JP5569502B2 (en) | Photo sticker creation apparatus, photo sticker creation method, and program | |
JP2016177015A (en) | Photo seal creation device and image processing method | |
JP6503927B2 (en) | Image shooting apparatus and image shooting method | |
JP5673883B1 (en) | Photo sticker making apparatus and photo sticker making method | |
JP2018023069A (en) | Game player for creating photograph and display method | |
JP6792154B2 (en) | Photographing game console and image processing method | |
JP5621875B1 (en) | Imaging apparatus and method, and program | |
JP2010068507A (en) | Photo game machine, photo game method and photo game program | |
JP6671015B2 (en) | Photo sticker making apparatus and image processing method | |
JP7074994B2 (en) | Photographing game console and image processing method | |
JP5790683B2 (en) | Photo sticker creating apparatus, processing method of photo sticker creating apparatus, and program | |
JP2016213780A (en) | Photograph sticker creation device and image display method | |
JP6548021B2 (en) | Photo sticker creation device and display method | |
JP6124087B2 (en) | Image editing apparatus and image editing method | |
JP6687839B2 (en) | Photo creation game machine and display method | |
JP6664062B2 (en) | Photo sticker making device and photographing method | |
JP6659942B2 (en) | Photo sticker making device and display method | |
JP6489396B2 (en) | Photo sticker creation apparatus, display method, and program | |
JP6545080B2 (en) | Image processing apparatus and method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190322 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20191113 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20191203 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200122 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200130 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200212 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6671015 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |