JP2013229702A - Photo sticker creation device, method, and program - Google Patents
Photo sticker creation device, method, and program Download PDFInfo
- Publication number
- JP2013229702A JP2013229702A JP2012099518A JP2012099518A JP2013229702A JP 2013229702 A JP2013229702 A JP 2013229702A JP 2012099518 A JP2012099518 A JP 2012099518A JP 2012099518 A JP2012099518 A JP 2012099518A JP 2013229702 A JP2013229702 A JP 2013229702A
- Authority
- JP
- Japan
- Prior art keywords
- image
- user
- camera
- area
- region
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 156
- 238000012545 processing Methods 0.000 claims abstract description 114
- 230000015572 biosynthetic process Effects 0.000 claims abstract description 15
- 238000003786 synthesis reaction Methods 0.000 claims abstract description 15
- 230000002194 synthesizing effect Effects 0.000 claims abstract description 9
- 230000008569 process Effects 0.000 claims description 137
- 238000005034 decoration Methods 0.000 claims description 97
- 238000003384 imaging method Methods 0.000 claims description 67
- 239000002131 composite material Substances 0.000 claims description 28
- 230000009466 transformation Effects 0.000 claims description 3
- 238000002360 preparation method Methods 0.000 claims 1
- 238000000605 extraction Methods 0.000 abstract description 9
- 239000000284 extract Substances 0.000 abstract description 5
- 240000007320 Pinus strobus Species 0.000 description 56
- 210000002683 foot Anatomy 0.000 description 21
- 239000000203 mixture Substances 0.000 description 20
- 238000005286 illumination Methods 0.000 description 13
- 101000854908 Homo sapiens WD repeat-containing protein 11 Proteins 0.000 description 12
- 102100020705 WD repeat-containing protein 11 Human genes 0.000 description 12
- 238000010586 diagram Methods 0.000 description 10
- 230000000694 effects Effects 0.000 description 10
- 238000001514 detection method Methods 0.000 description 9
- 210000003371 toe Anatomy 0.000 description 9
- KRQUFUKTQHISJB-YYADALCUSA-N 2-[(E)-N-[2-(4-chlorophenoxy)propoxy]-C-propylcarbonimidoyl]-3-hydroxy-5-(thian-3-yl)cyclohex-2-en-1-one Chemical compound CCC\C(=N/OCC(C)OC1=CC=C(Cl)C=C1)C1=C(O)CC(CC1=O)C1CCCSC1 KRQUFUKTQHISJB-YYADALCUSA-N 0.000 description 8
- NIXOWILDQLNWCW-UHFFFAOYSA-N acrylic acid group Chemical group C(C=C)(=O)O NIXOWILDQLNWCW-UHFFFAOYSA-N 0.000 description 6
- 230000006870 function Effects 0.000 description 5
- 238000004519 manufacturing process Methods 0.000 description 5
- 239000003086 colorant Substances 0.000 description 4
- 101100309712 Arabidopsis thaliana SD11 gene Proteins 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 238000003780 insertion Methods 0.000 description 3
- 230000037431 insertion Effects 0.000 description 3
- 239000000463 material Substances 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 239000013256 coordination polymer Substances 0.000 description 2
- 239000004744 fabric Substances 0.000 description 2
- 230000001678 irradiating effect Effects 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 239000011347 resin Substances 0.000 description 2
- 229920005989 resin Polymers 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 210000000746 body region Anatomy 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 230000003028 elevating effect Effects 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000007789 sealing Methods 0.000 description 1
- 238000009966 trimming Methods 0.000 description 1
Images
Landscapes
- Processing Or Creating Images (AREA)
- Image Processing (AREA)
- Television Signal Processing For Recording (AREA)
Abstract
Description
本発明は写真シール作成装置および方法、並びにプログラムに関し、特に、より自然な画像を得ることができるようにした写真シール作成装置および方法、並びにプログラムに関する。 The present invention relates to a photographic sticker creating apparatus and method, and a program, and more particularly to a photographic sticker creating apparatus and method, and a program capable of obtaining a more natural image.
利用者を撮影し、撮影画像に対して利用者に編集を行わせ、編集後の画像をシール紙に印刷して提供する写真シール機が知られている。このような写真シール機は娯楽(遊戯)施設等に設置される。 There is known a photo sticker that takes a picture of a user, causes the user to edit the shot image, and prints and provides the edited image on sticker paper. Such a photo sticker is installed in an entertainment facility.
写真シール機によって提供される1ゲームの流れは、通常、撮影空間内にいる利用者を被写体として撮影し、利用者を編集空間に移動させ、編集空間内で行われる操作に従って画像を編集し、編集後の画像である編集済み画像をシール紙に印刷して排出するという流れになる。 The flow of one game provided by the photo-seal machine usually shoots a user in the shooting space as a subject, moves the user to the editing space, edits the image according to operations performed in the editing space, The edited image, which is the edited image, is printed on a sticker sheet and discharged.
このような写真シール機には、被写体として撮影された利用者の縁にオーラ画像などの装飾画像が付加されるものもある(例えば、特許文献1参照)。また、クロマキー処理によって正確に利用者の領域と背景領域とを切り分けることで、利用者にいわゆるオーラや影を綺麗に付加したり、利用者の領域と背景を綺麗に合成したりすることができる写真シール機もある(例えば、特許文献2および特許文献3参照)。
Some of such photo sticker machines have a decorative image such as an aura image added to the edge of a user photographed as a subject (see, for example, Patent Document 1). In addition, by accurately separating the user area and the background area by chroma key processing, it is possible to add a so-called aura and shadow to the user, and to synthesize the user area and the background neatly. There are also photographic sealing machines (see, for example,
さらには、撮影時のライブビュー表示を行なう際に、実際にトリミングされる範囲よりも広い範囲を表示させ、利用者にオーラや影を付加する写真シール機もある(例えば、特許文献4参照)。この写真シール機では、ライブビュー表示において利用者に付加されたオーラや影の一部の領域が、トリミングの範囲外となり、最終的な画像には含まれないようになる。 Furthermore, when performing live view display at the time of shooting, there is also a photographic seal machine that displays a wider range than the range that is actually trimmed and adds an aura or shadow to the user (see, for example, Patent Document 4). . In this photo sticker, a region of aura or shadow added to the user in the live view display is outside the trimming range and is not included in the final image.
ところで、特許文献1乃至特許文献3に記載の技術では、利用者に対して影やオーラなどの装飾画像を付加することができるが、最終的に得られる画像の背景として、利用者に付加される装飾画像に合うような背景色の画像が合成される。そのため、背景が平面的になり、最終的に得られる画像は、利用者のすぐ後ろに背景(壁)があるような不自然な画像となってしまう。
By the way, in the techniques described in
また、特許文献4には、どのようにして利用者にオーラや影を付加するかについては、具体的に記載されておらず、利用者に自然な影やオーラを付加する処理を実現することができない。
さらに、一般的に写真シール機の撮影ブースで利用者を被写体として撮影すると、撮影ブース内が明るすぎて影ができにくい場合や、影が薄い場合がある。そのような場合には、撮影された画像上の利用者に対して、自然な影等の装飾画像を付加することが困難である。 Furthermore, generally, when a user is photographed as a subject in a photography booth of a photo sticker machine, the inside of the photography booth may be too bright to make a shadow, or the shadow may be light. In such a case, it is difficult to add a decorative image such as a natural shadow to the user on the captured image.
本発明は、このような状況に鑑みてなされたものであり、より自然な画像を得ることができるようにするものである。 The present invention has been made in view of such a situation, and makes it possible to obtain a more natural image.
本発明の一側面の写真シール作成方法は、撮影空間において利用者を被写体として撮影し、得られた画像に対して前記利用者に編集入力を行なわせ、前記画像をシール紙に印刷する写真シール作成装置の写真シール作成方法であって、前記利用者を被写体として撮影した取り込み画像を取得する取得ステップと、前記取り込み画像上の前記利用者の領域を示すマスク画像の少なくとも一部の領域に対して変形処理を施すことで、前記利用者を装飾する装飾画像を生成する装飾画像生成ステップと、前記取り込み画像と前記装飾画像を合成して合成画像を生成する合成ステップとを含む。 According to another aspect of the present invention, there is provided a photo sticker creation method for taking a photograph of a user as a subject in a photographing space, allowing the user to perform editing input on the obtained image, and printing the image on sticker paper. A method for creating a photo sticker of a creation device, the acquisition step of acquiring a captured image obtained by photographing the user as a subject, and at least a partial region of a mask image indicating the region of the user on the captured image By performing the deformation process, a decoration image generating step for generating a decoration image for decorating the user, and a combining step for combining the captured image and the decoration image to generate a combined image are included.
前記撮影空間における背面、側面、および床面のうちの2面が交わる交線を模した線分を含む背景画像を生成する背景画像生成ステップをさらに含み、前記合成ステップにおいて、前記背景画像と前記装飾画像を合成して得られる合成用画像に対して、前記取り込み画像を合成することで、前記合成画像を生成させることができる。 A background image generating step of generating a background image including a line segment imitating an intersection line of two of the back surface, the side surface, and the floor surface in the photographing space; and in the combining step, the background image and the The synthesized image can be generated by synthesizing the captured image with a synthesis image obtained by synthesizing the decoration image.
前記装飾画像生成ステップにおいて、前記背面と前記床面の交線位置に基づいて定められた前記マスク画像上の領域に対して変形処理を施させ、前記装飾画像を生成させることができる。 In the decoration image generation step, the decoration image can be generated by performing a deformation process on an area on the mask image determined based on the intersection line position between the back surface and the floor surface.
前記装飾画像生成ステップにおいて、前記背面と前記側面の交線位置に基づいて定められた前記マスク画像上の領域に対して変形処理を施させ、前記装飾画像を生成させることができる。 In the decoration image generation step, the decoration image can be generated by performing a deformation process on an area on the mask image determined based on the intersection line position between the back surface and the side surface.
前記装飾画像を、前記利用者に付加される前記利用者の影の画像とし、前記影の領域を、前記背面、前記側面、または前記床面に沿って設けることができる。 The decoration image may be an image of the user's shadow added to the user, and the shadow area may be provided along the back surface, the side surface, or the floor surface.
前記装飾画像上の前記影の領域にはグラデーションをつけることができる。 A gradation can be added to the shadow area on the decorative image.
写真シール作成方法では、前記利用者の撮影時に、前記合成画像をライブビュー表示させるライブビュー表示制御ステップをさらに含むようにすることができる。 The photo sticker creation method may further include a live view display control step of displaying the composite image in a live view when the user takes a picture.
本発明の一側面の写真シール作成装置は、撮影空間において利用者を被写体として撮影し、得られた画像に対して前記利用者に編集入力を行なわせ、前記画像をシール紙に印刷する写真シール作成装置であって、前記利用者を被写体として撮影した取り込み画像を取得する取得手段と、前記取り込み画像上の前記利用者の領域を示すマスク画像の少なくとも一部の領域に対して変形処理を施すことで、前記利用者を装飾する装飾画像を生成する装飾画像生成手段と、前記取り込み画像と前記装飾画像を合成して合成画像を生成する合成手段とを備える。 According to another aspect of the present invention, there is provided a photo sticker creating apparatus that takes a picture of a user as a subject in a shooting space, causes the user to input an edit, and prints the image on sticker paper. A creation apparatus, wherein an acquisition unit that acquires a captured image obtained by photographing the user as a subject and a deformation process are performed on at least a part of a mask image indicating the user's region on the captured image Thus, the image processing apparatus includes a decoration image generation unit that generates a decoration image that decorates the user, and a combination unit that combines the captured image and the decoration image to generate a combined image.
本発明の一側面のプログラムは、撮影空間において利用者を被写体として撮影し、得られた画像に対して前記利用者に編集入力を行なわせ、前記画像をシール紙に印刷する写真シール作成装置のプログラムであって、前記利用者を被写体として撮影した取り込み画像を取得し、前記取り込み画像上の前記利用者の領域を示すマスク画像の少なくとも一部の領域に対して変形処理を施すことで、前記利用者を装飾する装飾画像を生成し、前記取り込み画像と前記装飾画像を合成して合成画像を生成するステップを含む。 According to one aspect of the present invention, there is provided a program for creating a photo sticker that photographs a user as a subject in a photographing space, causes the user to perform editing input on the obtained image, and prints the image on sticker paper. A program that acquires a captured image obtained by photographing the user as a subject, and performs deformation processing on at least a part of a mask image indicating the user's region on the captured image, Generating a decoration image for decorating a user, and combining the captured image and the decoration image to generate a combined image.
本発明の一側面においては、撮影空間において利用者を被写体として撮影し、得られた画像に対して前記利用者に編集入力を行なわせ、前記画像をシール紙に印刷する写真シール作成装置において、前記利用者を被写体として撮影した取り込み画像が取得され、前記取り込み画像上の前記利用者の領域を示すマスク画像の少なくとも一部の領域に対して変形処理を施すことで、前記利用者を装飾する装飾画像が生成され、前記取り込み画像と前記装飾画像が合成されて合成画像が生成される。 In one aspect of the present invention, in a photo sticker creating apparatus for photographing a user as a subject in a photographing space, allowing the user to perform editing input on the obtained image, and printing the image on sticker paper, A captured image obtained by photographing the user as a subject is acquired, and the user is decorated by performing deformation processing on at least a part of the mask image indicating the user's region on the captured image. A decoration image is generated, and the captured image and the decoration image are combined to generate a combined image.
本発明によれば、より自然な画像を得ることができる。 According to the present invention, a more natural image can be obtained.
以下、本発明を適用した具体的な実施の形態について、図面を参照しながら詳細に説明する。 Hereinafter, specific embodiments to which the present invention is applied will be described in detail with reference to the drawings.
〈第1の実施の形態〉
[写真シール作成装置の外観構成]
図1は、本発明の一実施形態に係る写真シール作成装置1の外観の構成例を示す斜視図である。
<First Embodiment>
[External structure of photo sticker creation device]
FIG. 1 is a perspective view showing a configuration example of the appearance of a photo
写真シール作成装置1は、撮影や編集等の作業を利用者にゲームとして行わせ、撮影画像や編集済み画像を提供する代わりに利用者より代金を受け取るゲーム機である。写真シール作成装置1はゲームセンタなどの店舗に設置される。利用者は1人であることもあるし、複数人であることもある。
The photo
写真シール作成装置1が提供するゲームで遊ぶ利用者は、代金を投入し、自身が被写体となって撮影を行い、撮影によって得られた撮影画像の中から選択した編集対象の画像に対して、手書きの線画やスタンプ画像を合成する編集機能を用いて編集を行うことにより、撮影画像を彩り豊かな画像にする。利用者は、編集済みの画像が印刷されたシール紙を受け取って一連のゲームを終了させることになる。
A user who plays in the game provided by the photo
図1に示すように、写真シール作成装置1は、主に、撮影ユニット11、編集部12、および事後接客部13から構成される。撮影ユニット11と編集部12が接した状態で設置され、編集部12と事後接客部13が接した状態で設置される。
As shown in FIG. 1, the photo
撮影ユニット11は、撮影部21と背景部22から構成される。撮影部21と背景部22は所定の距離だけ離れて設置され、撮影部21と背景部22の間に形成される空間である撮影空間において撮影作業が行われる。
The photographing
撮影部21は撮影作業を利用者に行わせる装置である。撮影部21は、撮影空間に入り、撮影作業を行っている利用者の正面に位置する。撮影空間を正面に臨む面を構成する撮影部21の正面パネル41には、撮影作業時に利用者により用いられるタッチパネルモニタなどが設けられる。撮影空間にいる利用者から見て左側の面を左側面、右側の面を右側面とすると、撮影部21の左側面が側面パネル42Aにより構成され、右側面が側面パネル42B(図示せず)により構成される。
The photographing
背景部22は、正面を向いて撮影作業を行っている利用者の背面側に位置する板状の部材である背面パネル51、背面パネル51の左端に取り付けられ、側面パネル42Aとほぼ同じ幅の板状の部材である側面パネル52A、および、背面パネル51の右端に取り付けられ、側面パネル42Bとほぼ同じ幅の板状の部材である側面パネル52B(図2)から構成される。
The
撮影部21の左側面を構成する側面パネル42Aと背景部22の側面パネル52Aは、ほぼ同一平面に設けられ、それぞれの上部が板状の部材である連結部23Aによって連結される。また、撮影部21の右側面を構成する側面パネル42Bと背景部22の側面パネル52Bは、ほぼ同一平面に設けられ、それぞれの上部が板状の部材である連結部23Bによって連結される。
The
撮影部21の側面パネル42A、連結部23A、および背景部22の側面パネル52Aに囲まれることによって形成される開口が撮影空間の出入り口G1となる。なお、図示はしないが、撮影部21の側面パネル42B、連結部23B、および背景部22の側面パネル52Bに囲まれることによって形成される開口も撮影空間の出入り口G2となる。
An opening formed by being surrounded by the side panel 42 </ b> A of the photographing
撮影空間の上方には、撮影部21の正面パネル41、連結部23A、連結部23B、および背景部22の背面パネル51に囲まれる開口が形成され、その開口の一部を覆うように天井ストロボユニット24が設けられる。天井ストロボユニット24の一端が連結部23Aに固定され、他端が連結部23Bに固定される。天井ストロボユニット24は、撮影に合わせて撮影空間内に向けて発光するストロボを内蔵する。天井ストロボユニット24を構成するストロボの内部には蛍光灯が設けられており、撮影空間の照明としても機能する。
An opening surrounded by the
なお、撮影空間にいる利用者の正面−背面方向を奥行き方向とすると、撮影ユニット11の寸法(奥行き、幅、および高さ)は、例えば、1850mm×1800mm×2225mmとされる。
When the front-back direction of the user in the shooting space is the depth direction, the dimensions (depth, width, and height) of the
編集部12は、撮影作業によって得られた画像を編集する編集作業を利用者に行わせる装置である。編集部12は、一方の側面が撮影部21の正面パネル41の背面に接するように撮影ユニット11に連結して設けられる。編集部12には、編集作業時に利用者により用いられるタブレット内蔵モニタなどの構成が設けられる。
The
図1に示す編集部12の構成を正面側の構成とすると、2組の利用者が同時に編集作業を行うことができるように、編集部12の正面側と背面側には編集作業に用いられる構成がそれぞれ設けられる。
If the configuration of the
編集部12の正面側は、床面に対して垂直な面であり、側面パネル42Aとほぼ平行な面である面71と、面71の上方に形成された斜面72から構成され、編集作業に用いられる構成が斜面72に設けられる。斜面72の左側には、柱状の形状を有し、照明装置74の一端を支持する支持部73Aが設けられる。斜面72の右側にも、照明装置74の他端を支持する支持部73B(図2)が設けられる。さらに、支持部73Aの左側には、板状の形状を有し、事後接客部13が連結して設けられる支持部73Cが設けられる。また、支持部73Cの上面にはカーテンレール26を支持する支持部75が設けられる。
The front side of the
編集部12の上方にはカーテンレール26が取り付けられる。カーテンレール26は、上から見たときの形状がコの字状となるように3本のレール26A乃至26Cを組み合わせて構成される。平行に設けられるレール26Aと26Bの一端は、連結部23Aと連結部23Bにそれぞれ固定され、他端に残りの一本のレール26Cの両端が接合される。
A
カーテンレール26には、編集部12の正面前方の空間と背面前方の空間の内部が外から見えないようにカーテンが取り付けられる。カーテンレール26に取り付けられたカーテンにより囲まれる編集部12の正面前方の空間と背面前方の空間が、利用者が編集作業を行う編集空間となる。
A curtain is attached to the
図2は、写真シール作成装置1を別の角度から見た斜視図である。
FIG. 2 is a perspective view of the photo
事後接客部13は利用者に対して事後接客を行う装置である。事後接客では、撮影画像や編集済みの画像が携帯電話機などの携帯端末に送信される。
The subsequent
図2に示すように、事後接客部13は、所定の厚さを有する板状の筐体を有しており、その背面が編集部12の左側面に接するように編集部12に連結して設けられる。事後接客部13の正面には、事後接客時に利用者により用いられるタブレット内蔵モニタや、撮影画像や編集済みの画像が印刷されたシール紙が排出される排出口などが設けられる。事後接客部13の正面前方の空間が、シール紙への印刷が終わるのを待っている利用者に対して事後接客を行う事後接客空間となる。
As shown in FIG. 2, the
ここで、写真シール作成ゲームの流れと、それに伴う利用者の移動について図3を参照して説明する。図3は、写真シール作成装置1を上から見た平面図である。
Here, the flow of the photo sticker creation game and the accompanying movement of the user will be described with reference to FIG. FIG. 3 is a plan view of the photo
写真シール作成装置1の利用者は、白抜き矢印#1で示すように出入り口G1から、または白抜き矢印#2で示すように出入り口G2から、撮影部21と背景部22の間に形成された撮影空間A1に入り、撮影部21に設けられたカメラやタッチパネルモニタなどを利用して撮影作業を行う。
The user of the photo
撮影作業を終えた利用者は、白抜き矢印#3で示すように出入り口G1を使って撮影空間A1から出て編集空間A2−1に移動するか、白抜き矢印#4で示すように出入り口G2を使って撮影空間A1から出て編集空間A2−2に移動する。
The user who has finished the photographing work exits the photographing space A1 using the doorway G1 as indicated by the
編集空間A2−1は、編集部12の正面側の編集空間であり、編集空間A2−2は、編集部12の背面側の編集空間である。編集空間A2−1と編集空間A2−2のいずれの空間に移動するのかが、撮影部21のタッチパネルモニタの画面表示などによって案内される。例えば2つの編集空間のうちの空いている方の空間が移動先として案内される。編集空間A2−1または編集空間A2−2に移動した利用者は編集作業を開始する。編集空間A2−1の利用者と、編集空間A2−2の利用者は同時に編集作業を行うことができる。
The editing space A2-1 is an editing space on the front side of the
編集作業が終了した後、撮影画像や編集済みの画像の中から選択された画像の印刷が開始される。画像の印刷中、編集作業を終えた利用者は、編集空間A2−1で編集作業を行っていた場合には白抜き矢印#5で示すように編集空間A2−1から事後接客空間A3に移動して事後接客を受ける。また、編集作業を終えた利用者は、編集空間A2−2で編集作業を行っていた場合には白抜き矢印#6で示すように編集空間A2−2から事後接客空間A3に移動し、事後接客空間A3において事後接客を受ける。
After the editing operation is completed, printing of an image selected from the photographed image and the edited image is started. The user who has finished the editing work during image printing moves from the editing space A2-1 to the post-service area A3 as indicated by the
画像の印刷が終了したとき、利用者は、事後接客部13に設けられた排出口からシール紙を受け取り、一連の写真シール作成ゲームを終えることになる。
When the printing of the image is finished, the user receives the sticker paper from the outlet provided in the
次に、各装置の構成について説明する。 Next, the configuration of each device will be described.
[撮影部の構成]
図4は、撮影部21の構成例を示す図である。撮影部21は、正面パネル41、側面パネル42A、および側面パネル42Bが、箱状の形状を有するベース部43に取り付けられることによって構成される。
[Configuration of shooting section]
FIG. 4 is a diagram illustrating a configuration example of the photographing
正面パネル41は撮影空間A1で撮影作業を行う利用者の正面に位置し、側面パネル42Aと側面パネル42Bは、それぞれ、撮影空間A1で撮影作業を行う利用者の左側、右側に位置する。側面パネル42Aの上方には連結部23Aが固定され、側面パネル42Bの上方には連結部23Bが固定される。
The
正面パネル41のほぼ中央には撮影・表示ユニット81が設けられる。撮影・表示ユニット81は、カメラ91、カメラストロボ92、およびタッチパネルモニタ93から構成される。
An imaging /
カメラ91は、CCD(Charge Coupled Device)などの撮像素子を有する撮像装置を含むように構成され、撮影空間A1にいる利用者を撮影する。カメラ91により取り込まれた動画像(ライブビュー画像)は、タッチパネルモニタ93にリアルタイムで表示される。利用者により撮影が指示されたときなどの所定のタイミングでカメラ91により取り込まれた画像は撮影画像(静止画像)として保存される。なお、カメラ91により取り込まれた画像、すなわち、ライブビュー画像および撮影画像を併せて、以下、取り込み画像ともいう。
The
カメラ91の背面側には、カメラストロボ92が設けられ、カメラ91は、カメラストロボ92の表面側で上下方向に駆動(移動)するようになされている。カメラストロボ92は、発光面を構成するアクリル板と、その背後に設けられる蛍光灯等の照明装置とから構成され、他のストロボと同様にカメラ91による撮影に合わせて発光する。カメラストロボ92においては、カメラ91の上下方向の位置に応じて露出する部分が発光面となる。つまり、カメラストロボ92は、カメラ91の上下方向の位置に応じて、被写体としての利用者の顔付近をカメラ91の上方または下方から照射する。
A
カメラ91の下側に設けられたタッチパネルモニタ93は、LCD(Liquid Crystal Display)などのモニタと、それに積層されたタッチパネルにより構成される。タッチパネルモニタ93は、カメラ91により取り込まれた動画像を表示するライブビューモニタとしての機能と、各種のGUI(Graphical User Interface)画像を表示し、利用者の選択操作をタッチパネルにより受け付ける機能とを備えている。タッチパネルモニタ93には、適宜、背景等の画像が合成された後の動画像が表示される。
A touch panel monitor 93 provided on the lower side of the
正面パネル41には、撮影・表示ユニット81の位置を基準として、上方に上ストロボ82が設置される。また、左方に左ストロボ83が設置され、右方に右ストロボ84が設置される。撮影・表示ユニット81の下方の位置には、ベース部43の上面が一部突出する形で下ストロボ85が設けられる。
On the
上ストロボ82は、利用者を上前方から照射する。左ストロボ83は、利用者を左前方から照射し、右ストロボ84は、利用者を右前方から照射する。下ストロボ85は、利用者を下前方から照射する。
The upper strobe 82 irradiates the user from the upper front. The
ベース部43には利用者の足元を照射する足元ストロボ86も設けられる。上ストロボ82、左ストロボ83、右ストロボ84、下ストロボ85、および足元ストロボ86の内部には蛍光灯が設けられており、天井ストロボユニット24を構成するストロボの内部の蛍光灯と合わせて、撮影空間A1内の照明として用いられる。各蛍光灯の発光量が調整されることによって、または、発光させる蛍光灯の数が調整されることによって、撮影空間A1内の明るさが、利用者が行っている撮影作業の内容に応じて適宜調整される。
The
また、足元ストロボ86の右側には、利用者がお金を投入する硬貨投入返却口87が設けられる。
Further, a coin insertion /
さらに、下ストロボ85の上側であって、タッチパネルモニタ93の左側には、利用者を左下前方から照射するモニタ左ストロボ88が設けられ、タッチパネルモニタ93の右側には、利用者を右下前方から照射するモニタ右ストロボ89が設けられる。
Further, on the left side of the touch panel monitor 93 on the upper side of the lower strobe 85, a monitor left
なお、各ストロボ内部には、蛍光灯以外の照明装置が設けられてもよい。 An illumination device other than the fluorescent lamp may be provided inside each strobe.
下ストロボ85を挟んでベース部43の上面の左右に形成されるスペース43Aおよび43Bは、撮影作業を行う利用者が手荷物等を置くための荷物置き場として用いられる。また、正面パネル41の例えば天井付近には、利用者に撮影作業を行わせる撮影処理の案内音声、BGM(Back Ground Music)、効果音等の音を出力するスピーカも設けられる。
ここで、カメラ91の上下方向の駆動について説明する。
Here, the vertical drive of the
撮影処理においては、カメラ91の上下方向の位置が、被写体としての利用者を、利用者から見て前方正面から撮影する位置と、利用者から見て前方斜め上から撮影する位置とになるように、カメラ91を上下方向に駆動させて撮影が行われる。
In the shooting process, the vertical position of the
以下、適宜、利用者を前方正面から撮影する位置にあるカメラ91を下カメラといい、利用者を前方斜め上から撮影する位置にあるカメラ91を上カメラという。
Hereinafter, as appropriate, the
[撮影・表示ユニットの構成例]
図5は、上下方向に駆動するカメラ91を含む撮影・表示ユニット81の詳細な構成例を示している。
[Configuration example of shooting / display unit]
FIG. 5 shows a detailed configuration example of the photographing /
図5Aに示されるように、撮影・表示ユニット81は、縦長の直方体の形状を有する筐体の一側面に、カメラ91、カメラストロボ92、およびタッチパネルモニタ93が設けられることで構成される。カメラ91およびカメラストロボ92の周囲には、それらを囲うような額縁状のカバー94が設けられており、カメラ91は、カバー94の開口部の範囲内で上下方向に駆動する。
As shown in FIG. 5A, the photographing /
図5Bは、図5Aの状態から、タッチパネルモニタ93およびカバー94を取り外した撮影・表示ユニット81を示している。図5Bに示されるように、カメラ91は、カメラストロボ92の発光面を構成するアクリル板95と一体に構成されており、アクリル板95は、カメラ91とともに上下方向に駆動する。また、カメラ91は、カメラ支持部96によってその側面が支持されており、カメラ支持部96に設けられたガイド溝に従って上下方向に駆動する。
FIG. 5B shows the photographing /
図5Cは、図5Bの状態から、アクリル板95を取り外した撮影・表示ユニット81を示している。図5Cに示されるように、カメラ91の背面上方には、カメラ上蛍光灯97Uが設けられ、カメラ91の背面下方には、カメラ下蛍光灯97Dが設けられている。カメラ91は、カメラストロボ92を構成する照明装置としてのカメラ上蛍光灯97Uおよびカメラ下蛍光灯97Dと一体に構成されており、カメラ上蛍光灯97Uおよびカメラ下蛍光灯97Dは、カメラ91とともに上下方向に駆動する。
FIG. 5C shows the photographing /
つまり、図5Aに示されるように、カメラ91がカバー94の開口部の下端に位置し、下カメラの状態となるとき、カメラ91の上側のアクリル板95が露出し、カメラ上蛍光灯97Uが発光することで、カメラストロボ92は、被写体としての利用者の顔付近をカメラ91の上方から照射する。
That is, as shown in FIG. 5A, when the
また、図示はしないが、カメラ91がカバー94の開口部の上端に位置し、上カメラの状態となるとき、カメラ91の下側のアクリル板95が露出し、カメラ下蛍光灯97Dが発光することで、カメラストロボ92は、被写体としての利用者の顔付近をカメラ91の下方から照射する。
Although not shown, when the
[カメラの構成例]
図6は、カメラ91の詳細な構成例を示している。
[Camera configuration example]
FIG. 6 shows a detailed configuration example of the
カメラ91は、撮像装置であるカメラ本体91Mがケース91Cに搭載されて構成される。カメラ91には、所定の駆動機構によりカメラ本体91Mのレンズの光軸に平行な軸を中心に回転する回転部91Rが設けられている。また、カメラ本体91Mの焦点距離を調整するズームリング91Fの円周面に設けられたギアと、回転部91Rの一端に設けられたギア(図示せず)とは、内側にリブが設けられたタイミングベルト91Bにより連結されている。
The
すなわち、回転部91Rが回転することにより、タイミングベルト91Bを介してズームリング91Fが回転し、カメラ本体91Mの焦点距離が調整されるようになされている。これにより、例えば、カメラ91が下カメラの状態において、ズームインするように焦点距離を調整し、カメラ91が上カメラの状態において、ズームアウトするように焦点距離を調整することができる。
That is, when the
また、ケース91Cの側面には、突起物P1,P2が設けられている。カメラ91は、突起物P1,P2がそれぞれ、図7に示されるようなカメラ支持部96に設けられたガイド溝g1,g2に沿ってガイドされることで上下方向に駆動する。ガイド溝g1,g2は、カメラ支持部96を貫通するように形成されてもよいし、貫通しないように形成されてもよい。また、図7に示されるように、ガイド溝g2は、ガイド溝g1の上端に対応する位置より上では、ガイド溝g1の上端を中心に孤を描くように形成されている。これにより、突起物P1,P2がそれぞれ、ガイド溝g1の上端、および、ガイド溝g2のガイド溝g1の上端に対応する位置に達した後、カメラ91は、ガイド溝g1の上端を中心に、図中左方向に所定角度だけ回転し、撮影空間の下方向を撮影するようになる。
Further, protrusions P1 and P2 are provided on the side surface of the case 91C. The
このような構造により、カメラ91が下カメラの状態のときには、利用者は前方正面から撮影され、カメラ91が上カメラの状態のときには、利用者は前方斜め上から撮影されるようになる。
With such a structure, when the
[背景部の構成]
図8は、背景部22の撮影空間A1側の構成例を示す図である。図8Aは、背景部22の構成例を示す正面図であり、図8Bは、背景部22の構成例を示す斜視図である。
[Configuration of the background]
FIG. 8 is a diagram illustrating a configuration example of the
背面パネル51の上方のほぼ中央には、撮影空間A1内で撮影作業を行っている利用者を後方中央から照射する背面中央ストロボ101が取り付けられる。
Near the center above the
背面パネル51の上方であって、出入り口G1側の位置には、撮影空間A1内で撮影作業を行っている利用者を左後方から照射する背面左ストロボ102が取り付けられる。また、背面パネル51の上方であって、出入り口G2側の位置には、撮影空間A1内で撮影作業を行っている利用者を右後方から照射する背面右ストロボ103が取り付けられる。
A rear
また、背面パネル51の下側で、撮影空間A1において側面パネル52Aおよび側面パネル52Bに挟まれる部分には、床104が設けられている。床104は、図9に示されるように、背面パネル51側に近いほど高くなるように、写真シール作成装置1が設置される設置面に対して、例えば7°等の傾斜が設けられている。
In addition, a
なお、撮影空間にいる利用者の正面−背面方向を奥行き方向とすると、床104の寸法(奥行き、幅、および背面パネル51側の高さ)は、例えば、550mm×1710mm×80mmとされる。
If the front-back direction of the user in the shooting space is the depth direction, the dimensions of the floor 104 (depth, width, and height on the
[床の傾斜により得られる効果]
ここで、図10を参照して、床104に傾斜を設けることによって得られる効果について説明する。
[Effects obtained by floor inclination]
Here, with reference to FIG. 10, the effect obtained by providing the
図10には、撮影空間A1において、上カメラの状態のカメラ91によって撮影される被写体(利用者)111が示されている。被写体の全身を撮影しようとする場合、上カメラによる撮影によれば、下カメラによる撮影と比較して、顔が大きく写るので、顔が強調された撮影画像を得ることができる。また、下カメラにより得られる全身画像より、上カメラにより得られる全身画像の方が、画像における被写体の割合を高めることができる。このように、上カメラによる撮影は、被写体の全身画像を得るのに好適とされている。
FIG. 10 shows a subject (user) 111 photographed by the
例えば、一般的な写真シール作成装置の撮影空間において、図10Aに示されるように、被写体111がカメラ91に顔を近づけるように前傾姿勢をとった場合には、顔がより強調された撮影画像を得ることができる。
For example, in a shooting space of a general photo sticker creation apparatus, as shown in FIG. 10A, when the subject 111 takes a forward leaning posture so that the face is brought closer to the
さらに、本発明の写真シール作成装置1のように傾斜を設けた床104を備えることで、図10Bに示されるように、被写体111のかかと部分がヒールのある靴を履いているときと同じ状態となり、カメラ91の撮像面に対する足の甲の長さが、図10Aの場合より長くなるので、より足が長く見える撮影画像を得ることができる。
Further, by providing the
特に、ヒールのある靴を履いた場合の地面と足の裏のなす角度が7°のときに最も足が長く見えるものとすると、床104の傾斜を7°とすることで、例えば学校指定のヒールの低い靴を履いている女子中高生であっても、ヒールのある靴を履いたときと同様に、より足が長く見える撮影画像を得ることができる。
In particular, if the foot is the longest when the angle between the ground and the sole when wearing shoes with heel is 7 °, the inclination of the
また、図10Aに示されるように、被写体111が前傾姿勢をとってカメラ91を見た場合、顎の下から首にかけての部分111nがストロボによって照射されてしまうので、撮影画像においては、顔の輪郭がわかりにくく、必要以上に顔が大きく見えてしまう恐れがある。
Also, as shown in FIG. 10A, when the subject 111 is tilted forward and the
一方、図10Bのように床104を備えることで、被写体111は、図10Aのように前傾姿勢にならず、顎を出さない姿勢で撮影することができるので、顎の下から首にかけての部分111nに影ができ、撮影画像においては、顔の輪郭が強調されて、必要以上に顔が大きく見えることを避けることができる。
On the other hand, by providing the
さらに、図10Aにおいて、被写体111が前傾姿勢をとらずにカメラ91を見た場合、撮影画像においては、上目遣いをした顔となってしまう。一方、図10Bのように床104を備えることで、被写体111の視線が高くなるので、被写体111は、カメラ91を自然に見ることができ、撮影画像においては、上目遣いをした顔となることを避けることができる。
Furthermore, in FIG. 10A, when the subject 111 looks at the
[クロマキー用シートについて]
また、本実施の形態においては、背景部22の撮影空間A1側に、背景に利用する巻き取り式の背景カーテンや、クロマキー用のカーテンとして使用する昇降式カーテンを設けず、背景部22を構成する背面パネル51、側面パネル52A,52B、および床104の表面にクロマキー用のシートが貼付される。
[About chroma key sheet]
Further, in the present embodiment, the
図11は、背景部22の撮影空間A1側に貼付されるクロマキー用シートについて説明する図である。
FIG. 11 is a diagram illustrating a chroma key sheet affixed to the photographing space A1 side of the
図11に示されるように、背面パネル51にはクロマキー用シート121Aが貼付され、側面パネル52Bの下部にはクロマキー用シート121Bが貼付され、床104の斜面部分にはクロマキー用シート121Cが貼付される。クロマキー用シート121A乃至121Cは、緑色のクロマキー用シートであり、これにより、いわゆるグリーンバック合成が行われる。なお、図示はしないが、側面パネル52Aの下部にもクロマキー用シート121Bと同様のクロマキー用シート121C’が貼付される。なお、図11に示されるように、クロマキー用シート121Bは、側面パネル52Bの下部のみに貼付されるものとしたが、側面パネル52Bにおいてクロマキー用シート121Bが貼付される部分は、カメラ91の画角に入る部分より広ければよく、例えば側面パネル52Bの全面であってもよい。また、側面パネル52Aに貼付されるクロマキー用シート121C’についても同様である。
As shown in FIG. 11, a chroma
クロマキー用シート121A,121B,121Cはそれぞれ、同一の材質で構成されるようにしてもよいし、異なる材質で構成されるようにしてもよい。具体的には、例えば、撮影空間A1の背面となるクロマキー用シート121Aを布製とし、側面となるクロマキー用シート121Bを樹脂製または布製とし、クロマキー用シート121Cをゴム等の樹脂製としてもよい。
The
[編集部の構成]
図12は、編集部12の正面側(編集空間A2−1側)の構成例を示す図である。
[Configuration of editorial department]
FIG. 12 is a diagram illustrating a configuration example of the front side of the editing unit 12 (the editing space A2-1 side).
斜面72のほぼ中央には、タブレット内蔵モニタ131が設けられる。タブレット内蔵モニタ131を挟んで左側にタッチペン132Aが設けられ、右側にタッチペン132Bが設けられる。
A tablet built-in
タブレット内蔵モニタ131は、タッチペン132Aまたは132Bを用いて操作入力が可能なタブレットがLCDなどの編集用モニタに重畳して設けられることによって構成される。タブレット内蔵モニタ131には、例えば、編集対象画像として選択された撮影画像の編集に用いられる画面である編集画面が表示される。2人で同時に編集作業を行う場合、タッチペン132Aは一方の利用者により用いられ、タッチペン132Bは他方の利用者により用いられる。
The tablet built-in
編集部12の左側には事後接客部13が設けられる。
On the left side of the
[事後接客部の構成]
図13は、事後接客部13の正面側の構成例を示す図である。
[Composition of the customer service department]
FIG. 13 is a diagram illustrating a configuration example of the front side of the
事後接客部13の上方中央にはタブレット内蔵モニタ161が設けられる。タブレット内蔵モニタ161を挟んで左側にタッチペン162Aが設けられ、右側にタッチペン162Bが設けられる。タブレット内蔵モニタ161もタブレット内蔵モニタ131と同様に、タッチペン162Aまたは162Bを用いて操作入力が可能なタブレットがLCDなどの事後接客用モニタに重畳して設けられることによって構成される。タブレット内蔵モニタ161には、撮影画像や編集済みの画像を携帯電話機などの携帯端末に送信する事後接客処理に用いられる画面が表示される。
A
タブレット内蔵モニタ161の下には非接触型ICリーダ/ライタ163が設けられ、非接触型ICリーダ/ライタ163の下にはシール紙排出口164が設けられる。シール紙排出口164の下にはスピーカ165が設けられる。
A non-contact type IC reader /
非接触型ICリーダ/ライタ163は、近接された非接触型ICと通信を行い、非接触型ICからのデータの読み出しや非接触型ICに対するデータの書き込みを行う。
The non-contact type IC reader /
シール紙排出口164には、編集空間A2−1の利用者が編集作業を行うことによって作成した画像が印刷されたシール紙、または、編集空間A2−2の利用者が編集作業を行うことによって作成した画像が印刷されたシール紙が排出される。編集部12の内部にはプリンタが設けられており、画像の印刷がそのプリンタにより行われる。
In the sticker paper discharge port 164, sticker paper on which an image created by the user of the editing space A2-1 is printed, or the user of the editing space A2-2 performs the editing work. The sticker paper on which the created image is printed is discharged. A printer is provided inside the
スピーカ165は、事後接客処理の案内音声、BGM、効果音等の音を出力する。
The
[写真シール作成装置の内部構成]
次に、写真シール作成装置1の内部構成について説明する。図14は、写真シール作成装置1の内部の構成例を示すブロック図である。上述した構成と同じ構成には同じ符号を付してある。なお、重複する説明については適宜省略する。
[Internal configuration of photo sticker creation device]
Next, the internal configuration of the photo
制御部201はCPU(Central Processing Unit)などよりなり、ROM(Read Only Memory)206や記憶部202に記憶されているプログラムを実行し、写真シール作成装置1の全体の動作を制御する。制御部201には、記憶部202、通信部203、ドライブ204、ROM206、RAM(Random Access Memory)207が接続される。制御部201には、撮影部208、編集部209、および事後接客部210の各構成も接続される。
The
記憶部202は、ハードディスクやフラッシュメモリなどの不揮発性の記憶媒体からなり、制御部201から供給された各種の設定情報を記憶する。記憶部202に記憶されている情報は制御部201により適宜読み出される。
The
通信部203はインターネットなどのネットワークのインタフェースであり、制御部201による制御に従って外部の装置と通信を行う。
A
ドライブ204には、光ディスクや半導体メモリなどよりなるリムーバブルメディア205が適宜装着される。ドライブ204によりリムーバブルメディア205から読み出されたコンピュータプログラムやデータは、制御部201に供給され、記憶部202に記憶されたり、インストールされたりする。
A
ROM206には、制御部201において実行されるプログラムやデータが記憶されている。RAM207は、制御部201が処理するデータやプログラムを一時的に記憶する。
The
撮影部208は、撮影空間A1における撮影処理を行う構成である硬貨処理部221、照明装置222、カメラ91、タッチパネルモニタ93、およびスピーカ223から構成される。
The
硬貨処理部221は、硬貨投入返却口87に対する硬貨の投入を検出する。硬貨処理部221は、例えば300円などの所定の金額分の硬貨が投入されたことを検出した場合、そのことを表す起動信号を制御部201に出力する。
The
照明装置222は、撮影空間A1内の各ストロボの内部に設けられる蛍光灯であり、制御部201より供給される照明制御信号に従って発光する。上述したように、撮影空間A1には、天井ストロボユニット24のストロボの他に、撮影部21に設けられる上ストロボ82、左ストロボ83、右ストロボ84、下ストロボ85、足元ストロボ86、モニタ左ストロボ88、モニタ右ストロボ89と、背景部22に設けられる背面中央ストロボ101、背面左ストロボ102,背面右ストロボ103が設けられている。
The
また、照明装置222は、制御部201による制御に従って発光量を調整することによって、利用者が行っている撮影作業の段階に応じて撮影空間A1内の明るさを調整する。
In addition, the
カメラ91は、制御部201による制御に従って撮影を行い、撮影によって得られた画像を制御部201に出力する。
The
スピーカ223は、利用者に撮影作業を行わせる撮影処理の案内音声、BGM、効果音等の音を出力する。
The
編集部209Aは、編集空間A2−1における編集処理を行う構成として編集部12の正面側に設けられるタブレット内蔵モニタ131、タッチペン132A,132B、およびスピーカ231から構成される。編集部209Bも編集部209Aと同一の構成を有しており、編集空間A2−2における編集処理を行う。
The
タブレット内蔵モニタ131は、制御部201による制御に従って、内蔵する編集用モニタに編集画面を表示し、編集画面(内蔵するタブレット)に対する利用者の操作を検出する。利用者の操作の内容を表す信号は制御部201に供給され、編集対象の撮影画像の編集が行われる。
The tablet built-in
スピーカ231は、利用者に編集作業を行わせる編集処理の案内音声、BGM、効果音等の音を出力する。
The
事後接客部210は、事後接客空間A3における事後接客処理を行う構成であるタブレット内蔵モニタ161、タッチペン162A,162B、非接触型ICリーダ/ライタ163、スピーカ165、印刷処理を行う構成であるプリンタ241、およびシール紙ユニット242から構成される。
The subsequent customer service section 210 includes a tablet built-in
タブレット内蔵モニタ161は、制御部201による制御に従って、内蔵する事後接客用モニタに事後接客に用いられる画面を表示し、その画面(内蔵するタブレット)に対する利用者の操作を検出する。利用者の操作の内容を表す信号は制御部201に供給され、事後接客が行われる。
Under the control of the
プリンタ241は、撮影画像、または編集処理によって得られた編集済みの画像を、プリンタ241に装着されたシール紙ユニット242に収納されているシール紙に印刷し、シール紙排出口164に排出する。
The printer 241 prints the photographed image or the edited image obtained by the editing process on the sticker paper stored in the
[制御部の構成]
次に、制御部201について説明する。図15は、制御部201がROM206などに格納されているプログラムを実行することにより実現される機能ブロックの構成例を示している。
[Configuration of control unit]
Next, the
制御部201は、写真シール作成ゲームを開始する際に投入される代金に関する処理や利用者グループを撮影する等の写真シール作成ゲームの撮影作業の工程に関する処理を行う撮影処理部301、撮影画像に対する落書き編集等の写真シール作成ゲームの編集作業の工程に関する処理を行う編集処理部302、シール紙の印刷等の写真シール作成ゲームの印刷の工程に関する処理を行う印刷処理部303、および、編集作業を終了した利用者グループを接客する写真シール作成ゲームの事後接客の工程に関する処理を行う事後接客処理部304を有する。
The
つまり、制御部201は、写真シール作成ゲームの各工程に関する処理の制御を行う。
That is, the
[撮影処理部の構成]
図16は、図15の撮影処理部301のさらに詳細な構成例を示す機能ブロック図である。
[Configuration of shooting processing unit]
FIG. 16 is a functional block diagram illustrating a more detailed configuration example of the
図16の例において、撮影処理部301は、進行制御部311、撮影パラメータ設定部312、ライブビュー表示制御部313、撮影画像取得部314、照明制御部315、カメラ駆動制御部316、クロマキー処理部317、コーナーポイント検知部318、コーナー画像生成部319、マスク画像生成部320、装飾画像生成部321、および合成処理部322から構成される。
In the example of FIG. 16, the
進行制御部311は、撮影作業の工程の進行を制御する。
The
撮影パラメータ設定部312は、写りや明るさ、目のサイズ等の撮影に関するパラメータの設定に関する処理を行う。ライブビュー表示制御部313は、タッチパネルモニタ93の表示(ライブビュー表示)に関する処理を行う。
The shooting
撮影画像取得部314は、撮影、特に、撮影画像の取得に関する処理を行う。照明制御部315は、撮影空間内に設けられる照明装置の発光に関する処理を行う。カメラ駆動制御部316は、カメラ91の駆動に関する処理を行う。
The captured
クロマキー処理部317は、カメラ91により取り込まれた取り込み画像の背景領域の色に基づいて、背景領域を抜き出すクロマキー処理を行う。
The chroma
コーナーポイント検知部318は、カメラ91により取り込まれた取り込み画像の背景領域としての、撮影空間の背面、側面、および床面の3面が交わる交点であるコーナーポイントを検知する。
The corner
コーナー画像生成部319は、撮影空間の背面、側面、および床面のうちの2面が交わる交線を模した線分であるコーナーラインを含む背景の画像(以下、コーナー画像という)を生成する。
The corner
マスク画像生成部320は、クロマキー処理部317によるクロマキー処理の結果に基づいて、取り込み画像における利用者の領域を示すマスク画像を生成する。装飾画像生成部321は、マスク画像に基づいて、利用者に付加される影やオーラの画像、つまり利用者と背景の境界近傍に付加される、利用者の縁を装飾する画像(以下、装飾画像と称する)を生成する。なお、以下では、装飾画像は、利用者に付加される影の画像であるものとして説明を続ける。
Based on the result of the chroma key processing by the chroma
合成処理部322は、コーナー画像と装飾画像を合成して、利用者の背景とされる合成用画像を生成するとともに、合成用画像と、クロマキー処理部317により背景領域が抜き出された取り込み画像とを合成し、合成画像を生成する。
The
[写真シール作成装置の動作]
次に、図17のフローチャートを参照して、写真シール作成ゲームを提供する写真シール作成装置1により行われる、写真シール作成ゲーム処理について説明する。
[Operation of photo sticker creation device]
Next, a photo sticker creation game process performed by the photo
ステップS11において、写真シール作成装置1の制御部201の撮影処理部301は、所定の金額分の硬貨が投入されたか否かを硬貨処理部221から供給される信号に基づいて判定し、硬貨が投入されたと判定するまで待機する。
In step S11, the
ステップS11において、硬貨が投入されたと判定された場合、ステップS12において、撮影処理部301は、撮影部208を制御し、撮影空間A1にいる利用者を被写体として撮影する撮影処理を行う。なお、撮影処理の詳細については後述する。
If it is determined in step S11 that a coin has been inserted, in step S12, the
ステップS13において、撮影処理部301は、撮影空間A1にいる利用者に対して、編集空間A2−1または編集空間A2−2への移動を案内する。編集空間A2−1または編集空間A2−2への移動の案内は、撮影部208のタッチパネルモニタ93に画面を表示させることによって、または音声をスピーカ223から出力させることによって行われる。
In step S13, the
ステップS14において、編集処理部302は、編集空間A2−1と編集空間A2−2のうち、撮影処理を終えた利用者の移動先とした方の編集空間に対応する編集部209を制御し、編集処理を行う。具体的には、編集処理部302は、編集対象画像として選択された撮影画像に合成する合成用画像を利用者に選択させ、選択された合成用画像を撮影画像に合成させ、得られた合成画像に対して、利用者による編集操作に従って編集を行う。
In step S14, the
ステップS15において、編集処理部302は、編集空間A2−1または編集空間A2−2で編集処理を終えた利用者に対して事後接客空間A3への移動を案内する。事後接客空間A3への移動の案内は、タブレット内蔵モニタ131に画面を表示させることによって、または音声をスピーカ231から出力させることによって行われる。
In step S15, the
ステップS16において、印刷処理部303は、利用者により選択された画像、すなわち合成画像をプリンタ241に出力してシール紙に印刷させる印刷処理を行う。
In step S <b> 16, the
ステップS17において、事後接客処理部304は、事後接客部210を制御し、印刷終了待機中の利用者に対する事後接客処理を行う。具体的には、事後接客処理部304は、撮影画像や編集済みの画像を携帯端末に送信する携帯送信ゲーム処理を事後接客処理として行い、携帯端末の電子メールアドレスを直接入力することで画像を携帯端末に送信するか、非接触型ICと通信することで画像を携帯端末に送信するかを利用者に選択させる送信方法の選択画面や、送信する画像の選択画面をタブレット内蔵モニタ161に表示させ、利用者による操作に応じて画像を送信する。 In step S <b> 17, the post-service processing unit 304 controls the post-service unit 210 to perform post-service processing for a user who is waiting for completion of printing. Specifically, the post-service processing unit 304 performs a mobile transmission game process for transmitting a captured image or an edited image to the mobile terminal as the post-service processing, and directly inputs the e-mail address of the mobile terminal. Display on the tablet built-in monitor 161 a selection screen for a transmission method that allows a user to select whether to transmit an image to a portable terminal by transmitting to a portable terminal or by communicating with a non-contact type IC. The image is transmitted according to the operation by the user.
印刷が終了すると、ステップS18において、事後接客処理部304は、印刷が終了した旨をタブレット内蔵モニタ161に表示させ、プリンタ241は、画像が印刷されたシール紙をシール紙排出口164に排出し、処理を終了させる。
When printing is completed, the post-service processing unit 304 displays on the tablet built-in
[撮影処理の説明]
次に、図18乃至図20のフローチャートを参照して、上述した図17の写真シール作成ゲーム処理におけるステップS12の処理に対応する撮影処理について説明する。
[Explanation of shooting process]
Next, with reference to the flowcharts of FIGS. 18 to 20, the photographing process corresponding to the process of step S12 in the above-described photo sticker creating game process of FIG. 17 will be described.
ステップS41において、撮影パラメータ設定部312は、写り選択画面をタッチパネルモニタ93に表示させ、利用者による写り選択を受け付ける。写り選択は、色合いやシャープネス等の、画像の画質の選択である。撮影パラメータ設定部312は、利用者により選択された写りに応じて、カメラ91により撮影された画像の画質を調整する。
In step S41, the shooting
ステップS42において、進行制御部311は、撮影方法のガイダンス画面をタッチパネルモニタ93に表示させる。具体的には、利用者の顔または上半身を前方正面から撮影する下カメラアップ撮影を行う旨のガイダンス画面を表示する。すなわち、このとき、カメラ91は、下カメラの状態とされる。ガイダンス画面を表示した後、撮影画像取得部314は、カメラ91を制御し、画像の取り込みを開始させる。
In step S <b> 42, the
ステップS43において、ライブビュー表示制御部313は、カメラ91により取り込まれた動画像(ライブビュー画像)をタッチパネルモニタ93に表示させる(ライブビュー表示を行う)。
In step S43, the live view
ステップS44において、撮影画像取得部314は、タッチパネルモニタ93にカウントダウンインジケータを表示し、撮影タイミングを利用者に通知する。
In step S44, the captured
撮影タイミングになったとき、ステップS45において、撮影画像取得部314は、カメラ91を制御して下カメラアップ撮影を行い、静止画像である撮影画像(下カメラアップ画像)を取得する。
When the shooting timing comes, in step S45, the captured
ステップS46において、進行制御部311は、撮影画像をタッチパネルモニタ93に表示し、撮影結果を利用者に確認させる。すなわち、撮影画像の確認画面が表示される。
In step S46, the
図21は、下カメラアップ撮影時にタッチパネルモニタ93に表示されるライブビュー表示画面の例を示している。 FIG. 21 shows an example of a live view display screen displayed on the touch panel monitor 93 during lower camera up shooting.
図21のライブビュー表示画面は、カメラ91のライブビュー画像を表示するライブビュー表示領域411、および、撮影の結果得られる撮影画像が表示される撮影結果表示領域412−1乃至撮影結果表示領域412−6から構成されている。図21のライブビュー表示画面において、図示せぬカウントダウンインジケータで示される数字が0になったときに、ライブビュー表示領域411に表示されているライブビュー画像が下カメラアップ画像として得られる。得られた下カメラアップ画像は、撮影した順に、撮影結果表示領域412−1乃至撮影結果表示領域412−6のうちの所定の領域(具体的には、撮影結果表示領域412−1乃至撮影結果表示領域412−3)に表示されるようになる。
The live view display screen in FIG. 21 includes a live
図18のフローチャートの説明に戻り、ステップS46の後、ステップS47において、進行制御部311は、撮影を所定回数繰り返し行ったか否かを判定する。ステップS47において撮影を所定回数行っていないと判定された場合、処理はステップS43に戻り、上述した処理が繰り返し行なわれる。具体的には、3回の下カメラアップ撮影が行われるまで、上述の処理が繰り返される。
Returning to the description of the flowchart of FIG. 18, after step S <b> 46, in step S <b> 47, the
一方、ステップS47において、下カメラアップ撮影を所定回数繰り返し行ったと判定された場合、処理はステップS48に進み、カメラ駆動制御部316は、カメラ91を上方向に移動させるように、カメラ91の駆動を制御する。これにより、カメラ91は、上カメラの状態とされる。
On the other hand, if it is determined in step S47 that the lower camera up shooting has been repeated a predetermined number of times, the process proceeds to step S48, and the camera
ステップS49において、進行制御部311は、撮影方法のガイダンス画面をタッチパネルモニタ93に表示させる。具体的には、利用者の顔または上半身を前方斜め上から撮影する上カメラアップ撮影を行う旨のガイダンス画面を表示する。ガイダンス画面を表示した後、撮影画像取得部314は、カメラ91を制御し、画像の取り込みを開始させる。
In step S49, the
なお、上述したように、カメラ91は、上カメラの状態では、ズームアウトするようにフォーカスが調整されるが、ここでは、デジタルズーム機能により、取り込み画像の倍率を電気的に変更することで、上カメラアップ撮影を行う。また、カメラ91のフォーカスは、図6を参照して説明した機構により調整される以外に、撮影方法に応じてカメラ駆動制御部316により調整されるようにしてもよい。
As described above, in the state of the upper camera, the focus of the
ステップS50において、ライブビュー表示制御部313は、カメラ91により取り込まれた動画像(ライブビュー画像)をタッチパネルモニタ93に表示させる(ライブビュー表示を行う)。
In step S50, the live view
ステップS51において、撮影画像取得部314は、タッチパネルモニタ93にカウントダウンインジケータを表示し、撮影タイミングを利用者に通知する。
In step S51, the captured
撮影タイミングになったとき、ステップS52において、撮影画像取得部314は、カメラ91を制御して上カメラアップ撮影を行い、静止画像である撮影画像(上カメラアップ画像)を取得する。
When the shooting timing comes, in step S52, the captured
ステップS53において、進行制御部311は、撮影画像をタッチパネルモニタ93に表示し、撮影結果を利用者に確認させる。
In step S <b> 53, the
図22は、上カメラアップ撮影時にタッチパネルモニタ93に表示されるライブビュー表示画面の例を示している。図22のライブビュー表示画面において、図示せぬカウントダウンインジケータで示される数字が0になったときに、ライブビュー表示領域411に表示されているライブビュー画像が上カメラアップ画像として得られる。なお、上カメラアップ撮影は1回のみ行われる。撮影結果表示領域412−1乃至撮影結果表示領域412−3には、下カメラアップ画像が表示されているので、得られた上カメラアップ画像は、撮影結果表示領域412−4に表示されるようになる。
FIG. 22 shows an example of a live view display screen displayed on the touch panel monitor 93 during upper camera up shooting. In the live view display screen of FIG. 22, when the number indicated by a countdown indicator (not shown) becomes 0, the live view image displayed in the live
図18のフローチャートの説明に戻り、ステップS53の後、図19のステップS54において、撮影パラメータ設定部312は、被写体の背景を選択する。
Returning to the description of the flowchart of FIG. 18, after step S <b> 53, the shooting
例えば、進行制御部311は、利用者の全身を前方斜め上から撮影する上カメラ全身撮影を行う旨のメッセージとともに、上カメラ全身撮影で得られる撮影画像の合成用画像とする背景の選択画面をタッチパネルモニタ93に表示させる。
For example, the
利用者が選択画面、すなわちタッチパネルモニタ93に対して背景の選択操作を行なうと、撮影パラメータ設定部312は、利用者の操作に応じて背景を選択する。
When the user performs a background selection operation on the selection screen, that is, the touch panel monitor 93, the imaging
ステップS55において、進行制御部311は、撮影方法のガイダンス画面をタッチパネルモニタ93に表示させる。具体的には、利用者の全身を前方斜め上から撮影する上カメラ全身撮影を行う旨のガイダンス画面を表示する。ガイダンス画面を表示した後、撮影画像取得部314は、カメラ91を制御し、画像の取り込みを開始させる。
In step S <b> 55, the
図23は、タッチパネルモニタ93に表示される上カメラ全身撮影のガイダンス画面の例を示している。図23のガイダンス画面には、全身撮影を行う旨の文言と、利用者をタッチパネルモニタ93に表示される足型の印である足マークに合わせて立たせるよう促す文言が表示される。 FIG. 23 shows an example of an upper camera whole body photographing guidance screen displayed on the touch panel monitor 93. On the guidance screen of FIG. 23, a wording that the whole body photographing is performed and a word that prompts the user to stand in accordance with a foot mark that is a foot mark displayed on the touch panel monitor 93 are displayed.
すると、利用者は、タッチパネルモニタ93に表示された足マークの位置に自分の足の位置を合わせて立ち、撮影作業を行なう。この例では、利用者が足マークに合わせて立つことで、好適な撮影画像(上カメラ全身画像)が得られるようになされている。 Then, the user stands by aligning his / her foot position with the foot mark position displayed on the touch panel monitor 93 and performs a photographing operation. In this example, a suitable photographed image (upper camera whole body image) is obtained when the user stands in accordance with the foot mark.
ステップS56において、撮影処理部301は、上カメラ全身撮影を行う上カメラ全身撮影処理を行う。なお、上カメラ全身撮影処理の詳細については後述する。
In step S56, the
ステップS57において、進行制御部311は、撮影を所定回数繰り返し行ったか否かを判定する。ステップS57において撮影を所定回数行っていないと判定された場合、処理はステップS56に戻り、上述した処理が繰り返し行なわれる。具体的には、2回の上カメラ全身撮影が行われるまで、上述の処理が繰り返される。
In step S57, the
一方、ステップS57において、上カメラ全身撮影を所定回数繰り返し行ったと判定された場合、ステップS58において、進行制御部311は、撮影可能時間内か否かを判定し、経過時間または残り時間に基づいて、また撮影可能か否かを判定する。ステップS58において、撮影可能であると判定された場合、処理はステップS59に進み、追加的な撮影である、いわゆる「ボーナス撮影」の処理が行われる。
On the other hand, if it is determined in step S57 that the upper camera whole body imaging has been repeated a predetermined number of times, in step S58, the
すなわち、ステップS59において、進行制御部311は、ボーナス撮影のガイダンス画面をタッチパネルモニタ93に表示させる。ガイダンス画面を表示した後、撮影画像取得部314は、カメラ91を制御し、画像の取り込みを開始させる。
That is, in step S <b> 59, the
ステップS60において、ライブビュー表示制御部313は、カメラ91により取り込まれた動画像(ライブビュー画像)をタッチパネルモニタ93に表示させる(ライブビュー表示を行う)。
In step S60, the live view
ステップS61において、撮影画像取得部314は、タッチパネルモニタ93にカウントダウンインジケータを表示し、撮影タイミングを利用者に通知する。
In step S61, the captured
撮影タイミングになったとき、ステップS62において、撮影画像取得部314は、カメラ91を制御してボーナス撮影を行い、静止画像である撮影画像(ボーナス撮影画像)を取得する。
When the shooting timing comes, in step S62, the captured
なお、ボーナス撮影処理においては、カメラ91は上カメラの状態とされるので、上カメラアップ撮影または上カメラ全身撮影のいずれかが行われるものとする。また、ボーナス撮影を行わずに、2回の上カメラ全身撮影により得られる2枚の上カメラ全身画像のうちの1枚をボーナス撮影画像として扱うようにしてもよい。すなわち、3回の下カメラアップ撮影、1回の上カメラアップ撮影、1回の上カメラ全身撮影に加えて、確率の高いボーナス撮影として上カメラ全身撮影が行われるようにしてもよい。さらに、編集処理においては、得られた撮影画像(ボーナス撮影画像を含む)から編集対象画像が選択されるようになるが、この場合、得られた撮影画像の全て(例えば6枚)が編集対象画像とされるようにしてもよい。
In the bonus shooting process, since the
ステップS63において、進行制御部311は、撮影画像をタッチパネルモニタ93に表示し、撮影結果を利用者に確認させる。その後、処理は図20のステップS64に進む。
In step S63, the
一方、ステップS58において、撮影可能でないと判定された場合、処理は図20のステップS64に進む。 On the other hand, if it is determined in step S58 that photographing is not possible, the process proceeds to step S64 in FIG.
ステップS63において撮影画像が表示されたか、またはステップS58において撮影可能でないと判定されると、ステップS64の処理が行なわれる。すなわち、ステップS64において、撮影パラメータ設定部312は、撮影画像を含み、撮影画像に写る利用者の目のサイズおよび撮影画像の明るさの選択に用いられる選択画面を、タッチパネルモニタ93に表示させる。
If it is determined in step S63 that a photographed image has been displayed or it is determined in step S58 that photographing is not possible, processing in step S64 is performed. That is, in step S64, the shooting
これにより、タッチパネルモニタ93には、例えば図24に示す選択画面が表示される。 Thereby, for example, a selection screen shown in FIG. 24 is displayed on the touch panel monitor 93.
選択画面には、撮影の結果得られた撮影画像441−1乃至撮影画像441−6が、画面の図中、上側に並べられて表示されている。この例では、撮影が6回行なわれたので、6枚の撮影画像が表示されており、これらの撮影画像は、カメラ91により撮影されて得られた、何も加工されていない画像である。
On the selection screen, photographic images 441-1 to 441-6 obtained as a result of photographing are arranged and displayed on the upper side in the drawing of the screen. In this example, since shooting was performed six times, six shot images are displayed. These shot images are images obtained by shooting by the
選択画面の中央のやや下側には、3つの目サイズ選択ボタン442−1乃至目サイズ選択ボタン442−3が横方向に並べられて表示されている。 Three eye size selection buttons 442-1 to 442-3 are displayed side by side in the horizontal direction slightly below the center of the selection screen.
目サイズ選択ボタン442−1には、目のサイズが自然な大きさのモデルの目の画像が表示され、目サイズ選択ボタン442−2には、目のサイズが若干大きな(例えば、自然な大きさよりも1割程度大きな)モデルの目の画像が表示されている。また、目サイズ選択ボタン442−3には、目のサイズが比較的大きな(例えば、自然な大きさよりも2割程度大きな)モデルの目の画像が表示されている。 The eye size selection button 442-1 displays a model eye image with a natural eye size, and the eye size selection button 442-2 has a slightly larger eye size (for example, a natural size). An image of a model eye is displayed. The eye size selection button 442-3 displays an image of a model eye having a relatively large eye size (for example, about 20% larger than the natural size).
利用者は、選択画面の目サイズ選択ボタン442−1乃至目サイズ選択ボタン442−3の何れかに対する操作(タッチ)を行なうことで、目のサイズを選択することができる。なお、以下、目サイズ選択ボタン442−1乃至目サイズ選択ボタン442−3を特に区別する必要のない場合、単に目サイズ選択ボタン442とも称する。 The user can select the eye size by performing an operation (touch) on any of the eye size selection buttons 442-1 to 442-3 on the selection screen. Hereinafter, the eye size selection buttons 442-1 to 442-3 are also simply referred to as eye size selection buttons 442 when it is not necessary to distinguish them.
また、選択画面の下側には、5つの明るさ選択ボタン443−1乃至明るさ選択ボタン443−5が横方向に並べられて表示されている。明るさ選択ボタン443−1乃至明るさ選択ボタン443−5には、明るさの異なるモデルがそれぞれ表示されている。 In addition, five brightness selection buttons 443-1 to 443-5 are arranged in the horizontal direction on the lower side of the selection screen. Models with different brightness levels are displayed on the brightness selection buttons 443-1 to 443-5, respectively.
利用者は、選択画面の明るさ選択ボタン443−1乃至明るさ選択ボタン443−5の何れかに対する操作(タッチ)を行なうことで、被写体の明るさを選択することができる。なお、以下、明るさ選択ボタン443−1乃至明るさ選択ボタン443−5を特に区別する必要のない場合、単に明るさ選択ボタン443とも称する。 The user can select the brightness of the subject by performing an operation (touch) on any of the brightness selection buttons 443-1 to 443-5 on the selection screen. Hereinafter, the brightness selection buttons 443-1 to 443-5 are also simply referred to as brightness selection buttons 443 when it is not necessary to distinguish them.
さらに、選択画面の右下側には、被写体の目のサイズと明るさを決定するときに操作される決定ボタン444が表示されている。この決定ボタン444が操作されると、これまでの撮影により得られた全ての撮影画像441−1乃至撮影画像441−6に写っている利用者の目のサイズと明るさが、一括して変更される。すなわち、撮影画像上の被写体の目のサイズと明るさが、選択された目サイズ選択ボタン442により定められた目のサイズ、および選択された明るさ選択ボタン443により定められた明るさに変更される。
Further, a
このような選択画面がタッチパネルモニタ93に表示されると、利用者はタッチパネルモニタ93に対する操作を行い、目サイズ選択ボタン442や明るさ選択ボタン443を選択する。利用者によって、目サイズ選択ボタン442および明るさ選択ボタン443の選択操作が行なわれると、タッチパネルモニタ93から撮影パラメータ設定部312には、利用者の操作に応じた情報が供給される。
When such a selection screen is displayed on the touch panel monitor 93, the user performs an operation on the touch panel monitor 93 and selects the eye size selection button 442 and the brightness selection button 443. When the user performs the selection operation of the eye size selection button 442 and the brightness selection button 443, information corresponding to the user's operation is supplied from the touch panel monitor 93 to the photographing
図20のフローチャートの説明に戻り、ステップS65において、撮影パラメータ設定部312は、利用者による選択操作に応じてタッチパネルモニタ93から供給された情報に基づいて、目のサイズおよび明るさを選択する。
Returning to the description of the flowchart of FIG. 20, in step S65, the imaging
ステップS66において、撮影パラメータ設定部312は、撮影により得られた全ての撮影画像上の被写体の目のサイズと撮影画像の明るさが、ステップS65の処理で選択された目のサイズおよび明るさとなるように、各撮影画像上の被写体の目のサイズと明るさを一括して変更する。
In step S66, the shooting
ステップS67において、撮影パラメータ設定部312は、目のサイズおよび明るさを変更した撮影画像をタッチパネルモニタ93に表示させ、目のサイズおよび明るさの変更結果を利用者に確認させる。
In step S <b> 67, the shooting
これにより、例えば図24の撮影画像441−1乃至撮影画像441−6における被写体の目のサイズと各画像の明るさが一括して変更される。利用者は、変更された目のサイズや明るさを確認し、目のサイズと明るさの変更操作を決定させる場合には、決定ボタン444を操作する。これに対して、目のサイズや明るさを変更し直す場合には、利用者は、再度、タッチパネルモニタ93に対する操作を行い、所望の目サイズ選択ボタン442および明るさ選択ボタン443を選択する。
Thereby, for example, the eye size of the subject and the brightness of each image in the captured images 441-1 to 441-6 in FIG. 24 are collectively changed. The user confirms the changed eye size and brightness, and operates the
ステップS68において、撮影パラメータ設定部312は、タッチパネルモニタ93から供給された情報に基づいて、決定ボタン444が操作されたか(押されたか)否かを判定する。
In step S <b> 68, the imaging
ステップS68において、決定ボタン444が操作されていないと判定された場合、処理はステップS65に戻り、上述した処理が繰り返される。
If it is determined in step S68 that the
これに対して、ステップS68において、決定ボタン444が操作されたと判定された場合、ステップS69において、撮影パラメータ設定部312は、目のサイズおよび明るさを決定し、決定した目のサイズおよび明るさを示す情報を記憶部202などに記憶させて保存する。
On the other hand, if it is determined in step S68 that the
ステップS69の処理が終了すると、撮影処理は終了し、その後、処理は図17のステップS13に進む。なお、目サイズや明るさの選択処理は、撮影処理においてではなく、編集空間において行われる編集処理において実行されるようにしてもよい。 When the process of step S69 ends, the shooting process ends, and then the process proceeds to step S13 of FIG. Note that the eye size and brightness selection processing may be executed not in the photographing processing but in the editing processing performed in the editing space.
[上カメラ全身撮影処理の説明]
次に、図25のフローチャートを参照して、図19のステップS56の処理に対応する上カメラ全身撮影処理について説明する。
[Explanation of upper camera whole body shooting process]
Next, the upper camera whole body imaging process corresponding to the process of step S56 of FIG. 19 will be described with reference to the flowchart of FIG.
ステップS111において、クロマキー処理部317は、カメラ91により取り込まれた取り込み画像(ライブビュー画像)の背景領域を抜き出す。
In step S <b> 111, the chroma
例えば、カメラ91によって、図26に示すライブビュー画像501が撮影されたとする。図26の例では、ライブビュー画像501には、2人の利用者とともに、撮影空間A1を構成する背景部22の背面パネル51、側面パネル52B、および床104の表面に貼付されているクロマキー用シート121A,クロマキー用シート121B,クロマキー用シート121Cが表示されている。
For example, it is assumed that a
ここで、クロマキー用シート121A,クロマキー用シート121B,クロマキー用シート121Cが、それぞれ異なる材質で構成されているものとすると、ライブビュー画像501におけるクロマキー用シート121A,クロマキー用シート121B,クロマキー用シート121Cの色(見え方)もそれぞれ異なる。
Here, assuming that the chroma
そこで、クロマキー処理部317は、ライブビュー画像501の背景領域としての撮影空間A1の背面、側面、および床面(すなわち、クロマキー用シート121A,クロマキー用シート121B,クロマキー用シート121C)の3面それぞれの色を示す値の範囲(色範囲)を検出することで、背面、側面、および床面それぞれについてのクロマキーパラメータを設定する。
Therefore, the chroma
具体的には、図27に示されるライブビュー画像501(被写体は省略)において、クロマキー用シート121Aで最も明るい領域RmaxAの色値と、最も暗い領域RminAの色値とに基づいて色範囲が検出されることで、クロマキー用シート121Aのクロマキーパラメータが設定される。同様に、クロマキー用シート121Bで最も明るい領域RmaxBの色値と、最も暗い領域RminBの色値とに基づいて色範囲が検出されることで、クロマキー用シート121Bのクロマキーパラメータが設定され、クロマキー用シート121Cで最も明るい領域RmaxCの色値と、最も暗い領域RminCの色値とに基づいて色範囲が検出されることで、クロマキー用シート121Cのクロマキーパラメータが設定される。
Specifically, in the live view image 501 (subject is omitted) shown in FIG. 27, the color range is detected based on the color value of the brightest region RmaxA and the color value of the darkest region RminA in the chroma
そして、クロマキー処理部317は、3面それぞれについてのクロマキーパラメータを用いて、ライブビュー画像501から背景領域(背面、側面、および床面)を抜き出す。
Then, the chroma
ステップS112において、コーナーポイント検知部318は、カメラ91により取り込まれたライブビュー画像の背景領域の色を示す値(色値)の境界に基づいて、コーナーポイントを検知する。
In step S <b> 112, the corner
上述したように、図26において、ライブビュー画像501におけるクロマキー用シート121A,クロマキー用シート121B,クロマキー用シート121Cの色はそれぞれ異なる。そこで、コーナーポイント検知部318は、クロマキー用シート121A,クロマキー用シート121B,クロマキー用シート121Cの3面それぞれの色範囲を検出し、それぞれの色値の境界を求めることで、撮影空間A1の背面、側面、および床面の3面が交わるコーナーポイントCPを検知する。
As described above, in FIG. 26, the colors of the chroma
ステップS113において、進行制御部311は、コーナーポイント検知部318がコーナーポイントを検知したか否かを判定する。ステップS113において、コーナーポイントを検知していないと判定された場合、処理はステップS112に戻り、コーナーポイントが検知されるまで処理が繰り返される。なお、コーナーポイントを検知していないと判定された場合、タッチパネルモニタ93に、エラーメッセージを表示させるようにしてもよい。また、このとき、色値の境界を求めるのに用いられる色範囲が変更(再検出)されるようにしてもよい。
In step S113, the
一方、ステップS113において、コーナーポイントが検知されたと判定された場合、処理はステップS114に進み、コーナー画像生成部319は、クロマキー処理部317による背景領域の抽出結果に基づいて、コーナー画像を生成する。
On the other hand, if it is determined in step S113 that a corner point has been detected, the process proceeds to step S114, and the corner
これにより、例えば図28に示すコーナー画像521が生成される。
Thereby, for example, a
コーナー画像521は、部屋の一角を模した背景画像であり、コーナー画像521には、撮影空間の背面、側面、および床面のうちの2面が交わる交線に似せたコーナーライン522A,コーナーライン522B,コーナーライン522Cが描かれている。
The
また、コーナー画像521において、撮影空間の背面、側面、および床面に対応する各面の色や柄は、図19のステップS54の処理で選択された背景の色や柄とされる。なお、ステップS54の処理は行なわれずに、撮影空間の背面、側面、および床面に対応する各面の色や柄は、予め定められたものとされるようにしてもよいし、各面の色や柄が図17のステップS14の編集処理で選択されるようにしてもよい。
In the
ステップS115において、マスク画像生成部320は、クロマキー処理部317による背景領域の抽出結果に基づいて、ライブビュー画像における利用者の領域を示すマスク画像を生成する。
In step S115, the mask
例えば、マスク画像生成部320は、背景領域の抽出結果に基づいて、ライブビュー画像に対して2値化処理を施すことにより、マスク画像を生成する。
For example, the mask
具体的には、例えばライブビュー画像の領域のうち、背景領域とされた領域内の各画素の画素値が「0」とされ、ライブビュー画像の背景領域ではない領域内の各画素の画素値が「1」とされて、マスク画像とされる。この場合、マスク画像のうち、画素値が「1」である画素からなる領域が、利用者の領域となる。 Specifically, for example, among the areas of the live view image, the pixel value of each pixel in the area that is the background area is set to “0”, and the pixel value of each pixel in the area that is not the background area of the live view image Is set to “1” to be a mask image. In this case, in the mask image, an area including pixels having a pixel value “1” is the user area.
これにより、例えば図29に示すマスク画像551が得られる。マスク画像551では、中央にある領域552が、利用者の領域を示している。
Thereby, for example, a
ステップS116において、装飾画像生成部321は、背景領域の抽出結果に基づいて、マスク画像における下部領域および上部領域を定める。
In step S116, the decoration
例えば、背景領域の抽出結果から、ライブビュー画像において、撮影空間の背面と床面が交わる境界位置が求まるので、その境界位置に対応するマスク画像上の位置から、その位置よりも所定の領域設定値だけ下側、つまり撮影空間の床面側にある位置までのマスク画像の領域が、下部領域とされる。また、マスク画像の下部領域よりも上側、つまり撮影空間の背面側にある領域が上部領域とされる。 For example, from the background region extraction result, in the live view image, the boundary position where the back surface of the shooting space intersects the floor surface is obtained, so a predetermined region setting is set from the position on the mask image corresponding to the boundary position. The area of the mask image up to the position below the value, that is, the position on the floor surface side of the imaging space is set as the lower area. Further, an area above the lower area of the mask image, that is, on the back side of the imaging space is set as the upper area.
ここで、下部領域の高さを定める領域設定値は、予め定められた値(固定値)とされ、例えば領域設定値は、マスク画像上の背面と床面の境界位置から、マスク画像の下端(下辺)までの領域が下部領域となるように定められる。 Here, the region setting value that determines the height of the lower region is a predetermined value (fixed value). For example, the region setting value is determined from the boundary position between the back surface and the floor surface on the mask image and the lower end of the mask image. The area up to (lower side) is determined to be the lower area.
ステップS117において、装飾画像生成部321は、マスク画像の下部領域に対して変形処理を施す。
In step S117, the decoration
例えば、変形処理として、下部領域が長方形から平行四辺形となるように変形される処理が行なわれる。なお、変形処理は、下部領域を平行四辺形とする処理に限らず、下部領域が台形となるような処理や、縮小,拡大処理など、どのような処理であってもよい。また、下部領域のみに限らず、上部領域に対しても変形処理が行なわれるなど、マスク画像の少なくとも一部の領域に対して変形処理が施されればよい。 For example, as the deformation process, a process of deforming the lower region from a rectangle to a parallelogram is performed. The deformation process is not limited to a process in which the lower region is a parallelogram, and may be any process such as a process in which the lower region has a trapezoidal shape, a reduction / enlargement process, or the like. In addition, the deformation process may be performed on at least a part of the mask image, for example, the deformation process is performed not only on the lower area but also on the upper area.
ステップS118において、装飾画像生成部321は、変形処理が施された下部領域上の利用者の領域の境界と、上部領域上の利用者の領域の境界とが重なるように、上部領域を平行移動(シフト)させることで、装飾画像を生成する。
In step S118, the decoration
ここで、図30を参照して、上述したステップS116乃至ステップS118の処理の具体的な例について説明する。 Here, with reference to FIG. 30, a specific example of the processing in steps S116 to S118 described above will be described.
例えば、図30の矢印Q11に示すように、利用者の領域HR11が抽出されたマスク画像MS11が得られたとする。 For example, it is assumed that a mask image MS11 from which the user's region HR11 is extracted is obtained as indicated by an arrow Q11 in FIG.
また、図30において、矢印ratio_yにより示される図中、縦方向の位置が、ライブビュー画像において撮影空間の背面と床面が交わる境界位置と同じ位置にある、マスク画像MS11の位置であるとする。すなわち、矢印ratio_yにより示されるマスク画像MS11上の位置は、図28のコーナーライン522Cに対応する位置である。 In FIG. 30, in the figure indicated by the arrow ratio_y, the vertical position is the position of the mask image MS11 in the same position as the boundary position where the back surface of the shooting space and the floor surface intersect in the live view image. . That is, the position on the mask image MS11 indicated by the arrow ratio_y is a position corresponding to the corner line 522C in FIG.
マスク画像MS11が得られると、例えばマスク画像MS11における矢印ratio_yにより示される位置よりも図中、下側の領域が下部領域DR11とされ、マスク画像MS11における下部領域DR11よりも図中、上側の領域が上部領域UR11とされる。このように、下部領域DR11と上部領域UR11を定める処理がステップS116の処理である。 When the mask image MS11 is obtained, for example, the lower region in the figure than the position indicated by the arrow ratio_y in the mask image MS11 is the lower region DR11, and the upper region in the drawing relative to the lower region DR11 in the mask image MS11. Is the upper region UR11. As described above, the process of determining the lower area DR11 and the upper area UR11 is the process of step S116.
下部領域DR11と上部領域UR11が定められると、下部領域DR11に対して変形処理が施され、矢印Q12に示すように変形後の下部領域DR11が、変形下部領域TR11とされる。下部領域DR11を変形させて変形下部領域TR11とする処理が、ステップS117の処理である。 When the lower region DR11 and the upper region UR11 are determined, the lower region DR11 is subjected to deformation processing, and the lower region DR11 after deformation is set as a modified lower region TR11 as indicated by an arrow Q12. The process of deforming the lower region DR11 to form the modified lower region TR11 is the process of step S117.
この例では、下部領域DR11の図中、下側の辺(以下、下辺と称する)が固定されたまま、下部領域DR11の図中、上側の辺(以下、上辺と称する)が、図中、左方向に幅Wxだけ移動するように、下部領域DR11に対して変形処理が施されている。すなわち、下部領域DR11の左右の端にある辺が所定の角度だけ傾けられて、平行四辺形状の変形下部領域TR11とされている。ここで、変形処理における幅Wxは、画像上の利用者に付加される影の幅であり、利用者の影の幅が所定値幅となるように幅Wxが定められる。 In this example, in the drawing of the lower region DR11, the lower side (hereinafter referred to as the lower side) is fixed, and the upper side (hereinafter referred to as the upper side) in the drawing of the lower region DR11 is The deformation process is performed on the lower region DR11 so as to move to the left by the width Wx. That is, the sides at the left and right ends of the lower region DR11 are inclined by a predetermined angle to form a parallelogram-shaped modified lower region TR11. Here, the width Wx in the deformation process is a width of the shadow added to the user on the image, and the width Wx is determined so that the shadow width of the user becomes a predetermined value width.
このような変形処理により、変形下部領域TR11では、利用者の領域HR11のうちの下部領域DR11内にあった領域が傾くので、変形下部領域TR11内にある利用者の領域THR11の境界と、上部領域UR11内にある利用者の領域UHR11の境界にずれが生じる。すなわち、この例では、利用者の体の領域である領域UHR11に対して、利用者の足の領域である領域THR11が、変形処理で傾けられた分だけ図中、左側にずれてしまっている。ここで、領域UHR11は、マスク画像MS11上の利用者の領域HR11のうち、上部領域UR11内にある領域である。 By such deformation processing, in the modified lower region TR11, the region that was in the lower region DR11 of the user region HR11 is inclined, so that the boundary of the user region THR11 in the modified lower region TR11 and the upper portion A shift occurs in the boundary of the user area UHR11 within the area UR11. That is, in this example, the region THR11 which is the user's foot region is shifted to the left side in the figure by the amount tilted by the deformation process with respect to the region UHR11 which is the user's body region. . Here, the region UHR11 is a region in the upper region UR11 out of the user region HR11 on the mask image MS11.
そこで、矢印Q13に示すように、変形下部領域TR11に対して、上部領域UR11を図中、左側に幅Wxだけ平行移動させることで、上部領域UR11’とする。これにより、移動後の領域UHR11である、上部領域UR11’内の領域UHR11’の境界は、領域THR11の境界と重なるようになる。 Therefore, as indicated by an arrow Q13, the upper region UR11 is translated to the left side in the drawing by the width Wx with respect to the modified lower region TR11 to form an upper region UR11 '. Thereby, the boundary of the region UHR11 'in the upper region UR11', which is the region UHR11 after movement, overlaps the boundary of the region THR11.
そして、領域UHR11’と領域THR11からなる領域を示す画像が装飾画像とされる。つまり、矢印Q13に示すマスク画像MS11と同じ位置にある画像を、これから生成しようとする装飾画像とする。この場合、装飾画像の領域のうち、領域UHR11’と領域THR11からなる領域内の各画素の画素値は「0」以上の所定の画素値とされ、領域UHR11’と領域THR11からなる領域とは異なる他の全ての領域内の画素の画素値は「0」とされる。このようにして得られた装飾画像は、利用者の影の画像である。 Then, an image indicating a region composed of the region UHR11 'and the region THR11 is set as a decoration image. That is, an image at the same position as the mask image MS11 indicated by the arrow Q13 is set as a decoration image to be generated. In this case, the pixel value of each pixel in the region composed of the region UHR11 ′ and the region THR11 in the region of the decorative image is set to a predetermined pixel value of “0” or more, and the region composed of the region UHR11 ′ and the region THR11 is The pixel values of the pixels in all other different areas are set to “0”. The decoration image thus obtained is an image of the shadow of the user.
このように、上部領域UR11を平行移動させて装飾画像を生成する処理がステップS118の処理である。 In this way, the process of generating the decoration image by translating the upper area UR11 is the process of step S118.
なお、装飾画像の生成時には、上部領域UR11に対する平行移動が行なわれるため、矢印Q13に示した例では、上部領域UR11’の図中、右側の端の位置は、マスク画像MS11の右側の端の位置から横方向に幅Wxだけずれた位置となる。したがって、これらの右側の端の間にある幅Wxの領域では、装飾画像の生成時に参照すべき上部領域UR11’の画像がないことになってしまう。 Since the parallel movement with respect to the upper region UR11 is performed when the decoration image is generated, in the example shown by the arrow Q13, the position of the right end in the drawing of the upper region UR11 ′ is the right end of the mask image MS11. The position is shifted from the position in the lateral direction by a width Wx. Therefore, in the region of the width Wx between these right ends, there is no image of the upper region UR11 'that should be referred to when generating the decoration image.
そこで、このようなことを防止するため、より詳細にはマスク画像は、ライブビュー画像よりも少なくとも幅Wx以上、横幅が広い画像とされる。つまり、カメラ91により撮影された元画像から所定の領域が切り出されてライブビュー画像とされるとすると、元画像のライブビュー画像とされる領域を含み、その領域よりも大きい領域が切り出されて得られた画像が用いられ、マスク画像が生成される。そして、マスク画像の一部の領域を変形したり平行移動(シフト)させたりして得られた画像のうち、ライブビュー画像と同じ大きさの領域内の画像を装飾画像とすれば、装飾画像の生成時に参照すべき画像領域を必ず確保することができる。
In order to prevent such a situation, more specifically, the mask image is an image having a width that is at least a width Wx wider than the live view image. That is, if a predetermined area is cut out from the original image captured by the
また、装飾画像における利用者の影の領域の各画素の画素値が同じである例について説明したが、利用者の影の領域の色(画素値)は、利用者の領域に近い位置の画素ほど、色が濃くなるようにされてもよい。このように影の領域にグラデーションをつけることで、被写体としての利用者に対して、より自然な装飾を施すことができるようになる。 Moreover, although the example in which the pixel values of the pixels in the shadow area of the user in the decorative image are the same has been described, the color (pixel value) of the shadow area of the user is a pixel at a position close to the user area. The color may be made darker. By adding gradation to the shadow area in this way, it becomes possible to give more natural decoration to the user as the subject.
さらに、図30では、撮影空間における背面と床面の交線に対応する、マスク画像MS11上の線は、図中、横方向の直線、つまりマスク画像MS11の下辺に平行な水平方向の線となっている。しかし、背面と床面の交線に対応するマスク画像MS11上の線が水平方向とはならない場合もある。 Furthermore, in FIG. 30, the line on the mask image MS11 corresponding to the intersection line between the back surface and the floor surface in the imaging space is a horizontal straight line in the drawing, that is, a horizontal line parallel to the lower side of the mask image MS11. It has become. However, the line on the mask image MS11 corresponding to the intersection line between the back surface and the floor surface may not be in the horizontal direction.
そのような場合、背面と床面の交線に対応するマスク画像MS11上の斜め方向の線よりも図中、下側の領域をそのまま下部領域としてもよい。つまり、下部領域の上辺は、水平方向の線であっても斜め方向の線であってもよい。 In such a case, the lower region in the drawing relative to the diagonal line on the mask image MS11 corresponding to the line of intersection between the back surface and the floor surface may be used as the lower region. That is, the upper side of the lower region may be a horizontal line or an oblique line.
図25のフローチャートの説明に戻り、以上のようにして装飾画像が生成されると、処理はステップS118からステップS119へと進む。なお、マスク画像から装飾画像を生成する処理は、ライブビュー画像に含まれる利用者が何人であっても同じ処理である。 Returning to the description of the flowchart of FIG. 25, when the decoration image is generated as described above, the process proceeds from step S118 to step S119. Note that the process of generating the decoration image from the mask image is the same process regardless of how many users are included in the live view image.
ステップS119において、合成処理部322は、ステップS114の処理で得られたコーナー画像と、ステップS118の処理で得られた装飾画像とを合成し、合成用画像とする。
In step S119, the
これにより、例えば図31に示す合成用画像CO11が得られる。なお、図31において、図28における場合と対応する部分には同一の符号を付してあり、その説明は省略する。図31では、合成用画像CO11において、斜線が施された領域SD11は、装飾画像により示される利用者の影の領域であり、図28のコーナー画像521に、利用者の影の領域SD11を設けた画像が合成用画像CO11となっている。また、合成用画像CO11に示される領域SD11は、撮影空間の背面、側面、および床面に沿ってできた利用者の影となっており、立体感のある背景の画像となっている。
Thereby, for example, a composition image CO11 shown in FIG. 31 is obtained. In FIG. 31, parts corresponding to those in FIG. 28 are denoted by the same reference numerals, and description thereof is omitted. In FIG. 31, a hatched area SD11 in the composition image CO11 is a shadow area of the user indicated by the decoration image, and the shadow area SD11 of the user is provided in the
ステップS120において、ライブビュー表示制御部313は、カメラ91により取り込まれたライブビュー画像と、合成用画像とを合成して得られた画像を、タッチパネルモニタ93に表示させることで、ライブビュー表示を行なう。より詳細には、ライブビュー画像から背景領域が除去されて残る利用者の画像と、合成用画像とが合成されて得られた画像がタッチパネルモニタ93に表示される。
In step S120, the live view
これにより、例えば図32に示すように、合成用画像が合成されたライブビュー画像がタッチパネルモニタ93のライブビュー表示領域411に表示される。この例では、被写体として写っている利用者に影が付加されている。
As a result, for example, as shown in FIG. 32, the live view image obtained by combining the images for synthesis is displayed in the live
そして、ライブビュー表示が開始されると、図19のステップS55で説明したように、タッチパネルモニタ93には、ライブビュー画像とともに、上カメラ全身撮影を行うのに最適な立ち位置を示す足マークが表示される。この例では、利用者が足マークに合わせて立つことで、好適な上カメラ全身画像が得られるようになされている。 When the live view display is started, as described in step S55 of FIG. 19, the touch panel monitor 93 has a foot mark indicating the optimum standing position for performing the whole body imaging of the upper camera together with the live view image. Is displayed. In this example, a suitable upper camera whole-body image can be obtained by the user standing on the foot mark.
このように、合成用画像とライブビュー画像を合成して得られた画像をライブビュー表示することで、利用者は、実際に得られる画像を確認しながら撮影作業を行うことができる。 Thus, by displaying the image obtained by synthesizing the synthesis image and the live view image in live view, the user can perform a shooting operation while confirming the actually obtained image.
また、ライブビュー表示画面において、図示せぬカウントダウンインジケータで示される数字が0になったときに、カメラ91に取り込まれたライブビュー画像が上カメラ全身画像とされる。
On the live view display screen, when the number indicated by a countdown indicator (not shown) becomes 0, the live view image captured by the
また、この例では、撮影結果表示領域412−1乃至撮影結果表示領域412−3には、下カメラアップ画像が表示され、撮影結果表示領域412−4には、上カメラアップ画像が表示されている。そのため、上カメラ全身撮影処理で得られた上カメラ全身画像は、撮影結果表示領域412−5,撮影結果表示領域412−6に表示されるようになる。 In this example, the lower camera up image is displayed in the shooting result display area 412-1 to the shooting result display area 412-3, and the upper camera up image is displayed in the shooting result display area 412-4. Yes. Therefore, the upper camera whole body image obtained by the upper camera whole body imaging process is displayed in the imaging result display area 412-5 and the imaging result display area 412-6.
なお、図32に示されるタッチパネルモニタ93においては、ライブビュー表示領域411の領域外(ライブビュー表示領域411の下)に足マークが表示されているが、ライブビュー表示領域411に表示される画像内に足マークを表示するようにしてもよい。また、足マークを、タッチパネルモニタ93に表示するのではなく、床104(クロマキー用シート121C)の表面に予め記すようにし、利用者にその足マークの上に立たせるようにしてもよい。
In the touch panel monitor 93 shown in FIG. 32, a foot mark is displayed outside the live view display area 411 (below the live view display area 411), but the image displayed in the live
さらに、ライブビュー画像と合成用画像とを合成して得られた画像をライブビュー表示領域411に表示させると説明したが、ライブビュー画像がライブビュー表示領域411に表示されるようにしてもよい。このように、ライブビュー表示時には、利用者に影が付加されていないライブビュー画像を表示させる表示方法は、特に装飾画像の生成等のための処理量が多い場合に有効である。
Further, although it has been described that the image obtained by combining the live view image and the image for synthesis is displayed in the live
図25のフローチャートの説明に戻り、ライブビュー表示が行なわれると、処理はステップS120からステップS121に進む。 Returning to the description of the flowchart of FIG. 25, when live view display is performed, the process proceeds from step S120 to step S121.
ステップS121において、撮影画像取得部314は、タッチパネルモニタ93にカウントダウンインジケータを表示し、撮影タイミングを利用者に通知する。
In step S121, the captured
撮影タイミングとなると、ステップS122において、撮影画像取得部314は、カメラ91を制御して撮影を行い、そのタイミングで取り込まれた画像から、背景領域が除去された静止画像を撮影画像(上カメラ全身画像)とする。
At the shooting timing, in step S122, the shot
ステップS123において、合成処理部322は、撮影画像(上カメラ全身画像)と合成用画像とを合成することで、合成画像を生成する。このとき、上カメラ全身画像においてコーナーポイント検知部318により検知されたコーナーポイントCPと、図31の合成用画像CO11におけるコーナーライン522A乃至コーナーライン522Cの交点とが一致するように、上カメラ全身画像と合成用画像CO11との合成が行なわれる。
In step S123, the
これにより、例えば図33に示す合成画像CM11が得られる。 Thereby, for example, a composite image CM11 shown in FIG. 33 is obtained.
合成画像CM11には、2人の利用者とともに、利用者に付加された影と、撮影空間の背面,側面,床面の交線であるコーナーラインが表示されている。特に、合成画像CM11において斜線が施されている領域が、装飾画像により示される利用者の影の領域である。 In the composite image CM11, together with two users, a shadow added to the user and a corner line that is an intersection of the back surface, the side surface, and the floor surface of the imaging space are displayed. In particular, the hatched area in the composite image CM11 is the shadow area of the user indicated by the decorative image.
図33の合成画像CM11は、被写体としての利用者の頭からつま先付近までが写った画像である。すなわち、合成画像CM11は、被写体の前方斜め上から撮影された、顔を強調した全身画像となっている。 The composite image CM11 in FIG. 33 is an image in which the portion from the user's head as a subject to the vicinity of the toes is captured. That is, the composite image CM11 is a whole-body image with a face emphasized, taken from diagonally above the subject.
合成画像CM11では、背面、側面、および床面の境界がはっきりと示されるようになっているので、合成画像CM11は立体感のある自然な画像となっている。さらに、合成画像CM11では、背面、側面、床面等の面に沿って利用者の影が付加されているので、利用者の影が立体的に表現され、被写体の上方から一灯ライティングで撮影したような、より自然で立体感のある画像となっている。 In the composite image CM11, the boundary between the back surface, the side surface, and the floor surface is clearly shown, so the composite image CM11 is a natural image with a stereoscopic effect. Further, in the composite image CM11, since the user's shadow is added along the back, side, floor, and other surfaces, the user's shadow is represented in three dimensions, and is taken from above the subject with one lamp lighting. The image is more natural and stereoscopic.
なお、図33では、画像の背景部分に影の領域が設けられる例について説明したが、画像上の利用者(被写体)と影との境界線よりも内側、つまり利用者側に、所定の幅だけ利用者自身に明暗部を設け、被写体に、より立体感をもたせるようにしてもよい。 In FIG. 33, an example in which a shadow area is provided in the background portion of the image has been described. However, a predetermined width is provided on the inner side of the boundary line between the user (subject) and the shadow on the image, that is, on the user side. Only the user himself / herself may be provided with a bright and dark part to make the subject more stereoscopic.
ステップS124において、進行制御部311は、ステップS123の処理で得られた合成画像をタッチパネルモニタ93に表示させ、撮影結果を利用者に確認させる。このようにして得られた合成画像が、編集処理時に編集対象とされる画像である。
In step S124, the
合成画像がタッチパネルモニタ93に表示されると、上カメラ全身撮影処理は終了し、その後、処理は図19のステップS57へと進む。 When the composite image is displayed on the touch panel monitor 93, the upper camera whole body photographing process is terminated, and then the process proceeds to step S57 in FIG.
以上のように、撮影処理部301は、利用者の領域を示すマスク画像の少なくとも一部の領域に変形処理を施すことで、利用者の影を表現する装飾画像を生成し、装飾画像とコーナー画像を合成して、合成用画像を生成する。そして、撮影処理部301は、合成用画像と撮影画像とを合成して合成画像とする。
As described above, the
このように、マスク画像に対して変形処理を施して装飾画像を生成することで、変形処理と平行移動処理という簡単な処理で、装飾画像を得ることができる。そして、このようにして得られた装飾画像を用いて合成画像を生成することで、より立体感のある影が利用者に付加された、自然な画像を得ることができる。また、合成画像の生成にコーナーラインが含まれるコーナー画像を用いることで、さらに立体感のある画像を得ることができる。 In this way, by performing the deformation process on the mask image to generate the decoration image, the decoration image can be obtained by simple processes such as the deformation process and the parallel movement process. Then, by generating a composite image using the decorative image obtained in this way, it is possible to obtain a natural image with a more three-dimensional shadow added to the user. Further, by using a corner image including a corner line for generating a composite image, an image with a further three-dimensional effect can be obtained.
さらに、写真シール作成装置1によれば、撮影空間A1において、床104には傾斜が設けられているので、より足が長く見える合成画像を得ることができる。また、合成画像においては、床104の傾斜により、必要以上に顔が大きく見えることを避けることができるとともに、上目遣いをした顔となることを避けることができるので、より見栄えのよい画像が得られる。
Furthermore, according to the photo
なお、背景領域が抜き出されたライブビュー画像に、合成用画像を合成する際、コーナーポイント検知部318により検知されたコーナーポイントではなく、予め設定されたコーナーポイントと、合成用画像の線分の交点とが一致するように合成されてもよい。これにより、背面、側面、および床面の3面がクロマキー処理により除去された撮影画像に対して、合成用画像を容易に適正な位置に合成することができる。
It should be noted that when the composition image is combined with the live view image from which the background region has been extracted, not the corner point detected by the corner
また、コーナー画像において、コーナーラインは、実際の撮影空間の背面、側面、および床面のうちの2面が交わる交線の位置や角度に対応して描かれる必要はない。 Further, in the corner image, the corner line does not need to be drawn corresponding to the position and angle of the intersecting line where two of the back surface, the side surface, and the floor surface of the actual photographing space intersect.
さらに、以上においては、撮影処理におけるステップS54の処理で被写体の背景が選択され、ステップS56の上カメラ全身撮影処理で、利用者に影が付加されると説明したが、背景の選択時に利用者が影を付加するか否かも選択できるようにしてもよい。 Further, in the above description, it has been described that the background of the subject is selected in the process of step S54 in the shooting process, and that a shadow is added to the user in the upper camera whole body shooting process in step S56. It may be possible to select whether or not to add a shadow.
また、利用者により選択される背景に対して、利用者に影を付加するか否かが予め定められているようにしてもよい。そのような場合、例えば背景として、コーナーのある背景、つまりコーナー画像が合成用画像の生成に用いられる背景が選択されたときには、利用者に影が付加され、コーナーのない背景が選択されたときには、利用者に影が付加されないようにされる。 Further, whether or not to add a shadow to the user with respect to the background selected by the user may be determined in advance. In such a case, for example, when a background with a corner, that is, a background in which a corner image is used to generate an image for synthesis, is selected as a background, a shadow is added to the user, and a background without a corner is selected. The shadow is not added to the user.
〈第1の実施の形態の変形例1〉
[上カメラ全身撮影処理の説明]
また、以上において説明した上カメラ全身撮影処理では、下部領域を定めるための領域設定値が固定値であると説明したが、可変値とされるようにしてもよい。
<
[Explanation of upper camera whole body shooting process]
In the upper camera whole body photographing process described above, the region setting value for determining the lower region is described as a fixed value, but may be a variable value.
そのような場合、図19のステップS56の上カメラ全身撮影処理において、例えば利用者の足の位置に応じて領域設定値が定められる。以下、図34のフローチャートを参照して、領域設定値が可変値である場合における上カメラ全身撮影処理について説明する。 In such a case, in the upper camera whole body photographing process in step S56 of FIG. 19, for example, the region setting value is determined according to the position of the user's foot. Hereinafter, with reference to the flowchart of FIG. 34, the upper camera whole body imaging process when the region setting value is a variable value will be described.
なお、ステップS151乃至ステップS155の処理は、図25のステップS111乃至ステップS115の処理と同様であるので、その説明は省略する。 Note that the processing from step S151 to step S155 is the same as the processing from step S111 to step S115 in FIG.
ステップS156において、装飾画像生成部321は、マスク画像における利用者のつま先の位置を検出し、領域設定値を定める。
In step S156, the decoration
例えば、装飾画像生成部321は、マスク画像における利用者の領域のうち、最も下辺に近い位置を、利用者のつま先位置とする。そして、装飾画像生成部321は、撮影空間の背面と床面が交わる境界位置に対応するマスク画像上の位置から、利用者のつま先位置までの長さを領域設定値とする。これにより、マスク画像において、撮影空間の背面と床面が交わる境界位置に対応する位置から、利用者のつま先位置までの間の領域が下部領域とされることになる。
For example, the decoration
ステップS156においてつま先位置が検出され、領域設定値が定められると、その後、ステップS157乃至ステップS165の処理が行なわれて上カメラ全身撮影処理は終了し、処理は図19のステップS57へと進む。なお、ステップS157乃至ステップS165の処理は、図25のステップS116乃至ステップS124の処理と同様であるので、その説明は省略する。 When the toe position is detected and the region setting value is determined in step S156, the processing from step S157 to step S165 is performed thereafter, the upper camera whole body imaging processing is terminated, and the processing proceeds to step S57 in FIG. Note that the processing from step S157 to step S165 is the same as the processing from step S116 to step S124 in FIG.
このように、図34を参照して説明した上カメラ全身撮影処理では、利用者のつま先位置に基づいて領域設定値が定められる。この場合、下部領域の下端は、利用者のつま先の位置となるので、マスク画像において下部領域よりも下側の領域には、利用者の領域は存在しないことになる。 As described above, in the upper camera whole body photographing process described with reference to FIG. 34, the region setting value is determined based on the toe position of the user. In this case, since the lower end of the lower region is the position of the user's toe, the user's region does not exist in the region below the lower region in the mask image.
上カメラ全身撮影処理では、マスク画像における利用者の領域を用いて装飾画像が生成されるので、利用者の領域ではない領域を下部領域から除外しても、結果的にはマスク画像の下辺位置を下部領域の下端とした場合と同じ装飾画像が得られることになる。 In the upper camera whole body imaging process, the decoration image is generated using the user's area in the mask image, so even if the area that is not the user's area is excluded from the lower area, the result is the lower side position of the mask image The same decorative image as that obtained when is used as the lower end of the lower region is obtained.
なお、領域設定値が可変値とされる場合、利用者のつま先位置から領域設定値を定める例に限らず、領域設定値がどのようにして定められるようにしてもよい。 When the region setting value is a variable value, the region setting value is not limited to the example in which the region setting value is determined from the toe position of the user, and the region setting value may be determined in any way.
〈第2の実施の形態〉
[上カメラ全身撮影処理の説明]
さらに、以上においては、上カメラ全身撮影処理において、マスク画像の1つの領域(下部領域)に変形処理が施されて装飾画像が生成されると説明したが、マスク画像の複数の領域に対して変形処理が施され、装飾画像が生成されるようにしてもよい。
<Second Embodiment>
[Explanation of upper camera whole body shooting process]
Further, in the above description, in the upper camera whole body imaging process, it has been described that a decoration process is generated by performing a deformation process on one area (lower area) of a mask image. Deformation processing may be performed to generate a decoration image.
そのような場合、図19のステップS56の上カメラ全身撮影処理において、例えばマスク画像における撮影空間の側面に対応する領域と床面に対応する領域とに対して、それぞれ変形処理が施される。これにより、より立体感のある影を利用者に付加することができるようになる。 In such a case, in the upper camera whole body imaging process in step S56 of FIG. 19, for example, a deformation process is performed on each of the area corresponding to the side surface of the imaging space and the area corresponding to the floor surface in the mask image. This makes it possible to add a more three-dimensional shadow to the user.
以下、図35のフローチャートを参照して、マスク画像の複数の領域に対して変形処理が施される場合における上カメラ全身撮影処理について説明する。 Hereinafter, with reference to the flowchart of FIG. 35, the upper camera whole body imaging process when the deformation process is performed on a plurality of regions of the mask image will be described.
なお、ステップS191乃至ステップS195の処理は、図25のステップS111乃至ステップS115の処理と同様であるので、その説明は省略する。 Note that the processing from step S191 to step S195 is the same as the processing from step S111 to step S115 in FIG.
ステップS196において、装飾画像生成部321は、背景領域の抽出結果に基づいて、マスク画像における下部領域、上部領域、および側部領域を定める。
In step S196, the decoration
ステップS197において、装飾画像生成部321は、上部領域を平行移動させる。
In step S197, the decoration
例えば、図36の矢印Q31に示すマスク画像MS21が得られたとする。なお、図36において、マスク画像MS21における点線で表される部分は、図を分かり易くするために付加された領域であり、実際の処理には用いられない。以下では、マスク画像MS21の図中、左側にある実線で表されている辺が、マスク画像MS21の図中、左端であるものとして説明を続ける。 For example, assume that a mask image MS21 indicated by an arrow Q31 in FIG. 36 is obtained. In FIG. 36, a portion represented by a dotted line in the mask image MS21 is an area added for easy understanding of the figure, and is not used in actual processing. Hereinafter, the description will be continued assuming that the side represented by the solid line on the left side in the drawing of the mask image MS21 is the left end in the drawing of the mask image MS21.
矢印Q31に示すマスク画像MS21では、クロマキー処理部317による背景領域の抽出結果により求められたコーナーライン522A乃至コーナーライン522Cが示されている。但し、これらのコーナーラインは、実際にマスク画像MS21上に表示されているものではなく、処理の説明のために便宜上示されているものである。
In mask image MS21 indicated by arrow Q31,
装飾画像生成部321は、マスク画像MS21上のコーナーライン522A乃至コーナーライン522Cを、図中、右方向に予め定められた所定の幅SFだけ平行移動して得られる各線分を、コーナーライン522A’、コーナーライン522B’、およびコーナーライン522C’とする。
The decorative
そして、矢印Q32に示すように、装飾画像生成部321は、マスク画像MS21の領域のうち、コーナーライン522C’よりも図中、下側にある領域を下部領域DR21とし、コーナーライン522A’よりも図中、左側にある領域を側部領域SR21とする。なお、下部領域DR21の決定には、上述した領域設定値が用いられてもよい。
Then, as indicated by an arrow Q32, the decoration
さらに、装飾画像生成部321は、マスク画像MS21の領域のうち、コーナーライン522A’よりも図中、右側にあり、かつコーナーライン522C’よりも図中、上側にある領域を、上部領域UR21とする。
Further, the decoration
これらの下部領域DR21、上部領域UR21、および側部領域SR21を定める処理が、ステップS196の処理である。 The process of determining these lower area DR21, upper area UR21, and side area SR21 is the process of step S196.
そして、装飾画像生成部321は、上部領域UR21を図中、左方向に幅SFだけ平行移動させる。これにより、矢印Q33に示すように、移動後の上部領域UR21の図中、左側の端は、コーナーライン522Aの位置となる。なお、矢印Q33に示すマスク画像MS21上では、平行移動後の上部領域UR21には符号「UR21’」が付されており、以下では、平行移動後の上部領域UR21を上部領域UR21’と称することとする。また、画像上の利用者に付加される影の幅は、平行移動させる幅SFにより定まるので、利用者の影の幅が所定値幅となるように幅SFを定めればよい。
Then, the decoration
このように、上部領域UR21を平行移動させて上部領域UR21’とする処理が、ステップS197の処理である。 In this manner, the process of translating the upper area UR21 into the upper area UR21 'is the process of step S197.
図35のフローチャートの説明に戻り、ステップS198において、装飾画像生成部321は、下部領域に変形処理を施す。
Returning to the description of the flowchart of FIG. 35, in step S198, the decoration
例えば、装飾画像生成部321は、図37の矢印Q41に示すようにマスク画像MS21から、下部領域DR21を抽出する。なお、図37において、図36における場合と対応する部分には同一の符号を付してあり、その説明は省略する。
For example, the decoration
次に、装飾画像生成部321は、矢印Q42に示すように、下部領域DR21を平行四辺形状の変形下部領域TR21に変形させる。この例では、下部領域DR21の下辺が固定されたまま、下部領域DR21の上辺が、図中、左方向に幅SFだけ移動するように、下部領域DR21に対して変形処理が施されている。すなわち、下部領域DR21の左右の端にある辺が所定の角度だけ傾けられて、平行四辺形状の変形下部領域TR21とされている。
Next, the decorative
さらに、装飾画像生成部321は、変形下部領域TR21のうち、コーナーライン522Bよりも図中、左側にある領域を除去し、矢印Q43に示す変形下部領域TR21’とする。すなわち、コーナー位置に合わせて変形下部領域TR21がトリミングされ、変形下部領域TR21’とされる。
Further, the decoration
これまでの処理で得られた上部領域UR21’と変形下部領域TR21’を並べると、矢印Q44に示すように、上部領域UR21’の下辺と、変形下部領域TR21’の上辺とは同じ長さとなる。 When the upper region UR21 ′ and the modified lower region TR21 ′ obtained by the above processing are arranged, the lower side of the upper region UR21 ′ and the upper side of the modified lower region TR21 ′ have the same length as indicated by an arrow Q44. .
図35のフローチャートの説明に戻り、ステップS199において、装飾画像生成部321は、側部領域に移動処理および変形処理を施す。
Returning to the description of the flowchart of FIG. 35, in step S199, the decoration
例えば、装飾画像生成部321は、図38の矢印Q51に示すようにマスク画像MS21から、側部領域SR21を抽出する。なお、図38において、図36における場合と対応する部分には同一の符号を付してあり、その説明は省略する。
For example, the decoration
次に、装飾画像生成部321は、矢印Q52に示すように側部領域SR21を、図中、左方向に幅SFだけ平行移動させて側部領域SR21’とする。これにより、側部領域SR21を平行移動させて得られた側部領域SR21’の図中、右側の端は、コーナーライン522Aの位置となる。
Next, the decorative
また、装飾画像生成部321は、矢印Q53に示すように、側部領域SR21’の図中、左端の位置が、マスク画像MS21の左端の位置となるように、側部領域SR21’を図中、横方向(右方向)に幅SFだけ縮小させて縮小側部領域CR21とする。この状態では、縮小側部領域CR21の左右の端は、マスク画像MS21の左端およびコーナーライン522Aの位置となる。
In addition, the decoration
さらに、装飾画像生成部321は、縮小側部領域CR21のうち、コーナーライン522Bよりも図中、右側にある領域を除去し、矢印Q54に示す縮小側部領域CR21’とする。すなわち、コーナー位置に合わせて縮小側部領域CR21がトリミングされ、縮小側部領域CR21’とされる。
Further, the decoration
これまでの処理で得られた上部領域UR21’、変形下部領域TR21’、および縮小側部領域CR21’を並べると、矢印Q55に示すように、それらの領域は各コーナーラインに沿って並ぶようになり、それらの領域はマスク画像MS21内に位置している。 When the upper region UR21 ′, the modified lower region TR21 ′, and the reduced side region CR21 ′ obtained by the processing so far are arranged, as indicated by an arrow Q55, these regions are arranged along each corner line. These areas are located in the mask image MS21.
図35のフローチャートの説明に戻り、ステップS200において、装飾画像生成部321は、これまでの処理により得られた上部領域UR21’、変形下部領域TR21’、および縮小側部領域CR21’に基づいて、装飾画像を生成する。
Returning to the description of the flowchart of FIG. 35, in step S200, the decoration
例えば、上部領域UR21’、変形下部領域TR21’、および縮小側部領域CR21’からなる領域の画像を、変形マスク画像と呼ぶこととし、変形マスク画像上の利用者の領域、つまり画素値が「1」である画素からなる領域を人領域と呼ぶこととする。 For example, an image of an area including an upper area UR21 ′, a modified lower area TR21 ′, and a reduced side area CR21 ′ is referred to as a modified mask image, and a user area on the modified mask image, that is, a pixel value is “ An area composed of pixels “1” is referred to as a human area.
装飾画像生成部321は、これから生成しようとする装飾画像の領域のうち、変形マスク画像上の人領域と同じ領域内の画素の画素値を所定の第1の値とする。また、装飾画像生成部321は、変形マスク画像上の人領域とは異なる位置にある装飾画像の領域内の画素の画素値を「0」とする。
The decoration
したがって、現時点では、装飾画像上の領域のうち、第1の値を画素値として有する画素からなる領域が利用者に対応する領域となる。以下、第1の値を画素値として有する画素からなる領域を、第1の影領域と称することとする。 Therefore, at present, among the areas on the decorative image, an area composed of pixels having the first value as the pixel value is an area corresponding to the user. Hereinafter, an area including pixels having the first value as the pixel value is referred to as a first shadow area.
さらに、装飾画像生成部321は、現時点における装飾画像上の第1の影領域を、予め定められた方向に所定の距離だけ平行移動させて仮の第2の影領域とする。ここで、第1の影領域が平行移動される方向は、例えば図36において、上部領域UR21が平行移動される方向(以下、水平方向と称する)とされる。そして、装飾画像上の仮の第2の影領域のうち、第1の影領域と重ならない領域が、最終的な第2の影領域とされ、装飾画像上の第2の影領域内の画素の画素値が、第1の値よりも小さい第2の値に変更される。
Furthermore, the decoration
同様に、装飾画像生成部321は、現時点における装飾画像上の第1の影領域を、水平方向に、第2の影領域における場合よりも長い距離だけ平行移動させて仮の第3の影領域とする。そして、装飾画像上の仮の第3の影領域のうち、第1の影領域とも第2の影領域とも重ならない領域が、最終的な第3の影領域とされ、装飾画像上の第3の影領域内の画素の画素値が、第2の値よりも小さい第3の値に変更される。
Similarly, the decoration
以上の処理により得られた画像が最終的な装飾画像とされる。このようにして得られる装飾画像は利用者の影の画像となるが、装飾画像上の影の領域を構成する各画素の画素値は、領域ごとに異なる値となるので、装飾画像上の利用者の影には、グラデーションがつけられることになる。したがって、このような装飾画像を用いれば、被写体としての利用者に対して、より自然な装飾を施すことができる。 The image obtained by the above processing is the final decoration image. The decorative image obtained in this way is a shadow image of the user, but the pixel value of each pixel constituting the shadow area on the decorative image is different for each region. A gradation is added to the shadow of the person. Therefore, by using such a decoration image, a more natural decoration can be given to a user as a subject.
また、この装飾画像を用いれば、撮影空間の背面、側面、床面等の面に沿って利用者の影を付加することができるので、利用者の影が立体的に表現され、被写体の上方から一灯ライティングで撮影したような、より自然で立体感のある画像を得ることができる。 In addition, if this decoration image is used, a user's shadow can be added along the back, side, floor, etc. of the shooting space, so that the user's shadow is represented in three dimensions and above the subject. Therefore, it is possible to obtain a more natural and three-dimensional image as if taken with a single lighting.
なお、以上においては、装飾画像上の利用者の影にグラデーションがつけられる例について説明したが、利用者と背景領域との境界部分に所定幅でぼかし処理が施され、装飾画像とされるようにしてもよい。 In the above description, an example in which gradation is added to the shadow of the user on the decoration image has been described. However, the boundary portion between the user and the background area is subjected to a blurring process with a predetermined width so that the decoration image is obtained. It may be.
装飾画像が得られると、その後、ステップS201乃至ステップS206の処理が行なわれて上カメラ全身撮影処理は終了し、処理は図19のステップS57へと進む。なお、ステップS201乃至ステップS206の処理は、図25のステップS119乃至ステップS124の処理と同様であるので、その説明は省略する。 After the decoration image is obtained, the processing from step S201 to step S206 is performed, the upper camera whole body photographing processing is terminated, and the processing proceeds to step S57 in FIG. Note that the processing from step S201 to step S206 is the same as the processing from step S119 to step S124 in FIG.
以上のようにして、撮影処理部301は、マスク画像の複数の領域に対して変形処理を施して装飾画像を生成し、装飾画像とコーナー画像を合成して合成用画像を生成する。また、撮影処理部301は、撮影画像(上カメラ全身画像)と合成用画像とを合成することで、合成画像を生成する。
As described above, the
これにより、例えば図39に示す合成画像CM21が得られる。 Thereby, for example, a composite image CM21 shown in FIG. 39 is obtained.
合成画像CM21には、2人の利用者とともに、利用者に付加された影と、撮影空間の背面,側面,床面の交線であるコーナーラインが表示されている。特に、合成画像CM21において斜線が施されている領域が、装飾画像により示される利用者の影の領域であり、利用者の影の領域では、利用者から遠い領域ほど影の色が薄くなっている。このように、利用者に施される装飾としての影にグラデーションをつけることで、より立体的で自然な画像を得ることができる。 In the composite image CM21, together with two users, a shadow added to the user and a corner line that is an intersection of the back surface, the side surface, and the floor surface of the imaging space are displayed. In particular, the hatched area in the composite image CM21 is the shadow area of the user indicated by the decorative image. In the shadow area of the user, the shadow color becomes lighter as the area is farther from the user. Yes. In this way, a three-dimensional and natural image can be obtained by adding gradation to the shadow as a decoration applied to the user.
なお、図35を参照して説明した上カメラ全身撮影処理では、装飾画像上の利用者の影にグラデーションが付けられると説明したが、グラデーションがつけられないようにしてもよい。また、図25を参照して説明した上カメラ全身撮影処理においても、同様の処理が行われ、グラデーションがつけられるようにしてもよい。すなわち、装飾画像上の人の領域を水平方向に平行移動させていく処理を行なうことで、利用者の影にグラデーションをつけるようにしてもよい。 In the upper camera whole body photographing process described with reference to FIG. 35, it has been described that gradation is added to the shadow of the user on the decorative image, but the gradation may not be applied. In the upper camera whole body photographing process described with reference to FIG. 25, the same process may be performed to add gradation. That is, a gradation may be added to the shadow of the user by performing a process of translating the human area on the decorative image in the horizontal direction.
また、図25を参照して説明した上カメラ全身撮影処理で、下部領域を変形させるときの傾斜角度を変えながら、複数回、下部領域の変形処理と上部領域の平行移動処理を行なっていくことで、装飾画像上の利用者の影にグラデーションをつけるようにしてもよい。 In the upper camera whole body photographing process described with reference to FIG. 25, the lower area deformation process and the upper area parallel movement process are performed a plurality of times while changing the inclination angle when the lower area is deformed. Thus, a gradation may be added to the shadow of the user on the decorative image.
さらに、以上においては、合成用画像の生成に撮影空間の背面、側面、および床面の3面が含まれるコーナー画像を用いると説明したが、それらの3つの面のうちの少なくとも2つの面が含まれる画像をコーナー画像として用いるようにしてもよい。そのような場合であっても、2つの面に沿って利用者の影を付加すれば、立体的な影を利用者に付加することができる。 Further, in the above description, it has been described that the corner image including the three surfaces of the imaging space, that is, the back surface, the side surface, and the floor surface, is used to generate the composition image. However, at least two of the three surfaces are included. The included image may be used as the corner image. Even in such a case, if a user's shadow is added along two surfaces, a three-dimensional shadow can be added to the user.
また、上述したように、マスク画像の少なくとも一部の領域に施される変形処理は、対象となる領域を平行四辺形や台形とする処理、対象となる領域を縮小または拡大させる処理など、変形を加える処理であれば、どのような処理であってもよい。 In addition, as described above, the deformation process applied to at least a part of the mask image includes a process of converting the target area into a parallelogram or a trapezoid, a process of reducing or expanding the target area, and the like. Any process may be used as long as the process is added.
ところで、上述した一連の処理は、ハードウェアにより実行させることもできるし、ソフトウェアにより実行させることもできる。上述した一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、ネットワークや記録媒体からインストールされる。 By the way, the above-described series of processes can be executed by hardware or can be executed by software. When the above-described series of processing is executed by software, a program constituting the software is installed from a network or a recording medium.
この記録媒体は、例えば、図14に示されるように、装置本体とは別に、写真シール作成装置1の管理者にプログラムを配信するために配布される、プログラムが記録されている磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROMおよびDVDを含む)、光磁気ディスク(MDを含む)、もしくは半導体メモリなどよりなるリムーバブルメディア205により構成されるだけでなく、装置本体に予め組み込まれた状態で管理者に配信される、プログラムが記録されているROM206や、記憶部202に含まれるハードディスクなどで構成される。
For example, as shown in FIG. 14, the recording medium is distributed to distribute the program to the administrator of the photo
なお、プログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。 The program may be a program that is processed in time series in the order described in this specification, or is processed in parallel or at a necessary timing such as when a call is made. It may be a program.
また、本発明の実施の形態は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。 The embodiments of the present invention are not limited to the above-described embodiments, and various modifications can be made without departing from the scope of the present invention.
1 写真シール作成装置
11 撮影ユニット
21 撮影部
22 背景部
81 撮影・表示ユニット
91 カメラ
93 タッチパネルモニタ
201 制御部
208 撮影部
301 撮影処理部
311 進行制御部
312 撮影パラメータ設定部
313 ライブビュー表示制御部
314 撮影画像取得部
315 照明制御部
316 カメラ駆動制御部
317 クロマキー処理部
318 コーナーポイント検知部
319 コーナー画像生成部
320 マスク画像生成部
321 装飾画像生成部
322 合成処理部
DESCRIPTION OF
Claims (9)
前記利用者を被写体として撮影した取り込み画像を取得する取得ステップと、
前記取り込み画像上の前記利用者の領域を示すマスク画像の少なくとも一部の領域に対して変形処理を施すことで、前記利用者を装飾する装飾画像を生成する装飾画像生成ステップと、
前記取り込み画像と前記装飾画像を合成して合成画像を生成する合成ステップと
を含む写真シール作成方法。 A method for creating a photo sticker of a photo sticker creating apparatus that takes a picture of a user as a subject in a shooting space, causes the user to perform editing input on the obtained image, and prints the image on sticker paper,
An acquisition step of acquiring a captured image obtained by photographing the user as a subject;
A decoration image generating step for generating a decoration image for decorating the user by performing a deformation process on at least a part of the mask image indicating the user's area on the captured image;
A method for creating a photo sticker, comprising: a combining step of combining the captured image and the decoration image to generate a combined image.
前記合成ステップにおいて、前記背景画像と前記装飾画像を合成して得られる合成用画像に対して、前記取り込み画像を合成することで、前記合成画像を生成する
請求項1に記載の写真シール作成方法。 A background image generation step of generating a background image including a line segment imitating an intersection line of two of the back surface, the side surface, and the floor surface in the imaging space;
2. The photo sticker creation method according to claim 1, wherein in the synthesis step, the synthesized image is generated by synthesizing the captured image with a synthesis image obtained by synthesizing the background image and the decoration image. .
請求項2に記載の写真シール作成方法。 The photograph according to claim 2, wherein, in the decoration image generation step, a deformation process is performed on an area on the mask image determined based on an intersection line position between the back surface and the floor surface to generate the decoration image. How to make a seal.
請求項2または請求項3に記載の写真シール作成方法。 The said decoration image generation step performs a deformation | transformation process with respect to the area | region on the said mask image defined based on the intersection line position of the said back surface and the said side surface, and produces | generates the said decoration image. The photo sticker creation method described.
請求項2乃至請求項4の何れかに記載の写真シール作成方法。 5. The decorative image is an image of a shadow of the user added to the user, and the shadow area is provided along the back surface, the side surface, or the floor surface. The photo sticker preparation method in any one of.
請求項5に記載の写真シール作成方法。 The photographic sticker creation method according to claim 5, wherein gradation is added to the shadow area on the decorative image.
請求項1乃至請求項6の何れかに記載の写真シール作成方法。 The photo sticker creation method according to any one of claims 1 to 6, further comprising a live view display control step of displaying the composite image in a live view at the time of photographing by the user.
前記利用者を被写体として撮影した取り込み画像を取得する取得手段と、
前記取り込み画像上の前記利用者の領域を示すマスク画像の少なくとも一部の領域に対して変形処理を施すことで、前記利用者を装飾する装飾画像を生成する装飾画像生成手段と、
前記取り込み画像と前記装飾画像を合成して合成画像を生成する合成手段と
を備える写真シール作成装置。 A photo sticker creation device that takes a picture of a user as a subject in a shooting space, causes the user to perform editing input on the obtained image, and prints the image on sticker paper,
Obtaining means for obtaining a captured image obtained by photographing the user as a subject;
Decoration image generation means for generating a decoration image for decorating the user by performing a deformation process on at least a partial region of the mask image indicating the user's region on the captured image;
A photo sticker creating apparatus comprising: a combining unit that combines the captured image and the decoration image to generate a combined image.
前記利用者を被写体として撮影した取り込み画像を取得し、
前記取り込み画像上の前記利用者の領域を示すマスク画像の少なくとも一部の領域に対して変形処理を施すことで、前記利用者を装飾する装飾画像を生成し、
前記取り込み画像と前記装飾画像を合成して合成画像を生成する
ステップを含む処理を実行させるプログラム。 A computer that controls a photo sticker creation device that takes a picture of a user as a subject in a shooting space, causes the user to perform editing input on the obtained image, and prints the image on sticker paper.
Obtain a captured image taken with the user as a subject,
By performing a deformation process on at least a part of the mask image indicating the user's area on the captured image, a decoration image for decorating the user is generated,
A program for executing processing including a step of generating a composite image by combining the captured image and the decoration image.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012099518A JP5445618B2 (en) | 2012-04-25 | 2012-04-25 | Photo sticker creation apparatus and method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012099518A JP5445618B2 (en) | 2012-04-25 | 2012-04-25 | Photo sticker creation apparatus and method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2013229702A true JP2013229702A (en) | 2013-11-07 |
JP5445618B2 JP5445618B2 (en) | 2014-03-19 |
Family
ID=49676953
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012099518A Active JP5445618B2 (en) | 2012-04-25 | 2012-04-25 | Photo sticker creation apparatus and method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5445618B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015211464A (en) * | 2014-11-25 | 2015-11-24 | フリュー株式会社 | Photographic seal creation device and photographic seal creation method |
JP2018036598A (en) * | 2016-09-02 | 2018-03-08 | 株式会社メイクソフトウェア | Photographing game machine |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006287285A (en) * | 2005-03-31 | 2006-10-19 | Omron Entertainment Kk | Photography seal forming device, method and program |
JP2007328546A (en) * | 2006-06-07 | 2007-12-20 | Furyu Kk | Photographic image composer, control method of photography image composer, control program, and recording medium |
JP2012042734A (en) * | 2010-08-19 | 2012-03-01 | Make Softwear:Kk | Photographing amusement machine, photographing amusement method and photographing amusement machine control program |
-
2012
- 2012-04-25 JP JP2012099518A patent/JP5445618B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006287285A (en) * | 2005-03-31 | 2006-10-19 | Omron Entertainment Kk | Photography seal forming device, method and program |
JP2007328546A (en) * | 2006-06-07 | 2007-12-20 | Furyu Kk | Photographic image composer, control method of photography image composer, control program, and recording medium |
JP2012042734A (en) * | 2010-08-19 | 2012-03-01 | Make Softwear:Kk | Photographing amusement machine, photographing amusement method and photographing amusement machine control program |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015211464A (en) * | 2014-11-25 | 2015-11-24 | フリュー株式会社 | Photographic seal creation device and photographic seal creation method |
JP2018036598A (en) * | 2016-09-02 | 2018-03-08 | 株式会社メイクソフトウェア | Photographing game machine |
Also Published As
Publication number | Publication date |
---|---|
JP5445618B2 (en) | 2014-03-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6395016B2 (en) | Photo sticker creation device | |
JP5201430B1 (en) | Photo sticker creation apparatus and method, and program | |
JP5630675B2 (en) | Photo sealing machine, photo sealing machine processing method and program | |
JP5472365B2 (en) | Photo sticker creation apparatus, image processing method, and program | |
JP2014211642A (en) | Photographing and editing device, processing method for photographing and editing device, and program | |
JP5773389B2 (en) | Photo sticker creation apparatus and method, and program | |
JP5445618B2 (en) | Photo sticker creation apparatus and method, and program | |
JP5904192B2 (en) | Photo sticker creation apparatus, image processing method, and program | |
JP5120508B1 (en) | Photo sticker creation apparatus and method, and program | |
JP6241689B2 (en) | Image processing apparatus, image processing method, and program | |
JP6179655B2 (en) | Photography game machine, control method, and program | |
JP6160470B2 (en) | Photo sealing machine, photo sealing machine processing method and program | |
JP5881183B2 (en) | Photo sealing machine, photo sealing machine processing method and program | |
JP2017199008A (en) | Photography game device, control method, and program | |
JP6436368B2 (en) | Photo sticker, control method and program | |
JP5979463B1 (en) | Photo sticker creation apparatus, information processing method, and program | |
JP6057005B2 (en) | Photo sealing machine, photo sealing machine processing method and program | |
JP6146268B2 (en) | Photo sticker creation apparatus, image processing method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20130828 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20130920 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130926 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20131111 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20131126 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20131209 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5445618 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |