JP5904192B2 - Photo sticker creation apparatus, image processing method, and program - Google Patents
Photo sticker creation apparatus, image processing method, and program Download PDFInfo
- Publication number
- JP5904192B2 JP5904192B2 JP2013236789A JP2013236789A JP5904192B2 JP 5904192 B2 JP5904192 B2 JP 5904192B2 JP 2013236789 A JP2013236789 A JP 2013236789A JP 2013236789 A JP2013236789 A JP 2013236789A JP 5904192 B2 JP5904192 B2 JP 5904192B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- user
- displayed
- images
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000003672 processing method Methods 0.000 title claims description 7
- 238000000034 method Methods 0.000 claims description 151
- 238000012545 processing Methods 0.000 claims description 146
- 230000008569 process Effects 0.000 claims description 141
- 239000002131 composite material Substances 0.000 claims description 101
- 230000015572 biosynthetic process Effects 0.000 claims description 22
- 238000003786 synthesis reaction Methods 0.000 claims description 22
- 230000002194 synthesizing effect Effects 0.000 claims description 21
- 238000004891 communication Methods 0.000 claims description 8
- 238000010348 incorporation Methods 0.000 claims 2
- 240000007320 Pinus strobus Species 0.000 description 64
- 238000003384 imaging method Methods 0.000 description 57
- 239000000203 mixture Substances 0.000 description 41
- 238000001514 detection method Methods 0.000 description 14
- 238000005286 illumination Methods 0.000 description 14
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 13
- 239000013256 coordination polymer Substances 0.000 description 12
- 238000010586 diagram Methods 0.000 description 12
- 230000000694 effects Effects 0.000 description 11
- 239000000284 extract Substances 0.000 description 9
- 238000012790 confirmation Methods 0.000 description 8
- 238000003860 storage Methods 0.000 description 8
- NIXOWILDQLNWCW-UHFFFAOYSA-N acrylic acid group Chemical group C(C=C)(=O)O NIXOWILDQLNWCW-UHFFFAOYSA-N 0.000 description 6
- 230000005540 biological transmission Effects 0.000 description 6
- 239000003086 colorant Substances 0.000 description 6
- 230000006870 function Effects 0.000 description 5
- 238000004519 manufacturing process Methods 0.000 description 5
- 238000009966 trimming Methods 0.000 description 5
- 238000003780 insertion Methods 0.000 description 4
- 230000037431 insertion Effects 0.000 description 4
- 238000002360 preparation method Methods 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 239000000463 material Substances 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- FFBHFFJDDLITSX-UHFFFAOYSA-N benzyl N-[2-hydroxy-4-(3-oxomorpholin-4-yl)phenyl]carbamate Chemical compound OC1=C(NC(=O)OCC2=CC=CC=C2)C=CC(=C1)N1CCOCC1=O FFBHFFJDDLITSX-UHFFFAOYSA-N 0.000 description 2
- 239000004744 fabric Substances 0.000 description 2
- 210000000887 face Anatomy 0.000 description 2
- 230000008921 facial expression Effects 0.000 description 2
- 230000001678 irradiating effect Effects 0.000 description 2
- 238000012423 maintenance Methods 0.000 description 2
- 230000000873 masking effect Effects 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 239000011347 resin Substances 0.000 description 2
- 229920005989 resin Polymers 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 239000012141 concentrate Substances 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 230000003028 elevating effect Effects 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
Images
Description
本発明は、写真シール作成装置、画像処理方法、並びにプログラムに関し、特に、利用者にとってより満足度の高い画像を提供することができるようにする写真シール作成装置、画像処理方法、並びにプログラムに関する。 The present invention relates to a photographic sticker creating apparatus, an image processing method, and a program, and more particularly, to a photographic sticker creating apparatus, an image processing method, and a program that can provide a user with a more satisfactory image.
利用者を撮影し、撮影画像に対して利用者に編集を行わせ、編集後の画像をシール紙に印刷して提供する写真シール機が知られている。このような写真シール機は娯楽(遊戯)施設等に設置される。 There is known a photo sticker that takes a picture of a user, causes the user to edit the shot image, and prints and provides the edited image on sticker paper. Such a photo sticker is installed in an entertainment facility.
写真シール機によって提供される1ゲームの流れは、通常、撮影空間内にいる利用者を被写体として撮影し、利用者を編集空間に移動させ、編集空間内で行われる操作に従って画像を編集し、編集後の画像である編集済み画像をシール紙に印刷して排出するという流れになる。 The flow of one game provided by the photo-seal machine usually shoots a user in the shooting space as a subject, moves the user to the editing space, edits the image according to operations performed in the editing space, The edited image, which is the edited image, is printed on a sticker sheet and discharged.
近年は、編集作業後、編集済み画像がシール紙に印刷されるまでの待ち時間に行われる事後接客において、シール紙に印刷される撮影画像や編集済み画像をサーバに送信・保存し、利用者が所有する携帯端末からそのサーバにアクセスし、保存された画像を取得することで、利用者は、携帯端末上で、撮影画像や編集済み画像を利用することができるようになっている。例えば、利用者は、取得した画像を、携帯端末からウェブ上で管理されているブログ(Blog:web log)等にアップロードすることで、その画像を不特定多数の人に公開することができる。 In recent years, after editing work, during the waiting time until the edited image is printed on the sticker paper, the photographed image or edited image to be printed on the sticker paper is transmitted and stored to the server at the customer service. By accessing the server from the mobile terminal owned by the user and acquiring the stored image, the user can use the captured image or the edited image on the mobile terminal. For example, the user can upload the acquired image to an unspecified number of people by uploading the acquired image to a blog (Blog: web log) or the like managed on the web.
また、従来、利用者の全身と顔付近のアップを個別に撮影し、全身画像とアップ画像を個別にシール紙に印刷することが可能な写真シール機が提案されている(例えば、特許文献1参照)。 Conventionally, there has been proposed a photo sticker that can individually capture a user's whole body and the vicinity of the face, and can individually print the whole body image and the up image on a sticker sheet (for example, Patent Document 1). reference).
さらに、利用者の全身を撮影する際に、全身画像から顔付近のアップ画像をトリミング拡大し、全身画像とアップ画像を合成してライブビュー表示するとともに、全身画像とアップ画像を合成した画像をシール紙に印刷することが可能な写真シール機が提案されている(例えば、特許文献2参照)。 Furthermore, when photographing the whole body of the user, the up-image near the face is cropped and enlarged from the whole-body image, the whole-body image and the up-image are combined and displayed in live view, and the combined image of the whole-body image and the up-image is displayed. A photo sticker that can print on sticker paper has been proposed (see, for example, Patent Document 2).
本発明は、利用者にとって満足度の高い画像を提供することができるようにするものである。 The present invention makes it possible to provide an image that is highly satisfactory for the user.
本発明の一側面の写真シール作成装置は、撮影空間において利用者を撮影し、得られた撮影画像を加工した画像を所定のシール紙に印刷したり、通信ネットワークを介して接続されている携帯端末へ送信したりする写真シール作成装置であって、複数の利用者を含む画像を取り込み、前記複数の利用者を撮影する取り込み手段と、前記取り込み手段により取り込まれた動画像を1つの領域内にリアルタイムに表示させるとともに、前記動画像の周囲に複数の合成用画像を表示させるように表示部の表示を制御するライブビュー表示制御手段と、前記取り込み手段により撮影された撮影画像から生成した複数の画像に各前記合成用画像を組み合わせた複数の合成画像を生成する合成手段とを備え、前記合成手段は、前記動画像内の左側の利用者の画像と前記動画像の左側に表示されている前記合成用画像を合成することにより第1の合成画像を生成し、前記動画像内の右側の利用者の画像と前記動画像の右側に表示されている前記合成用画像を合成することにより第2の合成画像を生成する。 A photo sticker creating apparatus according to one aspect of the present invention is a mobile phone that takes a picture of a user in a shooting space, prints an image obtained by processing the obtained shot image on a predetermined sticker sheet, or is connected via a communication network. A photo sticker creating apparatus for transmitting to a terminal, which captures an image including a plurality of users, captures the plurality of users, and a moving image captured by the capturing means within one area multiple causes displayed in real time, and live view display control means for controlling the display of the display unit so as to display a plurality of combined images around the moving image generated from images captured by the capture means a synthesizing means for generating a plurality of combined images by combining each of the combined images to the image, said combining means, the left of the user in the video image A first composite image is generated by combining the image and the image for synthesis displayed on the left side of the moving image, and is displayed on the right side of the moving image and the user image on the right side in the moving image. A second composite image is generated by combining the composite images.
前記合成手段には、前記撮影画像から各前記利用者の画像を抽出させ、各前記利用者の画像に各前記合成用画像を組み合わせることにより、複数の前記合成画像を生成させることができる。 The synthesizing means can extract each of the user images from the photographed image, and can generate a plurality of the synthesized images by combining each of the user images with the images for synthesis.
前記ライブビュー表示制御手段には、前記表示部の表示画面の中央に前記動画像をリアルタイムに表示させるとともに、前記動画像の左右に前記合成用画像を表示させることができる。 Wherein the live view display control means causes display of the moving image in real time the center of the display screen of the display unit, it is possible to Ru to display the synthesis image to the left and right of the moving image.
前記撮影画像に対する編集入力を受け付ける編集処理手段と、前記シール紙に画像を印刷する印刷手段と、前記携帯端末へ画像を送信する送信手段とをさらに設けることができる。 The image processing apparatus may further include an editing processing unit that receives an editing input for the captured image, a printing unit that prints an image on the sticker sheet, and a transmission unit that transmits the image to the portable terminal.
本発明の一側面の画像処理方法は、撮影空間において利用者を撮影し、得られた撮影画像を加工した画像を所定のシール紙に印刷したり、通信ネットワークを介して接続されている携帯端末へ送信したりする写真シール作成装置の画像処理方法であって、複数の利用者を含む画像を取り込み、前記複数の利用者を撮影する取り込みステップと、前記取り込みステップの処理により取り込まれた動画像を1つの領域内にリアルタイムに表示させるとともに、前記動画像の周囲に複数の合成用画像を表示させるように表示部の表示を制御するライブビュー表示制御ステップと、前記取り込みステップの処理により撮影された撮影画像から生成した複数の画像に各前記合成用画像を組み合わせた複数の合成画像を生成する合成ステップとを含み、前記合成ステップにおいて、前記動画像内の左側の利用者の画像と前記動画像の左側に表示されている前記合成用画像を合成することにより第1の合成画像を生成し、前記動画像内の右側の利用者の画像と前記動画像の右側に表示されている前記合成用画像を合成することにより第2の合成画像を生成する。 An image processing method according to one aspect of the present invention is a mobile terminal that captures an image of a user in an imaging space, prints an image obtained by processing the captured image on a predetermined sticker sheet, or is connected via a communication network An image processing method of a photo sticker creating apparatus for transmitting to a capturing step of capturing an image including a plurality of users and photographing the plurality of users, and a moving image captured by the processing of the capturing step Is displayed in one area in real time, and a live view display control step for controlling display of the display unit so as to display a plurality of compositing images around the moving image, and the processing of the capturing step. and each of said a plurality of images generated from the captured image viewed contains a combining step of generating a plurality of combined images by combining the synthesis image, before In the combining step, a first composite image is generated by combining the left user image in the moving image and the combining image displayed on the left side of the moving image, and the right side in the moving image A second synthesized image is generated by synthesizing the image of the user and the image for synthesis displayed on the right side of the moving image .
本発明の一側面のプログラムは、撮影空間において利用者を撮影し、得られた撮影画像を加工した画像を所定のシール紙に印刷したり、通信ネットワークを介して接続されている携帯端末へ送信したりする処理をコンピュータに実行させるためのプログラムであって、複数の利用者を含む画像を取り込み、前記複数の利用者を撮影する取り込みステップと、前記取り込みステップの処理により取り込まれた動画像を1つの領域内にリアルタイムに表示させるとともに、前記動画像の周囲に複数の合成用画像を表示させるように表示部の表示を制御するライブビュー表示制御ステップと、前記取り込みステップの処理により撮影された撮影画像から生成した複数の画像に各前記合成用画像を組み合わせた複数の合成画像を生成する合成ステップとを含み、前記合成ステップにおいて、前記動画像内の左側の利用者の画像と前記動画像の左側に表示されている前記合成用画像を合成することにより第1の合成画像を生成し、前記動画像内の右側の利用者の画像と前記動画像の右側に表示されている前記合成用画像を合成することにより第2の合成画像を生成する処理をコンピュータに実行させる。 The program according to one aspect of the present invention shoots a user in a shooting space, prints an image obtained by processing the captured image on a predetermined sticker sheet, or transmits the image to a mobile terminal connected via a communication network. A program for causing a computer to execute a process for capturing, capturing an image including a plurality of users, capturing an image of the plurality of users, and a moving image captured by the processing of the capturing step Photographed in the live view display control step for controlling the display of the display unit so that a plurality of compositing images are displayed around the moving image and displayed in one area in real time, and taken by the processing of the capturing step A composite step of generating a plurality of composite images obtained by combining the composite images with a plurality of images generated from the photographed images. Only contains, in the combining step, to generate a first synthesized image by synthesizing the synthesis image which is displayed on the left side of the user's image in the moving image on the left side of the moving image, the A computer is caused to execute a process of generating a second synthesized image by synthesizing the right user image in the moving image and the synthesizing image displayed on the right side of the moving image .
本発明の一側面においては、複数の利用者を含む画像が取り込まれ、複数の前記利用者が撮影され、取り込まれた動画像がリアルタイムに表示され、前記動画像の周囲に複数の合成用画像が表示され、撮影された撮影画像から生成した複数の画像のうち、前記動画像内の左側の利用者の画像と前記動画像の左側に表示されている前記合成用画像を合成することにより第1の合成画像が生成され、前記動画像内の右側の利用者の画像と前記動画像の右側に表示されている前記合成用画像を合成することにより第2の合成画像が生成される。 In one aspect of the present invention, an image including a plurality of users is captured, the plurality of users are photographed, the captured moving images are displayed in real time, and a plurality of compositing images are provided around the moving images. By combining the image of the user on the left side in the moving image and the image for synthesis displayed on the left side of the moving image among the plurality of images generated from the captured image that is displayed. One composite image is generated, and a second composite image is generated by combining the right user image in the moving image and the combining image displayed on the right side of the moving image.
本発明の一側面によれば、利用者にとって満足度の高い画像を提供することが可能となる。 According to one aspect of the present invention, it is possible to provide an image that is highly satisfactory for the user.
以下、本発明を適用した具体的な実施の形態について、図面を参照しながら詳細に説明する。 Hereinafter, specific embodiments to which the present invention is applied will be described in detail with reference to the drawings.
[写真シール作成装置の外観構成]
図1は、本発明の一実施形態に係る写真シール作成装置1の外観の構成例を示す斜視図である。
[External structure of photo sticker creation device]
FIG. 1 is a perspective view showing a configuration example of the appearance of a photo
写真シール作成装置1は、撮影や編集等の作業を利用者にゲームとして行わせ、撮影画像や編集済み画像を提供する代わりに利用者より代金を受け取るゲーム機である。写真シール作成装置1はゲームセンタなどの店舗に設置される。利用者は1人であることもあるし、複数人であることもある。
The photo
写真シール作成装置1が提供するゲームで遊ぶ利用者は、代金を投入し、自身が被写体となって撮影を行い、撮影によって得られた撮影画像に対して、手書きの線画やスタンプ画像を合成する編集機能を用いて編集を行うことにより、撮影画像を彩り豊かな画像にする。利用者は、編集済みの画像が印刷されたシール紙を受け取って一連のゲームを終了させることになる。
The user who plays the game provided by the photo
図1に示すように、写真シール作成装置1は、主に、撮影ユニット11、編集部12、および事後接客部13から構成される。撮影ユニット11と編集部12が接した状態で設置され、編集部12と事後接客部13が接した状態で設置される。
As shown in FIG. 1, the photo
撮影ユニット11は、撮影部21と背景部22から構成される。撮影部21と背景部22は所定の距離だけ離れて設置され、撮影部21と背景部22の間に形成される空間である撮影空間において撮影作業が行われる。
The photographing unit 11 includes a photographing
撮影部21は撮影作業を利用者に行わせる装置である。撮影部21は、撮影空間に入り、撮影作業を行っている利用者の正面に位置する。撮影空間を正面に臨む面を構成する撮影部21の正面パネル41には、撮影作業時に利用者により用いられるタッチパネルモニタなどが設けられる。撮影空間にいる利用者から見て左側の面を左側面、右側の面を右側面とすると、撮影部21の左側面が側面パネル42Aにより構成され、右側面が側面パネル42B(図示せず)により構成される。
The photographing
背景部22は、正面を向いて撮影作業を行っている利用者の背面側に位置する板状の部材である背面パネル51、背面パネル51の左端に取り付けられ、側面パネル42Aとほぼ同じ幅の板状の部材である側面パネル52A、および、背面パネル51の右端に取り付けられ、側面パネル42Bとほぼ同じ幅の板状の部材である側面パネル52B(図2)から構成される。
The
撮影部21の左側面を構成する側面パネル42Aと背景部22の側面パネル52Aは、ほぼ同一平面に設けられ、それぞれの上部が板状の部材である連結部23Aによって連結される。また、撮影部21の右側面を構成する側面パネル42Bと背景部22の側面パネル52Bは、ほぼ同一平面に設けられ、それぞれの上部が板状の部材である連結部23Bによって連結される。
The
撮影部21の側面パネル42A、連結部23A、および背景部22の側面パネル52Aに囲まれることによって形成される開口が撮影空間の出入り口G1となる。なお、図示はしないが、撮影部21の側面パネル42B、連結部23B、および背景部22の側面パネル52Bに囲まれることによって形成される開口も撮影空間の出入り口G2となる。
An opening formed by being surrounded by the side panel 42 </ b> A of the photographing
撮影空間の上方には、撮影部21の正面パネル41、連結部23A、連結部23B、および背景部22の背面パネル51に囲まれる開口が形成され、その開口の一部を覆うように天井ストロボユニット24が設けられる。天井ストロボユニット24の一端が連結部23Aに固定され、他端が連結部23Bに固定される。天井ストロボユニット24は、撮影に合わせて撮影空間内に向けて発光するストロボを内蔵する。天井ストロボユニット24を構成するストロボの内部には蛍光灯が設けられており、撮影空間の照明としても機能する。
An opening surrounded by the
なお、撮影空間にいる利用者の正面−背面方向を奥行き方向とすると、撮影ユニット11の寸法(奥行き、幅、および高さ)は、例えば、1850mm×1800mm×2225mmとされる。 When the front-back direction of the user in the shooting space is the depth direction, the dimensions (depth, width, and height) of the shooting unit 11 are, for example, 1850 mm × 1800 mm × 2225 mm.
編集部12は、撮影作業によって得られた画像を編集する編集作業を利用者に行わせる装置である。編集部12は、一方の側面が撮影部21の正面パネル41の背面に接するように撮影ユニット11に連結して設けられる。編集部12には、編集作業時に利用者により用いられるタブレット内蔵モニタなどの構成が設けられる。
The
図1に示す編集部12の構成を正面側の構成とすると、2組の利用者が同時に編集作業を行うことができるように、編集部12の正面側と背面側には編集作業に用いられる構成がそれぞれ設けられる。
If the configuration of the
編集部12の正面側は、床面に対して垂直な面であり、側面パネル42Aとほぼ平行な面である面71と、面71の上方に形成された斜面72から構成され、編集作業に用いられる構成が斜面72に設けられる。斜面72の左側には、柱状の形状を有し、照明装置74の一端を支持する支持部73Aが設けられる。斜面72の右側にも、照明装置74の他端を支持する支持部73B(図2)が設けられる。さらに、支持部73Aの左側には、板状の形状を有し、事後接客部13が連結して設けられる支持部73Cが設けられる。また、支持部73Cの上面にはカーテンレール26を支持する支持部75が設けられる。
The front side of the
編集部12の上方にはカーテンレール26が取り付けられる。カーテンレール26は、上から見たときの形状がコの字状となるように3本のレール26A乃至26Cを組み合わせて構成される。平行に設けられるレール26Aと26Bの一端は、連結部23Aと連結部23Bにそれぞれ固定され、他端に残りの一本のレール26Cの両端が接合される。
A
カーテンレール26には、編集部12の正面前方の空間と背面前方の空間の内部が外から見えないようにカーテンが取り付けられる。カーテンレール26に取り付けられたカーテンにより囲まれる編集部12の正面前方の空間と背面前方の空間が、利用者が編集作業を行う編集空間となる。
A curtain is attached to the
図2は、写真シール作成装置1を別の角度から見た斜視図である。
FIG. 2 is a perspective view of the photo
事後接客部13は利用者に対して事後接客を行う装置である。事後接客では、撮影画像や編集済みの画像が携帯電話機などの携帯端末に送信される。
The subsequent
図2に示すように、事後接客部13は、所定の厚さを有する板状の筐体を有しており、その背面が編集部12の左側面に接するように編集部12に連結して設けられる。事後接客部13の正面には、事後接客時に利用者により用いられるタブレット内蔵モニタや、撮影画像や編集済みの画像が印刷されたシール紙が排出される排出口などが設けられる。事後接客部13の正面前方の空間が、シール紙への印刷が終わるのを待っている利用者に対して事後接客を行う事後接客空間となる。
As shown in FIG. 2, the
ここで、写真シール作成ゲームの流れと、それに伴う利用者の移動について図3を参照して説明する。図3は、写真シール作成装置1を上から見た平面図である。
Here, the flow of the photo sticker creation game and the accompanying movement of the user will be described with reference to FIG. FIG. 3 is a plan view of the photo
写真シール作成装置1の利用者は、白抜き矢印#1で示すように出入り口G1から、または白抜き矢印#2で示すように出入り口G2から、撮影部21と背景部22の間に形成された撮影空間A1に入り、撮影部21に設けられたカメラやタッチパネルモニタなど利用して撮影作業を行う。
The user of the photo
撮影作業を終えた利用者は、白抜き矢印#3で示すように出入り口G1を使って撮影空間A1から出て編集空間A2−1に移動するか、白抜き矢印#4で示すように出入り口G2を使って撮影空間A1から出て編集空間A2−2に移動する。
The user who has finished the photographing work exits the photographing space A1 using the doorway G1 as indicated by the
編集空間A2−1は、編集部12の正面側の編集空間であり、編集空間A2−2は、編集部12の背面側の編集空間である。編集空間A2−1と編集空間A2−2のいずれの空間に移動するのかが、撮影部21のタッチパネルモニタの画面表示などによって案内される。例えば2つの編集空間のうちの空いている方の空間が移動先として案内される。編集空間A2−1または編集空間A2−2に移動した利用者は編集作業を開始する。編集空間A2−1の利用者と、編集空間A2−2の利用者は同時に編集作業を行うことができる。
The editing space A2-1 is an editing space on the front side of the
編集作業が終了した後、撮影画像や編集済みの画像の印刷が開始される。画像の印刷中、編集作業を終えた利用者は、編集空間A2−1で編集作業を行っていた場合には白抜き矢印#5で示すように編集空間A2−1から事後接客空間A3に移動して事後接客を受ける。また、編集作業を終えた利用者は、編集空間A2−2で編集作業を行っていた場合には白抜き矢印#6で示すように編集空間A2−2から事後接客空間A3に移動し、事後接客空間A3において事後接客を受ける。
After the editing operation is completed, printing of the captured image and the edited image is started. The user who has finished the editing work during image printing moves from the editing space A2-1 to the post-service area A3 as indicated by the
画像の印刷が終了したとき、利用者は、事後接客部13に設けられた排出口からシール紙を受け取り、一連の写真シール作成ゲームを終えることになる。
When the printing of the image is finished, the user receives the sticker paper from the outlet provided in the
次に、各装置の構成について説明する。 Next, the configuration of each device will be described.
[撮影部の構成]
図4は、撮影部21の構成例を示す図である。撮影部21は、正面パネル41、側面パネル42A、および側面パネル42Bが、箱状の形状を有するベース部43に取り付けられることによって構成される。
[Configuration of shooting section]
FIG. 4 is a diagram illustrating a configuration example of the photographing
正面パネル41は撮影空間A1で撮影作業を行う利用者の正面に位置し、側面パネル42Aと側面パネル42Bは、それぞれ、撮影空間A1で撮影作業を行う利用者の左側、右側に位置する。側面パネル42Aの上方には連結部23Aが固定され、側面パネル42Bの上方には連結部23Bが固定される。
The
正面パネル41のほぼ中央には撮影・表示ユニット81が設けられる。撮影・表示ユニット81は、カメラ91、カメラストロボ92、およびタッチパネルモニタ93から構成される。
An imaging /
カメラ91は、CCD(Charge Coupled Device)などの撮像素子を有する撮像装置を含むように構成され、撮影空間A1にいる利用者を撮影する。カメラ91により取り込まれた動画像(ライブビュー画像)は、タッチパネルモニタ93にリアルタイムで表示される。利用者により撮影が指示されたときなどの所定のタイミングでカメラ91により取り込まれた画像は撮影画像(静止画像)として保存される。なお、カメラ91により取り込まれた画像、すなわち、ライブビュー画像および撮影画像を併せて、以下、取り込み画像ともいう。
The
カメラ91の背面側には、カメラストロボ92が設けられ、カメラ91は、カメラストロボ92の表面側で上下方向に駆動(移動)するようになされている。カメラストロボ92は、発光面を構成するアクリル板と、その背後に設けられる蛍光灯等の照明装置とから構成され、他のストロボと同様にカメラ91による撮影に合わせて発光する。カメラストロボ92においては、カメラ91の上下方向の位置に応じて露出する部分が発光面となる。つまり、カメラストロボ92は、カメラ91の上下方向の位置に応じて、被写体としての利用者の顔付近をカメラ91の上方または下方から照射する。
A
カメラ91の下側に設けられたタッチパネルモニタ93は、LCD(Liquid Crystal Display)などのモニタと、それに積層されたタッチパネルにより構成される。タッチパネルモニタ93は、カメラ91により取り込まれた動画像を表示するライブビューモニタとしての機能と、各種のGUI(Graphical User Interface)画像を表示し、利用者の選択操作をタッチパネルにより受け付ける機能とを備えている。タッチパネルモニタ93には、適宜、背景等の画像が合成された後の動画像が表示される。
A touch panel monitor 93 provided on the lower side of the
正面パネル41には、撮影・表示ユニット81の位置を基準として、上方に上ストロボ82が設置される。また、左方に左ストロボ83が設置され、右方に右ストロボ84が設置される。撮影・表示ユニット81の下方の位置には、ベース部43の上面が一部突出する形で下ストロボ85が設けられる。
On the
上ストロボ82は、利用者を上前方から照射する。左ストロボ83は、利用者を左前方から照射し、右ストロボ84は、利用者を右前方から照射する。下ストロボ85は、利用者を下前方から照射する。
The upper strobe 82 irradiates the user from the upper front. The
ベース部43には利用者の足元を照射する足元ストロボ86も設けられる。上ストロボ82、左ストロボ83、右ストロボ84、下ストロボ85、および足元ストロボ86の内部には蛍光灯が設けられており、天井ストロボユニット24を構成するストロボの内部の蛍光灯と合わせて、撮影空間A1内の照明として用いられる。各蛍光灯の発光量が調整されることによって、または、発光させる蛍光灯の数が調整されることによって、撮影空間A1内の明るさが、利用者が行っている撮影作業の内容に応じて適宜調整される。
The
また、足元ストロボ86の右側には、利用者がお金を投入する硬貨投入返却口87が設けられる。
Further, a coin insertion /
さらに、下ストロボ85の上側であって、タッチパネルモニタ93の左側には、利用者を左下前方から照射するモニタ左ストロボ88が設けられ、タッチパネルモニタ93の右側には、利用者を右下前方から照射するモニタ右ストロボ89が設けられる。
Further, on the left side of the touch panel monitor 93 on the upper side of the lower strobe 85, a monitor left
なお、各ストロボ内部には、蛍光灯以外の照明装置が設けられてもよい。 An illumination device other than the fluorescent lamp may be provided inside each strobe.
下ストロボ85を挟んでベース部43の上面の左右に形成されるスペース43Aおよび43Bは、撮影作業を行う利用者が手荷物等を置くための荷物置き場として用いられる。
また、正面パネル41の例えば天井付近には、利用者に撮影作業を行わせる撮影処理の案内音声、BGM(Back Ground Music)、効果音等の音を出力するスピーカも設けられる。
Further, for example, near the ceiling of the
ここで、カメラ91の上下方向の駆動について説明する。
Here, the vertical drive of the
撮影処理においては、カメラ91の上下方向の位置が、被写体としての利用者を、利用者から見て前方正面から撮影する位置と、利用者から見て前方斜め上から撮影する位置とになるように、カメラ91を上下方向に駆動させて撮影が行われる。
In the shooting process, the vertical position of the
以下、適宜、利用者を前方正面から撮影する位置にあるカメラ91を下カメラといい、利用者を前方斜め上から撮影する位置にあるカメラ91を上カメラという。
Hereinafter, as appropriate, the
[撮影・表示ユニットの構成例]
図5は、上下方向に駆動するカメラ91を含む撮影・表示ユニット81の詳細な構成例を示している。
[Configuration example of shooting / display unit]
FIG. 5 shows a detailed configuration example of the photographing /
図5Aに示されるように、撮影・表示ユニット81は、縦長の直方体の形状を有する筐体の一側面に、カメラ91、カメラストロボ92、およびタッチパネルモニタ93が設けられることで構成される。カメラ91およびカメラストロボ92の周囲には、それらを囲うような額縁状のカバー94が設けられており、カメラ91は、カバー94の開口部の範囲内で上下方向に駆動する。
As shown in FIG. 5A, the photographing /
図5Bは、図5Aの状態から、タッチパネルモニタ93およびカバー94を取り外した撮影・表示ユニット81を示している。図5Bに示されるように、カメラ91は、カメラストロボ92の発光面を構成するアクリル板95と一体に構成されており、アクリル板95は、カメラ91とともに上下方向に駆動する。また、カメラ91は、カメラ支持部96によってその側面が支持されており、カメラ支持部96に設けられたガイド溝に従って上下方向に駆動する。
FIG. 5B shows the photographing /
図5Cは、図5Bの状態から、アクリル板95を取り外した撮影・表示ユニット81を示している。図5Cに示されるように、カメラ91の背面上方には、カメラ上蛍光灯97Uが設けられ、カメラ91の背面下方には、カメラ下蛍光灯97Dが設けられている。カメラ91は、カメラストロボ92を構成する照明装置としてのカメラ上蛍光灯97Uおよびカメラ下蛍光灯97Dと一体に構成されており、カメラ上蛍光灯97Uおよびカメラ下蛍光灯97Dは、カメラ91とともに上下方向に駆動する。
FIG. 5C shows the photographing /
つまり、図5Aに示されるように、カメラ91がカバー94の開口部の下端に位置し、下カメラの状態となるとき、カメラ91の上側のアクリル板95が露出し、カメラ上蛍光灯97Uが発光することで、カメラストロボ92は、被写体としての利用者の顔付近をカメラ91の上方から照射する。
That is, as shown in FIG. 5A, when the
また、図示はしないが、カメラ91がカバー94の開口部の上端に位置し、上カメラの状態となるとき、カメラ91の下側のアクリル板95が露出し、カメラ下蛍光灯97Dが発光することで、カメラストロボ92は、被写体としての利用者の顔付近をカメラ91の下方から照射する。
Although not shown, when the
[カメラの構成例]
図6は、カメラ91の詳細な構成例を示している。
[Camera configuration example]
FIG. 6 shows a detailed configuration example of the
カメラ91は、撮像装置であるカメラ本体91Mがケース91Cに搭載されて構成される。カメラ91には、所定の駆動機構により、カメラ本体91Mのレンズの光軸に平行な軸を中心に回転する回転部91Rが設けられている。また、カメラ本体91Mの焦点距離を調整するズームリング91Fの円周面に設けられたギアと、回転部91Rの一端に設けられたギア(図示せず)とは、内側にリブが設けられたタイミングベルト91Bにより連結されている。
The
すなわち、回転部91Rが回転することにより、タイミングベルト91Bを介してズームリング91Fが回転し、カメラ本体91Mの焦点距離が調整されるようになされている。これにより、例えば、カメラ91が下カメラの状態において、ズームインするように焦点距離を調整し、カメラ91が上カメラの状態において、ズームアウトするように焦点距離を調整することができる。
That is, when the
また、ケース91Cの側面には、突起物P1,P2が設けられている。カメラ91は、突起物P1,P2がそれぞれ、図7に示されるようなカメラ支持部96に設けられたガイド溝g1,g2に沿ってガイドされることで上下方向に駆動する。ガイド溝g1,g2は、カメラ支持部96を貫通するように形成されてもよいし、貫通しないように形成されてもよい。また、図7に示されるように、ガイド溝g2は、ガイド溝g1の上端に対応する位置より上では、ガイド溝g1の上端を中心に孤を描くように形成されている。これにより、突起物P1,P2がそれぞれ、ガイド溝g1の上端、および、ガイド溝g2のガイド溝g1の上端に対応する位置に達した後、カメラ91は、ガイド溝g1の上端を中心に、図中左方向に所定角度だけ回転し、撮影空間の下方向を撮影するようになる。
Further, protrusions P1 and P2 are provided on the side surface of the case 91C. The
このような構造により、カメラ91が下カメラの状態のときには、利用者は前方正面から撮影され、カメラ91が上カメラの状態のときには、利用者は前方斜め上から撮影されるようになる。
With such a structure, when the
[背景部の構成]
図8は、背景部22の撮影空間A1側の構成例を示す図である。図8Aは、背景部22の構成例を示す正面図であり、図8Bは、背景部22の構成例を示す斜視図である。
[Configuration of the background]
FIG. 8 is a diagram illustrating a configuration example of the
背面パネル51の上方のほぼ中央には、撮影空間A1内で撮影作業を行っている利用者を後方中央から照射する背面中央ストロボ101が取り付けられる。
Near the center above the
背面パネル51の上方であって、出入り口G1側の位置には、撮影空間A1内で撮影作業を行っている利用者を左後方から照射する背面左ストロボ102が取り付けられる。また、背面パネル51の上方であって、出入り口G2側の位置には、撮影空間A1内で撮影作業を行っている利用者を右後方から照射する背面右ストロボ103が取り付けられる。
A rear
また、背面パネル51の下側で、撮影空間A1において側面パネル52Aおよび側面パネル52Bに挟まれる部分には、床104が設けられている。床104は、図9に示されるように、背面パネル51側に近いほど高くなるように、写真シール作成装置1が設置される設置面に対して、例えば7°等の傾斜が設けられている。
In addition, a
なお、撮影空間にいる利用者の正面−背面方向を奥行き方向とすると、床104の寸法(奥行き、幅、および背面パネル51側の高さ)は、例えば、550mm×1710mm×80mmとされる。
If the front-back direction of the user in the shooting space is the depth direction, the dimensions of the floor 104 (depth, width, and height on the
[床の傾斜により得られる効果]
ここで、図10を参照して、床104に傾斜を設けることによって得られる効果について説明する。
[Effects obtained by floor inclination]
Here, with reference to FIG. 10, the effect obtained by providing the
図10には、撮影空間A1において、上カメラの状態のカメラ91によって撮影される被写体(利用者)111が示されている。被写体の全身を撮影しようとする場合、上カメラによる撮影によれば、下カメラによる撮影と比較して、顔が大きく写るので、顔が強調された撮影画像を得ることができる。また、下カメラにより得られる全身画像より、上カメラにより得られる全身画像の方が、画像における被写体の割合を高めることができる。
このように、上カメラによる撮影は、被写体の全身画像を得るのに好適とされている。
FIG. 10 shows a subject (user) 111 photographed by the
As described above, photographing with the upper camera is suitable for obtaining a whole body image of a subject.
例えば、一般的な写真シール作成装置の撮影空間において、図10Aに示されるように、被写体111がカメラ91に顔を近づけるように前傾姿勢をとった場合には、顔がより強調された撮影画像を得ることができる。
For example, in a shooting space of a general photo sticker creation apparatus, as shown in FIG. 10A, when the subject 111 takes a forward leaning posture so that the face is brought closer to the
さらに、本発明の写真シール作成装置1のように傾斜を設けた床104を備えることで、図10Bに示されるように、被写体111のかかと部分がヒールのある靴を履いているときと同じ状態となり、カメラ91の撮像面に対する足の甲の長さが、図10Aの場合より長くなるので、より足が長く見える撮影画像を得ることができる。
Further, by providing the
特に、ヒールのある靴を履いた場合の地面と足の裏のなす角度が7°のときに最も足が長く見えるものとすると、床104の傾斜を7°とすることで、例えば学校指定のヒールの低い靴を履いている女子中高生であっても、ヒールのある靴を履いたときと同様に、より足が長く見える撮影画像を得ることができる。
In particular, if the foot is the longest when the angle between the ground and the sole when wearing shoes with heel is 7 °, the inclination of the
また、図10Aに示されるように、被写体111が前傾姿勢をとってカメラ91を見た場合、顎の下から首にかけての部分111nがストロボによって照射されてしまうので、撮影画像においては、顔の輪郭がわかりにくく、必要以上に顔が大きく見えてしまう恐れがある。
Also, as shown in FIG. 10A, when the subject 111 is tilted forward and the
一方、図10Bのように床104を備えることで、被写体111は、図10Aのように前傾姿勢にならず、顎を出さない姿勢で撮影することができるので、顎の下から首にかけての部分111nに影ができ、撮影画像においては、顔の輪郭が強調されて、必要以上に顔が大きく見えることを避けることができる。
On the other hand, by providing the
さらに、図10Aにおいて、被写体111が前傾姿勢をとらずにカメラ91を見た場合、撮影画像においては、上目遣いをした顔となってしまう。一方、図10Bのように床104を備えることで、被写体111の視線が高くなるので、被写体111は、カメラ91を自然に見ることができ、撮影画像においては、上目遣いをした顔となることを避けることができる。
Furthermore, in FIG. 10A, when the subject 111 looks at the
[クロマキー用シートについて]
また、本実施の形態においては、背景部22の撮影空間A1側に、背景に利用する巻き取り式の背景カーテンや、クロマキー用のカーテンとして使用する昇降式カーテンを設けず、背景部22を構成する背面パネル51、側面パネル52A,52B、および床104の表面にクロマキー用のシートが貼付される。
[About chroma key sheet]
Further, in the present embodiment, the
図11は、背景部22の撮影空間A1側に貼付されるクロマキー用シートについて説明する図である。
FIG. 11 is a diagram illustrating a chroma key sheet affixed to the photographing space A1 side of the
図11に示されるように、背面パネル51にはクロマキー用シート121Aが貼付され、側面パネル52Bの下部にはクロマキー用シート121Bが貼付され、床104の斜面部分にはクロマキー用シート121Cが貼付される。クロマキー用シート121A乃至121Cは、緑色のクロマキー用シートであり、これにより、いわゆるグリーンバック合成が行われる。なお、図示はしないが、側面パネル52Aの下部にもクロマキー用シート121Bと同様のクロマキー用シート121C’が貼付される。なお、図11に示されるように、クロマキー用シート121Bは、側面パネル52Bの下部のみに貼付されるものとしたが、側面パネル52Bにおいてクロマキー用シート121Bが貼付される部分は、カメラ91の画角に入る部分より広ければよく、例えば側面パネル52Bの全面であってもよい。また、側面パネル52Aに貼付されるクロマキー用シート121C’についても同様である。
As shown in FIG. 11, a chroma
クロマキー用シート121A,121B,121Cはそれぞれ、同一の材質で構成されるようにしてもよいし、異なる材質で構成されるようにしてもよい。具体的には、例えば、撮影空間A1の背面となるクロマキー用シート121Aを布製とし、側面となるクロマキー用シート121Bを樹脂製または布製とし、クロマキー用シート121Cをゴム等の樹脂製としてもよい。
The
[編集部の構成]
図12は、編集部12の正面側(編集空間A2−1側)の構成例を示す図である。
[Configuration of editorial department]
FIG. 12 is a diagram illustrating a configuration example of the front side of the editing unit 12 (the editing space A2-1 side).
斜面72のほぼ中央には、タブレット内蔵モニタ131が設けられる。タブレット内蔵モニタ131を挟んで左側にタッチペン132Aが設けられ、右側にタッチペン132Bが設けられる。
A tablet built-in
タブレット内蔵モニタ131は、タッチペン132Aまたは132Bを用いて操作入力が可能なタブレットがLCDなどの編集用モニタに重畳して設けられることによって構成される。タブレット内蔵モニタ131には、例えば、撮影画像の編集に用いられる画面である編集画面が表示される。2人で同時に編集作業を行う場合、タッチペン132Aは一方の利用者により用いられ、タッチペン132Bは他方の利用者により用いられる。
The tablet built-in
編集部12の左側には事後接客部13が設けられる。
On the left side of the
[事後接客部の構成]
図13は、事後接客部13の正面側の構成例を示す図である。
[Composition of the customer service department]
FIG. 13 is a diagram illustrating a configuration example of the front side of the
事後接客部13の上方中央にはタブレット内蔵モニタ161が設けられる。タブレット内蔵モニタ161を挟んで左側にタッチペン162Aが設けられ、右側にタッチペン162Bが設けられる。タブレット内蔵モニタ161もタブレット内蔵モニタ131と同様に、タッチペン162Aまたは162Bを用いて操作入力が可能なタブレットがLCDなどの事後接客用モニタに重畳して設けられることによって構成される。タブレット内蔵モニタ161には、撮影画像や編集済みの画像を携帯電話機などの携帯端末に送信する事後接客処理に用いられる画面が表示される。
A
タブレット内蔵モニタ161の下には非接触型ICリーダ/ライタ163が設けられ、非接触型ICリーダ/ライタ163の下にはシール紙排出口164が設けられる。シール紙排出口164の下にはスピーカ165が設けられる。
A non-contact type IC reader /
非接触型ICリーダ/ライタ163は、近接された非接触型ICと通信を行い、非接触型ICからのデータの読み出しや非接触型ICに対するデータの書き込みを行う。
The non-contact type IC reader /
シール紙排出口164には、編集空間A2−1の利用者が編集作業を行うことによって作成した画像が印刷されたシール紙、または、編集空間A2−2の利用者が編集作業を行うことによって作成した画像が印刷されたシール紙が排出される。編集部12の内部にはプリンタが設けられており、画像の印刷がそのプリンタにより行われる。
In the sticker paper discharge port 164, sticker paper on which an image created by the user of the editing space A2-1 is printed, or the user of the editing space A2-2 performs the editing work. The sticker paper on which the created image is printed is discharged. A printer is provided inside the
スピーカ165は、事後接客処理の案内音声、BGM、効果音等の音を出力する。
The
[写真シール作成装置の内部構成]
次に、写真シール作成装置1の内部構成について説明する。図14は、写真シール作成装置1の内部の構成例を示すブロック図である。上述した構成と同じ構成には同じ符号を付してある。なお、重複する説明については適宜省略する。
[Internal configuration of photo sticker creation device]
Next, the internal configuration of the photo
制御部201はCPU(Central Processing Unit)などよりなり、ROM(Read Only Memory)206や記憶部202に記憶されているプログラムを実行し、写真シール作成装置1の全体の動作を制御する。制御部201には、記憶部202、通信部203、ドライブ204、ROM206、RAM(Random Access Memory)207が接続される。制御部201には、撮影部208、編集部209、および事後接客部210の各構成も接続される。
The
記憶部202は、ハードディスクやフラッシュメモリなどの不揮発性の記憶媒体からなり、制御部201から供給された各種の設定情報を記憶する。記憶部202に記憶されている情報は制御部201により適宜読み出される。
The
通信部203はインターネットなどのネットワークのインタフェースであり、制御部201による制御に従って外部の装置と通信を行う。
A
ドライブ204には、光ディスクや半導体メモリなどよりなるリムーバブルメディア205が適宜装着される。ドライブ204によりリムーバブルメディア205から読み出されたコンピュータプログラムやデータは、制御部201に供給され、記憶部202に記憶されたり、インストールされたりする。
A
ROM206には、制御部201において実行されるプログラムやデータが記憶されている。RAM207は、制御部201が処理するデータやプログラムを一時的に記憶する。
The
撮影部208は、撮影空間A1における撮影処理を行う構成である硬貨処理部221、照明装置222、カメラ91、タッチパネルモニタ93、およびスピーカ223から構成される。
The
硬貨処理部221は、硬貨投入返却口87に対する硬貨の投入を検出する。硬貨処理部221は、例えば300円などの所定の金額分の硬貨が投入されたことを検出した場合、そのことを表す起動信号を制御部201に出力する。
The
照明装置222は、撮影空間A1内の各ストロボの内部に設けられる蛍光灯であり、制御部201より供給される照明制御信号に従って発光する。上述したように、撮影空間A1には、天井ストロボユニット24のストロボの他に、撮影部21に設けられる上ストロボ82、左ストロボ83、右ストロボ84、下ストロボ85、足元ストロボ86、モニタ左ストロボ88、モニタ右ストロボ89と、背景部22に設けられる背面中央ストロボ101、背面左ストロボ102,背面右ストロボ103が設けられている。
The
また、照明装置222は、制御部201による制御に従って発光量を調整することによって、利用者が行っている撮影作業の段階に応じて撮影空間A1内の明るさを調整する。
In addition, the
カメラ91は、制御部201による制御に従って撮影を行い、撮影によって得られた画像を制御部201に出力する。
The
スピーカ223は、利用者に撮影作業を行わせる撮影処理の案内音声、BGM、効果音等の音を出力する。
The
編集部209Aは、編集空間A2−1における編集処理を行う構成として編集部12の正面側に設けられるタブレット内蔵モニタ131、タッチペン132A,132B、およびスピーカ231から構成される。編集部209Bも編集部209Aと同一の構成を有しており、編集空間A2−2における編集処理を行う。
The
タブレット内蔵モニタ131は、制御部201による制御に従って、内蔵する編集用モニタに編集画面を表示し、編集画面(内蔵するタブレット)に対する利用者の操作を検出する。利用者の操作の内容を表す信号は制御部201に供給され、編集対象の撮影画像の編集が行われる。
The tablet built-in
スピーカ231は、利用者に編集作業を行わせる編集処理の案内音声、BGM、効果音等の音を出力する。
The
事後接客部210は、事後接客空間A3における事後接客処理を行う構成であるタブレット内蔵モニタ161、タッチペン162A,162B、非接触型ICリーダ/ライタ163、スピーカ165、印刷処理を行う構成であるプリンタ241、およびシール紙ユニット242から構成される。
The subsequent customer service unit 210 includes a tablet built-in
タブレット内蔵モニタ161は、制御部201による制御に従って、内蔵する事後接客用モニタに事後接客に用いられる画面を表示し、その画面(内蔵するタブレット)に対する利用者の操作を検出する。利用者の操作の内容を表す信号は制御部201に供給され、事後接客が行われる。
Under the control of the
プリンタ241は、撮影画像、または編集処理によって得られた編集済みの画像を、プリンタ241に装着されたシール紙ユニット242に収納されているシール紙に印刷し、シール紙排出口164に排出する。
The printer 241 prints the photographed image or the edited image obtained by the editing process on the sticker paper stored in the
[制御部の構成]
次に、制御部201について説明する。図15は、制御部201がROM206などに格納されているプログラムを実行することにより実現される機能ブロックの構成例を示している。
[Configuration of control unit]
Next, the
制御部201は、写真シール作成ゲームを開始する際に投入される代金に関する処理や利用者グループを撮影する等の写真シール作成ゲームの撮影作業の工程に関する処理を行う撮影処理部301、撮影画像に対する落書き編集等の写真シール作成ゲームの編集作業の工程に関する処理を行う編集処理部302、シール紙の印刷等の写真シール作成ゲームの印刷の工程に関する処理を行う印刷処理部303、および、編集作業を終了した利用者グループを接客する写真シール作成ゲームの事後接客の工程に関する処理を行う事後接客処理部304を有する。
The
つまり、制御部201は、写真シール作成ゲームの各工程に関する処理の制御を行う。
That is, the
[撮影処理部の構成]
図16は、図15の撮影処理部301のさらに詳細な構成例を示す機能ブロック図である。
[Configuration of shooting processing unit]
FIG. 16 is a functional block diagram illustrating a more detailed configuration example of the
図16の例において、撮影処理部301は、進行制御部311、撮影パラメータ設定部312、ライブビュー表示制御部313、撮影画像取得部314、照明制御部315、カメラ駆動制御部316、クロマキー処理部317、コーナーポイント検知部318、コーナー画像生成部319、合成処理部320、および顔認識部321から構成される。
In the example of FIG. 16, the
進行制御部311は、撮影作業の工程の進行を制御する。
The
撮影パラメータ設定部312は、写りや明るさ、目のサイズ等の撮影に関するパラメータの設定に関する処理を行う。
The shooting
ライブビュー表示制御部313は、タッチパネルモニタ93の表示(ライブビュー表示)に関する処理を行う。
The live view
撮影画像取得部314は、撮影、特に、撮影画像の取得に関する処理を行う。
The captured
照明制御部315は、撮影空間内に設けられる照明装置の発光に関する処理を行う。
The
カメラ駆動制御部316は、カメラ91の駆動に関する処理を行う。
The camera
クロマキー処理部317は、カメラ91により取り込まれた取り込み画像の背景領域の色に基づいて、背景領域を抜き出すクロマキー処理を行う。
The chroma
コーナーポイント検知部318は、カメラ91により取り込まれた取り込み画像の背景領域としての、撮影空間の背面、側面、および床面の3面が交わる交点であるコーナーポイントを検知する。
The corner
コーナー画像生成部319は、撮影空間の背面、側面、および床面のうちの2面が交わる交線を模した線分であるコーナーラインを含む背景画像(以下、コーナー画像という)を生成する。
The corner
合成処理部320は、クロマキー処理部317により背景領域が抜き出された取り込み画像に、コーナー画像生成部319により生成されたコーナー画像を合成する。また、合成処理部320は、複数の撮影画像から各利用者の画像を抽出し、同じ利用者の画像のみを組み合わせた合成画像を生成する処理を行う。
The
顔認識部321は、撮影画像に写っている利用者の顔の認識処理を行う。例えば、顔認識部321は、撮影画像に写っている顔に基づいて個人の特定を行ったり、撮影画像内の人の数を検出したりする。
The
[編集処理部の構成]
図17は、図15の編集処理部302のさらに詳細な構成例を示す機能ブロック図である。
[Configuration of edit processing section]
FIG. 17 is a functional block diagram illustrating a more detailed configuration example of the
図17の例において、編集処理部302は、進行制御部351、編集準備処理部352、入力受付制御部353、編集画面表示制御部354、および落書き編集処理部355から構成される。
In the example of FIG. 17, the
進行制御部351は、編集作業の工程の進行を制御する。
The
編集準備処理部352は、編集の準備に関する処理を行う。
The editing
入力受付制御部353は、タブレット内蔵モニタ131を制御し、タブレット内蔵モニタ131に表示される各種のGUIに対して利用者により行われる操作入力を受け付ける処理を行う。
The input
編集画面表示制御部354は、タブレット内蔵モニタ131に表示される編集画面の表示や、その編集画面上における各種のGUIの表示に関する処理を行う。
The edit screen
落書き編集処理部355は、利用者によるタッチペン132を用いた入力操作に応じて、撮影画像に対する落書き等の編集に関する処理を行う。
The graffiti
[写真シール作成装置の動作]
次に、図18のフローチャートを参照して、写真シール作成ゲームを提供する写真シール作成装置1の処理について説明する。
[Operation of photo sticker creation device]
Next, processing of the photo
ステップS1において、写真シール作成装置1の制御部201の撮影処理部301は、所定の金額分の硬貨が投入されたか否かを硬貨処理部221から供給される信号に基づいて判定し、投入されたと判定するまで待機する。
In step S1, the photographing
硬貨が投入されたとステップS1において判定した場合、ステップS2において、撮影処理部301は、撮影部208を制御し、カメラ91に取り込まれた被写体の動画像をタッチパネルモニタ93にライブビュー表示させ、撮影空間A1にいる利用者を被写体として撮影する撮影処理を行う。なお、撮影処理については、図19および図20のフローチャートを参照して後述する。
If it is determined in step S1 that a coin has been inserted, in step S2, the photographing
ステップS3において、撮影処理部301は、撮影空間A1にいる利用者に対して、編集空間A2−1または編集空間A2−2への移動を案内する。編集空間A2−1または編集空間A2−2への移動の案内は、撮影部208のタッチパネルモニタ93に画面を表示させることによって、または音声をスピーカ223から出力させることによって行われる。
In step S3, the
ステップS4において、編集処理部302は、編集空間A2−1と編集空間A2−2のうち、撮影処理を終えた利用者の移動先とした方の編集空間(以下、移動先編集空間と称する)に対応する編集部209を制御し、編集処理を行う。具体的には、編集処理部302は、撮影画像に合成する合成用画像を利用者に選択させ、選択された合成用画像を撮影画像に合成させ、得られた合成画像に対して、利用者による編集操作に従って編集を行う。なお、編集処理については、図44のフローチャートを参照して後述する。
In step S4, the
ステップS5において、編集処理部302は、編集空間A2−1または編集空間A2−2で編集処理を終えた利用者に対して事後接客空間A3への移動を案内する。事後接客空間A3への移動の案内は、タブレット内蔵モニタ131に画面を表示させることによって、または音声をスピーカ231から出力させることによって行われる。
In step S5, the
ステップS6において、印刷処理部303は、編集処理により得られた編集済み画像をプリンタ241に出力してシール紙に印刷させる印刷処理を行う。
In step S <b> 6, the
ステップS7において、事後接客処理部304は、事後接客部210を制御し、印刷終了待機中の利用者に対する事後接客処理を行う。具体的には、事後接客処理部304は、撮影画像や編集済みの画像を携帯端末に送信する携帯送信ゲーム処理を事後接客処理として行い、携帯端末の電子メールアドレスを直接入力することで画像を携帯端末に送信するか、非接触型ICと通信することで画像を携帯端末に送信するかを利用者に選択させる送信方法の選択画面や、送信する画像の選択画面をタブレット内蔵モニタ161に表示させ、利用者による操作に応じて画像を送信する。 In step S <b> 7, the subsequent customer service processing unit 304 controls the subsequent customer service unit 210 to perform the subsequent customer service process for a user who is waiting for printing completion. Specifically, the post-service processing unit 304 performs a mobile transmission game process for transmitting a captured image or an edited image to the mobile terminal as the post-service processing, and directly inputs the e-mail address of the mobile terminal. Display on the tablet built-in monitor 161 a selection screen for a transmission method that allows a user to select whether to transmit an image to a portable terminal by transmitting to a portable terminal or by communicating with a non-contact type IC. The image is transmitted according to the operation by the user.
印刷が終了すると、ステップS8において、事後接客処理部304は、印刷が終了した旨をタブレット内蔵モニタ161に表示させ、プリンタ241は、画像が印刷されたシール紙をシール紙排出口164に排出し、処理を終了させる。
When the printing is completed, in step S8, the post-service processing unit 304 displays that the printing is completed on the tablet built-in
[撮影処理の例]
次に、図19および図20のフローチャートを参照して、上述した写真シール作成ゲームの一連の処理におけるステップS2の撮影処理の流れの例を説明する。
[Example of shooting process]
Next, an example of the flow of the photographing process in step S2 in the series of processes of the above-described photo sticker creation game will be described with reference to the flowcharts of FIGS.
ステップS31において、撮影パラメータ設定部312は、写り選択画面をタッチパネルモニタ93に表示させ、利用者による写り選択を受け付ける。写り選択は、色合いやシャープネス等の、画像の画質の選択である。撮影パラメータ設定部312は、利用者により選択された写りに応じて、カメラ91により撮影された画像の画質を調整する。
In step S31, the shooting
ステップS32において、進行制御部311は、撮影方法のガイダンス画面をタッチパネルモニタ93に表示させる。具体的には、利用者の顔または上半身を前方正面から撮影する下カメラアップ撮影を行う旨のガイダンス画面を表示する。すなわち、このとき、カメラ91は、下カメラの状態とされる。ガイダンス画面を表示した後、撮影画像取得部314は、カメラ91を制御し、画像の取り込みを開始させる。
In step S <b> 32, the
ステップS33において、ライブビュー表示制御部313は、カメラ91により取り込まれた動画像(ライブビュー画像)をタッチパネルモニタ93に表示させる(ライブビュー表示を行う)。
In step S33, the live view
ステップS34において、撮影画像取得部314は、タッチパネルモニタ93にカウントダウンインジケータを表示し、撮影タイミングを利用者に通知する。
In step S34, the captured
撮影タイミングになったとき、ステップS35において、撮影画像取得部314は、カメラ91を制御して下カメラアップ撮影を行い、静止画像である撮影画像(下カメラアップ撮影画像)を取得する。
When the shooting timing comes, in step S35, the captured
ステップS36において、進行制御部311は、撮影画像をタッチパネルモニタ93に表示し、撮影結果を利用者に確認させる。
In step S <b> 36, the
図21は、下カメラアップ撮影時にタッチパネルモニタ93に表示されるライブビュー表示画面の例を示している。図21のライブビュー表示画面は、カメラ91のライブビュー画像を表示するライブビュー表示領域411、および、撮影の結果得られる撮影画像が表示される撮影結果表示領域412−1乃至412−6から構成されている。図21のライブビュー表示画面において、図示せぬカウントダウンインジケータで示される数字が0になったときに、ライブビュー表示領域411に表示されているライブビュー画像が下カメラアップ撮影画像として得られる。得られた下カメラアップ撮影画像は、撮影した順に、撮影結果表示領域412−1乃至412−6のうちの所定の領域(具体的には、撮影結果表示領域412−1乃至412−3)に表示されるようになる。
FIG. 21 shows an example of a live view display screen displayed on the touch panel monitor 93 during lower camera up shooting. The live view display screen of FIG. 21 includes a live
図19のフローチャートに戻り、ステップS36の後、ステップS37において、進行制御部311は、撮影を所定回数繰り返し行ったか否かを判定する。ステップS37において撮影を所定回数行っていないと判定された場合、処理はステップS33に戻り、上述の処理を繰り返し行う。具体的には、3回の下カメラアップ撮影が行われるまで、上述の処理が繰り返される。
Returning to the flowchart of FIG. 19, after step S <b> 36, in step S <b> 37, the
一方、ステップS37において、下カメラアップ撮影を3回繰り返し行ったと判定された場合、処理はステップS38に進み、カメラ駆動制御部316は、カメラ91を上方向に移動させるように、カメラ91の駆動を制御する。これにより、カメラ91は、上カメラの状態とされる。
On the other hand, if it is determined in step S37 that the lower camera up shooting has been repeated three times, the process proceeds to step S38, and the camera
ステップS39において、進行制御部311は、撮影方法のガイダンス画面をタッチパネルモニタ93に表示させる。具体的には、利用者の顔または上半身を前方斜め上から撮影する上カメラアップ撮影を行う旨のガイダンス画面を表示する。ガイダンス画面を表示した後、撮影画像取得部314は、カメラ91を制御し、画像の取り込みを開始させる。
In step S <b> 39, the
なお、上述したように、カメラ91は、上カメラの状態では、ズームアウトするようにフォーカスが調整されるが、ここでは、デジタルズーム機能により、取り込み画像の倍率を電気的に変更することで、上カメラアップ撮影を行う。また、カメラ91のフォーカスは、図6を参照して説明した機構により調整される以外に、撮影方法に応じてカメラ駆動制御部316により調整されるようにしてもよい。
As described above, in the state of the upper camera, the focus of the
ステップS40において、ライブビュー表示制御部313は、カメラ91により取り込まれた動画像(ライブビュー画像)をタッチパネルモニタ93に表示させる(ライブビュー表示を行う)。
In step S40, the live view
ステップS41において、撮影画像取得部314は、タッチパネルモニタ93にカウントダウンインジケータを表示し、撮影タイミングを利用者に通知する。
In step S41, the captured
撮影タイミングになったとき、ステップS42において、撮影画像取得部314は、カメラ91を制御して上カメラアップ撮影を行い、静止画像である撮影画像(上カメラアップ撮影画像)を取得する。
When the shooting timing comes, in step S42, the captured
ステップS43において、進行制御部311は、撮影画像をタッチパネルモニタ93に表示し、撮影結果を利用者に確認させる。
In step S43, the
図22は、上カメラアップ撮影時にタッチパネルモニタ93に表示されるライブビュー表示画面の例を示している。図22のライブビュー表示画面において、図示せぬカウントダウンインジケータで示される数字が0になったときに、ライブビュー表示領域411に表示されているライブビュー画像が上カメラアップ撮影画像として得られる。なお、上カメラアップ撮影は1回のみ行われる。撮影結果表示領域412−1乃至412−3には、下カメラアップ撮影画像が表示されているので、得られた上カメラアップ撮影画像は、撮影結果表示領域412−4に表示されるようになる。
FIG. 22 shows an example of a live view display screen displayed on the touch panel monitor 93 during upper camera up shooting. In the live view display screen of FIG. 22, when the number indicated by a countdown indicator (not shown) becomes 0, the live view image displayed in the live
図19のフローチャートに戻り、ステップS43の後、図20のステップS44において、進行制御部311は、撮影方法のガイダンス画面をタッチパネルモニタ93に表示させる。具体的には、利用者の全身を前方斜め上から撮影する上カメラ全身撮影を行う旨のガイダンス画面を表示する。ガイダンス画面を表示した後、撮影画像取得部314は、カメラ91を制御し、画像の取り込みを開始させる。
Returning to the flowchart of FIG. 19, after step S <b> 43, in step S <b> 44 of FIG. 20, the
図23は、タッチパネルモニタ93に表示される上カメラ全身撮影のガイダンス画面の例を示している。図23のガイダンス画面には、全身撮影を行う旨の文言と、利用者をタッチパネルモニタ93に表示される足型の印である足マークに合わせて立たせるよう促す文言が表示される。すなわち、タッチパネルモニタ93(図24)には、ライブビュー画像とともに、上カメラ全身撮影を行うのに最適な立ち位置を示す足マークが表示され、利用者がその足マークに合わせて立つことで、好適な上カメラ全身撮影画像が得られるようになされている。 FIG. 23 shows an example of an upper camera whole body photographing guidance screen displayed on the touch panel monitor 93. On the guidance screen of FIG. 23, a wording that the whole body photographing is performed and a word that prompts the user to stand in accordance with a foot mark that is a foot mark displayed on the touch panel monitor 93 are displayed. That is, on the touch panel monitor 93 (FIG. 24), a foot mark indicating the optimal standing position for performing the upper camera whole body photographing is displayed together with the live view image, and the user stands according to the foot mark, A suitable upper camera whole body photographed image is obtained.
そして、ステップS45において、カメラ91により取り込まれた動画像(ライブビュー画像)を表示させ、所定の撮影タイミングで上カメラ全身撮影を行う上カメラ全身撮影処理が実行される。なお、上カメラ全身撮影処理については、図25のフローチャートを参照して後述する。
Then, in step S45, a moving image (live view image) captured by the
図24は、上カメラ全身撮影時にタッチパネルモニタ93に表示されるライブビュー表示画面の例を示している。図24のライブビュー表示画面において、図示せぬカウントダウンインジケータで示される数字が0になったときに、ライブビュー表示領域411に表示されているライブビュー画像が上カメラ全身撮影画像として得られる。撮影結果表示領域412−1乃至412−3には、下カメラアップ撮影画像が表示され、撮影結果表示領域412−4には、上カメラアップ撮影画像が表示されているので、得られた上カメラ全身撮影画像は、撮影結果表示領域412−5に表示されるようになる。
FIG. 24 shows an example of a live view display screen displayed on the touch panel monitor 93 at the time of upper camera whole body photography. In the live view display screen of FIG. 24, when the number indicated by a countdown indicator (not shown) becomes 0, the live view image displayed in the live
なお、図24に示されるタッチパネルモニタ93においては、ライブビュー表示領域411の領域外(ライブビュー表示領域411の下)に足マークが表示されているが、ライブビュー表示領域411に表示されるライブビュー画像内に足マークを表示するようにしてもよい。また、足マークを、タッチパネルモニタ93に表示するのではなく、床104(クロマキー用シート121C)の表面に予め記すようにし、利用者にその足マークの上に立たせるようにしてもよい。
In the touch panel monitor 93 shown in FIG. 24, a foot mark is displayed outside the live view display area 411 (below the live view display area 411), but the live view displayed in the live
図20のフローチャートに戻り、ステップS46において、進行制御部311は、経過時間または残り時間に基づいて、撮影可能時間内か否かを判定する。ステップS46において、撮影可能時間内であると判定された場合、追加的な撮影、いわゆる「ボーナス撮影」の処理が行われる。
Returning to the flowchart of FIG. 20, in step S <b> 46, the
ステップS47において、進行制御部311は、ボーナス撮影のガイダンス画面をタッチパネルモニタ93に表示させる。ガイダンス画面を表示した後、撮影画像取得部314は、カメラ91を制御し、画像の取り込みを開始させる。
In step S <b> 47, the
ステップS48において、ライブビュー表示制御部313は、カメラ91により取り込まれた動画像(ライブビュー画像)をタッチパネルモニタ93に表示させる(ライブビュー表示を行う)。
In step S48, the live view
ステップS49において、撮影画像取得部314は、タッチパネルモニタ93にカウントダウンインジケータを表示し、撮影タイミングを利用者に通知する。
In step S49, the captured
撮影タイミングになったとき、ステップS50において、撮影画像取得部314は、カメラ91を制御してボーナス撮影を行い、静止画像である撮影画像(ボーナス撮影画像)を取得する。
When the shooting timing comes, in step S50, the captured
なお、ボーナス撮影処理においては、カメラ91は上カメラの状態とされるので、上カメラアップ撮影または上カメラ全身撮影のいずれかが行われるものとする。なお、以下、ボーナス撮影処理において、上カメラ全身撮影が行われる場合を例に挙げて説明する。
In the bonus shooting process, since the
ステップS51において、進行制御部311は、撮影画像をタッチパネルモニタ93に表示し、撮影結果を利用者に確認させる。このとき、得られたボーナス撮影画像は、図21、図22または図24に示される撮影結果表示領域412−6に表示されるようになる。その後、処理はステップS52に進む。
In step S51, the
一方、ステップS46において、撮影可能時間内でないと判定された場合、ステップS47乃至S51はスキップされ、ボーナス撮影は行われずに、処理はステップS52に進む。 On the other hand, if it is determined in step S46 that the time is not within the shootable time, steps S47 to S51 are skipped, bonus shooting is not performed, and the process proceeds to step S52.
従って、例えば、コインを1枚投入してから所定の時間(例えば、300秒)が経過した場合、化粧直し等により時間がかかっている利用者に対しては、ボーナス撮影が行われなくなる。そのため、大部分の利用者は、ボーナス撮影が行われるように、より早く撮影するようになる。 Therefore, for example, when a predetermined time (for example, 300 seconds) has elapsed since the insertion of one coin, bonus shooting is not performed for a user who is taking a long time due to re-dressing or the like. For this reason, most users will shoot faster so that bonus shooting can be performed.
なお、以下、ボーナス撮影が行われる場合を通常撮影と称し、ボーナス撮影が行われない場合をペナルティ撮影と称する。また、以下、ボーナス撮影が終了するまでに得られる撮影画像をまとめて標準撮影画像と称する。従って、通常撮影が行われた場合には、6枚の標準撮影画像が得られ、ペナルティ撮影が行われた場合には、5枚の標準撮影画像が得られることになる。なお、後述するように、標準撮影画像がシール紙に印刷される対象となる。 Hereinafter, a case where bonus shooting is performed is referred to as normal shooting, and a case where bonus shooting is not performed is referred to as penalty shooting. Hereinafter, the captured images obtained until the bonus shooting is completed are collectively referred to as a standard captured image. Therefore, when normal shooting is performed, six standard captured images are obtained, and when penalty shooting is performed, five standard captured images are obtained. As will be described later, the standard captured image is an object to be printed on the sticker sheet.
ステップS52において、顔認識部321は、撮影人数が1人または2人であるか否かを判定する。具体的には、顔認識部321は、現在までに得られた5枚または6枚の各撮影画像に対して顔認識処理を行い、各撮影画像における撮影人数を検出する。なお、顔認識処理には、任意の手法を採用することができる。
In step S52, the
そして、顔認識部321は、撮影人数が1人または2人の撮影画像が4枚以上である場合、撮影人数が1人または2人であると判定し、処理はステップS53に進む。
The
ステップS53において、クロス組合せ撮影処理が実行される。この処理により、携帯端末への送信用の画像として、利用者毎に全身画像と顔付近のアップ画像を組み合わせたクロス組合せ画像が得られる。なお、クロス組合せ撮影処理については、図42のフローチャートを参照して後述する。 In step S53, a cross combination photographing process is executed. By this process, a cross combination image obtained by combining the whole body image and the up image near the face is obtained for each user as an image for transmission to the mobile terminal. The cross combination photographing process will be described later with reference to the flowchart of FIG.
ステップS53の処理が終了すると、撮影処理は終了され、処理は図18のステップS2に戻る。 When the process of step S53 ends, the shooting process ends, and the process returns to step S2 of FIG.
一方、ステップS52において、顔認識部321は、撮影人数が1人または2人の撮影画像が4枚未満である場合、撮影人数が1人または2人でないと判定する。その後、ステップS53の処理はスキップされ、撮影処理は終了され、処理は図18のステップS2に戻る。
On the other hand, in step S52, the
[上カメラ全身撮影処理1]
次に、図25のフローチャートを参照して、図20のステップS45の上カメラ全身撮影処理の詳細について説明する。
[Upper camera whole body photographing process 1]
Next, with reference to the flowchart of FIG. 25, the details of the upper camera whole body imaging process in step S45 of FIG.
ステップS111において、クロマキー処理部317は、カメラ91により取り込まれた動画像(ライブビュー画像)の背景領域を抜き出す。
In step S <b> 111, the chroma
図26は、カメラ91により取り込まれたライブビュー画像の例を示している。図26のライブビュー画像501においては、2人の被写体とともに、撮影空間A1を構成する背景部22の背面パネル51、側面パネル52B、および床104の表面に貼付されているクロマキー用シート121A,121B,121Cが表示されている。
FIG. 26 shows an example of a live view image captured by the
ここで、クロマキー用シート121A,121B,121Cがそれぞれ異なる材質で構成されているものとすると、ライブビュー画像501におけるクロマキー用シート121A,121B,121Cの色(見え方)もそれぞれ異なる。
Here, if the
そこで、クロマキー処理部317は、ライブビュー画像501の背景領域としての撮影空間A1の背面、側面、および床面(すなわち、クロマキー用シート121A,121B,121C)の3面それぞれの色を示す値の範囲(色範囲)を検出することで、背面、側面、および床面それぞれについてのクロマキーパラメータを設定する。
Therefore, the chroma
具体的には、図27に示されるライブビュー画像501(被写体は省略)において、クロマキー用シート121Aで最も明るい領域RmaxAの色値と、最も暗い領域RminAの色値とに基づいて色範囲が検出されることで、クロマキー用シート121Aのクロマキーパラメータが設定される。同様に、クロマキー用シート121Bで最も明るい領域RmaxBの色値と、最も暗い領域RminBの色値とに基づいて色範囲が検出されることで、クロマキー用シート121Bのクロマキーパラメータが設定され、クロマキー用シート121Cで最も明るい領域RmaxCの色値と、最も暗い領域RminCの色値とに基づいて色範囲が検出されることで、クロマキー用シート121Cのクロマキーパラメータが設定される。
Specifically, in the live view image 501 (subject is omitted) shown in FIG. 27, the color range is detected based on the color value of the brightest region RmaxA and the color value of the darkest region RminA in the chroma
そして、クロマキー処理部317は、3面それぞれについてのクロマキーパラメータを用いて、ライブビュー画像501から背景領域(背面、側面、および床面)を抜き出す。
Then, the chroma
ステップS112において、コーナーポイント検知部318は、カメラ91により取り込まれたライブビュー画像の背景領域の色を示す値(色値)の境界に基づいて、コーナーポイントを検知する。
In step S <b> 112, the corner
上述したように、図26において、ライブビュー画像501におけるクロマキー用シート121A,121B,121Cの色はそれぞれ異なるので、コーナーポイント検知部318は、クロマキー用シート121A,121B,121Cの3面それぞれの色範囲を検出し、それぞれの色値の境界を求めることで、撮影空間A1の背面、側面、および床面の3面が交わるコーナーポイントCPを検知する。
As described above, since the colors of the
ステップS113において、進行制御部311は、コーナーポイント検知部318がコーナーポイントを検知したか否かを判定する。ステップS113において、コーナーポイントを検知していないと判定された場合、処理はステップS112に戻り、コーナーポイントが検知されるまで処理が繰り返される。なお、コーナーポイントを検知していないと判定された場合、タッチパネルモニタ93に、エラーメッセージを表示させるようにしてもよい。また、このとき、色値の境界を求めるのに用いられる色範囲が変更(再検出)されるようにしてもよい。
In step S113, the
一方、ステップS113において、コーナーポイントが検知されたと判定された場合、処理はステップS114に進み、コーナー画像生成部319は、図28に示されるような、撮影空間の背面、側面、および床面のうちの2面が交わる交線に似せたコーナーライン522A,522B,522Cが描かれているコーナー画像521を生成する。コーナー画像521において、撮影空間の背面、側面、および床面に対応する各面の色は、例えばグレーに近い白色とされる。コーナー画像521は、部屋の一角を模した背景画像とされる。
On the other hand, if it is determined in step S113 that a corner point has been detected, the process proceeds to step S114, and the corner
ステップS115において、ライブビュー表示制御部313は、カメラ91により取り込まれたライブビュー画像をタッチパネルモニタ93に表示させる(ライブビュー表示を行う)。ここでは、図26に示されるような、2人の被写体とともに、クロマキー用シート121A,121B,121Cが表示されるライブビュー画像が表示される。
In step S115, the live view
ステップS116において、撮影画像取得部314は、タッチパネルモニタ93にカウントダウンインジケータを表示し、撮影タイミングを利用者に通知する。
In step S116, the captured
ここで、ステップS111乃至S114の処理と、ステップS115,S116の処理とは、並列に実行されてもよい。 Here, the processes of steps S111 to S114 and the processes of steps S115 and S116 may be executed in parallel.
撮影タイミングになったとき、ステップS117において、撮影画像取得部314は、カメラ91を制御して撮影を行い、そのタイミングで取り込まれ、背景領域が抜き出された静止画像である撮影画像(上カメラ全身撮影画像)を取得する。
When the shooting timing comes, in step S117, the captured
ステップS118において、合成処理部320は、上カメラ全身撮影画像においてコーナーポイント検知部318により検知されたコーナーポイントCPと、コーナー画像生成部319により生成されたコーナー画像521のコーナーライン522A乃至522Cの交点とが一致するように、背景領域が抜き出された上カメラ全身撮影画像にコーナー画像521を合成する。
In step S118, the
ステップS119において、進行制御部311は、撮影画像をタッチパネルモニタ93に表示し、撮影結果を利用者に確認させる。
In step S119, the
以上の処理によれば、図29に示される、被写体の頭からつま先までが写った上カメラ全身撮影画像541を得ることができる。図29の上カメラ全身撮影画像541は、被写体の前方斜め上から撮影された、顔を強調した全身画像であり、背面、側面、および床の境界がはっきりと示されるようになるので、ブログにアップロードされるコーデ画像として好適な画像となる。このようにして、利用者にとってより満足度の高いコーデ画像を提供することが可能となる。
According to the above processing, it is possible to obtain the upper camera whole body photographed
さらに、撮影空間A1において、床104には傾斜が設けられているので、より足が長く見えるコーデ画像を得ることができる。さらに、そのコーデ画像においては、床104の傾斜により、必要以上に顔が大きく見えることを避けることができるとともに、上目遣いをした顔となることを避けることができるので、より見栄えのよいコーデ画像が得られることとなる。
Furthermore, since the
なお、ステップS115において、ライブビュー画像として、背景領域(背面、側面、および床面)が抜き出されたライブビュー画像にコーナー画像を合成したものを表示するようにしてもよい。これにより、利用者は、実際に得られる上カメラ全身撮影画像をイメージしながら撮影作業を行うことができる。 In step S115, a live view image obtained by combining a corner image with a live view image from which background regions (back, side, and floor) are extracted may be displayed. As a result, the user can perform a shooting operation while imagining an upper camera whole body captured image actually obtained.
また、背景領域が抜き出されたライブビュー画像にコーナー画像を合成する際、コーナーポイント検知部318により検知されたコーナーポイントではなく、予め設定されたコーナーポイントと、コーナー画像の線分の交点とが一致するように合成するようにしてもよい。これにより、背面、側面、および床面の3面がクロマキー処理により抜き出された撮影画像に対して、コーナー画像を容易に適正な位置に合成することができ、ブログにアップロードされるコーデ画像として好適な画像を得ることができる。
In addition, when a corner image is synthesized with a live view image from which a background area has been extracted, not a corner point detected by the corner
さらに、コーナー画像において、コーナーラインは、実際の撮影空間の背面、側面、および床面のうちの2面が交わる交線に対応した位置や角度に対応して描かれる必要はなく、また、撮影空間の背面、側面、および床面に対応する各面の色は、上述した色(グレーに近い白色)に限られず、さらに、部屋の一角を模した装飾を施すようにしてもよい。 Further, in the corner image, the corner line does not need to be drawn corresponding to the position and angle corresponding to the intersecting line where the back surface, the side surface, and the floor surface of the actual photographing space intersect. The color of each surface corresponding to the back surface, the side surface, and the floor surface of the space is not limited to the above-described color (white color close to gray), and may further be decorated with a corner of the room.
また、複数の種類のコーナー画像を予め用意しておき、利用者に選択させるようにしてもよい。これにより、より利用者の嗜好に合ったコーデ画像を提供することができるようになる。 Further, a plurality of types of corner images may be prepared in advance and may be selected by the user. As a result, it is possible to provide a coordinate image that better matches the user's preference.
[上カメラ全身撮影処理2]
次に、図30のフローチャートを参照して、上カメラ全身撮影処理の他の例について説明する。
[Upper camera whole body photographing process 2]
Next, another example of the upper camera whole body imaging process will be described with reference to the flowchart of FIG.
なお、図30のフローチャートのステップS215乃至S219の処理は、図25のフローチャートのステップS115乃至S119の処理と基本的に同様であるので、その説明は省略する。 Note that the processing in steps S215 to S219 in the flowchart in FIG. 30 is basically the same as the processing in steps S115 to S119 in the flowchart in FIG.
ステップS211において、クロマキー処理部317は、カメラ91により取り込まれた動画像(ライブビュー画像)の背景領域を抜き出す。
In step S <b> 211, the chroma
具体的には、クロマキー処理部317は、ライブビュー画像の背景領域としての撮影空間A1の背面、側面、および床面(すなわち、クロマキー用シート121A,121B,121C)の3面全ての色範囲を検出することで、1つのクロマキーパラメータを設定する。
Specifically, the chroma
すなわち、図31に示されるライブビュー画像501(被写体は省略)において、クロマキー用シート121A,121B,121Cで最も明るい領域Rmaxの色値と、最も暗い領域Rminの色値とに基づいて色範囲が検出されることで、クロマキー用シート121A,121B,121Cのクロマキーパラメータが設定される。
That is, in the live view image 501 (subject is omitted) shown in FIG. 31, the color range is based on the color value of the brightest region Rmax and the color value of the darkest region Rmin in the
そして、クロマキー処理部317は、そのクロマキーパラメータを用いて、ライブビュー画像から背景領域(背面、側面、および床面)を抜き出す。
Then, the chroma
ステップS212において、コーナーポイント検知部318は、カメラ91により取り込まれたライブビュー画像の背景領域の色値と、所定の閾値とに基づいて、コーナーポイントを検知する。
In step S212, the corner
ここで、撮影空間において、背面、側面、および床面の3面が交わる交点(コーナーポイントに対応する部分)や、背面、側面、および床面のうちの2面が交わる交線(コーナーラインに対応する部分)の近傍は、照明装置としてのストロボからの光が届きにくく、影になりやすい。したがって、ライブビュー画像のクロマキー用シート121A,121B,121Cにおいて、コーナーポイントに対応する部分や、コーナーラインに対応する部分の近傍の色は、暗い緑色となる。
Here, in the shooting space, the intersection (the part corresponding to the corner point) where the three surfaces of the back, side, and floor intersect, and the intersection (the corner line) where two of the back, side, and floor intersect. In the vicinity of the corresponding part), the light from the strobe as the lighting device is difficult to reach and tends to be a shadow. Therefore, in the
そこで、コーナーポイント検知部318は、ライブビュー画像において、クロマキー用シート121A,121B,121Cの色値のうち、所定の色値の範囲(暗い緑色とされる色値の範囲)に含まれる色値に対応する部分(画素位置)を特定することで、撮影空間A1の背面、側面、および床面の3面が交わるコーナーポイントCPを検知する。例えば、暗い緑色とされる色値の範囲に含まれる色値に対応する部分において、最も暗い緑色とされる色値の部分が、コーナーポイントCPとして検知される。
Accordingly, the corner
また、暗い緑色とされる色値の範囲に含まれる色値に対応する部分において、コーナーラインに対応する部分を検知し、その部分を直線で近似することで、コーナーポイントCPを検知(設定)するようにしてもよい。 In addition, in the part corresponding to the color value included in the color value range that is dark green, the corner point CP is detected (set) by detecting the part corresponding to the corner line and approximating the part with a straight line. You may make it do.
なお、このとき、コーナーポイント検知部318がコーナーポイントCPを検知可能とするように(検知しやすいように)、照明制御部315が、撮影空間A1内の各ストロボの発光を制御するようにしてもよい。例えば、背景領域の上側より下側を照射する光を弱くするように、照明制御部315は、下ストロボ85や足元ストロボ86の発光量を抑えたり、発光させないようにする等して、各ストロボの発光を制御することができる。
At this time, the
ステップS213において、進行制御部311は、コーナーポイント検知部318がコーナーポイントを検知したか否かを判定する。ステップS213において、コーナーポイントを検知していないと判定された場合、処理はステップS212に戻り、コーナーポイントが検知されるまで処理が繰り返される。なお、ここでも、コーナーポイントを検知していないと判定された場合、タッチパネルモニタ93に、エラーメッセージを表示させるようにしてもよい。また、このとき、コーナーポイントの検知に用いられる閾値(色値の範囲)が変更されるようにしてもよい。
In step S213, the
一方、ステップS213において、コーナーポイントが検知されたと判定された場合、処理はステップS214に進み、コーナー画像生成部319は、背景領域の色値を用いて、コーナー画像を生成する。具体的には、コーナー画像生成部319は、クロマキー用シート121A,121B,121Cの色値のうち、例えば上述した暗い緑色とされる色値の範囲に含まれる色値に基づいて、コーナーラインの画素位置を決定し、その結果に応じたコーナーラインを含むコーナー画像を生成する。このとき、コーナー画像生成部319は、コーナー画像におけるコーナーラインの近傍の部分に対して、ライブビュー画像の対応する部分の色値に応じた影を施す処理を行う。これにより、実際の撮影空間に生じる影を再現した、リアルなコーナー画像を生成することができる。なお、影を施す処理として、コーナー画像におけるコーナーラインを中心としたぼかし処理を行うようにしてもよい。
On the other hand, if it is determined in step S213 that a corner point has been detected, the process proceeds to step S214, and the corner
以上のように、図30の上カメラ全身撮影処理においても、図25の上カメラ全身撮影処理と同様の作用効果を奏することができる。 As described above, the upper camera whole-body imaging process in FIG. 30 can achieve the same effects as the upper camera whole-body imaging process in FIG.
さらに、得られる上カメラ全身撮影画像には、リアルなコーナー画像が合成されるので、利用者にとってより一層満足度の高いコーデ画像を提供することが可能となる。 Furthermore, since a realistic corner image is combined with the obtained upper-camera whole-body photographed image, it is possible to provide a coordinated image that is more satisfactory for the user.
なお、ステップS215においても、ライブビュー画像として、背景領域(背面、側面、および床面)が抜き出されたライブビュー画像にコーナー画像を合成したものを表示するようにしてもよい。これにより、利用者は、実際に得られる上カメラ全身撮影画像をイメージしながら撮影作業を行うことができる。 In step S215, a live view image obtained by synthesizing a corner image with a live view image from which background regions (back, side, and floor) are extracted may be displayed. As a result, the user can perform a shooting operation while imagining an upper camera whole body captured image actually obtained.
ところで、上述した上カメラ全身撮影画像においては、その画像内の特定の位置にコーナーポイントがあることが望ましく、これにより、バランスのよい上カメラ全身撮影画像が得られるようになる。 By the way, in the above-mentioned upper camera whole-body photographed image, it is desirable that there is a corner point at a specific position in the image, so that a well-balanced upper camera whole-body photographed image can be obtained.
しかしながら、カメラ91の取り付け位置のずれや、撮影空間A1を構成する撮影部21および背景部22の歪み等により、検知されるコーナーポイントが望ましい位置からずれてしまうことが考えられる。
However, it is conceivable that the detected corner point may deviate from a desired position due to a displacement of the mounting position of the
そこで、以下においては、検知されたコーナーポイントが望ましい位置からずれている場合に、そのコーナーポイントを調整する処理について説明する。 Therefore, in the following, a process for adjusting a corner point when the detected corner point is deviated from a desired position will be described.
[コーナーポイント調整処理]
図32は、検知されたコーナーポイントが望ましい位置からずれている場合に、そのコーナーポイントを調整するコーナーポイント調整処理について説明するフローチャートである。図32のコーナーポイント調整処理は、撮影処理において、上カメラ全身撮影処理が実行される前に実行されてもよいし、写真シール作成装置1の所定箇所に設けられるメンテナンスボタンが操作されることにより、写真シール作成装置1の動作モードがメンテナンスモードに移行したときに実行されるようにしてもよい。
[Corner point adjustment processing]
FIG. 32 is a flowchart for explaining corner point adjustment processing for adjusting a corner point when the detected corner point is shifted from a desired position. The corner point adjustment process of FIG. 32 may be executed before the upper camera whole body imaging process is executed in the imaging process, or by operating a maintenance button provided at a predetermined location of the photo
なお、図32のコーナーポイント調整処理は、カメラ91が上カメラの状態で実行される。
Note that the corner point adjustment processing in FIG. 32 is executed with the
また、図32のフローチャートのステップS311乃至S313の処理は、図25のフローチャートのステップS111乃至S113の処理、または、図30のフローチャートのステップS211乃至S213の処理のいずれかが実行されればよく、ここでは、その説明は省略する。 Also, the processing of steps S311 to S313 in the flowchart of FIG. 32 may be performed by executing either the processing of steps S111 to S113 of the flowchart of FIG. 25 or the processing of steps S211 to S213 of the flowchart of FIG. Here, the description is omitted.
すなわち、ステップS314において、ライブビュー表示制御部313は、カメラ91により取り込まれたライブビュー画像をタッチパネルモニタ93に表示させる(ライブビュー表示を行う)。このとき、図33に示されるように、ライブビュー画像601には、クロマキー用シート121A,121B,121C、検知されたコーナーポイントCP、および、設定されるべきコーナーポイントの位置を示す設定ポイントCP0が表示される。
That is, in step S314, the live view
ステップS315において、ライブビュー表示制御部313は、検知されたコーナーポイントCPが設定ポイントCP0から所定の距離以上ずれているか否かを判定する。
In step S315, the live view
ステップS315において、コーナーポイントCPが設定ポイントCP0からずれていると判定された場合、処理はステップS316に進み、ライブビュー表示制御部313は、ライブビュー画像601の移動を促す表示、例えば、「コーナーポイントを合わせてください」等のメッセージの表示を行う。このとき、利用者は、タッチパネルモニタ93のライブビュー表示領域に表示されているライブビュー画像を指などでタッチ(ドラッグ)することにより、ライブビュー画像(コーナーポイントCP)を移動することができる。
If it is determined in step S315 that the corner point CP is deviated from the set point CP0, the process proceeds to step S316, and the live view
また、図34に示されるように、ライブビュー画像601に操作ボタン611を表示し、利用者に操作させることによって、ライブビュー画像(コーナーポイントCP)を移動するようにしてもよい。
As shown in FIG. 34, the live view image (corner point CP) may be moved by displaying an
一方、ステップS315において、コーナーポイントCPが設定ポイントCP0からずれていないと判定された場合、処理は終了する。 On the other hand, if it is determined in step S315 that the corner point CP is not deviated from the set point CP0, the process ends.
以上の処理によれば、検知されたコーナーポイントが望ましい位置からずれている場合、そのコーナーポイントを調整することができる。 According to the above processing, when the detected corner point is deviated from a desired position, the corner point can be adjusted.
なお、ステップS315において表示される設定ポイントCP0は、利用者(操作者)の操作によって所望の位置に設定されるようにしてもよい。 Note that the setting point CP0 displayed in step S315 may be set to a desired position by the operation of the user (operator).
以上においては、ライブビュー画像(撮影画像)の背景領域としての撮影空間A1の背面、側面、および床面には、クロマキー用シート121A,121B,121Cが貼付されるものとしたが、背面、側面、および床面のうちの2面が交わる交線近傍には、クロマキー用シート121A,121B,121Cが貼付されないようにしてもよい。
In the above description, the
また、撮影空間A1の背面、側面、および床面のうちの2面が交わる交線近傍に、クロマキー用シート121A,121B,121Cが貼付されないようにした場合、クロマキー用シートが貼付されている部分と貼付されていない部分との境界も、クロマキー処理の対象とする。具体的には、背面パネル51においてクロマキー用シート121Aが貼付されている部分と貼付されていない部分との境界、側面パネル52Bにおいてクロマキー用シート121Bが貼付されている部分と貼付されていない部分との境界、床104の表面においてクロマキー用シート121Cが貼付されている部分と貼付されていない部分との境界がそれぞれ含まれる色範囲で、クロマキー処理を実行するようにしてもよい。なお、撮影空間A1の背面、側面、および床面においてクロマキー用シートが貼付されていない部分の色は、撮影画像に合成されるコーナー画像の各面の色(例えばグレーに近い白色)とされる。
Further, when the
これにより、撮影画像からコーナーポイントやコーナーラインに対応する部分(実際のコーナー部分)が抜き出されずに残るので、撮影画像においては、よりリアルな背景が再現され、コーデ画像により好適な撮影画像を得ることができる。 As a result, a portion corresponding to a corner point or corner line (actual corner portion) remains without being extracted from the captured image, so that a more realistic background is reproduced in the captured image, and the captured image is more suitable for the coordinate image. Can be obtained.
また、上述した上カメラ全身撮影処理において、コーナーポイントを検知する処理は、ライブビュー画像に対して行われるようにしたが、上カメラ全身撮影処理開始時に、仮撮影を行うようにし、得られた仮撮影画像に対してコーナーポイントを検知するようにしてもよい。 Further, in the above-described upper camera whole body photographing process, the process for detecting the corner point is performed on the live view image, but the provisional photographing is performed at the start of the upper camera whole body photographing process. You may make it detect a corner point with respect to a temporary picked-up image.
さらに、上カメラ全身撮影処理として、図25のフローチャートを参照して説明した上カメラ全身撮影処理と、図30を参照して説明した上カメラ全身撮影処理が選択的に行われるようにしてもよい。例えば、コーナー画像以外の背景画像を合成するようにして、合成されるその背景画像の配置が、実際の撮影空間の背面、側面、および床面の位置と合わない場合には、図25の上カメラ全身撮影処理が実行され、合成されるその背景画像の配置が、実際の撮影空間の背面、側面、および床面の位置に合っている場合には、図25の上カメラ全身撮影処理が実行されるようにする。 Furthermore, as the upper camera whole body imaging process, the upper camera whole body imaging process described with reference to the flowchart of FIG. 25 and the upper camera whole body imaging process described with reference to FIG. 30 may be selectively performed. . For example, when a background image other than a corner image is synthesized, and the arrangement of the synthesized background image does not match the positions of the back, side, and floor of the actual shooting space, the top of FIG. When the entire camera photographing process is executed and the arrangement of the background image to be synthesized matches the positions of the back, side and floor of the actual photographing space, the upper camera whole body photographing process of FIG. 25 is executed. To be.
また、上述した説明においては、コーナーポイントとして、撮影空間A1において背面パネル51、右側面の側面パネル52B、および床104の3面が交わる交点を検知するようにしたが、背面パネル51、左側面の側面パネル52A、および床104の3面が交わる交点を検知するようにしてもよい。
Further, in the above description, as a corner point, an intersection where the
ところで、ファッション雑誌に掲載されている写真は、部屋の一角を模したある程度の広さのある撮影スタジオにおいて撮影されたものが多く、その仕上がりは奥行き感のあるものとなる。 By the way, most of the photos published in fashion magazines were taken in a photo studio with a certain size that imitated a corner of the room, and the finish has a sense of depth.
一方、本発明の写真シール作成装置1の撮影空間A1は、決して広さのある空間とは言えず、図35に示されるように、カメラ91を備える撮影・表示ユニット81と被写体111との距離は、最も近づいた場合で700mm、最も離れた場合であっても1000mmである。
通常、このように、カメラと被写体との距離が近い撮影空間で撮影された写真(撮影画像)においては、被写体と背景とに明暗をつけることが難しく、奥行き感のない仕上がりとなってしまう。
On the other hand, the shooting space A1 of the photo
Usually, in such a photograph (photographed image) photographed in a photographing space where the distance between the camera and the subject is close, it is difficult to make the subject and the background light and dark, and the finish without a sense of depth.
そこで、本発明の写真シール作成装置1においては、上述したように、背景領域を抜き出した画像に、部屋の一角を模したコーナー画像を合成するようにしたので、得られる撮影画像の仕上がりを奥行き感のあるものとすることができる。さらに、図30のフローチャートを参照して説明した処理においては、実際の撮影空間に生じる影を再現したコーナー画像を生成するようにしたので、得られる撮影画像において、より自然な奥行き感を再現することができるようになる。
Therefore, in the photo
また、以上においては、コーナーポイントとして、撮影空間A1の背面、側面、および床面の3面の交点を検知するようにしたが、撮影空間A1の形状に応じて、3面以上の交点を検知するようにしてもよい。例えば、撮影空間A1が、正八面体を構成する構造である場合には、正三角形の4面が交わる交点を、コーナーポイントとして検知するようにしてもよい。 In the above, the intersection of the three surfaces of the back surface, the side surface, and the floor surface of the photographing space A1 is detected as a corner point. However, the intersection of three or more surfaces is detected according to the shape of the photographing space A1. You may make it do. For example, when the shooting space A1 has a structure that forms a regular octahedron, an intersection where four faces of an equilateral triangle intersect may be detected as a corner point.
[クロス組合せ撮影処理1]
次に、図36のフローチャートを参照して、図20のステップS53のクロス組合せ撮影処理の詳細について説明する。
[Cross combination shooting process 1]
Next, with reference to the flowchart of FIG. 36, the detail of the cross combination imaging | photography process of FIG.20 S53 is demonstrated.
ステップS201において、進行制御部311は、撮影方法のガイダンス画面をタッチパネルモニタ93に表示させる。具体的には、2人同時に全身および顔付近のアップの撮影を行い、利用者毎に全身画像と顔付近のアップ画像を組み合わせたクロス組合せ画像を生成するクロス組合せ撮影を行う旨のガイダンス画面が、タッチパネルモニタ93に表示される。ガイダンス画面を表示した後、撮影画像取得部314は、カメラ91を制御し、画像の取り込みを開始させる。
In step S <b> 201, the
ステップS202において、ライブビュー表示制御部313は、カメラ91により取り込まれた動画像(ライブビュー画像)をタッチパネルモニタ93に表示させる(ライブビュー表示を行う)。
In step S202, the live view
図37は、このときタッチパネルモニタ93に表示されるライブビュー表示画面の例を模式的に示している。この場合、2人の被写体が写っている、図37の左側に示されるカメラ91の取り込み画像701に対して、被写体部分それぞれがトリミングされる。図37の右側に示されるライブビュー表示画面には、カメラ91の取り込み画像701からトリミングされた各被写体の画像を個別にライブビュー表示するライブビュー表示領域702L,702Rが表示される。すなわち、ライブビュー表示領域702Lには、取り込み画像701からトリミングされた左側の被写体の画像が表示され、ライブビュー表示領域702Rには、取り込み画像701からトリミングされた右側の被写体の画像が表示される。
FIG. 37 schematically shows an example of a live view display screen displayed on the touch panel monitor 93 at this time. In this case, each of the subject portions is trimmed with respect to the captured
そして、利用者は、ライブビュー表示画面の下方に表示されているガイダンスに従って、ライブビュー表示領域702L,702Rにそれぞれの全身がうまく入るように、立ち位置や姿勢等を調整する。
Then, the user adjusts the standing position, posture, and the like according to the guidance displayed at the bottom of the live view display screen so that each whole body enters the live
ところで、取り込み画像701において、2人の被写体が重なっている場合、それぞれの被写体をトリミングすると、お互いの腕等の体の一部が、トリミングされた画像それぞれに入り込んでしまう。
By the way, in the captured
そこで、図38に示されるように、取り込み画像701において、その左右方向に対して中央部分の領域701aを、被写体が撮影されない非撮影領域とし、被写体が領域701aに入った場合には、警告音等を鳴らすようにしてもよい。
Therefore, as shown in FIG. 38, in the captured
これにより、取り込み画像701において、2人の被写体が重なることがなくなるので、それぞれの被写体が取り込み画像701から確実にトリミングされるようになる。
This prevents two subjects from overlapping each other in the captured
なお、この場合、図37のライブビュー表示画面の代わりに、図38の取り込み画像701の領域701aをマスクした画像をそのままライブビュー表示画面に表示するようにしてもよい。
In this case, instead of the live view display screen of FIG. 37, an image obtained by masking the
また、図39Aに示されるように、取り込み画像701において、被写体の2人の身長差が大きい場合、それぞれ同じ様にトリミングすると、身長の低い被写体をトリミングした画像に無駄な領域が発生してしまい、バランスの悪い撮影画像が得られてしまう。
Also, as shown in FIG. 39A, in the captured
そこで、図39Bに示されるように、取り込み画像701において、例えば、人認識の結果に基づいて、被写体それぞれの身長に応じたトリミング枠を設定し、そのトリミング枠に応じてトリミングするようにしてもよい。これにより、それぞれの被写体がトリミングされた画像に無駄な領域が発生することなく、バランスのよい撮影画像が得られるようになる。
Therefore, as shown in FIG. 39B, in the captured
図36のフローチャートに戻り、ステップS203において、撮影画像取得部314は、タッチパネルモニタ93にカウントダウンインジケータを表示し、撮影タイミングを利用者に通知する。
Returning to the flowchart of FIG. 36, in step S203, the photographed
ステップS204において、撮影処理部301は、上カメラ全身撮影を行う。すなわち、図25または図30を参照して上述した処理と同様の撮影が行われ、上カメラ全身撮影画像が取得される。
In step S204, the
ステップS205において、ライブビュー表示制御部313は、カメラ91により取り込まれた動画像(ライブビュー画像)をタッチパネルモニタ93に表示させる(ライブビュー表示を行う)。
In step S205, the live view
図40は、このときタッチパネルモニタ93に表示されるライブビュー表示画面の例を示している。この場合、2人の被写体が写っている、図40の左側に示されるカメラ91の取り込み画像721に対して、被写体の顔付近の部分がそれぞれトリミングされる。図40の右側に示されるライブビュー表示画面には、カメラ91の取り込み画像721からトリミングされた各被写体の顔付近の画像を個別にライブビュー表示するライブビュー表示領域722L,722Rが表示される。すなわち、ライブビュー表示領域722Lには、取り込み画像721からトリミングされた左側の被写体の顔付近の画像が表示され、ライブビュー表示領域722Rには、取り込み画像721からトリミングされた右側の被写体の顔付近の画像が表示される。
FIG. 40 shows an example of a live view display screen displayed on the touch panel monitor 93 at this time. In this case, a portion near the face of the subject is trimmed with respect to the captured
そして、利用者は、ライブビュー表示画面の下方に表示されているガイダンスに従って、ライブビュー表示領域722L,722Rにそれぞれの顔がうまく入るように、立ち位置や姿勢等を調整する。
Then, the user adjusts the standing position, the posture, and the like according to the guidance displayed at the bottom of the live view display screen so that each face enters the live
なお、図38を参照して上述した場合と同様に、取り込み画像721において、その左右方向の中央部分の領域を、被写体が撮影されない非撮影領域とし、被写体が非撮影領域に入った場合には、警告音等を鳴らすようにしてもよい。また、取り込み画像721の非撮影領域をマスクした画像を、そのままライブビュー表示画面に表示するようにしてもよい。
As in the case described above with reference to FIG. 38, in the captured
また、例えば、ステップS202とステップS205のライブビュー表示時に各利用者の顔認識を行い、ステップS205のライブビュー表示時に、ステップS202のライブビュー表示時と左右の利用者の顔の認識結果が異なる場合に、その旨をアナウンス等で通知するようにしてもよい。この通知が行われるケースとして、例えば、利用者の左右の位置が入れ替わったり、利用者の1人または2人が別の人と入れ替わったり、撮影空間A1内の利用者の数が増えたり、減ったりしている場合等が想定される。 Also, for example, each user's face recognition is performed at the time of live view display at step S202 and step S205, and at the time of live view display at step S205, the recognition result of the left and right user faces is different from that at step S202. In such a case, a notification to that effect may be made. As a case where this notification is performed, for example, the left and right positions of the user are switched, one or two users are replaced with another person, or the number of users in the shooting space A1 is increased or decreased. Or the like.
さらに、図20のステップS52において撮影人数が1人と判定された場合、図37のライブビュー表示画面および図40のライブビュー表示画面において、左右のいずれか一方のライブビュー表示領域の表示、および、その領域内の被写体の撮影を省略することが可能である。あるいは、例えば、図37のライブビュー表示画面では、ライブビュー表示領域の表示を省略せずに、図40のライブビュー表示画面において、図37のライブビュー表示画面で利用者の存在が認識された方と異なる側にあるライブビュー表示領域の表示、および、その領域内の被写体の撮影を省略するようにしてもよい。 Further, when it is determined in step S52 in FIG. 20 that the number of photographers is one, in the live view display screen in FIG. 37 and the live view display screen in FIG. It is possible to omit photographing of the subject in the area. Alternatively, for example, in the live view display screen of FIG. 37, the display of the live view display area is not omitted, and in the live view display screen of FIG. 40, the presence of the user is recognized on the live view display screen of FIG. The display of the live view display area on the side different from the direction and the photographing of the subject in the area may be omitted.
図36のフローチャートに戻り、ステップS206において、撮影画像取得部314は、タッチパネルモニタ93にカウントダウンインジケータを表示し、撮影タイミングを利用者に通知する。
Returning to the flowchart of FIG. 36, in step S206, the captured
ステップS207において、図19のステップS42の処理と同様に、上カメラアップ撮影が行われ、上カメラアップ撮影画像が取得される。 In step S207, similar to the process in step S42 of FIG. 19, the upper camera up shooting is performed, and the upper camera up shooting image is acquired.
ステップS208において、合成処理部320は、クロス組合せ画像を生成する。具体的には、合成処理部320は、ステップS204の処理で取得した上カメラ全身撮影画像から各被写体の全身画像を個別にトリミング(抽出)する。また、合成処理部320は、ステップS207の処理で取得した上カメラアップ撮影画像から各被写体の顔付近の画像を個別にトリミング(抽出)する。そして、合成処理部320は、抽出した全身画像およびアップ画像を利用者ごとに所定の合成用画像に合成することにより、クロス組合せ画像を生成する。これにより、同じ利用者の全身と顔のアップを組み合わせた合成画像(クロス組合せ画像)が、利用者毎に複数生成される。
In step S208, the
ステップS209において、進行制御部311は、クロス組合せ画像をタッチパネルモニタ93に表示し、撮影結果を利用者に確認させる。
In step S209, the
図41は、このときタッチパネルモニタ93に表示されるクロス組合せ画像の確認画面の表示例を示している。図41の確認画面は、クロス組合せ画像が表示される撮影結果表示領域741Lおよび741Rから構成されている。
FIG. 41 shows a display example of a cross combination image confirmation screen displayed on the touch panel monitor 93 at this time. The confirmation screen shown in FIG. 41 includes shooting
撮影結果表示領域741Lに表示されるクロス組合せ画像には、ステップS204の処理で取得した上カメラ全身撮影画像の左側の被写体の全身画像が左側に配置され、ステップS207の処理で取得した上カメラアップ撮影画像の左側の被写体の顔付近のアップ画像が右上に配置されている。また、全身画像およびアップ画像の背景、並びに、クロス組合せ画像の右下に、所定の合成用画像が合成されている。
In the cross combination image displayed in the imaging
同様に、撮影結果表示領域741Rに表示されるクロス組合せ画像には、ステップS204の処理で取得した上カメラ全身撮影画像の右側の被写体の全身画像が左側に配置され、ステップS207の処理で取得した上カメラアップ撮影画像の右側の被写体の顔付近のアップ画像が右上に配置されている。また、全身画像およびアップ画像の背景、並びに、クロス組合せ画像の右下に、所定の合成用画像が合成されている。
Similarly, in the cross combination image displayed in the imaging
これらのクロス組合せ画像は、上述した図18のステップS7の事後接客処理において、利用者の携帯端末に送信される。 These cross-combination images are transmitted to the user's mobile terminal in the above-described post-service process in step S7 of FIG.
なお、クロス組合せ画像は、例えば、ファッションコーディネイトの投稿サイトなどに投稿する画像に適している。すなわち、全身画像により全身のファッションを詳細に確認できるとともに、アップ画像により被写体の顔を詳細に確認することができるからである。また、全身画像とアップ画像が個別に撮影されるため、ファッションを写すための画像と、顔の表情を写すための画像とを分けて撮影することができ、より利用者の嗜好にあった画像を得ることができる。 Note that the cross combination image is suitable for an image posted on a fashion coordination posting site, for example. That is, the whole body fashion can be confirmed in detail by the whole body image, and the face of the subject can be confirmed in detail by the up image. In addition, since the whole body image and the up image are shot separately, it is possible to shoot separately the image for capturing the fashion and the image for capturing the facial expression. Can be obtained.
また、クロス組合せ画像は利用者毎に画像がまとめられているため、例えば、他者の肖像権やプライバシー等を考慮することなく、ブログやSNS(Social Networking Service)等の自分専用のサイトに投稿することができる。 In addition, cross-combination images are grouped for each user, so you can post them on your own site such as a blog or SNS (Social Networking Service) without considering the portrait rights or privacy of others. can do.
さらに、2人の利用者で同時に撮影したにも関わらず、利用者毎に全身画像とアップ画像が組み合わされた、撮影時とは異なった画像が提供されるため、利用者に驚きと面白みを与えることができ、利用者の満足度が向上する。 In addition, even though two users have taken pictures at the same time, each user is provided with a different image from the one in which the whole body image and the up image are combined. It can be given and user satisfaction is improved.
[クロス組合せ撮影処理2]
次に、図42のフローチャートを参照して、クロス組合せ撮影処理の他の例について説明する。
[Cross combination shooting process 2]
Next, another example of the cross combination photographing process will be described with reference to the flowchart of FIG.
なお、図42のフローチャートのステップS251乃至S254の処理は、図36のフローチャートのステップS201乃至S204の処理と基本的に同様であるので、その説明は省略する。また、図42のフローチャートのステップS257乃至S259の処理は、図36のフローチャートのステップS205乃至S207の処理と基本的に同様であるので、その説明は省略する。 Note that the processing in steps S251 to S254 in the flowchart in FIG. 42 is basically the same as the processing in steps S201 to S204 in the flowchart in FIG. Also, the processing of steps S257 to S259 in the flowchart of FIG. 42 is basically the same as the processing of steps S205 to S207 in the flowchart of FIG.
ステップS255において、合成処理部320は、全身画像を合成する。具体的には、合成処理部320は、ステップS254の処理で取得した上カメラ全身撮影画像から各被写体の全身画像を個別にトリミング(抽出)する。そして、合成処理部320は、抽出した全身画像を利用者ごとに所定の合成用画像に合成する。これにより、利用者の全身のみが写った画像が、利用者毎に複数生成される。
In step S255, the
ステップS256において、進行制御部311は、クロス組合せ画像の途中経過の確認画面をタッチパネルモニタ93に表示し、クロス組合せ画像の生成過程を利用者に確認させる。
In step S256, the
図43は、このときタッチパネルモニタ93に表示される確認画面の表示例を示している。図43の確認画面は、生成途中のクロス組合せ画像が表示される撮影結果表示領域761Lおよび761Rから構成されている。
FIG. 43 shows a display example of a confirmation screen displayed on the touch panel monitor 93 at this time. The confirmation screen shown in FIG. 43 includes imaging
撮影結果表示領域761Lに表示されるクロス組合せ画像は、図41の撮影結果表示領域741Lに表示されているクロス組合せ画像から、右上のアップ画像を除いた画像となる。同様に、撮影結果表示領域761Rに表示されるクロス組合せ画像は、図41の撮影結果表示領域741Rに表示されているクロス組合せ画像から、右上のアップ画像を除いた画像となる。
The cross combination image displayed in the imaging
その後、ステップS257乃至S259の処理が行われた後、ステップS260において、合成処理部320は、アップ画像を合成する。具体的には、合成処理部320は、ステップS259の処理で取得した上カメラアップ撮影画像から各被写体の顔付近の画像を個別にトリミング(抽出)する。そして、合成処理部320は、ステップS255の処理で生成した各クロス組合せ画像に、全身画像と同じ利用者の顔付近のアップ画像を合成することにより、クロス組合せ画像を完成させる。
Thereafter, after the processing of steps S257 to S259 is performed, in step S260, the
なお、全身画像とアップ画像が同一人物のものであるか否かの判定には、任意の手法を採用することができる。例えば、全身画像の顔付近の画像およびアップ画像から所定の特徴量を抽出し、抽出した特徴量の差が所定の閾値以下である場合、同一人物であると判定することが可能である。 It should be noted that any method can be employed to determine whether the whole body image and the up image belong to the same person. For example, when a predetermined feature amount is extracted from an image near the face and an up-image of the whole body image, and the difference between the extracted feature amounts is equal to or less than a predetermined threshold value, it is possible to determine that they are the same person.
ステップS261において、図36のステップS209と同様の処理が行われ、例えば、上述した図41に示される確認画面が、タッチパネルモニタ93に表示される。 In step S261, the same processing as step S209 in FIG. 36 is performed, and for example, the above-described confirmation screen shown in FIG. 41 is displayed on the touch panel monitor 93.
このようにして、撮影画像が撮影される毎に、撮影画像から各利用者の画像がトリミング(抽出)され、抽出された画像がそれぞれ対応するクロス組合せ画像に合成されることにより、各クロス組合せ画像が更新される。また、クロス組合せ画像が更新される毎に、更新された各クロス組合せ画像がタッチパネルモニタ93に表示される。従って、利用者は、クロス組合せ撮影を行いながら、全身画像、アップ画像の順に画像が組み合わされていく過程を確認することができる。 In this way, each time a captured image is captured, the image of each user is trimmed (extracted) from the captured image, and the extracted images are combined with the corresponding cross combination images, whereby each cross combination. The image is updated. Each time the cross combination image is updated, each updated cross combination image is displayed on the touch panel monitor 93. Therefore, the user can check the process in which the images are combined in the order of the whole body image and the up image while performing cross combination shooting.
[編集処理]
次に、図44のフローチャートを参照して、図18のステップS4の編集処理の詳細について説明する。
[Edit processing]
Next, details of the editing process in step S4 in FIG. 18 will be described with reference to the flowchart in FIG.
ステップS301において、進行処理部351は、撮影処理を終えた利用者の移動先の編集空間(移動先編集空間)の編集部209を制御し、タブレット内蔵モニタ131に開始画面を表示させる。具体的には、編集処理の開始前には、移動先編集空間のタブレット内蔵モニタ131には所定のデモンストレーション画面が表示されている。そして、進行処理部351は、図18のステップS3の処理の後、移動先編集空間の編集部209を制御し、編集処理の開始を通知するための開始画面をタブレット内蔵モニタ131に表示させる。
In step S <b> 301, the
なお、以下、特に断りのない限り、この処理において、編集部209、並びに、その内部のタブレット内蔵モニタ131、タッチペン132A,132B、および、スピーカ231は、移動先編集空間のものを指すものとする。
Hereinafter, unless otherwise specified, in this processing, the editing unit 209, the tablet built-in
ステップS302において、編集処理部302は、目のサイズおよび明るさの選択を受け付ける。具体的には、編集画面表示制御部354は、編集部209を制御し、例えば、図45に示す選択画面をタブレット内蔵モニタ131に表示させる。
In step S302, the
この選択画面には、撮影画像801−1乃至撮影画像801−6が、上側に並べられて表示されている。これらの撮影画像は、図18のステップS2の撮影処理においてカメラ91により撮影されて得られた、何も加工されていない画像(標準撮影画像)である。
On this selection screen, captured images 801-1 to 801-6 are displayed side by side on the upper side. These captured images are unprocessed images (standard captured images) obtained by capturing with the
なお、ペナルティ撮影が行われた場合、すなわち、ボーナス撮影が行われず5枚の標準撮影画像が得られている場合、撮影画像801−5と撮影画像801−6として、図20のステップS45の処理で得られた上カメラ全身撮影画像が表示される。すなわち、撮影画像801−5と撮影画像801−6が同じ画像になる。 When penalty shooting is performed, that is, when bonus shooting is not performed and five standard captured images are obtained, the captured image 801-5 and captured image 801-6 are processed in step S45 of FIG. The upper camera whole body image obtained in the above is displayed. That is, the captured image 801-5 and the captured image 801-6 are the same image.
選択画面の中央のやや下側には、3つの目サイズ選択ボタン802−1乃至目サイズ選択ボタン802−3が横方向に並べられて表示されている。 Three eye size selection buttons 802-1 to 802-3 are displayed side by side in the horizontal direction slightly below the center of the selection screen.
目サイズ選択ボタン802−1には、目のサイズが自然な大きさのモデルの目の画像が表示され、目サイズ選択ボタン802−2には、目のサイズが若干大きな(例えば、自然な大きさよりも1割程度大きな)モデルの目の画像が表示されている。また、目サイズ選択ボタン802−3には、目のサイズが比較的大きな(例えば、自然な大きさよりも2割程度大きな)モデルの目の画像が表示されている。 The eye size selection button 802-1 displays an eye image of a model with a natural eye size, and the eye size selection button 802-2 displays a slightly larger eye size (for example, a natural size). An image of a model eye is displayed. The eye size selection button 802-3 displays an image of a model eye having a relatively large eye size (for example, about 20% larger than the natural size).
利用者は、目サイズ選択ボタン802−1乃至目サイズ選択ボタン802−3を選択することで、目のサイズを選択することができる。なお、以下、目サイズ選択ボタン802−1乃至目サイズ選択ボタン802−3を特に区別する必要のない場合、単に目サイズ選択ボタン802とも称する。 The user can select the eye size by selecting the eye size selection button 802-1 to the eye size selection button 802-3. Hereinafter, the eye size selection button 802-1 to the eye size selection button 802-3 are also simply referred to as an eye size selection button 802 when it is not necessary to distinguish them.
また、選択画面の下側には、5つの明るさ選択ボタン803−1乃至明るさ選択ボタン803−5が横方向に並べられて表示されている。明るさ選択ボタン803−1乃至明るさ選択ボタン803−5には、明るさの異なるモデルがそれぞれ表示されている。 Further, five brightness selection buttons 803-1 to 803-5 are displayed in the horizontal direction at the lower side of the selection screen. Models with different brightness levels are displayed on the brightness selection buttons 803-1 to 803-5, respectively.
利用者は、明るさ選択ボタン803−1乃至明るさ選択ボタン803−5の何れかを選択することで、被写体の明るさを選択することができる。なお、以下、明るさ選択ボタン803−1乃至明るさ選択ボタン803−5を特に区別する必要のない場合、単に明るさ選択ボタン803とも称する。 The user can select the brightness of the subject by selecting any one of the brightness selection buttons 803-1 to 803-5. Hereinafter, the brightness selection buttons 803-1 to 803-5 are also simply referred to as brightness selection buttons 803 when it is not necessary to distinguish them.
さらに、選択画面の右下側には、被写体の目のサイズと明るさを決定するときに操作される決定ボタン804が表示されている。この決定ボタン804が操作されると、撮影画像801−1乃至撮影画像801−6に写っている利用者の目のサイズと明るさが、一括して変更される。すなわち、撮影画像上の被写体の目のサイズと明るさが、選択された目サイズ選択ボタン802により定められた目のサイズ、および選択された明るさ選択ボタン803により定められた明るさに変更される。
Furthermore, a
利用者は、タッチペン132Aまたはタッチペン132Bを用いて、図45の選択画面が表示されたタブレット内蔵モニタ131に対する操作を行い、各撮影画像の目の大きさおよび明るさを選択する。また、利用者によって、この選択画面に対する操作が行われると、タブレット内蔵モニタ131から入力受付制御部353に、利用者の操作に応じた情報が供給される。さらに、落書き編集処理部355は、利用者の操作に応じて、各撮影画像の目のサイズおよび明るさを変更する。
Using the
そして、選択処理が終了すると、処理はステップS303に進む。 Then, when the selection process ends, the process proceeds to step S303.
ステップS303において、進行制御部351は、クロス組合せ撮影を行ったか否かを判定し、クロス組合せ撮影を行ったと判定した場合、処理はステップS304に進む。
In step S303, the
ステップS304において、編集処理部302は、画像の選択を受け付ける。具体的には、編集画面表示制御部354は、編集部209を制御し、例えば、図46に示す選択画面をタブレット内蔵モニタ131に表示させる。
In step S304, the
この選択画面は、基本的に、同じ構成の画面が左右に対称に並べて配置されることによって構成される。例えば、タブレット内蔵モニタ131に対して左側に立っている利用者(以下、左側利用者と称する)は、タッチペン132Aを用いて選択画面の左半分において自分の画像の選択を行い、右側に立っている利用者(以下、右側利用者と称する)は、タッチペン132Bを用いて編集画面の右半分において自分の画像の選択を行うことになる。
This selection screen is basically configured by arranging screens having the same configuration symmetrically on the left and right. For example, a user standing on the left side of the tablet built-in monitor 131 (hereinafter referred to as a left side user) selects his / her image on the left half of the selection screen using the
選択画面の左側の上方には画像選択部821Lが配置されている。画像選択部821L内には、上述したクロス組合せ撮影において得られた2人の利用者のアップ画像が、それぞれ画像822L−1および画像822L−2として左右に並べて表示されている。
An
一方、選択画面の右側の上方には画像選択部821Rが配置されている。画像選択部821R内には、画像選択部821L内の画像822L−1と同じ画像である画像822R−1、および、画像822L−2と同じ画像である画像822R−2が左右に並べて表示されている。
On the other hand, an
利用者は、タッチペン132Aまたはタッチペン132Bを用いて、図46の選択画面が表示されたタブレット内蔵モニタ131に対する操作を行い、自分の画像を選択する。
例えば、左側利用者は、タッチペン132Aを操作して、画像822L−1または画像822L−2から自分の画像を選択する。一方、右側利用者は、タッチペン132Bを操作して、画像822R−1または画像822R−2から自分の画像を選択する。また、利用者によって、この選択画面に対する操作が行われると、タブレット内蔵モニタ131から入力受付制御部353に、利用者の操作に応じた情報が供給される。
Using the
For example, the left user operates the
なお、画像選択部821Lまたは画像選択部821Rのいずれか一方において画像が選択されると、他方の画像選択部において、選択された画像と異なる方の画像が自動的に選択される。また、所定の時間内に画像の選択が行われなかった場合、画像選択部821Lにおいて左側の画像822L−1が自動的に選択され、画像選択部821Rにおいて右側の画像822R−2が自動的に選択される。
Note that when an image is selected by either the
画像選択部821Lにおいて選択された画像は、次の処理で名前入力部841Lにおいて入力される名前と対応付けられ、画像選択部821Rにおいて選択された画像は、次の処理で名前入力部841Rにおいて入力される名前と対応付けられる。すなわち、この選択画面で画像の選択を行うことにより、利用者の画像と名前の対応関係が入力される。
The image selected in the
なお、画像822L−1乃至822R−2に、利用者のアップ画像の代わりに、クロス組合せ撮影において得られた利用者の全身画像を用いるようにしてもよい。
It should be noted that the whole body image of the user obtained in the cross combination photographing may be used for the
そして、選択処理が終了すると、処理はステップS305に進む。 Then, when the selection process ends, the process proceeds to step S305.
ステップS305において、編集処理部302は、名前の入力を受け付ける。具体的には、編集画面表示制御部354は、編集部209を制御し、例えば、図47に示す名前入力画面をタブレット内蔵モニタ131に表示させる。
In step S305, the
この名前入力画面は、基本的に、同じ構成の画面が左右に対称に並べて配置されることによって構成される。例えば、左側利用者は、タッチペン132Aを用いて名前入力画面の左半分において自分の名前の入力を行い、右側利用者は、タッチペン132Bを用いて名前入力画面の右半分において自分の名前の入力を行うことになる。
This name input screen is basically configured by arranging screens having the same configuration in a symmetrical manner on the left and right. For example, the left user inputs his name on the left half of the name input screen using the
具体的には、名前入力画面の左側の上方には、図46の選択画面と同様に、画像選択部821Lが配置されている。同様に、名前入力画面の右側の上方には、図46の選択画面と同様に、画像選択部821Rが配置されている。従って、利用者は、図46の選択画面で自分の画像を選択した後も、この名前入力画面において自分の画像を再選択することができる。
Specifically, an
画像選択部821Lの下方には、名前入力部841Lが配置されている。名前入力部841Lの上方には、ひらがな入力で入力された文字(名前)を表示する名前表示部842Lが表示される。名前表示部842Lの右側には、名前表示部842Lに表示されている文字の最後の一文字を消去するひとつ戻るボタン843L、その右に、名前表示部842Lに表示されている全ての文字を消去する全部消すボタン844Lが表示される。
A
そして、名前表示部842Lの下側には、ひらがなの各文字を入力する際に押下されるひらがな文字入力部845L、その下側に名前入力を決定するときに操作される決定ボタン846L、および名前入力を中止するキャンセルボタン847Lが表示される。
Below the
画像選択部821Rの下方には、名前入力部841Lと同様の構成を有する名前入力部841Rが配置されている。
A
利用者は、タッチペン132Aまたはタッチペン132Bを用いて、図47の名前入力画面が表示されたタブレット内蔵モニタ131に対する操作を行い、自分の名前やニックネーム等を入力する。例えば、左側利用者は、タッチペン132Aを用いて、ひらがな文字入力部845Lを操作して、自分の名前やニックネーム等を入力する。同様に、右側利用者は、タッチペン132Bを用いて、ひらがな文字入力部845Rを操作して、自分の名前やニックネーム等を入力する。また、利用者によって、この名前入力画面に対する操作が行なわれると、タブレット内蔵モニタ131から入力受付制御部353に、利用者の操作に応じた情報が供給される。
Using the
なお、この名前入力画面により入力された名前は、例えば、「お名前スタンプ」と称される編集ツールや「お名前フレーム」と称される編集ツールに用いられる。 The name input on the name input screen is used for an editing tool called “name stamp” and an editing tool called “name frame”, for example.
また、画像選択部821Lで選択された画像と名前入力部841Lで入力された名前が対応付けられ、選択された画像を含むクロス組合せ画像の前景または背景に、対応付けられた名前を示す画像が合成される。同様に、画像選択部821Rで選択された画像と名前入力部841Rで入力された名前が対応付けられ、選択された画像を含むクロス組合せ画像の前景または背景に、対応付けられた名前を示す画像が合成される。
Further, the image selected by the
そして、名前入力処理が終了すると、処理はステップS307に進む。 When the name input process ends, the process proceeds to step S307.
一方、ステップS303において、クロス組合せ撮影を行なっていないと判定された場合、処理はステップS306に進む。 On the other hand, if it is determined in step S303 that cross combination shooting has not been performed, the process proceeds to step S306.
ステップS306において、編集処理部302は、名前の入力を受け付ける。具体的には、編集画面表示制御部354は、編集部209を制御し、例えば、図48に示す名前入力画面をタブレット内蔵モニタ131に表示させる。
In step S306, the
図48の名前入力画面は、図47の名前入力画面から画像選択部821Lおよび画像選択部821Rを削除した画面構成となっている。すなわち、クロス組合せ撮影が行われていないため、この名前入力画面では、画像の選択は行われずに、名前の入力だけが行われる。
The name input screen of FIG. 48 has a screen configuration in which the
そして、名前入力処理が終了すると、処理はステップS307に進む。 When the name input process ends, the process proceeds to step S307.
ステップS307において、進行制御部351は、編集部209を制御し、撮影画像に合成する合成用画像の選択を行う旨のガイダンス画面をタブレット内蔵モニタ131に表示させる。
In step S <b> 307, the
ステップS308において、編集処理部302は、背景色の選択を受け付ける。具体的には、編集画面表示制御部354は、編集部209を制御し、例えば、図49に示す背景色選択画面をタブレット内蔵モニタ131に表示させる。
In step S308, the
この背景色選択画面には、背景色選択領域861および背景色選択領域862が、左右に並べて表示されている。
On this background color selection screen, a background
利用者は、タッチペン132Aまたはタッチペン132Bを用いて、図49の選択画面が表示されたタブレット内蔵モニタ131に対する操作を行い、背景色を選択することができる。すなわち、利用者は、タッチペン132Aまたはタッチペン132Bを用いて、背景色選択画面の背景色選択領域861または背景色選択領域862の何れかを選択することで、合成用画像に用いる背景色を選択することができる。具体的には、背景色選択領域861を選択すると、合成用画像をくっきりしたビビッドな色味に設定することができ、背景色選択領域862を選択すると、合成用画像をふんわりしたパステル調の色味に設定することができる。また、利用者によって、この選択画面に対する操作が行われると、タブレット内蔵モニタ131から入力受付制御部353に、利用者の操作に応じた情報が供給される。
Using the
そして、背景色の選択処理が終了すると、処理はステップS309に進む。 When the background color selection process ends, the process proceeds to step S309.
ステップS309において、編集処理部302は、合成用画像の選択を受け付ける。具体的には、編集画面表示制御部354は、編集部209を制御し、例えば、図50に示す合成用画像選択画面をタブレット内蔵モニタ131に表示させる。
In step S309, the
合成用画像選択画面には、合成用画像の分類ボタンの表示領域881、撮影合成画像の表示領域882、および、撮影画像および撮影合成画像の表示領域883が配置されている。合成用画像の分類ボタンの表示領域881には、ノーマルボタン884、柄ボタン885、およびセットボタン886が表示されている。図50の例では、黒色で反転表示されているノーマルボタン884が選択されている状態が示されている。
On the composite image selection screen, a composite image classification
ノーマルボタン884および柄ボタン885は、予め用意された複数の合成用画像の中から、利用者が、所望の合成用画像を選択するときに操作される。ノーマルボタン884を選択することにより、各種の色からなる合成用画像の中から所望の合成用画像を選択することができる。また、柄ボタン885を選択することにより、各種の柄からなる合成用画像の中から所望の合成用画像を選択することができる。
The
セットボタン886は、複数の合成用画像のセットの中から、利用者が所望の合成用画像のセットを選択するときに操作される。合成用画像のセットは、例えば、各種の色および柄からなる複数種類の合成用画像の中から、撮影枚数(6枚)に従って、任意の種類の合成用画像が組み合わされて、予め用意されている。
The
撮影合成画像の表示領域882には、複数の撮影合成画像が表示される。撮影合成画像は、撮影画像の被写体と合成用画像とが一括で合成された画像である。また、撮影合成画像の表示領域882には、ノーマルボタン884、柄ボタン885、およびセットボタン886の選択に応じて分類された合成用画像が合成された撮影合成画像が表示される。図50の例では、ノーマルボタン884が選択されており、各種の色からなる合成用画像が、撮影画像の被写体である利用者自身の背景として合成された27枚(3行×9列)の撮影合成画像が示されている。
A plurality of photographed composite images are displayed in the photographed composite
例えば、利用者が、撮影合成画像の表示領域882に表示されている複数の撮影合成画像の中から、任意の撮影合成画像を選択すると、その撮影合成画像に合成されている合成用画像が選択される。そして、利用者により選択された撮影合成画像には、既に選択されたことを示唆する「済」のマークが表示される。また、直前に選択された撮影合成画像には、利用者が選択したばかりであることを示唆する「SELECT」の文字が表示される。
For example, when the user selects an arbitrary photographed composite image from a plurality of photographed composite images displayed in the photographed composite
撮影画像および撮影合成画像の表示領域883には、撮影合成画像887および撮影画像888が表示される。図50の例では、撮影画像および撮影合成画像の表示領域883には、4枚の撮影合成画像887−1乃至887−4、並びに、2枚の撮影画像888−5および888−6が表示されている。また、撮影合成画像887−1乃至887−4の下方には、キャンセルボタン889−1乃至889−4がそれぞれ表示されている。
A captured composite image 887 and a captured image 888 are displayed in the
例えば、合成用画像の選択画面が最初に表示されたときには、撮影画像および撮影合成画像の表示領域883には、標準撮影画像に対応する6枚の撮影画像888が、左から撮影された順に表示される。また、撮影画像888は、上述したステップS302の処理により、被写体の目のサイズと明るさが変更された画像となる。
For example, when the composite image selection screen is first displayed, six captured images 888 corresponding to the standard captured images are displayed in the captured image and captured composite
なお、ペナルティ撮影が行われた場合、すなわち、ボーナス撮影が行われず5枚の標準撮影画像が得られた場合には、図20のステップS45の処理で得られた上カメラ全身撮影画像が、撮影画像888−5と撮影画像888−6として表示される。すなわち、撮影画像888−5と撮影画像888−6が同じ画像になる。 When penalty shooting is performed, that is, when bonus shooting is not performed and five standard captured images are obtained, the upper camera whole body captured image obtained by the process of step S45 in FIG. 20 is captured. An image 888-5 and a captured image 888-6 are displayed. That is, the captured image 888-5 and the captured image 888-6 are the same image.
そして、利用者が、1枚目の撮影画像888に対して、撮影合成画像の表示領域882に表示されている複数の撮影合成画像の中から、所望の撮影合成画像を選択することにより、その撮影合成画像に合成されている合成用画像が選択される。これに従って、1枚目の撮影画像888の表示が、利用者により選択された撮影合成画像887−1に更新される。すなわち、1枚目の撮影画像888に替えて、1枚目の撮影画像888の被写体の背景に、利用者により選択された合成用画像が合成された撮影合成画像887−1が表示される。さらに、撮影合成画像887−1の下方に、キャンセルボタン889−1が表示される。
Then, the user selects a desired photographed composite image from the plurality of photographed composite images displayed in the photographed composite
以下、同様に、利用者が、2枚目の撮影画像888、3枚目の撮影画像888、および4枚目の撮影画像888に対して合成用画像を順番に選択すると、その選択に従って、撮影合成画像887−2乃至887−4がそれぞれ表示される。さらに、撮影合成画像887−2乃至887−4の下方に、キャンセルボタン889−2乃至889−4がそれぞれ表示される。このキャンセルボタン889を操作することで、その上方に表示されている撮影合成画像887に合成されている合成用画像の選択をキャンセルして、合成用画像を選び直すことができる。 Hereinafter, similarly, when the user sequentially selects a composite image for the second photographed image 888, the third photographed image 888, and the fourth photographed image 888, photographing is performed according to the selection. The composite images 887-2 to 887-4 are displayed. Further, cancel buttons 889-2 to 889-4 are displayed below the captured composite images 887-2 to 887-4, respectively. By operating the cancel button 889, selection of the composition image synthesized with the photographed composition image 887 displayed above it can be canceled, and the composition image can be selected again.
このように、図50には、4枚目の撮影画像888に対して合成用画像が選択されて、撮影合成画像887−4が表示された時点での合成用画像の選択画面が示されている。 As described above, FIG. 50 shows a selection screen for a composition image when a composition image is selected for the fourth photographed image 888 and the photographed composite image 887-4 is displayed. Yes.
従って、この合成用画像の選択画面では、撮影画像888−5に対する合成用画像の選択が行われる。そのことを示唆するため、撮影画像888−5を囲うようにカーソルCが表示されるとともに、撮影画像および撮影合成画像の表示領域883の上方に「5枚目の背景を選んでね!」という文字が表示される。
Therefore, on this composition image selection screen, the composition image for the photographed image 888-5 is selected. In order to suggest this, the cursor C is displayed so as to surround the photographed image 888-5, and “select the fifth background!” Above the
撮影合成画像の表示領域882の右側には、人を消すボタン890が表示されている。
人を消すボタン890は、撮影合成画像の表示領域882に表示されている撮影合成画像を、被写体が合成されていない状態に表示を変更する際に、即ち、撮影合成画像の表示領域882の表示を合成用画像とする際に操作される。例えば、通常、撮影合成画像の表示領域882には、撮影画像の被写体と合成用画像とが合成された撮影合成画像が表示されるが、被写体によって合成用画像の色や柄を確認し難い場合があると想定される。そのような場合には、利用者が人を消すボタン890を操作することで、撮影合成画像の表示領域882には合成用画像(すなわち、背景のみ)が表示されることになり、利用者が、合成用画像の色や柄を確認し易くなる。
A
The erase
また、人を消すボタン890が操作されて、撮影合成画像の表示領域882に合成用画像が表示されるのと同時に、人を消すボタン890に表示されていた文字は「人を表示する」に変更される。そして、撮影合成画像の表示領域882の表示が合成用画像であるときに、利用者が人を消すボタン890を操作すると、撮影合成画像の表示領域882が元に戻り、図50に示すように、被写体の背景に合成用画像が合成された撮影合成画像が表示される。
Further, when the erase
利用者は、タッチペン132Aまたはタッチペン132Bを用いて、図50の選択画面が表示されたタブレット内蔵モニタ131に対する操作を行い、各撮影画像に合成する合成用画像を選択する。また、利用者によって、この選択画面に対する操作が行われると、タブレット内蔵モニタ131から入力受付制御部353に、利用者の操作に応じた情報が供給される。さらに、落書き編集処理部355は、利用者の操作に応じて、各撮影画像に選択された合成用画像を合成し、6枚の撮影合成画像を生成する。なお、ペナルティ撮影が行われた場合には、5枚目と6枚目の撮影合成画像は、同一の撮影画像(上カメラ全身撮影画像)に、異なる合成用画像を合成した画像となる。
Using the
そして、合成用画像の選択処理が終了すると、処理はステップS310に進む。 When the composition image selection process ends, the process proceeds to step S310.
ステップS310において、編集処理部302は、画像の編集を受け付ける。具体的には、編集画面表示制御部354は、編集部209を制御し、例えば、図51に示す編集画面をタブレット内蔵モニタ131に表示させる。
In step S310, the
この編集画面は、基本的に、同じ構成の画面が左右に対称に並べて配置されることによって構成される。例えば、左側利用者は、タッチペン132Aを用いて編集画面の左半分において撮影合成画像の編集を行い、右側利用者は、左側利用者による編集と並行して、タッチペン132Bを用いて編集画面の右半分において撮影合成画像の編集を行うことになる。
This editing screen is basically configured by arranging screens having the same configuration in a symmetrical arrangement on the left and right. For example, the left user edits the captured composite image in the left half of the editing screen using the
編集画面の左側の上方には画像選択部903Lが配置されており、ステップS310の処理で生成された6枚の撮影合成画像が、左から撮影順に横に並べて表示される。なお、ペナルティ撮影が行われた場合には、右から2枚目の撮影合成画像と右端の撮影合成画像は、同じ撮影画像(上カメラ全身撮影画像)に基づいて生成された撮影合成画像となる。
An
画像選択部903Lの下に形成された編集対象画像表示部901Lには、画像選択部903Lから選択された撮影合成画像が拡大して表示される。図51の例においては、6枚の撮影合成画像のうち、右から2枚目の撮影合成画像が編集対象としてカーソルC1によって選択されている。また、右端の撮影合成画像がカーソルC2によって選択されている。画像選択部903LにおいてカーソルC2によって選択されていることは、6枚の撮影合成画像のうちの右端の撮影合成画像が編集画面の右側において編集対象とされており、それと同じ画像を左側において編集対象として選択できないことを表す。
In the editing target
同様に、編集画面の右側の上方に画像選択部903Rが配置されており、画像選択部903Rには、画像選択部903Lに表示されている画像と同じ6枚の撮影合成画像が同じ並びで表示される。画像選択部903Rにおいては、6枚の撮影合成画像のうち、右端の撮影合成画像が編集対象としてカーソルC2によって選択されている。
Similarly, an
また、右から2枚目の撮影合成画像がカーソルC1によって選択されている。画像選択部903RにおいてカーソルC1によって選択されていることは、6枚の撮影合成画像のうちの左端の撮影合成画像が編集画面の左側において編集対象とされており、それと同じ画像を右側において編集対象として選択できないことを表す。すなわち、編集画面においては、左右の一方の画面で編集対象として選択されている画像は、他方の画面で編集対象として選択不可となる。
Further, the second photographed composite image from the right is selected by the cursor C1. What is selected by the cursor C1 in the
編集対象画像表示部901Lの下にはコンテンツパレット902Lが表示される。コンテンツパレット902Lには手書き画像を入力するときに選択されるペンツール、スタンプ画像を入力するときに選択されるスタンプツールなどの各種の編集ツールのタブが表示されており、タブを選択することによって、編集ツールを切り替えることができるようになされている。利用者は、コンテンツパレット902Lから編集ツールを選択し、編集対象画像表示部901Lに表示されている編集対象の撮影合成画像に文字や絵柄などを入力することができる。
A
編集対象画像表示部901Lの右側には、各種のボタンが表示されるボタン表示部904Lが表示される。図51の例においては、撮影合成画像の編集を終了するときに操作される終了ボタン、編集対象画像表示部901Lに入力した画像を部分的に消去するときに用いられる消しゴムボタン、編集をはじめからやり直すときに操作されるボタン、1セット前に戻るときに操作されるボタン、編集の内容を一操作後の状態に戻すときに操作されるボタン、および、編集の内容を一操作前の状態に戻すときに操作されるボタンがボタン表示部904Lに表示されている。
On the right side of the edit target
編集画面の右側には、左側に表示される編集対象画像表示部901L、コンテンツパレット902L、画像選択部903L、およびボタン表示部904Lに対応して、編集対象画像表示部901R、コンテンツパレット902R、画像選択部903R、およびボタン表示部904Rが表示される。
On the right side of the editing screen, an editing target
また、編集画面の中央には、BGMの選択に用いられるGUI等が表示される。 In the center of the editing screen, a GUI used for selecting BGM is displayed.
利用者は、タッチペン132Aまたはタッチペン132Bを用いて、図51の編集画面が表示されたタブレット内蔵モニタ131に対する操作を行い、各撮影合成画像の編集を行う。例えば、左側利用者は、タッチペン132Aを操作して、スタンプツールやペンツールなどの編集ツールを用いて、編集対象画像表示部901Lに表示されている撮影合成画像に落書きする。一方、右側利用者は、タッチペン132Bを操作して、スタンプツールやペンツールなどの編集ツールを用いて、編集対象画像表示部901Rに表示されている撮影合成画像に落書きする。
Using the
また、利用者によって、この編集画面に対する操作が行なわれると、タブレット内蔵モニタ131から入力受付制御部353に、利用者の操作に応じた情報が供給される。さらに、落書き編集処理部355は、利用者の操作に応じて、撮影合成画像に入力された落書きを合成する。
When the user performs an operation on the editing screen, information corresponding to the user's operation is supplied from the tablet built-in
これにより、各撮影合成画像に編集を施した6枚の編集済み画像が生成される。 As a result, six edited images obtained by editing each photographed composite image are generated.
そして、編集処理が終了すると、処理はステップS311に進む。 When the editing process ends, the process proceeds to step S311.
なお、以下、下カメラアップ撮影画像から生成された編集済み画像を下カメラアップ編集画像と称する。また、以下、上カメラアップ撮影画像から生成された編集済み画像を上カメラアップ編集画像と称する。さらに、以下、上カメラ全身撮影画像から生成された編集済み画像を上カメラ全身編集画像と称する。また、以下、ボーナス撮影画像から生成された編集済み画像をボーナス編集画像と称する。 Hereinafter, the edited image generated from the lower camera up photographed image is referred to as a lower camera up edited image. Hereinafter, an edited image generated from the upper camera-up captured image is referred to as an upper camera-up edited image. Further, the edited image generated from the upper camera whole body captured image is hereinafter referred to as an upper camera whole body edited image. Hereinafter, the edited image generated from the bonus photographed image is referred to as a bonus edited image.
なお、ペナルティ撮影が行われた場合、上述したように、同じ上カメラ全身画像に対して異なる編集入力を行うことができるため、合計2枚の上カメラ全身編集画像が生成される。これらの上カメラ全身編集画像を個々に区別する必要がある場合、5枚目の編集済み画像となる上カメラ全身編集画像を上カメラ全身編集画像Aと称し、6枚目の編集済み画像となる上カメラ全身編集画像を上カメラ全身編集画像Bと称する。 When penalty shooting is performed, as described above, since different editing inputs can be performed on the same upper camera whole body image, a total of two upper camera whole body edited images are generated. When it is necessary to individually distinguish these upper camera whole body edited images, the upper camera whole body edited image that becomes the fifth edited image is referred to as the upper camera whole body edited image A, and becomes the sixth edited image. The upper camera whole body edited image is referred to as an upper camera whole body edited image B.
ステップS311において、編集処理部302は、分割パターンの選択を受け付ける。
具体的には、編集画面表示制御部354は、編集部209を制御し、複数の分割パターンをタブレット内蔵モニタ131に表示させ、利用者にいずれか1つを選択させる。ここで、分割パターンとは、編集済み画像をシール紙に印刷するレイアウトを示すものである。
In step S <b> 311, the
Specifically, the editing screen
図52および図53は、分割パターンの種類の例を示している。図52は、通常撮影が行われた場合の分割パターンの例を示しており、図53は、ペナルティ撮影が行われた場合の分割パターンの例を示している。 52 and 53 show examples of types of division patterns. FIG. 52 shows an example of a division pattern when normal shooting is performed, and FIG. 53 shows an example of a division pattern when penalty shooting is performed.
通常撮影が行われた場合、利用者は、例えば、図52のパターン1A乃至パターン3Aのいずれかの分割パターンを選択することができる。 When normal shooting is performed, the user can select, for example, one of the divided patterns of patterns 1A to 3A in FIG.
パターン1Aでは、6枚の編集済み画像931A−1乃至931A−6が、縦3行×横2列に並べて配置されている。なお、編集済み画像931A−1乃至931A−3が下カメラアップ編集画像に対応し、編集済み画像931A−4が上カメラアップ編集画像に対応し、編集済み画像931A−5が上カメラ全身編集画像に対応し、編集済み画像931A−6がボーナス編集画像に対応する。
In the pattern 1A, six edited
パターン2Aでは、6枚の編集済み画像941A−1乃至941A−6が、パターン1Aよりも小さなサイズで、縦3行×横2列に並べて配置されている。なお、編集済み画像941A−1乃至941A−3が下カメラアップ編集画像に対応し、編集済み画像941A−4が上カメラアップ編集画像に対応し、編集済み画像941A−5が上カメラ全身編集画像に対応し、編集済み画像941A−6がボーナス編集画像に対応する。さらに、パターン2Aでは、編集済み画像941A−1乃至941A−6の上に、6枚の編集済み画像の中から選択された1枚の編集済み画像942Aが配置されている。編集済み画像942Aのサイズは、編集済み画像941A−1乃至941A−6より大きなサイズに設定されている。
In the pattern 2A, six edited
パターン3Aでは、6枚の編集済み画像951A−1乃至951A−6が、パターン1Aよりも小さなサイズで、縦3行×横2列に並べて配置されている。さらにその下に、編集済み画像952A−1乃至952A−6が、編集済み画像951A−1乃至951A−6よりも小さなサイズで、縦2行×横3列に並べて配置されている。なお、編集済み画像951A−1乃至951A−3および編集済み画像952A−1乃至952A−3が下カメラアップ編集画像に対応し、編集済み画像951A−4および編集済み画像952A−4が上カメラアップ編集画像に対応し、編集済み画像951A−5および編集済み画像952A−5が上カメラ全身編集画像に対応し、編集済み画像951A−6および編集済み画像952A−6がボーナス編集画像に対応する。
In the pattern 3A, six edited
なお、各分割パターンにおいて、例えば、被写体のアップが写っている下カメラアップ編集画像および上カメラアップ編集画像の縦横比は、1.2:1に設定され、被写体の全身が写っている上カメラ全身編集画像およびボーナス編集画像の縦横比は、例えば、4:3に設定される。ただし、各画像の縦横比は、その一例であり、例えば、全ての画像の縦横比を同じ値に設定するようにしてもよい。 In each division pattern, for example, the aspect ratio of the lower camera up edit image and the upper camera up edit image in which the subject is up is set to 1.2: 1, and the upper camera in which the entire body of the subject is shown The aspect ratio of the whole body edited image and the bonus edited image is set to 4: 3, for example. However, the aspect ratio of each image is an example, and for example, the aspect ratio of all images may be set to the same value.
一方、ペナルティ撮影が行われた場合、利用者は、例えば、図53のパターン1B乃至パターン3Bのいずれかの分割パターンを選択することができる。 On the other hand, when penalty shooting is performed, the user can select, for example, one of the divided patterns of patterns 1B to 3B in FIG.
パターン1Bでは、図52のパターン1Aと基本的に同じレイアウトで編集済み画像が配置されている。ただし、編集済み画像931B−1乃至931B−5は、図52のパターン1Aにおける編集済み画像931A−1乃至931A−5と同じであるが、編集済み画像931A−6がボーナス編集画像であるのに対し、編集済み画像931B−6は上カメラ全身編集画像Bとなる。
In the pattern 1B, the edited image is arranged in basically the same layout as the pattern 1A in FIG. However, the edited
パターン2Bでは、図52のパターン2Aと基本的に同じレイアウトで編集済み画像が配置されている。ただし、パターン1Bと同様に、編集済み画像941B−6は、パターン2Aの編集済み画像941A−6と異なり、上カメラ全身編集画像Bとなる。
In the pattern 2B, the edited image is arranged in basically the same layout as the pattern 2A in FIG. However, like the pattern 1B, the edited
パターン3Bでは、図52のパターン3Aと基本的に同じレイアウトで編集済み画像が配置されている。ただし、パターン1Bと同様に、編集済み画像951B−6および編集済み画像952B−6は、パターン3Aの編集済み画像951A−6および編集済み画像952A−6と異なり、上カメラ全身編集画像Bとなる。
In the pattern 3B, edited images are arranged with basically the same layout as the pattern 3A in FIG. However, like the pattern 1B, the edited
すなわち、パターン1B乃至パターン3Bでは、同じ上カメラ全身撮影画像から生成された編集済み画像が、1枚のシール紙に複数配置される。 That is, in the patterns 1B to 3B, a plurality of edited images generated from the same upper camera whole body captured image are arranged on one sticker sheet.
このような分割パターンを選択するための選択画面がタブレット内蔵モニタ131に表示されると、利用者はタブレット内蔵モニタ131に対する操作を行い、分割パターンを選択する。また、利用者によって、選択操作が行なわれると、タブレット内蔵モニタ131から編集処理部302に、利用者の操作に応じた情報が供給される。
When a selection screen for selecting such a division pattern is displayed on the tablet built-in
そして、選択処理が終了すると、編集処理は終了され、処理は図18のステップS4に戻る。 When the selection process ends, the editing process ends, and the process returns to step S4 in FIG.
そして、上述した図18のステップS6の処理において、利用者により選択された分割パターンに基づいて、各編集済み画像がシール紙に印刷される。 Then, in the process of step S6 in FIG. 18 described above, each edited image is printed on the sticker sheet based on the division pattern selected by the user.
上述したように、この編集処理においては、編集対象画像の選択を行うことなく、クロス組合せ画像を除く全ての標準撮影画像が、編集対象となり、最終的にシール紙に印刷される。従って、編集処理に要する時間を短縮することができる。また、常に写真シール作成装置1で用意した最適なレイアウトで編集済み画像がシール紙に印刷されるため、見栄えがよいシール紙を提供することができる。さらに、利用者は、後で編集対象画像を選択することができないため、より良い撮影画像が得られるように1回1回の撮影に集中するようになり、各画像の完成度が向上する。その結果、シール紙の出来上がりに対する利用者の満足度が向上する。
As described above, in this editing process, all standard captured images except for the cross combination image are to be edited and are finally printed on sticker paper without selecting the image to be edited. Therefore, the time required for the editing process can be shortened. Further, since the edited image is always printed on the sticker paper with the optimum layout prepared by the photo
また、通常撮影とペナルティ撮影とでは、得られる撮影画像(標準撮影画像)の枚数が異なるが、上述したように、同じ撮影画像に対して複数の異なる編集入力を可能にすることで、編集入力が可能な撮影画像の合計数は同じになる。そして、ペナルティ撮影時に同じ撮影画像(から生成された編集済み画像)をシール紙に複数配置することにより、通常撮影時とペナルティ撮影時で1枚のシール紙に印刷される撮影画像の枚数は同じになる。
従って、通常撮影時とペネルティ撮影時とで、シール紙のレイアウトを共通にすることができ、ペナルティ撮影時にも、通常撮影時と同様に、利用者の満足度が高いシール紙を提供することができる。
In addition, the number of captured images (standard captured images) that can be obtained differs between normal shooting and penalty shooting. However, as described above, a plurality of different editing inputs can be performed on the same captured image, thereby enabling editing input. The total number of images that can be captured is the same. In addition, by arranging a plurality of the same captured images (edited images generated from the same) at the time of penalty shooting on the sticker paper, the number of shot images printed on one sticker paper at the time of normal shooting and the time of penalty shooting is the same. become.
Therefore, it is possible to make the layout of the sticker paper common during normal photography and during penalty photography, and it is possible to provide sticker paper with high user satisfaction during penalty photography as well as during normal photography. it can.
さらに、ペナルティ撮影が行われた場合、同じ撮影画像に対して異なる編集入力を行うことができ、その結果、同じ被写体に対して編集効果が異なる2枚の画像を得ることができるという効果が得られる。 Furthermore, when penalty shooting is performed, different editing inputs can be performed on the same captured image, and as a result, two images with different editing effects can be obtained on the same subject. It is done.
以下、上述した本発明の実施の形態の変形例について説明する。 Hereinafter, modifications of the above-described embodiment of the present invention will be described.
[クロス組合せ撮影処理に関する変形例]
以上の説明では、全身画像と顔付近のアップ画像を組み合わせたクロス組合せ画像を生成する例を示したが、画像の組合せは、この例に限定されるものではない。
[Variation related to cross combination shooting processing]
In the above description, an example in which a cross combination image is generated by combining a whole-body image and an up-image near the face has been shown, but the combination of images is not limited to this example.
例えば、同じ利用者の2以上の全身画像を組み合わせるようにしてもよい。この場合、例えば、前と後ろや前と横など異なる方向から同じ利用者を撮影した複数の全身画像を、1枚のクロス組合せ画像に合成することができる。 For example, two or more whole body images of the same user may be combined. In this case, for example, a plurality of whole body images obtained by photographing the same user from different directions such as front and back and front and side can be combined into one cross combination image.
また、例えば、同じ利用者の2以上の顔のアップ画像を組み合わせるようにしてもよい。この場合、例えば、同じ利用者の表情が異なる複数のアップ画像を、1枚のクロス組合せ画像に合成することができる。 Further, for example, two or more face up images of the same user may be combined. In this case, for example, a plurality of up images having different facial expressions of the same user can be combined into one cross combination image.
さらに、アップ画像の対象は、必ずしも顔に限定されるものではなく、例えば、利用者のファッションのコーディネートのポイント等の顔と異なる部分をアップ画像の対象に設定するようにしてもよい。また、この場合、例えば、利用者がアップにしたい部分を指定できるようにしてもよい。そして、このような顔以外の部分のアップ画像を使用してクロス組合せ画像を生成するようにしてもよい。 Further, the target of the up image is not necessarily limited to the face, and for example, a part different from the face, such as a user's fashion coordination point, may be set as the target of the up image. In this case, for example, the user may be allowed to designate a part that the user wants to up. And you may make it produce | generate a cross combination image using the up image of such parts other than a face.
さらに、3枚以上の撮影画像からそれぞれ同じ利用者の画像を抽出し、組合せることにより、クロス組合せ画像を生成するようにしてもよい。すなわち、この場合、1枚のクロス組合せ画像において、同じ利用者の画像が3種類以上組み合わせられるようになる。また、例えば、3種類以上の利用者の画像の中から、クロス組合せ画像に用いる画像を選択できるようにしてもよい。 Furthermore, a cross combination image may be generated by extracting and combining images of the same user from three or more photographed images. That is, in this case, three or more types of images of the same user are combined in one cross combination image. Further, for example, an image used for a cross combination image may be selected from three or more types of user images.
また、3人以上の利用者を複数回撮影して、利用者毎にそれぞれ個別にクロス組合せ画像を生成できるようにしてもよい。例えば、3人の利用者A乃至Cを複数回撮影し、利用者毎に3枚のクロス組合せ画像を生成できるようにしてもよい。この場合、図37や図40のライブビュー表示画面において、各利用者をそれぞれ異なるライブビュー表示領域に表示するようにするのが望ましい。 Alternatively, three or more users may be photographed a plurality of times, and a cross combination image may be generated individually for each user. For example, three users A to C may be photographed a plurality of times, and three cross combination images may be generated for each user. In this case, it is desirable to display each user in a different live view display area on the live view display screen of FIG. 37 or 40.
さらに、利用者が3人以上の場合に、1つのクロス組合せ画像において複数の利用者の画像を組み合わせるようにしてもよい。例えば、3人の利用者A乃至Cを複数回撮影し、1つのクロス組合せ画像において、利用者Aと利用者Bの全身画像やアップ画像を組み合わせ、もう1つのクロス組合せ画像において、利用者Cの全身画像やアップ画像を組み合わせるようにしてもよい。この場合、図37や図40のライブビュー表示画面において、クロス組合せ画像と同じ組み合わせで各利用者をライブビュー表示領域に表示するようにしてもよいし、各利用者をそれぞれ異なるライブビュー表示領域に表示するようにしてもよい。例えば、先の利用者A乃至Cの例では、前者の場合、利用者Aと利用者Bが同じライブビュー表示領域に表示され、利用者Cがそれとは異なるライブビュー表示領域に表示され、後者の場合、利用者A乃至Cがそれぞれ異なるライブビュー表示領域に表示される。 Furthermore, when there are three or more users, a plurality of user images may be combined in one cross combination image. For example, three users A to C are photographed a plurality of times, and in one cross combination image, the whole body images and up images of user A and user B are combined, and in the other cross combination image, user C You may make it combine a whole body image and an up image. In this case, in the live view display screens of FIGS. 37 and 40, each user may be displayed in the live view display area in the same combination as the cross combination image, or each user may be displayed in a different live view display area. May be displayed. For example, in the example of the previous users A to C, in the former case, the user A and the user B are displayed in the same live view display area, and the user C is displayed in a different live view display area. In this case, users A to C are displayed in different live view display areas.
また、以上の説明では、クロス組合せ画像を携帯端末への送信専用の画像とする例を示したが、シール紙に印刷できるようにしてもよい。 In the above description, an example in which the cross combination image is an image dedicated to transmission to the mobile terminal has been described. However, the cross combination image may be printed on a sticker sheet.
さらに、クロス組合せ画像に合成する前の各利用者の全身画像またはアップ画像を個別に携帯端末に送信したり、サーバにアップロードしたりすることができるようにしてもよい。これにより、利用者は、自分の好きなパターンで各画像を組み合わせることが可能になる。また、サーバにアップロードするようにした場合、利用者は、複数回ゲームを行ったとき、同じゲームで得られた画像だけでなく、異なるゲームで得られた画像も組み合わせることが可能になる。 Further, the whole body image or the up image of each user before being combined with the cross combination image may be individually transmitted to the portable terminal or uploaded to the server. Thereby, the user can combine the images with his / her favorite pattern. Further, when uploading to the server, the user can combine not only images obtained in the same game but also images obtained in different games when the game is played a plurality of times.
さらに、以上の説明では、クロス組合せ画像を編集対象外にしたが、クロス組合せ画像に対しても編集入力を行えるようにしてもよい。また、例えば、クロス組合せ画像内の各画像のレイアウトを利用者が変更できるようにしてもよい。例えば、図41の例の場合、全身画像とアップ画像の左右の位置を入れ替えたり、アップ画像の上下の位置を移動させたりできるようにしてもよい。 Further, in the above description, the cross combination image is excluded from editing, but editing input may be performed on the cross combination image. Further, for example, the user may be able to change the layout of each image in the cross combination image. For example, in the example of FIG. 41, the left and right positions of the whole body image and the up image may be interchanged, or the up and down positions of the up image may be moved.
[ペナルティ撮影に関する変形例]
以上の説明では、ペナルティ撮影が行われた場合に、異なる編集入力が可能な撮影画像(重複して編集することが可能な撮影画像)を上カメラ全身撮影画像に固定する例を示したが、利用者が選択できるようにしてもよい。この選択は、例えば、5枚目の撮影画像の撮影時または撮影後に、ボーナス画像の撮影が行われないことが確定したときに行うようにすることが考えられる。
[Variation related to penalty shooting]
In the above description, when penalty shooting is performed, an example of fixing a captured image (captured image that can be edited in duplicate) that can be edited and input to the upper camera whole body captured image is shown. The user may be allowed to select. For example, this selection may be performed when it is determined that a bonus image is not shot at the time of shooting the fifth shot image or after shooting.
また、通常撮影とペナルティ撮影との撮影枚数の差を2枚以上に設定するようにしてもよい。この場合、例えば、異なる編集入力が可能な撮影画像の種類を増やすようにしてもよいし、或いは、同じ撮影画像に対して異なる編集入力ができる数を増やすようにしてもよい。例えば、通常撮影の撮影枚数を6枚とし、ペナルティ撮影の撮影枚数を4枚とした場合、前者の場合、例えば、下カメラアップ撮影画像、上カメラアップ撮影画像、および、上カメラ全身撮影画像のうちの2種類について、それぞれ2枚ずつ編集して、印刷するようにすることが可能である。一方、後者の場合、例えば、同じ撮影画像を3枚分編集して、印刷するようにすることが可能である。 Further, the difference in the number of shots between normal shooting and penalty shooting may be set to two or more. In this case, for example, the types of photographed images that can be input with different edits may be increased, or the number of different edit inputs for the same captured image may be increased. For example, when the number of shots for normal shooting is six and the number of shots for penalty shooting is four, in the former case, for example, a lower camera up shot image, an upper camera up shot image, and an upper camera whole body shot image It is possible to edit and print two of each of the two types. On the other hand, in the latter case, for example, the same photographed image can be edited for three sheets and printed.
さらに、例えば、ペナルティ撮影時に重複して編集することをやめて、通常撮影時とペナルティ撮影時で、それぞれの撮影枚数に応じて適切なレイアウトの分割パターンを使い分けるようにしてもよい。 Further, for example, it is possible to stop editing at the time of penalty shooting and to use different division patterns with appropriate layouts according to the number of shots for normal shooting and penalty shooting.
また、ペナルティ撮影が行われ、同じ撮影画像に対して複数の異なる編集入力を行う場合、その一部を印刷用の画像として編集し、シール紙に印刷し、残りを携帯端末への送信用の画像として編集し、携帯端末に送信するようにしてもよい。 In addition, when penalty shooting is performed and a plurality of different editing inputs are performed on the same captured image, a part of the edited image is edited as a print image, printed on sticker paper, and the rest for transmission to a mobile terminal. You may make it edit as an image and transmit to a portable terminal.
[その他の変形例]
以上の説明では、複数の撮影画像から、各利用者の画像を抽出し、同じ利用者の画像のみを組み合わせて複数の合成画像(クロス組合せ画像)を生成し、利用者に提供する例を示したが、例えば、1枚の撮影画像から各利用者の画像を抽出し、抽出した画像と所定の合成用画像を組み合わせた複数の合成画像を生成し、利用者に提供するようにすることも可能である。
[Other variations]
In the above description, an example is shown in which images of each user are extracted from a plurality of captured images, a plurality of combined images (cross combination images) are generated by combining only the images of the same user, and provided to the user. However, for example, an image of each user may be extracted from one photographed image, and a plurality of composite images may be generated by combining the extracted images and a predetermined composite image and provided to the user. Is possible.
例えば、撮影時には、図54に示されるように、タッチパネルモニタ93の中央にライブビュー表示画面1001を表示するとともに、左右に所定の合成用画像1002Lおよび合成用画像1002Rを表示する。そして、最終的に、中央のライブビュー表示画面1001に対応する撮影画像から利用者1003Lおよび利用者1003Rの画像を抽出し、図55に示されるように、利用者1003Lの画像と合成用画像1002Lを組み合わせた画像1011Lと、利用者1003Rの画像と合成用画像1002Rを組み合わせた画像1011Rを利用者に提供するようにしてもよい。
For example, at the time of shooting, as shown in FIG. 54, a live
ところで、上述した一連の処理は、ハードウェアにより実行させることもできるし、ソフトウェアにより実行させることもできる。上述した一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、ネットワークや記録媒体からインストールされる。 By the way, the above-described series of processes can be executed by hardware or can be executed by software. When the above-described series of processing is executed by software, a program constituting the software is installed from a network or a recording medium.
この記録媒体は、例えば、図14に示されるように、装置本体とは別に、写真シール作成装置1の管理者にプログラムを配信するために配布される、プログラムが記録されている磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROMおよびDVDを含む)、光磁気ディスク(MDを含む)、もしくは半導体メモリなどよりなるリムーバブルメディア205により構成されるだけでなく、装置本体に予め組み込まれた状態で管理者に配信される、プログラムが記録されているROM206や、記憶部202に含まれるハードディスクなどで構成される。
For example, as shown in FIG. 14, the recording medium is distributed to distribute the program to the administrator of the photo
なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。 In the present specification, the step of describing the program recorded on the recording medium is not limited to the processing performed in chronological order according to the described order, but is not necessarily performed in chronological order. It also includes processes that are executed individually.
1 写真シール作成装置
11 撮影ユニット
12 編集部
21 撮影部
81 撮影・表示ユニット
91 カメラ
92 カメラストロボ
93 タッチパネルモニタ
131 タブレット内蔵モニタ
132A,132B タッチペン
201 制御部
208 撮影部
209 編集部
210 事後接客部
301 撮影処理部
302 編集処理部
303 印刷処理部
304 事後接客処理部
311 進行制御部
312 撮影パラメータ設定部
313 ライブビュー表示制御部
314 撮影画像取得部
315 照明制御部
316 カメラ駆動制御部
317 クロマキー処理部
318 コーナーポイント検知部
319 コーナー画像生成部
320 合成処理部
321 顔認識部
351 進行制御部
352 編集準備処理部
353 入力受付制御部
354 編集画面表示制御部
355 落書き編集処理部
DESCRIPTION OF
Claims (6)
複数の利用者を含む画像を取り込み、前記複数の利用者を撮影する取り込み手段と、
前記取り込み手段により取り込まれた動画像を1つの領域内にリアルタイムに表示させるとともに、前記動画像の周囲に複数の合成用画像を表示させるように表示部の表示を制御するライブビュー表示制御手段と、
前記取り込み手段により撮影された撮影画像から生成した複数の画像に各前記合成用画像を組み合わせた複数の合成画像を生成する合成手段と
を備え、
前記合成手段は、前記動画像内の左側の利用者の画像と前記動画像の左側に表示されている前記合成用画像を合成することにより第1の合成画像を生成し、前記動画像内の右側の利用者の画像と前記動画像の右側に表示されている前記合成用画像を合成することにより第2の合成画像を生成する
写真シール作成装置。 A photo sticker creation device that takes a picture of a user in a shooting space and prints an image obtained by processing the obtained shot image on a predetermined sticker sheet or transmits it to a mobile terminal connected via a communication network. And
Capture means for capturing an image including a plurality of users and photographing the plurality of users;
Live view display control means for controlling the display of the display unit so that the moving image captured by the capturing means is displayed in one area in real time and a plurality of synthesis images are displayed around the moving image. ,
Combining means for generating a plurality of synthesized images obtained by combining each of the images for synthesis with a plurality of images generated from the photographed images photographed by the capturing means ,
The synthesizing unit generates a first synthesized image by synthesizing the left user image in the moving image and the synthesizing image displayed on the left side of the moving image, and generates a first synthesized image in the moving image. A photographic sticker creating apparatus for generating a second composite image by combining a right user image and the composite image displayed on the right side of the moving image .
請求項1に記載の写真シール作成装置。 The said synthetic | combination means produces | generates several said synthesized image by extracting each said user's image from the said picked-up image, and combining each said image for a synthesis | combination with each said user's image. Photo sticker creation device.
請求項1または2に記載の写真シール作成装置。 The live view display control means, photo described in conjunction with displaying the moving image in real time the center of the display screen of the display unit, to claim 1 or 2, wherein the synthetic image to the left and right Ru to display of the moving image Seal making device.
前記シール紙に画像を印刷する印刷手段と、
前記携帯端末へ画像を送信する送信手段と
をさらに備える請求項1乃至3に記載の写真シール作成装置。 Editing processing means for receiving an editing input for the captured image;
Printing means for printing an image on the sticker paper;
The photo sticker creating apparatus according to claim 1, further comprising: a transmitting unit that transmits an image to the portable terminal.
複数の利用者を含む画像を取り込み、前記複数の利用者を撮影する取り込みステップと、
前記取り込みステップの処理により取り込まれた動画像を1つの領域内にリアルタイムに表示させるとともに、前記動画像の周囲に複数の合成用画像を表示させるように表示部の表示を制御するライブビュー表示制御ステップと、
前記取り込みステップの処理により撮影された撮影画像から生成した複数の画像に各前記合成用画像を組み合わせた複数の合成画像を生成する合成ステップと
を含み、
前記合成ステップにおいて、前記動画像内の左側の利用者の画像と前記動画像の左側に表示されている前記合成用画像を合成することにより第1の合成画像を生成し、前記動画像内の右側の利用者の画像と前記動画像の右側に表示されている前記合成用画像を合成することにより第2の合成画像を生成する
画像処理方法。 An image of a photo sticker creation device that takes a picture of a user in a shooting space and prints an image obtained by processing the obtained shot image on a predetermined sticker sheet or transmits it to a mobile terminal connected via a communication network A processing method,
A capturing step of capturing an image including a plurality of users and photographing the plurality of users;
Live view display control for controlling the display of the display unit so that the moving image captured by the processing of the capturing step is displayed in real time in one area and a plurality of compositing images are displayed around the moving image. Steps,
Look including a combining step of generating a plurality of combined images by combining each of the combined images to the plurality of images generated from images captured by the process of the incorporation step,
In the synthesizing step, a first synthesized image is generated by synthesizing the left user image in the moving image and the synthesizing image displayed on the left side of the moving image. An image processing method for generating a second synthesized image by synthesizing a right user image and the synthesizing image displayed on the right side of the moving image .
複数の利用者を含む画像を取り込み、前記複数の利用者を撮影する取り込みステップと、
前記取り込みステップの処理により取り込まれた動画像を1つの領域内にリアルタイムに表示させるとともに、前記動画像の周囲に複数の合成用画像を表示させるように表示部の表示を制御するライブビュー表示制御ステップと、
前記取り込みステップの処理により撮影された撮影画像から生成した複数の画像に各前記合成用画像を組み合わせた複数の合成画像を生成する合成ステップと
を含み、
前記合成ステップにおいて、前記動画像内の左側の利用者の画像と前記動画像の左側に表示されている前記合成用画像を合成することにより第1の合成画像を生成し、前記動画像内の右側の利用者の画像と前記動画像の右側に表示されている前記合成用画像を合成することにより第2の合成画像を生成する
処理をコンピュータに実行させるためのプログラム。 Causes a computer to execute processing for photographing a user in a photographing space and printing an image obtained by processing the obtained photographed image on a predetermined sticker sheet or transmitting it to a portable terminal connected via a communication network A program for
A capturing step of capturing an image including a plurality of users and photographing the plurality of users;
Live view display control for controlling the display of the display unit so that the moving image captured by the processing of the capturing step is displayed in real time in one area and a plurality of compositing images are displayed around the moving image. Steps,
Look including a combining step of generating a plurality of combined images by combining each of the combined images to the plurality of images generated from images captured by the process of the incorporation step,
In the synthesizing step, a first synthesized image is generated by synthesizing the left user image in the moving image and the synthesizing image displayed on the left side of the moving image. A program for causing a computer to execute a process of generating a second synthesized image by synthesizing the right user image and the synthesis image displayed on the right side of the moving image .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013236789A JP5904192B2 (en) | 2013-11-15 | 2013-11-15 | Photo sticker creation apparatus, image processing method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013236789A JP5904192B2 (en) | 2013-11-15 | 2013-11-15 | Photo sticker creation apparatus, image processing method, and program |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012098524A Division JP5472365B2 (en) | 2012-04-24 | 2012-04-24 | Photo sticker creation apparatus, image processing method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014075812A JP2014075812A (en) | 2014-04-24 |
JP5904192B2 true JP5904192B2 (en) | 2016-04-13 |
Family
ID=50749630
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013236789A Active JP5904192B2 (en) | 2013-11-15 | 2013-11-15 | Photo sticker creation apparatus, image processing method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5904192B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6424587B2 (en) * | 2014-04-25 | 2018-11-21 | フリュー株式会社 | Photo sticker creation apparatus and photo sticker creation method |
JP5871087B1 (en) * | 2015-04-24 | 2016-03-01 | フリュー株式会社 | Photo sticker making apparatus and method |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004193967A (en) * | 2002-12-11 | 2004-07-08 | Make Softwear:Kk | Photoprint provider |
JP2005079662A (en) * | 2003-08-28 | 2005-03-24 | Make Softwear:Kk | Image editing method in photograph vending machine, photograph vending machine, and image editing program |
JP5239318B2 (en) * | 2007-09-12 | 2013-07-17 | フリュー株式会社 | Photo sticker making method and photo sticker making device |
JP5168136B2 (en) * | 2008-12-26 | 2013-03-21 | フリュー株式会社 | Photo sticker creation apparatus, photo sticker creation method, and program |
JP5637346B2 (en) * | 2009-04-24 | 2014-12-10 | フリュー株式会社 | Photo sticker creation apparatus, photo sticker creation method, and program |
JP4919131B1 (en) * | 2011-06-24 | 2012-04-18 | フリュー株式会社 | Image providing apparatus and method, and program |
-
2013
- 2013-11-15 JP JP2013236789A patent/JP5904192B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2014075812A (en) | 2014-04-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5201430B1 (en) | Photo sticker creation apparatus and method, and program | |
JP5418708B2 (en) | Photo sealing machine, photo sealing machine processing method and program | |
JP6395016B2 (en) | Photo sticker creation device | |
JP6458460B2 (en) | Image generating apparatus and method, and program | |
JP5472365B2 (en) | Photo sticker creation apparatus, image processing method, and program | |
JP5630675B2 (en) | Photo sealing machine, photo sealing machine processing method and program | |
JP2014211642A (en) | Photographing and editing device, processing method for photographing and editing device, and program | |
JP2013229848A (en) | Photograph seal machine, processing method of the same and program | |
JP5904192B2 (en) | Photo sticker creation apparatus, image processing method, and program | |
JP5120508B1 (en) | Photo sticker creation apparatus and method, and program | |
JP6179655B2 (en) | Photography game machine, control method, and program | |
JP6241689B2 (en) | Image processing apparatus, image processing method, and program | |
JP6160470B2 (en) | Photo sealing machine, photo sealing machine processing method and program | |
JP5979463B1 (en) | Photo sticker creation apparatus, information processing method, and program | |
JP5790683B2 (en) | Photo sticker creating apparatus, processing method of photo sticker creating apparatus, and program | |
JP5445618B2 (en) | Photo sticker creation apparatus and method, and program | |
JP6687855B2 (en) | Photography amusement machine, control method, and program | |
JP6146268B2 (en) | Photo sticker creation apparatus, image processing method, and program | |
JP5881183B2 (en) | Photo sealing machine, photo sealing machine processing method and program | |
JP6436368B2 (en) | Photo sticker, control method and program | |
JP5720662B2 (en) | Image processing apparatus, image processing method, and program | |
JP6057005B2 (en) | Photo sealing machine, photo sealing machine processing method and program | |
JP6842038B2 (en) | Photographing game console and image processing method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150408 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20151124 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20151126 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160122 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160216 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160229 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5904192 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |