JP2004048275A - Photograph seal vending machine and method therefor printing medium, and printing medium unit - Google Patents

Photograph seal vending machine and method therefor printing medium, and printing medium unit Download PDF

Info

Publication number
JP2004048275A
JP2004048275A JP2002201557A JP2002201557A JP2004048275A JP 2004048275 A JP2004048275 A JP 2004048275A JP 2002201557 A JP2002201557 A JP 2002201557A JP 2002201557 A JP2002201557 A JP 2002201557A JP 2004048275 A JP2004048275 A JP 2004048275A
Authority
JP
Japan
Prior art keywords
image
editing
displayed
unit
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2002201557A
Other languages
Japanese (ja)
Other versions
JP4126534B2 (en
Inventor
Masamichi Akima
秋間 正道
Naohito Shiki
志岐 尚仁
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Omron Tateisi Electronics Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp, Omron Tateisi Electronics Co filed Critical Omron Corp
Priority to JP2002201557A priority Critical patent/JP4126534B2/en
Publication of JP2004048275A publication Critical patent/JP2004048275A/en
Application granted granted Critical
Publication of JP4126534B2 publication Critical patent/JP4126534B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Cameras Adapted For Combination With Other Photographic Or Optical Apparatuses (AREA)
  • Processing Or Creating Images (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a photograph seal vending machine and a method in which operability is improved at the time of editing an image, and to provide a printing medium and a printing medium unit. <P>SOLUTION: A thumbnail 305-1 is selected, and a composite image 321 is displayed on an image display area 301. A region of the image 321 which cannot be edited is displayed in monochrome (the shaded region is displayed in monochrome). That means, in the composite image 321, a foreground image and an object are displayed in monochrome, and a background image is displayed in color. A user can edit an unshaded region, i.e. the background image with a touch pen. When a thumbnail 305-3 is selected, a composite image in which the background image and the object are displayed in monochrome and the foreground image is displayed in color is displayed on the region 301. The user can edit the whole of the region 301 with the touch pen. <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【発明の属する技術分野】
本発明は、写真シール自動販売機および方法、印刷媒体、並びに印刷媒体ユニットに関し、特に、画像編集時の操作性を改善した写真シール自動販売機および方法、印刷媒体、並びに印刷媒体ユニットに関する。
【0002】
【従来の技術】
従来、ユーザの画像を撮影し、これを予め用意されたフレーム画像と合成してシール紙などに印刷して提供する写真シール自動販売機(例えば、プリントクラブ(商標))が知られている。そして、この写真シール自動販売機の中には、ユーザが、撮影した画像上に付属のペン(以下、タッチペンと称する)で任意の文字や図形などを書き込む(編集する)ことができるようになされているものも存在する。
【0003】
ユーザは、このような写真シール自動販売機でゲームを行う場合、まず、代金を支払い、次に自らを撮影し、次に撮影した画像に落書き(編集)を施し、最後に落書きされた画像が印刷されたシール紙を受け取る。
【0004】
写真シール自動販売機は、編集処理を行う際、色、太さ、および模様等が異なる複数のペン(ブラシ)をディスプレイに表示して、これらの中から、ユーザに所望するペン(ブラシ)を選択させる。そして、ディスプレイに表示した撮影画像上に、タッチペンによる落書きの入力を受け付ける。写真シール自動販売機は、受け付けた入力の軌跡に従って、ユーザにより選択されたペン(ブラシ)に対応する線を撮影画像上に描画する。
【0005】
また、写真シール自動販売機は、編集処理を行う際、色、形、模様等が異なる複数のスタンプをディスプレイに表示して、これらの中から、ユーザに所望するスタンプを選択させる。そして、ディスプレイに表示した撮影画像上に、タッチペンによるスタンプの貼り付け位置の入力を受け付ける。写真シール自動販売機は、受け付けた入力位置に従って、ユーザにより選択されたスタンプを撮影画像上に描画する。さらに、タッチペンの軌跡上に、所定の間隔で異なるスタンプを描画する機能(コロコロスタンプ)も一般的である。
【0006】
また、写真シール自動販売機は、ディスプレイに、落書き消去用のボタンを表示しており、ユーザが描画された線やスタンプが気に入らない場合、落書き消去用のボタンにタッチペンでタッチした後、消去したい部分の落書きに触れることにより、消しゴムで絵を消すような感覚で、描画された落書きを消去することができる。
【0007】
以上のような編集操作において、ユーザが、被写体(撮影画像のうち、ユーザが位置する領域)の近傍に落書きを入力したいが、被写体の上には落書きをしたくないという場合がある。このような場合、ユーザは、被写体の上に落書きを入力しないように、細心の注意を払って、タッチペンを操作しなくてはならない。しかし、それにもかかわらず、誤って、被写体の上に落書きを入力してしまうことがある。
【0008】
このような問題を解決するために、写真シール自動販売機の中には、ユーザからの所定の操作により、被写体の上に入力された落書きを無効な入力にすることができるようになっているものが存在する。
【0009】
この機能を実現するために、写真シール自動販売機は、編集処理に際して、3つのレイヤ(層状)の画像を管理する。すなわち、写真シール自動販売機は、撮影画像、被写体の背後に入力された落書きによる画像(以下、背景画像と称する)、および被写体の前に入力された落書きによる画像(以下、前景画像と称する)を、レイヤ構造で管理している。写真シール自動販売機は、これら3つの画像を、上から順番に前景画像、撮影画像、背景画像の順番で重ねた合成画像をディスプレイに表示する。
【0010】
ユーザは、背景画像に落書きしたい場合(すなわち、被写体を落書きで塗りつぶしたくない場合)、背景画像を指定した後、ディスプレイに表示された撮影画像上に落書きを入力する。すると、入力された落書きは、被写体が表示されている領域には反映されず、それ以外の領域には落書きが反映される(落書きに対応する線やスタンプが描画される)。また、背景画像に描画された落書きを消去したい場合、ユーザは、背景画像を指定し、落書き消去用のボタンにタッチした後、背景画像に描画された落書きを消去することができる。
【0011】
また、ユーザは、前景画像に落書きしたい場合(すなわち、被写体の上にも、線やスタンプを描画させたい場合)、前景画像を指定した後、ディスプレイに表示された撮影画像上に落書きを入力する。すると、入力された落書きは、被写体が表示されている領域と、それ以外の領域を区別せず、全ての領域に反映され、落書きに対応する線やスタンプが描画される。また、前景画像に描画された落書きを消去したい場合、ユーザは、前景画像を指定し、落書き消去用のボタンにタッチした後、前景画像に描画された落書きを消去することができる。
【0012】
【発明が解決しようとする課題】
しかしながら、従来、写真シール自動販売機のディスプレイには、前景画像、撮影画像、および背景画像を区別せずに合成した合成画像のみが表示されていたため、ユーザは、描画された落書きが、背景画像に入力された落書きなのか、前景画像に入力された落書きなのかを判別することが困難であるという課題があった。
【0013】
従って、ユーザは、描画された落書きを消去しようとして、前景画像および背景画像の中から、消去しようとする落書きが描画されていないほうの画像を指定してしまうことがあった。結果的に、ユーザは、消去したくない落書きを誤って消去してしまうという課題があった。
【0014】
特に、ユーザは、落書きの入力直後には、その落書きが前景画像に対して入力されたものなのか、背景画像に対して入力されたものなのかを憶えているが、落書きを開始してから時間が経つにつれ、その記憶も定かではなくなってしまう。従って、落書きを開始した当初に入力した落書きを消去する場合、ユーザは、しばしば、消去したくない落書きを消去してしまうことがあった。
【0015】
また、写真シール自動販売機のディスプレイには、合成画像しか表示されていないため、ユーザは、前景画像(背景画像)を指定していることを忘れて、背景画像(前景画像)に落書きを入力するつもりで、前景画像(背景画像)に落書きを入力してしまうことがあるという課題があった。
【0016】
このような課題を解決するために、背景画像用のペン、スタンプ、および消去用のボタンと、前景画像用のペン、スタンプ、および消去用のボタンを、それぞれ分けてディスプレイに表示させるようにすることが考えられるが、このようにした場合、ディスプレイ上に表示させるボタン類が多くなってしまい、ユーザがそれらのボタン類の中から、所望するボタンを迅速に選択するのが困難になるという課題があった。
【0017】
本発明はこのような状況に鑑みてなされたものであり、画像編集時の操作性を改善することを目的とする。
【0018】
【課題を解決するための手段】
本発明の写真シール自動販売機は、被写体を撮影して得た第1の画像、第1の画像に対して背景として合成される第2の画像、第1の画像に対して前景として合成される第3の画像、または、第1の画像、第2の画像、および第3の画像を合成した第4の画像を選択する選択手段と、第1の画像、第2の画像、第3の画像、および第4の画像のうち、選択手段により選択された画像が選択されていない画像と識別できるように、その表示を制御する制御手段とを備えることを特徴とする。
【0019】
本発明の写真シール自動販売機においては、選択手段により、被写体を撮影して得た第1の画像、第1の画像に対して背景として合成される第2の画像、第1の画像に対して前景として合成される第3の画像、または、第1の画像、第2の画像、および第3の画像を合成した第4の画像が選択され、制御手段により、第1の画像、第2の画像、第3の画像、および第4の画像のうち、選択手段により選択された画像が選択されていない画像と識別できるように、その表示が制御される。
【0020】
従って、ユーザが編集操作を入力する際、ユーザが第2の画像(背景画像)を作成するための編集操作を入力しようとしているのか、または第3の画像(前景画像)を作成するための編集操作を入力しているのかを、ユーザに識別させることができる。また、既に編集された画像のうち、どの落書き(線、文字、スタンプなど)が、第2の画像(背景画像)に属し、どの落書きが、第3の画像(前景画像)に属しているのかを、ユーザに識別させることができる。
【0021】
この選択手段は、例えば、モニタに表示されたサムネイル、またはタグなどにより構成される。また、制御手段は、例えば、CPUにより構成される。
【0022】
前記制御手段による制御に従って、前記選択手段により選択された画像が選択されていない画像と識別できるように表示する表示手段と、ユーザからの操作の入力を受け付ける受付手段とをさらに設けるようにすることができる。
【0023】
表示手段は、例えば、CRT(Cathode−Ray Tube)により構成され、受付手段は、例えば、タッチペンとタッチパネルにより構成される。
【0024】
前記制御手段には、前記選択手段により前記第2の画像が選択された場合、前記受付手段に、前記第2の画像に対する編集操作の入力を受け付けさせ、前記受付手段により入力が受け付けられた前記編集操作に基づいて、前記第2の画像を編集し、前記選択手段により前記第3の画像が選択された場合、前記受付手段に、前記第3の画像に対する編集操作の入力を受け付けさせ、前記受付手段により入力が受け付けられた前記編集操作に基づいて、前記第3の画像を編集するようにさせることができる。
【0025】
これにより、ユーザは、背景および前景を編集することができる。
【0026】
前記制御手段には、前記第1の画像、前記第2の画像、前記第3の画像、および前記第4の画像にそれぞれ対応するタブ、および前記選択手段により選択された前記画像を前記表示手段に表示させるようにさせ、前記受付手段には、前記表示手段により表示された複数の前記タブの中から、1つの前記タブの選択を受け付けるようにさせ、前記選択手段には、前記受付手段により選択が受け付けられた前記タブに対応する前記画像を選択するようにさせることができる。
【0027】
これにより、ユーザは、表示されたタブを選択することにより、タブに対応する画像を表示させることができる。
【0028】
前記制御手段には、前記第1の画像、前記第2の画像、前記第3の画像、および前記第4の画像にそれぞれ対応するサムネイル、および前記選択手段により選択された前記画像を前記表示手段に表示させるようにさせ、前記受付手段には、前記表示手段により表示された複数の前記サムネイルの中から、1つの前記サムネイルの選択を受け付けるようにさせ、前記選択手段には、前記受付手段により選択が受け付けられた前記サムネイルに対応する前記画像を選択するようにさせることができる。
【0029】
これにより、ユーザは、表示されたサムネイルを選択することにより、サムネイルに対応する画像を表示させることができる。また、ユーザは、表示されている背景のサムネイルおよび前景のサムネイルを見ることにより、背景および前景の編集状況を把握することができる。
【0030】
前記第2の画像が合成される領域を、それ以外の領域と識別することができるように前記第1の画像、前記第2の画像、および前記第3の画像を合成した第5の画像、並びに前記第3の画像が合成される領域を、それ以外の領域と識別することができるように前記第1の画像、前記第2の画像、および前記第3の画像を合成した第6の画像を作成する作成手段をさらに設けるようにし、前記制御手段には、前記第1の画像、第5の画像、第6の画像、および前記第4の画像にそれぞれ対応するサムネイル、および前記選択手段により選択された前記画像を前記表示手段に表示させるようにさせ、前記受付手段には、前記表示手段により表示された複数の前記サムネイルの中から、1つの前記サムネイルの選択を受け付けるようにさせ、前記選択手段には、前記受付手段により選択が受け付けられた前記サムネイルに対応する前記画像を選択するようにさせることができる。
【0031】
これにより、ユーザは、表示されたサムネイルを選択することにより、サムネイルに対応する画像を表示させることができる。また、ユーザは、表示されているサムネイルを見ることにより、背景の、被写体および前景との位置関係、および前景の、被写体および背景との位置関係を把握することができる。
【0032】
前記制御手段には、前記選択手段により前記第5の画像が選択された場合、前記受付手段に、前記第5の画像に対する編集操作の入力を受け付けさせ、前記受付手段により入力が受け付けられた前記編集操作に基づいて、前記第2の画像を編集するようにさせ、前記選択手段により前記第6の画像が選択された場合、前記受付手段に、前記第6の画像に対する編集操作の入力を受け付けさせ、前記受付手段により入力が受け付けられた前記編集操作に基づいて、前記第3の画像を編集するようにさせることができる。
【0033】
これにより、ユーザは、背景の、被写体および前景との位置関係を把握しながら、背景を編集することができる。また、ユーザは、前景の、被写体および背景との位置関係を把握しながら、前傾を編集することができる。
【0034】
前記第4の画像を、所定の印刷媒体に印刷する印刷手段をさらに設けるようにすることができる。
【0035】
これにより、編集された画像が印刷された印刷媒体をユーザに提供することができる。
【0036】
前記所定の印刷媒体であって、装着された前記印刷媒体を識別するための識別情報を読み取る読み取り手段をさらに設けるようにし、前記制御手段には、読み取り手段による読み取り結果に基づいて、前記印刷媒体への印刷を制御するようにさせることができる。
【0037】
これにより、本発明の写真シール自動販売機に対して生産された印刷媒体のみが使用可能となり、いわゆる純正品以外のものが使用されることを抑制することができる。
【0038】
読み取り手段は、例えば、ICタグ(制御タグ)リーダライタにより構成される。
【0039】
本発明の印刷媒体ユニットは、前記印刷手段により画像が印刷される前記印刷媒体を格納するとともに、前記読み取り手段により読み取られる前記識別情報を保持することを特徴とする。
【0040】
識別情報は、例えば、ICタグ(制御タグ)、ICカード等のメモリにより構成され、ユニット識別情報としての固有のIDを記憶する。
【0041】
このように、識別情報が認証されたときにのみ印刷媒体ユニットが使用可能とされることにより、本発明の写真シール自動販売機に対して生産されたユニットのみが使用可能となり、いわゆる純正品以外のものが使用されることを抑制することができる。また、印刷媒体ユニットにバーコードなどが付されている場合、そのバーコードにより、純正品であるか否かを判断させるようにしてもよい。
【0042】
本発明の印刷媒体は、上述した写真シール自動販売機により画像が印刷された印刷媒体であることを特徴とする。
【0043】
本発明の写真シール販売方法は、被写体を撮影する撮影ステップと、撮影ステップの処理により被写体を撮影して得た第1の画像、第1の画像に対して背景として合成される第2の画像、第1の画像に対して前景として合成される第3の画像、または、第1の画像、第2の画像、および第3の画像を合成した第4の画像を選択する選択ステップと、第1の画像、第2の画像、第3の画像、および第4の画像のうち、選択ステップの処理により選択された画像が選択されていない画像と識別できるように、その表示を制御する制御ステップとを含むことを特徴とする。
【0044】
【発明の実施の形態】
図1は、本発明を適用した写真シール自販機1の構成例を示す斜視図である。
【0045】
写真シール自動販売機1の垂直な面1Aには、保持部材13を介して撮影装置12が面1Aから突出した状態で設けられている。撮影装置12は、面1Aに垂直方向に配設されているレール14に従って、所定の範囲内で上下方向に移動可能とされている。また、撮影装置12は、保持部材13との接合部を中心として、垂直平面内で上下方向に首振り自在に保持部材13に取り付けられている。
【0046】
従って、写真シール自動販売機1を利用するユーザは、撮影装置12をレール14に従って好みの高さに調節し、また、撮影装置12の正面(CCD(Charge Coupled Device)21および画像表示部22が設けられている面)を好みの角度に調節し、撮影を行うことができる。
【0047】
撮影装置12には、CCD21が設けられ、CCD21の下には画像表示部22が設けられている。CCD21により被写体の画像が取り込まれ、取り込まれている画像(動画像)がリアルタイムで画像表示部22に表示される。また、所定の撮影タイミングにおいて、CCD21による撮影が行われ、ユーザ(被写体)の画像が静止画像として写真シール自動販売機1に保存される。画像表示部22がCCD21の近傍に設けられているため、ユーザは、CCD21に視線を向けた状態で、画像表示部22に表示される自分自身の画像を確認しながら、撮影を行うことができる。
【0048】
撮影装置12(レール14)の左側にはフラッシュ照射部15−1が設けられており、また、右側にはフラッシュ照射部15−2が設けられている。フラッシュ照射部15−1,15−2は、撮影装置12(CCD21)により撮影されるタイミングで、写真シール自動販売機1の内部に設けられている照明装置から出射されるフラッシュ光を透過し、被写体を照射する。
【0049】
フラッシュ照射部15−2の下には、LCD(Liquid Crystal Display)、CRT(Cathode−Ray Tube)などにより構成される撮影用モニタ16が設けられている。撮影用モニタ16はまた、プロジェクタとスクリーンにより構成されるようにしても良い。
【0050】
撮影用モニタ16には、撮影処理の行程段階(進行段階)に応じて、撮影方法などを案内する各種のメッセージなどが表示される。また、撮影用モニタ16には、撮影された画像が表示されるため、ユーザは、表示される撮影画像の中から、編集(落書き)対象の画像を選択することができる。後述するように、ユーザは、撮影を終了した後、写真シール自動販売機1の裏側に移動し、撮影された画像に対して好みの文字や図形などを入力し、編集を施すことができる。
【0051】
撮影用モニタ16の下には、面1Aから突出した状態で操作部11が設けられている。操作部11の上面11Aは若干斜め上方を向いた状態で設けられており、そこに操作パネル17が設けられている。ユーザは、操作パネル17に設けられている各種のボタンにより、撮影処理を進行する。
【0052】
操作パネル17には、例えば、撮影用モニタ16に表示される各種の選択に対して、決定するときに操作される「○ボタン」、決定したものをキャンセルするときに操作される「×ボタン」、撮影用モニタ16に表示されるカーソルなどを上下左右に移動するときに操作される「矢印ボタン」などが配置される。また、そのほかにも、撮影を開始するとき操作される「撮影開始ボタン」なども適宜配置される。操作部11には、撮影用モニタ16に直接押し当てることで各種の選択を行うためのタッチペンなども適宜用意される。操作パネル17は、ユーザにより入力された操作に対応する操作信号を、制御装置91(図5)に送信する。
【0053】
面1Aの左下には、硬貨投入口18が設けられている。ユーザは、写真シール自動販売機1を利用して撮影するとき、所定の代金を硬貨投入口18に投入する。
【0054】
写真シール自動販売機1の左側面1Bの下方には、シール取り出し口31が設けられている。撮影され、編集等が施された画像が所定の数だけ、所定の大きさでシール紙に印刷され、得られたシール紙がシール取り出し口31から排出される。
【0055】
図2は、写真シール自動販売機1の面1Aの反対側に相当する、面1C側の構成例を示す斜視図である。なお、以下において、適宜、面1Aが設けられている面を写真シール自動販売機1の正面として説明し、面1Aの反対側に相当する、面1Cが設けられている面を写真シール自動販売機1の背面として説明する。
【0056】
写真シール自動販売機1の面1Cには、編集用モニタ41−1および41−2(以下の説明において、編集用モニタ41−1および41−2を個々に区別する必要がない場合、まとめて編集用モニタ41と称する)が水平方向に並置されている。編集用モニタ41−1の下には収納部42−1が設けられ、そこに、編集用モニタ41−1に直接押し当てることで画像の編集などを行うためのタッチペン43−1が収納される。同様に、編集用モニタ41−2の下には収納部42−2が設けられ、そこに、編集用モニタ41−2に直接押し当てることで画像の編集などを行うためのタッチペン43−2が収納される。なお、以下の説明において、タッチペン43−1および43−2を、個々に区別する必要がない場合、まとめてタッチペン43と称する。
【0057】
撮影装置12により撮影され、編集対象の画像として選択された画像は、ユーザが撮影処理を終了した後、編集用モニタ41−1および41−2にそれぞれ表示される。編集用モニタ41−1および41−2には、タッチパネルが積層されており、ユーザは、表示されている画像に対し、任意の文字や図形などを、タッチペン43−1および43−2を利用して書き込む(入力する)ことができる。なお、以下の説明において、タッチペン43−1(43−2)を、編集用モニタ41−1(41−2)に積層されたタッチパネル94−1(94−2)(図5)に押し当てて、操作を入力することを、「タッチペン43−1(43−2)でタッチする」とも記述する。
【0058】
編集用モニタ41−1および41−2には、編集対象の画像とともに、様々な編集ツールを選択するためのボタンが表示される。そして、そのボタンが操作され、画像の編集が行われたとき、編集用モニタ41−1および41−2には、入力に応じて生成された編集済みの画像が表示される。
【0059】
タッチペン43−1および43−2は、編集用モニタ41−1および41−2に積層されるタッチパネルの位置検出方式(例えば、抵抗膜式、超音波式など)に応じて構成される。
【0060】
図3は、写真シール自動販売機1の配置の例を示す図である。
【0061】
写真シール自動販売機1の正面(面1A)に対向する位置には、所定距離だけ離間して背景パネル61が設置され、ユーザは、写真シール自動販売機1と背景パネル61の間を撮影空間62として撮影を行う。なお、撮影空間62には、写真シール自動販売機1の上面と背景パネル61により支持される天井部材63、および、撮影空間62の内部が外側から見えないように、カーテン64−1と側面パネル65−1が設けられている。
【0062】
撮影を終了した後に移動し、画像の編集を行う空間として、面1Cに臨む位置に編集空間73が設けられている。編集空間73には、その内部が外部から覗かれるのを防止すべく、カーテンフレーム71にカーテン72−1が取り付けられている。カーテン72−1は、面1Bと略同一平面上に設けられ、カーテン72−2は、面1Cに対向して、所定の距離だけ離間して設けられる。なお、この例においては、カーテンフレーム71は、天井部材43とほぼ同一平面上に設けられている。
【0063】
図4は、写真シール自動販売機1の配置の例を、その上方から示す図である。
【0064】
図4に示されるように、写真シール自動販売機1の右側面1D側にも、面1B側と同様に、撮影空間62の内部が外側から覗かれることを防止すべく、カーテン64−2と側面パネル65−2が設けられている。撮影空間62の内部(背景パネル61、天井部材63、側面パネル65−1,65−2等の内側)は、撮影装置12により撮影された画像から、ユーザの画像のみをいわゆるクロマキ(chroma−key)処理により抽出できるように、例えば、白色や青色などの単一色の面とされる。
【0065】
図4を参照し、撮影を開始してからシール紙を受け取るまでのユーザの移動について説明する。
【0066】
ユーザは、写真シール自動販売機1を利用するとき、白抜き矢印A1で示されるように撮影空間62に入場し、撮影処理を行う。従って、撮影空間62が使用されているとき、写真シール自動販売機1を利用することを所望するユーザは、例えば、側面パネル61の前方の順番待ち空間74において、撮影空間62が空くまで待機することになる。
【0067】
所定の数の画像を編集対象の画像として選択し、撮影を終えたとき、ユーザは、例えば、白抜き矢印A2で示されるようにして撮影空間62から退場し、白抜き矢印A3で示されるようにして写真シール自動販売機1の背面側に設けられる編集空間73に移動する。
【0068】
このとき、順番待ち空間74において順番待ちをしていたユーザ(撮影空間62が空くのを待機していたユーザ)は、撮影空間62を先に使用していたユーザの組が編集空間73に移動することに応じて、撮影空間62に入場する。
【0069】
上述したように、編集空間73から確認できる編集用モニタ41−1および41−2には、撮影空間62において撮影し、選択した画像が表示されるため、ユーザは、それに対して編集を行う。ユーザは、編集を終えたとき、次に、写真シール自動販売機1の面1Bに臨む場所である印刷待ち空間75に白抜き矢印A4で示されるようにして移動し、編集した画像がシール紙121にプリントされ、排出されるまで待機する。
【0070】
そして、シール取り出し口31にシール紙121(図5)が排出されたとき、ユーザは、それを受け取り、写真シール自動販売機1の利用を終える。これらの移動の案内は、撮影用モニタ16、編集用モニタ41−1および41−2、または図示せぬスピーカなどにより行われる。
【0071】
このように、撮影を行う空間、編集を行う空間、印刷が終了するのを待機する空間を、写真シール自動販売機1の異なる面の前方にそれぞれ設けることにより、撮影処理、編集処理、印刷処理を併行して実行させることができ、これらの処理を1つの空間で実行させる場合に較べて、後続のユーザの待ち時間を減らすと共に、単位時間あたりに写真シール自動販売機1を利用するユーザの人数を増加させることができる。従って、収益を向上させることができる。また、撮影処理に要する時間、編集処理に要する時間等を長く確保することができる。
【0072】
図5は、写真シール自動販売機1の内部の構成例を示すブロック図である。上述した構成について、その詳細な説明は適宜省略する。
【0073】
制御装置91は、例えば、汎用のパーソナルコンピュータなどにより構成され、写真シール自動販売機1の全体の動作を制御する。具体的には、制御装置91に設けられているCPU(Central Processing Unit)131により、ROM(Read Only Memory)132やハードディスクなどにより構成される記憶部136(いずれも図6)に記憶されているプログラムに基づく処理が実行される。
【0074】
硬貨処理部92は、ユーザにより所定の代金が硬貨投入口18に投入されたとき、それを検出し、制御装置91に通知する。照明制御部93は、撮影装置12により被写体が撮影されるタイミングに併せて、制御装置91からの指示に基づいてフラッシュ光を出射する。出射されたフラッシュ光は、図1のフラッシュ照射部15−1および15−2を介して被写体(ユーザ)を照射する。
【0075】
写真シール自動販売機1の面1Cに設けられている編集用モニタ41−1にはタッチパネル94−1が、編集用モニタ41−2にはタッチパネル94−2がそれぞれ積層されている。タッチパネル94−1および94−2は、タッチペン43−1および43−2により入力されたユーザからの指示を制御装置91に出力する。なお、以下の説明において、タッチパネル94−1および94−2を個々に区別する必要がない場合、まとめてタッチパネル94と称する。
【0076】
電源装置95は、写真シール自動販売機1の各部に電力を供給する。
【0077】
プリンタユニット96は、プリンタ部111と制御タグリーダライタ112により構成され、プリンタユニット96に装着されるシール紙ユニット97は、シール紙121と、個々のシール紙ユニット97を識別する識別情報等を管理する制御タグ122により構成される。
【0078】
プリンタ部111は、編集処理等が施された画像データが制御装置91から供給されたとき、供給された画像データにより表される画像を、ユーザにより選択された画像のサイズおよび分割数に従って、シール紙121に印刷し、シール紙121をシール取り出し口31に排出する。
【0079】
制御タグリーダライタ112は、制御タグ122に記憶されている識別情報を接触または非接触により読み出し、制御装置91に出力する。制御装置91は、制御タグリーダライタ112から供給された識別情報に基づいて、装着されているシール紙ユニット97が、写真シール自動販売機1において利用可能なユニットであるか否かを判定し、利用可能なユニットであると判定したときにのみ、プリンタ部111を動作可能にする。すなわち、制御装置91により、写真シール自動販売機1において利用可能とされるシール紙ユニットの識別情報が管理されている。
【0080】
これにより、写真シール自動販売機1に対応していない(純正のものでない)シール紙が利用されるのを抑制することができる。また、制御タグ122により、シール紙121の残量等も管理される。なお、シール紙ユニット97が純正のものであるか否かを、シール紙ユニット97にプリントされているバーコードなどにより確認させるようにしてもよい。
【0081】
図6は、図5の制御装置91の詳細な構成例を示すブロック図である。
【0082】
CPU131は、ROM132に記憶されているプログラム、または、記憶部136からRAM(Random Access Memory)133にロードされたプログラムに従って各種の処理を実行する。RAM133にはまた、CPU131が各種の処理を実行する上において必要なデータなどが適宜記憶される。
【0083】
CPU131、ROM132、およびRAM133は、バス134を介して相互に接続されている。バス134にはまた、入出力インタフェース135も接続されている。
【0084】
入出力インタフェース135には、図5に示される、撮影装置12、撮影用モニタ16、操作パネル17、編集用モニタ41−1および41−2、硬貨処理部92、照明制御部93、タッチパネル94−1および94−2(タッチパネル94)、並びにプリンタユニット96が接続されている。
【0085】
記憶部136は、CPU131により実行されるプログラムの他、撮影装置12により取り込まれている被写体の画像と合成する編集用の画像のデータや、撮影して得られた画像のデータなどを記憶する。記憶部136は、CPU131からの要求に応じて、それらのデータを適宜読み出し、提供する。
【0086】
入出力インタフェース135にはまた、必要に応じてドライブ137が接続され、磁気ディスク151、光ディスク152、光磁気ディスク153、或いは半導体メモリ154などが適宜装着され、それらから読み出されたコンピュータプログラムや背景画像データが必要に応じて記憶部136に保存される。
【0087】
次に、図7のフローチャートを参照して、写真シール自動販売機1の顧客応対処理、すなわち、写真シール自動販売機1を利用する顧客(ユーザ)に応対する、写真シール自動販売機1の全体の処理について説明する。
【0088】
ステップS51において、制御装置91のCPU131は、硬貨処理部92からの出力に基づいて、代金が投入されたか否か、すなわち、撮影を開始するユーザがいるか否かを判定し、代金が投入されたと判定するまで待機する。
【0089】
CPU131は、ステップS51において、代金が投入されたと判定した場合、ステップS52に進み、撮影モードの選択を受け付ける。
【0090】
撮影モードについて説明する。写真シール自動販売機1は、予め設定された所定の回数、被写体(ユーザ)を撮影して、所定の枚数の被写体の撮影画像を取得するようになされている。ユーザは、1回毎の、撮影のタイミングを自らが指定して撮影する通常モード、および所定の短時間(例えば0.5秒)間隔で、所定回数、連続して被写体(ユーザ)を撮影する連写モードの2つの撮影モードから、いずれか一方の撮影モードを選択することができる。
【0091】
そこで、ステップS52において、制御装置91のCPU131は、撮影用モニタ16に、撮影モードの選択を促すメッセージを表示させる。ユーザは、操作パネル17を操作することにより、通常モードと連写モードのいずれかを選択することができる。CPU131は、操作パネル17からの操作信号に基づいて、ユーザが、通常モードと連写モードのいずれを選択したのかを判定し、いずれの撮影モードが選択されたのかを示すモード選択情報を、一時的にRAM133に記憶させる。
【0092】
ステップS52の処理の後、ステップS53において、制御装置91のCPU131は、撮影空間62における撮影処理を実行する。ここで、図7のステップS53の処理、すなわち、写真シール自動販売機1の撮影処理について、図8のフローチャートを参照して説明する。なお、以下においては、ステップS52において、通常モードが選択された場合を例にして説明する。
【0093】
ステップS101において、制御装置91のCPU131は、各種の機能や撮影方法を説明する説明画面の画像データを記憶部136より読み出し、撮影用モニタ16に表示させる。なお、画像表示部22には、CCD21が撮影している動画像が表示される。
【0094】
図9は、撮影用モニタ16に表示される説明画面の例を示す図であり、撮影する画像を縦長の画像とするか、横長の画像とするかを選択する画面とされている。なお、「+/−ボタンで選んでね」のメッセージが表示されており、ユーザは、操作パネル17の「+ボタン」を操作した場合、縦長の画像を撮影することができ、「−ボタン」を操作した場合、横長の画像を撮影することができる。また、画面の右上には、残りの撮影可能枚数が「4枚」として表示されている。
【0095】
図10は、撮影用モニタ16に表示される説明画面の他の例を示す図であり、例えば、図9において撮影する画像の方向が選択された後、表示される。この例においては、「ズームの調整を+/−ボタンでしてね。用意ができたらスタートボタンを押してね」のメッセージが表示されており、ユーザは、操作パネル17の「+ボタン」、および「−ボタン」を操作することにより、CCD21のズーム調整を行うことができる。
【0096】
ステップS102において、制御装置91のCPU131は、図9および図10に示したような説明画面に応じて、ユーザからCCD21を調整することが入力されたとき、その入力に基づいて撮影装置12を制御する。例えば、図9に示すような説明画面において「+ボタン」が選択されたとき、撮影装置12は、CPU131からの指示に基づいて、取り込む画像を縦長の画像とするようにCCD21を制御する。
【0097】
制御装置91のCPU131は、ステップS103において、操作パネル17からの操作信号に基づいて、撮影を開始するとき操作される撮影スタートボタンが操作されたか否かを判定し、まだ操作されていないと判定した場合、ステップS101に戻り、それ以降の処理を繰り返し実行する。一方、CPU131は、撮影スタートボタンが操作されたと判定した場合、ステップS104に進み、撮影用モニタ16にカウントダウンインジケータを表示させ、撮影するタイミングとなったとき、CCD21により撮影されている画像をキャプチャし、作成された撮影画像(静止画像)の画像データを、記憶部136に記憶させる。
【0098】
図11は、ステップS104において撮影用モニタ16に表示される表示画面の例を示す図である。図に示すように、カウントダウンインジケータ201が表示され、例えば、左側の信号から順に点灯が開始され、1番右側の信号が点灯されたとき、CCD21により撮影されている画像がキャプチャされ、記憶部136に記憶される。なお、この例においては、撮影するタイミングと同時に、「はい、ポーズ!」のメッセージが表示されている。
【0099】
撮影するタイミングとなったとき、CPU131は、照明制御部93に指示して、照明装置15−1および15−2を発光させ、フラッシュを被写体に照射するとともに、その瞬間にCCD21により取り込まれている画像を、静止画像としてキャプチャ(保存)し、記憶部136に記憶させる。
【0100】
ステップS105において、制御装置91のCPU131は、ステップS104で撮影した画像の確認画面を撮影用モニタ16に表示させる。
【0101】
図12は、画像確認画面の例を示す図であり、撮影用モニタ16のほぼ中央に、ステップS104で撮影した画像が表示され、その上に、「これでいいかな?○/×ボタンを押してね」のメッセージが表示されている。ユーザは、表示されている画像を、編集用の画像として保存するか否かを、操作パネル17の「○ボタン」または「×ボタン」を操作することにより選択することができる。
【0102】
そして、CPU131は、ステップS106で、操作パネル17からの操作信号に基づいて、編集用の画像として保存することが指示されたか否かを判定し、指示されていない(「×ボタン」が操作された)と判定した場合、ステップS107に進み、ステップS104で撮影し、記憶部136に記憶されている画像を消去する。そして、ステップS101に戻り、それ以降の処理が繰り返し実行される。
【0103】
一方、CPU131は、ステップS106において、編集用の画像として保存することが選択された(「○ボタン」が操作された)と判定した場合、ステップS108に進み、その画像を編集用の画像に追加する(画像は、記憶部136に保持される)。
【0104】
そして、ステップS109において、CPU131は、編集用の画像として追加した画像の明るさを調整する明るさ調整画面を撮影用モニタ16に表示させる。
【0105】
図13は、ステップS109で撮影用モニタ16に表示される明るさ調整画面の例を示す図である。この例においては、編集用の画像として保存された画像が画面のほぼ中央に表示され、その下に、明るさのレベルを指定するボタンが表示されている。また、画面の上部には、「明るさを+/−ボタンで調整してね。よければ○ボタンを押してね。」のメッセージが表示されており、ユーザは、操作パネル17の「+ボタン」または「−ボタン」を操作し、カーソル211を移動させて明るさを調整する。なお、ステップS106で編集用の画像が選択されたため、図13の右上方に示すように、残り撮影可能枚数が1だけ減算されて、例えば、「3枚」とされる。
【0106】
CPU131は、操作パネル17からの入力に応じて、編集用の画像の明るさを調整し、「○ボタン」が操作されたとき、そのレベルの明るさで編集用の画像を記憶部136に保存し、ステップS110に進む。
【0107】
ステップS110において、CPU131は、記憶部136に記憶されている編集用の画像の枚数を確認し、残り撮影可能枚数が「0枚」となったか、または操作パネル17からの操作信号に基づいて、「撮影終了ボタン」が操作されたか否かを判定し、残り撮影可能枚数が「0枚」でない、かつ、「撮影終了ボタン」が操作されていないと判定した場合、ステップS101に戻り、同様の撮影処理を繰り返し実行する。
【0108】
CPU131は、ステップS110において、残り撮影可能枚数が「0枚」となった、または「撮影終了ボタン」が操作されたと判定した場合、撮影処理を終了する。
【0109】
なお、上記においては、ステップS52で、通常モードが選択された場合の例について説明したが、ステップS52で連写モードが選択された場合について、以下に説明する。
【0110】
連写モードが選択された場合も、通常モードと同様、図8のステップS101乃至ステップS103の処理が実行される。そして、ステップS104において、カウントダウンインジケータ201を表示した後、CPU131は、所定の時間間隔(例えば、0.5秒間隔)で、所定の回数(例えば、4回)、照明制御部93に指示して、照明装置15−1および15−2を発光させるとともに、その瞬間にCCD21により取り込まれている画像を、静止画像としてキャプチャ(保存)し、記憶部136に記憶させる。結果的に、記憶部136には、所定の枚数(例えば、4枚)の静止画像が記憶される。
【0111】
その後、ステップS105において、CPU131は、撮影用モニタ16に、連続撮影された全ての画像を表示させる。そして、CPU131は、ステップS106において、編集用の画像として保存するか否かを判定し、編集用の画像として保存しない場合、ステップS107に進み、記憶部136に記憶させた、連続撮影された全ての画像を消去する。その後、処理はステップS101に戻る。
【0112】
一方、ステップS106において、CPU131が、編集用の画像として保存すると判定した場合、処理はステップS108に進み、連続撮影された全ての画像を編集用の画像に追加し、ステップS109において、連続撮影された全ての画像の明るさ調整を受け付ける。そして、ステップS110において、残り撮影可能枚数が0枚となったと判定し、処理を終了する。以上が、連写モードの場合の撮影処理である。
【0113】
以上で、写真シール自動販売機1の撮影処理の説明を終了する。
【0114】
撮影処理の終了後、処理は図7のステップS54に進む。
【0115】
ステップS54において、制御装置91のCPU131は、ユーザに、編集空間73に移動するように促すメッセージを記憶部136より読み出し、撮影用モニタ16に表示させる。ユーザは、このメッセージに従って、図4に示される、撮影空間62の出口から白抜き矢印A2で示されるようにして退場し、白抜き矢印A3で示されるようにして編集空間73に移動する。
【0116】
ステップS55において、制御装置91のCPU131は、編集空間73に移動したユーザからの入力に応じて、撮影した画像を編集する編集処理を実行する。
【0117】
本発明の写真シール自動販売機1は、撮影画像中の被写体(撮影画像のうち、ユーザが位置する領域)の近傍に落書きを入力したいが、被写体の上には落書きをしたくない場合に、ユーザが、被写体の近傍に容易に落書きを入力することができるようになっている。
【0118】
この機能を実現するために、写真シール自動販売機1は、編集処理に際して、3つのレイヤ(層状)の画像を管理する。すなわち、写真シール自動販売機1は、撮影画像、背景画像(被写体の背後に描画された落書きによる画像)、および前景画像(被写体の前面に描画された落書きによる画像)を、レイヤ構造で管理している。
【0119】
ここで、まず、図14乃至図17を参照して、図7のステップS55の編集処理における編集用モニタ41の表示例について説明する。編集処理の詳細については、図21乃至図39を参照して後述する。
【0120】
図14は、ステップS55において、編集用モニタ41−1に表示される画面の例である。なお、編集用モニタ41−2にも、同様の画面が表示される。
【0121】
なお、以下の説明においては、編集用モニタ41−1、タッチペン43−1、およびタッチパネル94−1を代表として説明するが、以下の説明は、編集用モニタ41−2、タッチペン43−2、およびタッチパネル94−2にも適用される。すなわち、写真シール自動販売機1は、編集用モニタ41−1および41−2のそれぞれにおいて、別々にユーザからの編集操作の入力を受け付ける。
【0122】
図14において、編集用モニタ41−1中央右下の画像表示領域301には、合成画像302が表示されている。ユーザは、画像選択部304に表示されている撮影画像のサムネイルの中から、合成画像302を作成するための撮影画像をタッチペン43−1により選択することができる。画像選択部304には、撮影処理において保存することが指示された編集用の画像のサムネイルが一覧表示されている。
【0123】
画面の右下端には、ユーザが、制限時間内に編集を終了するときに操作する終了ボタン303が表示されている。終了ボタン303がタッチペン43−1でタッチされた場合、CPU131は、編集用モニタ41−1における編集処理を終了する。
【0124】
画像表示領域301の左方には、編集ツールを選択するとき操作される各種のボタンが表示される。
【0125】
画像表示領域301の左方には、例えば、編集対象画像に線や文字などを入力するための「ペンツール」を選択するとき操作されるペンメニュ307、編集対象画像に所定のスタンプ画像を配置する「スタンプツール」を選択するとき操作されるスタンプメニュ308、「ペンツール」により入力される文字などの太さを選択するとき操作される太さ選択メニュ309、「ペンツール」により入力される文字などの色を選択するとき操作される色選択メニュ310が表示される。
【0126】
また、色選択メニュ310の下方には、一度入力した落書き等を消すための「消しゴムツール」を選択するとき操作される消しゴムボタン311が表示されている。消しゴムボタン311の右下には、直前に入力した操作を取り消して、落書きを、操作を入力する直前の状態に戻すためのやりなおしボタン312、および今までに入力した落書きを全て消去するためのはじめからやりなおしボタン313が表示されている。
【0127】
また、画像表示領域の上方には、サムネイル305−1乃至305−4が表示される。サムネイル305−1は、合成画像321(図15)のサムネイルである。サムネイル305−2は、撮影画像341(図17)のサムネイルである。サムネイル305−3は、合成画像331(図16)のサムネイルである。サムネイル305−4は、合成画像302のサムネイルである。
【0128】
なお、サムネイル305−1においては、背景画像が表示されている領域のみをカラーで表示し、被写体が写っている領域、および前景画像をモノクロで表示することにより、背景画像を強調している。同様に、サムネイル305−3においては、前景画像のみをカラーで表示し、被写体画像および背景画像が表示されている領域をモノクロで表示することにより、前景画像を強調している。
【0129】
また、図14においては、サムネイル305−1およびサムネイル305−3に落書きが描写されているが、編集処理を開始した当初は、まだ、ユーザにより落書きが入力されていないので、サムネイル305−1およびサムネイル305−3は、何の落書きも描かれていない。
【0130】
図14においては、合成画像のサムネイルであるサムネイル305−4にカーソル306が合わせられている。CPU131は、サムネイル305−1乃至305−4の中から、いずれかのサムネイルがタッチペン43−1によりタッチされた場合、タッチされたサムネイルの位置にカーソル306を表示させると共に、タッチされたサムネイルに対応する画像を画像表示領域301に表示させる。
【0131】
例えば、ユーザが、タッチペン43−1で、サムネイル305−1に触れた場合、編集用モニタ41−1には、図15に示される画面が表示される。図15においては、サムネイル305−1の位置にカーソル306が表示されている。図15においてはまた、画像表示領域301に、サムネイル305−1に対応する合成画像321が表示されている。合成画像321において、網がかけられた領域は、モノクロであることを意味している。合成画像321においては、サムネイル305−1と同様、背景画像が表示されている領域のみをカラーで表示し、被写体画像および前景画像が表示されている領域をモノクロで表示することにより、背景画像が強調されている。
【0132】
ユーザは、図15に示される画面において、画像表示領域301内の背景画像(カラーで表示されている範囲)に編集操作を入力する(落書きを書き込んだり、消去する)ことができる。
【0133】
また、例えば、ユーザが、タッチペン43−1で、サムネイル305−3にタッチした場合、編集用モニタ41−1には、図16に示される画面が表示される。図16においては、サムネイル305−3の位置にカーソル306が表示されている。図16においてはまた、画像表示領域301に、サムネイル305−3に対応する合成画像331が表示されている。合成画像331において、網がかけられた領域は、モノクロであることを意味している。合成画像331においては、サムネイル305−3と同様、前景画像のみをカラーで表示し、被写体画像および背景画像が表示されている領域をモノクロで表示することにより、前景画像が強調されている。
【0134】
ユーザは、図16に示される画面において、画像表示領域301内の前景画像に編集操作を入力する(落書きを書き込んだり、消去する)ことができる。
【0135】
また、例えば、ユーザが、タッチペン43−1で、サムネイル305−2にタッチした場合、編集用モニタ41−1には、図17に示される画面が表示される。図17においては、サムネイル305−2の位置にカーソル306が表示されている。図17においてはまた、画像表示領域301に、サムネイル305−2に対応する撮影画像341が表示されている。また、画像表示領域301の上方には、被写体画像加工ボタン342および343が表示されている。タッチペン43−1により被写体画像加工ボタン342がタッチされた場合、画像表示領域301に表示された被写体の髪の毛の色が着色されて表示される。また、タッチペン43−1により被写体加工ボタン343がタッチされた場合、画像表示領域301に表示されている被写体がセピア色に変色されて表示される。
【0136】
ユーザは、背景画像に落書きをしたい場合、まず、タッチペン43−1で、サムネイル305−1にタッチし、図15に示される画面を表示させる。この状態で、ユーザは、タッチペン43−1により、ペンメニュ307、またはスタンプメニュ308などの中から、所望するペンツール、またはスタンプツールを選択し、画像表示領域301内に表示されている合成画像321上に、線、文字、またはスタンプを描画することができる。
【0137】
また、ユーザは、背景画像に描画された落書きを消去したい場合、まず、タッチペン43−1で、サムネイル305−1にタッチし、図15に示される画面を表示させる。この状態で、ユーザは、タッチペン43−1により、消しゴムボタン311にタッチした後、画像表示領域301内の合成画像321から、タッチペン43−1により、背景画像として描画された線、文字、またはスタンプ上をなぞることにより、所望する線、文字、またはスタンプを消去することができる。なお、このとき、タッチペン43−1で、前景画像が表示されている領域をなぞっても、前景画像として描画された落書きは消去されない。従って、ユーザは、前景画像として描画された落書きを気にすることなく、背景画像として描画された落書きのみを消去することができる。
【0138】
なお、図15の合成画像321の網がかけられている領域(モノクロで表示されている領域)は、被写体および前景画像が占める領域である。従って、ユーザがタッチペン43−1により、網がかけられた領域に線、文字、およびスタンプなどの落書きを入力しても、網がかけられた領域への入力に対応する落書きは、被写体または前景画像の下に隠れてしまい、合成画像321に反映(描画)されない。例えば、図15に示されるように、ユーザが、タッチペン43−1により、合成画像321の左上の星型のスタンプから、合成画像321の中央下方向に、線を引いても、網がかけられた領域には、線が描画されない。
【0139】
なお、上記においては、合成画像321内の網がかけられた領域は、モノクロで表示されているようになされているが、ユーザが、被写体と前景画像から、背景画像のみを識別可能であれば、モノクロではなくても良い。例えば、被写体と前景画像で占められる領域(合成画像321の網がかけられている領域)の明度を低い値にしたり、彩度や色相を変化させたりしても良い。また、被写体と前景画像で占められる領域を、所定の色で塗りつぶしても良い。また、例えば、背景画像が占める領域と、それ以外の領域との境界に、赤い線、点線、または点滅する線などを表示させても良い。
【0140】
ユーザは、前景画像に落書きをしたい場合、まず、タッチペン43−1で、サムネイル305−3にタッチし、図16に示される画面を表示させる。この状態で、ユーザは、タッチペン43−1により、ペンメニュ307、またはスタンプメニュ308などの中から、所望するペンツール、またはスタンプツールを選択し、画像表示領域301内に表示されている合成画像331上に、線、文字、またはスタンプを描画することができる。なお、合成画像331においては、ユーザは、画像表示領域301内の所望する全ての範囲に落書きを入力することができる。すなわち、合成画像331に対して入力された落書きは、全て反映(描画)される。
【0141】
また、ユーザは、前景画像に描画された落書きを消去したい場合、まず、タッチペン43−1で、サムネイル305−3にタッチし、図16に示される画面を表示させる。この状態で、ユーザは、タッチペン43−1により、消しゴムボタン311にタッチした後、画像表示領域301内の合成画像331から、タッチペン43−1により、前景画像として描画された線、文字、またはスタンプ上をなぞることにより、所望する線、文字、またはスタンプを消去することができる。なお、このとき、タッチペン43−1で、背景画像が表示されている領域をなぞっても、背景画像として描画された落書きは消去されない。従って、ユーザは、背景画像として描画された落書きを気にすることなく、前景画像として描画された落書きのみを消去することができる。
【0142】
なお、図16の合成画像331の網がかけられている領域(モノクロで表示されている領域)は、被写体および背景画像が占める領域である。なお、上記においては、合成画像331内の網がかけられた領域は、モノクロで表示されているようになされているが、ユーザが、被写体と背景画像から、前景画像のみを識別可能であれば、モノクロではなくても良い。例えば、被写体と背景画像で占められる領域の明度を低い値にしたり、彩度や色相を変化させたりしても良い。また、被写体と背景画像で占められる領域を、所定の色で塗りつぶしても良い。また、例えば、前景画像が占める領域と、それ以外の領域との境界に、赤い線、点線、または点滅する線などを表示させても良い。
【0143】
ユーザは、撮影画像341を確認したい場合、タッチペン43−1で、サムネイル305−2にタッチすることにより、図17に示される画面を表示させる。画像表示領域301には、撮影画像341が表示されているので、ユーザは、撮影画像を確認することができる。また、ユーザは、被写体画像加工ボタン342および343を操作して、撮影画像341の被写体の髪の毛の色を変色させたり、被写体全体の色をセピア色に変色したりさせることができる。
【0144】
ユーザは、合成画像302を確認したい場合、タッチペン43−1で、サムネイル305−4にタッチすることにより、図14に示される画面を表示させる。画像表示領域301には、合成画像302が表示されているので、ユーザは、前景画像と背景画像を被写体に合成した場合のイメージを確認することができる。
【0145】
CPU131は、撮影画像、背景画像、および前景画像を、RAM133に記憶させている。
【0146】
CPU131は、以上のような画面を編集用モニタ41に表示させて、ユーザからの編集操作の入力を受け付ける。編集処理が終了した後、処理は図7のステップS56に進む。
【0147】
ステップS56において、制御装置91のCPU131は、配置選択画面の画像データを記憶部136より読み出し、編集用モニタ41−1に表示させる。編集用モニタ41−1に表示される配置選択画面の例を図18に示す。
【0148】
図18の例においては、画面の上部に、「写真の配置を選択してね。」のメッセージが表示されており、ユーザは、タッチペン43−1によりカーソル351を移動させて、好みの画像配置を選択できる。ユーザは、好みの画像配置を選択した後、タッチペン43−1で決定ボタン352にタッチすることにより、選択した画像配置を決定することができる。なお、ユーザが、配置選択画面の左右の端に表示されている三角形に、タッチペン43−1でタッチした場合、CPU131は、現在表示されている配置例とは異なる配置例を編集用モニタ41−1に表示させる。
【0149】
そして、決定ボタン352がタッチされ、画像の配置が選択されたとき、処理はステップS57に進み、CPU131は、ステップS55の編集処理で編集された画像を、ステップS56で選択された画像配置で、シール紙121に印刷させる。すなわち、CPU131は、記憶部136からRAM133に、合成画像のデータをロードし、この合成画像データを、ステップS56の処理で決定された画像配置に配列して、印刷用画像データを作成する。そして、CPU131は、作成した印刷用画像データを、プリンタ部111に供給し、シール紙121に印刷させる。印刷用画像データが印刷されたシール紙121の例を図19に示す。図19において、シール紙121の左上には、合成画像302と同一の合成画像が印刷されている。
【0150】
ステップS57の処理が終了した後、処理はステップS51に戻り、ステップS51以降の処理が繰り返し実行される。
【0151】
以上で、写真シール自動販売機1の顧客応対処理の説明を終了する。
【0152】
なお、図7に示される処理は、記載された順序に従って時系列的に行われるだけでなく、そのときの写真シール自動販売機1の利用状況に応じて並列的にも行われる。例えば、第1のユーザが撮影空間62において撮影を終了させ、編集空間73に移動した後、第1のユーザが編集空間73で画像の編集を行っている最中に、第2のユーザが撮影空間62において撮影を開始した場合、図7のステップS52およびステップS53の処理(撮影空間62における第2のユーザの処理)とステップS55およびステップS56の処理(編集空間73における第1のユーザの処理)が並列して行われることになる。同様に、撮影処理、編集処理、および、ステップS54における印刷処理のそれぞれが状況に応じて並列して行われる。
【0153】
図15および図16を参照して上記したように、本発明においては、背景画像に落書き(編集操作)を入力可能な状態の場合、背景画像のみをカラーで表示し、被写体と前景画像はモノクロで表示する。また、本発明においては、前景画像に落書き(編集操作)を入力可能な状態の場合、前景画像のみをカラーで表示し、被写体と背景画像はモノクロで表示する。このように、落書き(編集操作)を入力可能な画像を、それ以外の部分と区別して表示させることにより、ユーザは、自分が背景画像と前景画像のいずれの画像に落書き(編集操作)を入力しようとしているのかを、容易に把握することができる。
【0154】
結果的に、ユーザが、背景画像に落書き(編集操作)を入力しようとして、誤って前景画像に落書き(編集操作)を入力してしまうことを防止することができる。同様に、ユーザが、前景画像に落書き(編集操作)を入力しようとして、誤って背景画像に落書き(編集操作)を入力してしまうことを防止することができる。
【0155】
また、ユーザは、すでに描画されている落書きが、背景画像への落書きなのか、前景画像への落書きなのかを、容易に把握することができる。従って、ユーザが、背景画像に描画されている落書きを消去しようとして、誤って前景画像に描画されている落書きを消去してしまうことを防止することが可能となる。同様に、前景画像に描画されている落書きを消去しようとして、誤って背景画像に描画されている落書きを消去してしまうことを防止することが可能となる。
【0156】
また、従来の写真シール自動販売機においては、例えば、図20に示されるように、背景画像に線や文字を入力するために指定する背景用ペンボタン361、および前景画像に線や文字を入力するために指定する前景用ペンボタン362を、それぞれ表示させる必要があった。同様に、従来の写真シール自動販売機においては、例えば、図20に示されるように、背景画像に描画された落書きを消去するための背景用消しゴムボタン363、および前景画像に描画された落書きを消去するための前景用消しゴムボタン364を、それぞれ表示させる必要があった。
【0157】
それに対して、本発明においては、背景画像、または前景画像に落書きを入力(削除)したい場合、対応するサムネイル305−1またはサムネイル305−3を指定することにより、画像表示領域301に表示された画像に落書きを入力(削除)することができる。従って、背景用ペンボタン401や前景用ペンボタン402の如きボタンを設ける必要が無い。
【0158】
また、本発明においては、背景画像、または前景画像に描画された落書きを消去するために、消しゴムボタン311を1つ表示させれば良く、従来のように、前景用消しゴムボタン363と背景用消しゴムボタン364を、それぞれ表示させる必要が無い。結果的に、編集用モニタ41に表示されるボタンの数を、従来と比べて、より減少させることができる。そのため、ユーザは、所望のボタンを迅速に見つけ出すことが可能となり、操作性が改善される。
【0159】
さらに、本発明によれば、より娯楽性のある編集操作を実現することができる。
【0160】
次に、図21のフローチャートを参照して、図7のステップS55の編集処理について詳細に説明する。
【0161】
なお、以下の説明においては、編集用モニタ41−1、タッチペン43−1、およびタッチパネル94−1を代表として説明するが、以下の説明は、編集用モニタ41−2、タッチペン43−2、およびタッチパネル94−2にも適用される。すなわち、写真シール自動販売機1は、編集用モニタ41−1および41−2のそれぞれにおいて、別々にユーザからの編集操作の入力を受け付ける。
【0162】
ステップS151において、制御装置91のCPU131は、画像作成処理を実行する。ここで、図22のフローチャートを参照して、画像作成処理について詳細に説明する。
【0163】
図22のステップS181において、CPU131は、記憶部136より読み出した撮影画像341をRAM133に記憶させると共に、撮影画像341のサムネイルを作成し、RAM133に記憶させる。ステップS182において、CPU131は、画像合成処理を実行する。ここで、図23のフローチャートを参照して、画像合成処理について詳細に説明する。
【0164】
図23のステップS201において、CPU131は、RAM133に記憶させている撮影画像341から、被写体の輪郭を抽出する。図24は、撮影画像341から抽出された輪郭の例を示している。図24の撮影画像341において、背景パネルが写っている領域371と、被写体が写っている領域372の境界が、点線で示されており、この点線が、被写体の輪郭を示している。CPU131は、予め設定された背景パネル61の色をキーにして、被写体の輪郭を抽出する。
【0165】
ステップS202において、CPU131は、被写体372が写っていない領域に含まれている画素の画素値を(R,G,B)=(0,0,0)(なお、Rは赤、Gは緑、Bは青をそれぞれ示す)にした画像(以下、被写体372が写っていない領域に含まれている画素の画素値を(R,G,B)=(0,0,0)にした画像を被写体画像と称する)を作成して、RAM133に記憶させる。図25に被写体画像381の例を示す。図25の被写体画像381において、斜線で示されている領域が、被写体が写っていない領域であり、この斜線で示されている領域に含まれている画素の画素値は全て(R,G,B)=(0,0,0)とされている。被写体が写っている領域に含まれている画素の画素値は、撮影画像341と同一である。
【0166】
ステップS203において、CPU131は、被写体が写っている領域に含まれている画素の画素値を(R,G,B)=(0,0,0)にすると共に、被写体が写っていない領域に含まれている画素の画素値を(R,G,B)=(255,255,255)にしたマスク画像を作成し、RAM133に記憶させる。図26に、マスク画像391の例を示す。図26のマスク画像391において、斜線で示されている領域が、被写体が写っている領域であり、この領域の画素の画素値は(R,G,B)=(0,0,0)とされる。図26のマスク画像391において、斜線部以外の領域が、被写体が写っていない領域であり、この領域の画素の画素値は(R,G,B)=(255,255,255)とされる。
【0167】
ステップS204において、CPU131は、マスク画像391の画素の画素値が(R,G,B)=(0,0,0)の領域に対応する、背景画像を構成する画素の画素値を(R,G,B)=(0,0,0)にして、マスク処理された画像(以下、マスク処理された画像のことを被マスク画像と称する)を作成し、RAM133に記憶させる。図27は、背景画像401の例を、図28は、ステップS204で作成された被マスク画像411の例を、それぞれ示している。CPU131は、図27に示されるような背景画像401において、図26のマスク画像391の斜線で示した領域(画素値が(R,G,B)=(0,0,0)の領域)に対応する領域の画素の画素値を(R,G,B)=(0,0,0)にして、被マスク画像411を作成し、RAM133に記憶させる。
【0168】
ステップS205において、CPU131は、RAM133に記憶された被写体画像381と被マスク画像411の、対応する画素の画素値を足し算して、背景画像401と撮影画像341を合成した合成画像を作成し、RAM133に記憶させる。図29に背景画像401と撮影画像341が合成された合成画像421の例を示す。
【0169】
ステップS206において、CPU131は、前景画像のうち、落書きが描画されている領域に含まれている画素の画素値を(R,G,B)=(0,0,0)にし、それ以外の領域に含まれている画素の画素値を(R,G,B)=(255,255,255)にして、マスク画像を作成し、RAM133に記憶させる。図30に前景画像431の例を、図31に前景画像431を基に作成されたマスク画像441の例を、それぞれ示す。図30に示される前景画像431において、落書きが描画されていない領域、すなわち、斜線で示された領域に含まれている画素の画素値は、(R,G,B)=(0,0,0)である。CPU131は、図30に示される前景画像431を基に、図31に示されるマスク画像441を作成する。図31のマスク画像441において、斜線で示された領域に含まれている画素の画素値は、(R,G,B)=(0,0,0)である。また、図31のマスク画像441において、斜線部以外の領域に含まれている画素の画素値は、(R,G,B)=(255,255,255)である。
【0170】
ステップS207において、CPU131は、マスク画像441の画素の画素値が(R,G,B)=(0,0,0)の領域に対応する、合成画像421を構成する画素の画素値を(R,G,B)=(0,0,0)にしてマスク処理された被マスク画像を作成し、RAM133に記憶させる。図32は、ステップS207で作成された被マスク画像451の例を示している。図32の被マスク画像451において、斜線で示された領域に含まれている画素の画素値が、(R,G,B)=(0,0,0)とされる。CPU131は、図29の合成画像421において、図31のマスク画像441の斜線で示した領域(画素値が(R,G,B)=(0,0,0)の領域)に対応する領域の画素の画素値を(R,G,B)=(0,0,0)にして、被マスク画像451を作成し、RAM133に記憶させる。
【0171】
ステップS208において、CPU131は、RAM133に記憶された前景画像431と被マスク画像451の、対応する画素の画素値を足し算して、合成画像421と前景画像431を合成した合成画像を作成し、RAM133に記憶させる。図33に合成画像421と前景画像431が合成された合成画像302の例を示す。
【0172】
CPU131は、以上のようにして、撮影画像341と背景画像401と前景画像431を合成する。なお、以上の説明においては、まず撮影画像341と背景画像401を合成してから、前景画像431を合成しているが、合成の順番は、まず撮影画像341と前景画像431を合成してから、背景画像401を合成するようにしても良い。
【0173】
以上のようにして合成された合成画像302は、ユーザの目には、図34に示されるように見える。すなわち、ユーザは、合成画像302を見るとき、あたかも、上から前景画像431、撮影画像341、および背景画像401の順番で重ねられたかのような画像を見る。CPU131は、撮影画像341、前景画像431、および背景画像401を、このようにレイヤ構造で管理している。
【0174】
なお、今回は、図21のステップS151の処理の中のステップS182の処理である。すなわち、編集処理が開始されたところである。従って、まだ、ユーザにより編集操作が入力されていないので、前景画像431、および背景画像401には、落書きが描画されていない。従って、ステップS182の処理を実行しても、結果として作成される合成画像は、撮影画像341と同一のものとなる。
【0175】
図22に戻って、ステップS183において、CPU131は、ステップS182で作成し、RAM133に記憶させた合成画像302のサムネイルを作成し、RAM133に記憶させる。
【0176】
ステップS184において、CPU131は、RAM133に記憶された背景画像401と撮影画像341のモノクロ画像(濃淡画像)をそれぞれ作成して、RAM133に記憶させる。
【0177】
ステップS185において、CPU131は、RAM133に記憶された前景画像、並びに、ステップS184で作成された背景画像401と撮影画像341のモノクロ画像を使用して、図23に示される画像合成処理を実行する。ただし、CPU131は、撮影画像341から被写体の輪郭を抽出する処理(図23のステップS201)は実行せず、既に、ステップS182における画像合成処理において取得された輪郭情報を利用する(なぜなら、モノクロ画像にしてからでは、撮影画像341に写っている背景パネルと被写体の境界線を抽出することが困難なため)。
【0178】
ステップS185の画像合成処理の結果、背景画像401と被写体画像381の表示領域がモノクロで、前景画像431の表示領域がカラーの合成画像(図16の合成画像331)が作成されRAM133に記憶される。ステップS186において、CPU131は、ステップS184で作成した合成画像331のサムネイルを作成し、RAM133に記憶させる。
【0179】
ステップS187において、CPU131は、RAM133に記憶された前景画像431と撮影画像341のモノクロ画像(濃淡画像)をそれぞれ作成して、RAM133に記憶させる。
【0180】
ステップS188において、CPU131は、RAM133に記憶された背景画像401、並びに、ステップS187で作成された前景画像431と撮影画像341のモノクロ画像を使用して、図23に示される画像合成処理を実行する。ただし、CPU131は、撮影画像341から被写体の輪郭を抽出する処理(図23のステップS201)は実行せず、既に、ステップS182の画像合成処理において取得された輪郭情報を利用する(なぜなら、モノクロ画像にしてからでは、撮影画像341に写っている背景パネルと被写体の境界線を抽出することが困難なため)。
【0181】
ステップS188の画像合成処理の結果、前景画像431と被写体画像381の表示領域がモノクロで、背景画像401の表示領域がカラーの合成画像(図15の合成画像321)が作成されRAM133に記憶される。ステップS189において、CPU131は、ステップS188で作成した合成画像321のサムネイルを作成し、RAM133に記憶させる。
【0182】
以上で、画像作成処理が終了する。なお、今回は、画像作成処理は、図21のステップS151の処理として実行されている。すなわち、編集処理が開始されたところである。従って、まだ、前景画像431および背景画像401には落書きが描画されていない。従って、ステップS183で作成されたサムネイルは、ステップS181で作成された撮影画像341のサムネイルと同一であり、ステップS185で作成された合成画像、およびステップS188で作成された合成画像には、落書きは描画されていない。ステップS151の処理が終了すると、処理は図21のステップS152に進む。
【0183】
ステップS152において、CPU131は、記憶部136より編集画面のデータを読み出し、編集用モニタ41−1に、例えば、図14に示される編集画面を表示させると共に、編集処理のために予め設定された制限時間のカウントダウンを開始する(後述する図39のステップS301)。なお、ステップS152においては、まだ、サムネイル305−1乃至305−4、並びに合成画像302は表示されていない。
【0184】
ステップS153において、CPU131は、ステップS151で作成されRAM133に記憶されたサムネイルを、サムネイル305−1乃至205−4として編集画面上に表示させる。なお、図22のステップS181で作成されたサムネイルは、サムネイル305−2として表示され、図22のステップS183で作成されたサムネイルは、サムネイル305−4として表示され、図22のステップS186で作成されたサムネイルは、サムネイル305−3として表示され、図22のステップS189で作成されたサムネイルは、サムネイル305−1として表示される。
【0185】
ステップS153の処理の後、ステップS154において、CPU131は、合成画像表示処理を実行する。ここで、図35のフローチャートを参照して、合成画像表示処理について、詳細に説明する。
【0186】
図35のステップS221において、CPU131は、合成画像302のサムネイルであるサムネイル305−4の位置に、カーソル306を表示させる。ステップS222において、CPU131は、図22のステップS182で作成されRAM133に記憶された合成画像302を図14の画像表示領域301に表示させる。ステップS223において、CPU131は、撮影画像341の表示、または背景画像401もしくは前景画像431の編集が指示されたか否かを判定する。
【0187】
すなわち、本実施の形態においては、ユーザは、タッチペン43により、サムネイル305−1にタッチすることにより、背景画像401の編集を指示することができる。また、ユーザは、タッチペン43により、サムネイル305−2にタッチすることにより、撮影画像341の表示を指示することができる。また、ユーザは、タッチペン43により、サムネイル305−3にタッチすることにより、前景画像431の編集を指示することができる。さらにまた、ユーザは、タッチペン43により、サムネイル305−4にタッチすることにより、合成画像302の表示を指示することができる。
【0188】
なお、ステップS222の処理により、画像表示領域301には、すでに合成画像302が表示されているので、サムネイル305−4がタッチペン43−1によりタッチされても、CPU131は、その入力を無効な入力として、特に処理を実行しない。そこで、ステップS223において、CPU131は、サムネイル305−1乃至305−3のいずれかがタッチペン43−1によりタッチされるまで待機し、サムネイル305−1乃至305−3のいずれかがタッチペン43−1によりタッチされた場合、合成画像表示処理を終了し、処理は図21のステップS155に進む。
【0189】
ステップS155において、CPU131は、タッチペン43−1によりタッチされたサムネイルがサムネイル305−1であるか否かを判定することにより、指示は背景画像401の編集であるか否かを判定し、タッチペン43−1によりタッチされたサムネイルがサムネイル305−1である(指示は背景画像401の編集である)場合、処理はステップS156に進む。
【0190】
ステップS156において、CPU131は、背景画像編集処理を実行する。ここで、図36のフローチャートを参照して、背景画像編集処理について詳細に説明する。
【0191】
ステップS241において、CPU131は、図15に示されるように、合成画像321のサムネイルであるサムネイル305−1の位置に、カーソル306を表示させる。ステップS242において、CPU131は、図22のステップS188で作成され、RAM133に記憶された合成画像、すなわち背景画像の表示領域のみがカラーの合成画像321を画像表示領域301に表示させる。
【0192】
ステップS243において、CPU131は、画像表示領域301に表示された合成画像321に対して、タッチペン43−1により編集操作が入力されたか否かを判定する。この編集操作には、例えば、タッチペン43−1による、線や文字の描画、スタンプの配置、描画されている線や文字の消去、配置されているスタンプの消去などの編集操作が含まれている。CPU131が、ステップS243において、タッチペン43−1により編集操作が入力されたと判定した場合、処理はステップS244に進み、CPU131は、入力された編集操作に基づいて、背景画像401を編集する。
【0193】
ステップS244の処理の後、ステップS245において、CPU131は、ステップS244で編集された背景画像401を使用して、図22の画像作成処理を実行する。結果的に、ステップS243で入力されたと判定された編集操作が反映された合成画像302とそのサムネイル、編集操作が反映された合成画像331とそのサムネイル、および編集操作が反映された合成画像321とそのサムネイルが作成される。
【0194】
ステップS245の処理の後、ステップS246において、CPU131は、ステップS245で作成された合成画像321を画像表示領域301に表示させる。
【0195】
ステップS247において、CPU131は、ステップS245で作成された合成画像302のサムネイル、合成画像321のサムネイル、および合成画像331のサムネイルを、編集用モニタ41−1の表示に反映させる。すなわち、CPU131は、例えば、図15の画面において、合成画像302のサムネイルを、サムネイル305−4として表示させ、合成画像331のサムネイルを、サムネイル305−3として表示させ、合成画像321のサムネイルを、サムネイル305−1として表示させる。
【0196】
このように、入力された編集操作に対応した落書きを、リアルタイムでサムネイルに反映させることにより、ユーザは、サムネイル305−1乃至305−4を見ることで、編集の状況を把握することができる。
【0197】
ステップS247の処理の後、処理はステップS243に戻り、上述したステップS243以降の処理が繰り返し実行される。
【0198】
ステップS243において、CPU131が、編集操作が入力されていないと判定した場合、処理はステップS248に進む。ステップS248において、CPU131は、サムネイル305−2乃至305−4のいずれかがタッチペン43−1によりタッチされたか否かを判定することにより、撮影画像341若しくは合成画像302の表示、または前景画像431の編集が指示されたか否かを判定し、サムネイル305−2乃至305−4のいずれもタッチペン43−1によりタッチされていない場合(撮影画像341若しくは合成画像302の表示、または前景画像431の編集が指示されていない場合)、処理はステップS243に戻り、上述したステップS243以降の処理を繰り返し実行する。
【0199】
ステップS248において、CPU131が、サムネイル305−2乃至305−4のいずれかがタッチペン43−1によりタッチされたと判定した場合(撮影画像341若しくは合成画像302の表示、または前景画像431の編集が指示された場合)、CPU131は、背景画像編集処理を終了し、処理は図21のステップS155に戻り、上述したステップS155以降の処理を繰り返し実行する。
【0200】
図21に戻って、ステップS155において、CPU131が、タッチペン43−1によりタッチされたサムネイルはサムネイル305−1ではないと判定した場合(指示は背景画像401の編集ではないと判定した場合)、処理はステップS157に進む。
【0201】
ステップS157において、CPU131は、タッチペン43−1によりタッチされたサムネイルがサムネイル305−3であるか否かを判定することにより、指示は前景画像431の編集であるか否かを判定し、タッチペン43−1によりタッチされたサムネイルがサムネイル305−3である(指示は前景画像431の編集である)場合、処理はステップS158に進む。
【0202】
ステップS158において、CPU131は、前景画像編集処理を実行する。ここで、図37のフローチャートを参照して、前景画像編集処理について詳細に説明する。
【0203】
ステップS261において、CPU131は、図16に示されるように、合成画像331のサムネイルであるサムネイル305−3の位置に、カーソル306を表示させる。ステップS262において、CPU131は、図22のステップS184で作成され、RAM133に記憶された合成画像、すなわち前景画像のみがカラーの合成画像331を画像表示領域301に表示させる。
【0204】
ステップS263において、CPU131は、画像表示領域301に表示された合成画像331に対して、タッチペン43−1により編集操作が入力されたか否かを判定し、タッチペン43−1により編集操作が入力された場合、処理はステップS264に進み、CPU131は、入力された編集操作に基づいて、前景画像431を編集する。
【0205】
ステップS264の処理の後、ステップS265において、CPU131は、ステップS264で作成された前景画像431を使用して、画像作成処理を実行する。結果的に、ステップS263で入力されたと判定された編集操作が反映された合成画像302とそのサムネイル、編集操作が反映された合成画像331とそのサムネイル、および編集操作が反映された合成画像321とそのサムネイルが作成される。
【0206】
ステップS265の処理の後、ステップS266において、CPU131は、ステップS265で作成された合成画像331を画像表示領域301に表示させる。
【0207】
ステップS267において、CPU131は、ステップS265で作成された合成画像のサムネイル、合成画像331のサムネイル、および合成画像321のサムネイルを、編集用モニタ41−1の表示に反映させる。すなわち、CPU131は、例えば、図16の画面において、合成画像302のサムネイルを、サムネイル305−4として表示させ、合成画像331のサムネイルを、サムネイル305−3として表示させ、合成画像321のサムネイルを、サムネイル305−1として表示させる。
【0208】
このように、入力された編集操作に対応した落書きを、リアルタイムでサムネイルに反映させることにより、ユーザは、サムネイル305−1乃至305−4を見ることで、編集の状況を把握することができる。
【0209】
ステップS267の処理の後、処理はステップS263に戻り、上述したステップS263以降の処理が繰り返し実行される。
【0210】
ステップS263において、CPU131が、編集操作が入力されていないと判定した場合、処理はステップS268に進む。ステップS268において、CPU131は、サムネイル305−1,305−2,305−4のいずれかがタッチペン43−1によりタッチされたか否かを判定することにより、撮影画像341若しくは合成画像302の表示、または背景画像401の編集が指示されたか否かを判定し、サムネイル305−1,305−2,305−4のいずれもタッチペン43−1によりタッチされていない場合(撮影画像341若しくは合成画像302の表示、または背景画像401の編集が指示されていない場合)、処理はステップS263に戻り、上述したステップS263以降の処理を繰り返し実行する。
【0211】
ステップS268において、CPU131が、サムネイル305−1,305−2,305−4のいずれかがタッチペン43−1によりタッチされたと判定した場合(撮影画像341若しくは合成画像302の表示、または背景画像401の編集が指示された場合)、CPU131は、前景画像編集処理を終了し、処理は図21のステップS155に戻り、上述したステップS155以降の処理を繰り返し実行する。
【0212】
図21に戻って、ステップS157において、CPU131が、タッチペン43−1によりタッチされたサムネイルがサムネイル305−3ではないと判定した場合(指示は前景画像431の編集ではないと判定した場合)、処理はステップS159に進む。
【0213】
ステップS159において、CPU131は、タッチペン43−1によりタッチされたサムネイルがサムネイル305−2であるか否かを判定することにより、指示は撮影画像341の表示であるか否かを判定し、タッチペン43−1によりタッチされたサムネイルがサムネイル305−2である(指示は撮影画像341の表示である)場合、処理はステップS160に進む。
【0214】
ステップS160において、CPU131は、撮影画像表示処理を実行する。ここで、図38のフローチャートを参照して、撮影画像表示処理について詳細に説明する。
【0215】
ステップS281において、CPU131は、図17に示されるように、撮影画像341のサムネイルであるサムネイル305−2の位置に、カーソル306を表示させる。ステップS282において、CPU131は、撮影画像341を画像表示領域301に表示させる。
【0216】
ステップS283において、CPU131は、被写体画像加工ボタン342および343のいずれかがタッチペン43−1によりタッチされたか否かを判定することにより、画像表示領域301に表示された撮影画像341の加工の指示が入力されたか否かを判定し、被写体画像加工ボタン342および343のいずれかがタッチペン43−1によりタッチされた場合(画像表示領域301に表示された撮影画像341の加工の指示が入力された場合)、処理はステップS284に進む。
【0217】
ステップS284において、CPU131は、ステップS283で入力されたと判定された撮影画像341の加工の指示に基づいて、撮影画像341を加工する。例えば、タッチペン43−1により被写体画像加工ボタン342がタッチされた場合、CPU131は、図25の被写体画像381から、髪の毛の領域を抽出し、抽出した領域内の色を変更させた画像を作成する。また、例えば、タッチペン43−1により被写体画像加工ボタン342がタッチされた場合、CPU131は、図25の被写体画像381をセピア色に変色させた画像を作成する。
【0218】
ステップS284の処理の後、ステップS285において、CPU131は、ステップS284で加工された撮影画像341を使用して、画像作成処理を実行する。結果的に、ステップS283で入力されたと判定された撮影画像341の加工の指示が反映された合成画像302とそのサムネイル、撮影画像341の加工の指示が反映された合成画像331とそのサムネイル、および撮影画像の加工の指示が反映された合成画像321とそのサムネイルが作成される。
【0219】
ステップS285の処理の後、ステップS286において、CPU131は、ステップS284で加工された撮影画像341を画像表示領域301に表示させる。
【0220】
ステップS287において、CPU131は、ステップS285で作成された合成画像302のサムネイル、合成画像331のサムネイル、および合成画像321のサムネイルを、編集用モニタ41−1の表示に反映させる。すなわち、CPU131は、例えば、図17の画面において、加工された撮影画像341のサムネイルを、サムネイル305−2として表示させ、合成画像302のサムネイルを、サムネイル305−4として表示させ、合成画像331のサムネイルを、サムネイル305−3として表示させ、合成画像321のサムネイルを、サムネイル305−1として表示させる。
【0221】
このように、入力された編集操作に対応した落書きを、リアルタイムでサムネイルに反映させることにより、ユーザは、サムネイル305−1乃至305−4を見ることで、編集の状況を把握することができる。
【0222】
ステップS287の処理の後、処理はステップS283に戻り、上述したステップS283以降の処理が繰り返し実行される。
【0223】
ステップS283において、CPU131が、被写体画像加工ボタン342および343のいずれかもタッチペン43−1によりタッチされていないと判定した場合(画像表示領域301に表示された撮影画像341の加工の指示は入力されていないと判定した場合)、処理はステップS288に進む。
【0224】
ステップS288において、CPU131は、サムネイル305−1,305−3,305−4のいずれかがタッチペン43−1によりタッチされたか否かを判定することにより、合成画像302の表示、または前景画像431若しくは背景画像401の編集が指示されたか否かを判定し、サムネイル305−1,305−3,305−4のいずれもタッチペン43−1によりタッチされていない場合(合成画像302の表示、または前景画像431若しくは背景画像401の編集が指示されていない場合)、処理はステップS283に戻り、上述したステップS283以降の処理を繰り返し実行する。
【0225】
ステップS288において、CPU131が、サムネイル305−1,305−3,305−4のいずれかがタッチペン43−1によりタッチされたと判定した場合(合成画像302の表示、または前景画像431若しくは背景画像401の編集が指示された場合)、CPU131は、撮影画像表示処理を終了し、処理は図21のステップS155に戻り、上述したステップS155以降の処理を繰り返し実行する。
【0226】
図21に戻って、ステップS159において、CPU131が、タッチペン43−1によりタッチされたサムネイルがサムネイル305−2ではないと判定した場合、すなわち、タッチペン43−1によりタッチされたサムネイルはサムネイル305−4である(合成画像302の表示が指示された)と判定した場合、処理はステップS154に戻り、上述したステップS154以降の処理が繰り返し実行される。
【0227】
以上のようにして、写真シール自動販売機1の画像編集処理が実行される。
【0228】
ところで、図7のステップS52の撮影モードの選択の受付処理、ステップS53の撮影処理、ステップS55の編集処理、およびステップS56の画像配置の選択の受付処理には、それぞれ、制限時間が設定されており、CPU131は、予め設定された制限時間内で、上記した各処理を実行する。
【0229】
次に、図39のフローチャートを参照して、写真シール自動販売機1の編集時間制御処理、すなわち、図7のステップS55の編集処理の時間を制御する処理について説明する。
【0230】
図7のステップS55の編集処理が開始されて、編集用モニタ41−1および41−2に、図14に示されるような画面が表示されたとき、ステップS301において、CPU131は、予め設定された制限時間のカウントダウンを開始する。
【0231】
ステップS302において、CPU131は、ステップS301でカウントダウンを開始した制限時間が経過したか否か、または、タッチペン43−1により、編集用モニタ41−1に表示された終了ボタン303がタッチされ、かつ、タッチペン43−2により、編集用モニタ41−2に表示された終了ボタン303がタッチされるまで待機する。
【0232】
ステップS302において、CPU131が、制限時間が経過したと判定したか、または、タッチペン43−1により編集用モニタ41−1に表示された終了ボタン303がタッチされ、かつ、タッチペン43−2により編集用モニタ41−2に表示された終了ボタン303がタッチされたと判定した場合、処理はステップS303に進む。
【0233】
ステップS303において、CPU131は、図7のステップS55の編集処理を終了させる。例えば、ユーザが編集操作を入力中に、制限時間が経過した場合、CPU131は、その時点で入力された編集操作までを採用して、前景画像431または背景画像401を編集する。図7において、ステップS55の編集処理が終了した後、処理はステップS56に進む。
【0234】
ところで、写真シール自動販売機1は、図14乃至図17に示されるような画面を編集用モニタ41に表示させ、ユーザからの編集の入力を受け付けることもできるが、図14乃至図17は、編集用モニタ41に表示させる画面の一例であり、その他の画面を編集用モニタ41に表示させ、ユーザからの編集の入力を受け付けることもできる。
【0235】
編集用モニタ41に表示される画面の、図14乃至図17とは異なる例を、図40乃至図43に示す。図40乃至図43には、図7のステップS55の処理の間、編集用モニタ41−1に表示される画面の、図14乃至図17とは異なる例が示されている。
【0236】
図40において編集用モニタ41−1に表示されている終了ボタン303、画像選択部304、ペンメニュ307、スタンプメニュ308、太さ選択メニュ309、色選択メニュ310、消しゴムボタン311、やりなおしボタン312、およびはじめからやりなおしボタン313は、図14において表示されている同一符号のものと同一の機能を有している。
【0237】
また、図40においては、編集用モニタ41−1の中央、前面に画像表示領域501が設けられ、画像表示領域501に、合成画像302が表示されている。ユーザは、画像表示領域501に表示された合成画像302により、落書き結果を把握することができる。また、画像表示領域501の左方には、合成画像縮小表示領域503が設けられ、合成画像縮小表示領域503内に、合成画像302が縮小された縮小合成画像504が表示されている。ユーザは、合成画像縮小表示領域503内に表示された縮小合成画像504により、入力した落書きの結果を把握しながら、落書きを行うことができる。なお、合成画像縮小表示領域503内の縮小合成画像504の表示は、背景画像401、または前景画像431の落書きが更新されると、直ちに更新される。従って、ユーザは、入力した編集操作に対応する落書きの結果を、リアルタイムで把握しながら、落書きを行うことができる。
【0238】
また、撮影画像表示領域501の上方には、タブ502−1乃至502−4が表示されている。タブ502−1には、「背景」の文字が表示され、タブ502−2には、「撮影結果」の文字が表示され、タブ502−3には、「前景」の文字が表示され、タブ502−4には、「合成」の文字が表示されている。図40においては、タブ502−1乃至502−4が、同一の明るい色で表示されている。
【0239】
タッチペン43−1により、タブ502−1が触れられた場合、CPU131は、編集用モニタ41−1に、図41に示される画面を表示させる。図41においては、タブ502−2,502−3,502−4が、タブ502−1より、薄暗い色で表示されている。また、図41においては、前面に設けられた画像表示領域521内に、合成画像321が表示されている。ユーザは、タッチペン43−1により、画像表示領域521内の合成画像321に対して落書きを入力することができる。
【0240】
タッチペン43−1により、タブ502−3が触れられた場合、CPU131は、編集用モニタ41−1に、図42に示される画面を表示させる。図42においては、タブ502−4が、タブ502−1,502−2,502−3より、薄暗い色で表示されている。また、図42においては、前面に設けられた画像表示領域531内に、合成画像331が表示されている。ユーザは、タッチペン43−1により、画像表示領域531内の合成画像331に対して落書きを入力することができる。
【0241】
タッチペン43−1により、タブ502−1が触れられた場合、CPU131は、編集用モニタ41−1に、図43に示される画面を表示させる。タブ502−3およびタブ502−4は、図43においては点線で示されているが、実際には、タブ502−1およびタブ502−2より、若干、薄暗い色として表示されている。また、図43においては、前面に設けられた画像表示領域541内に、撮影画像341が表示されている。ユーザは、画像表示領域541内の撮影画像341により、撮影画像341を確認することができる。
【0242】
図14乃至図17の例においては、タッチペン43−1により、サムネイル305−1乃至305−4の中から、いずれかのサムネイルの指定を受け付けることにより、画像表示領域301に、指定されたサムネイルに対応する画像を表示させていた。それに対して、図40乃至図23の例においては、タッチペン43により、タブ502−1乃至502−4の中から、いずれかのタブの指定を受け付けることにより、指定されたタブに対応する画像表示領域501,521,531,541のいずれか)を編集用モニタ41−1の中央、前面に設け、画像表示領域に、指定されたタブに対応する画像を表示させる。
【0243】
ところで、本発明の写真シール自動販売機1においては、背景画像401に描画した落書きと撮影画像341との合成を自然に行うために、半透明合成処理を行う。
【0244】
半透明合成処理とは、例えば撮影画像341と背景画像401とを合成する際に、合成重みという層を設け、合成重み値を、0乃至255の間で、徐々に変化させることにより、撮影画像341が背景画像401に溶け込んだような画像を作成する処理である。この処理は、勿論、撮影画像341と前景画像431とを合成する際にも行われる。
【0245】
合成重み値の変化のさせ方に従って、例えば撮影画像341を背景画像401から際立たせたり、反対に、ぼやかしたりすることができる。同様に、前景画像431を撮影画像341から際立たせたり、反対に、ぼやかしたりすることができる。そこで、例えば、図14に示された画面において、撮影画像341と背景画像401の間の合成重み値の変化のさせ方を操作するボタンを設けるようにすることにより、ユーザは、撮影画像341を背景画像401から際立たせたり、ぼかしたり、自由に操作することができる。同様に、前景画像431と撮影画像341の間の合成重み値の変化のさせ方を操作するボタンを設けるようにすることにより、ユーザは、前景画像431を撮影画像341から際立たせたり、ぼかしたり、自由に操作することができる。
【0246】
ところで、写真シール自動販売機1の面1C側の構成は、図2においては、編集用モニタを、編集用モニタ41−1および41−2の2つ設ける構成になっているが、面1C側に設ける編集用モニタの個数は、2個ではなくても良い。写真シール自動販売機1の面1C側に設ける編集用モニタの個数は、例えば4個でも良い。写真シール自動販売機1の面1C側に設ける編集用モニタの個数が4個の場合の、面1C側の構成例を、図44に示す。
【0247】
図44においては、面1Cに、編集用モニタ41−1乃至41−4が設置され、編集用モニタ41−1乃至41−4のそれぞれの下には収納部42−1乃至42−4が設けられ、そこに、タッチペン43−1乃至43−4が収納される。
【0248】
図44のような外観構成を有する写真シール自動販売機1の内部の構成例を、図45に示す。図45に示されるように、編集用モニタ41−1乃至41−4のそれぞれが制御装置91に接続され、編集用モニタ41−1乃至41−4のそれぞれに対応するタッチパネル94−1乃至94−4が設けられている。それ以外の構成は、図5と同様である。
【0249】
このように、4つの編集用モニタを有する写真シール自動販売機1の場合、図46に示されるように、ユーザ561−1乃至561−4は、それぞれ、編集用モニタ41−1乃至41−4の前において、タッチペン43−1乃至43−4を用いて、編集を入力する。
【0250】
4つの編集用モニタを有する写真シール自動販売機1の場合、編集用モニタ41−1乃至41−4のそれぞれに、図14乃至図17、または図40乃至図43のような編集画面を表示させて、ユーザ561−1乃至561−4からの編集の入力を受け付けるようにすることが可能である。また、4つある編集用モニタのそれぞれに、合成画像321、撮影画像341、合成画像331、および合成画像302を表示するようにしても良い。4つある編集用モニタのそれぞれに、合成画像321、撮影画像341、合成画像331、および合成画像302を表示させた場合の、編集用モニタ41−1乃至41−4の表示例を、図47に示す。
【0251】
図47においては、編集用モニタ41−1に合成画像321が表示され、編集用モニタ41−2に撮影画像341が表示され、編集用モニタ41−3に合成画像331が表示され、編集用モニタ41−4に合成画像302が表示されている。また、編集用モニタ41−1および編集用モニタ41−3には、それぞれ、ボタン表示欄612−1およびボタン表示欄612−2が表示されている。ボタン表示欄612−1および612−2は、ペンメニュ、スタンプメニュ、太さ選択メニュ、色選択メニュ、消しゴムボタン、および終了ボタンなどにより構成されている。
【0252】
ユーザは、ボタン表示欄612−1および612−2の中から、所望するボタン等を選択することにより、所望する効果を有する落書きを、合成画像321、または、合成画像331に入力することができる。また、ユーザ561−1は、タッチペン43−1により、ボタン表示欄612−1を、編集用モニタ41−1内の所望の位置に移動させることができる。また、ユーザ561−3は、タッチペン43−3により、ボタン表示欄612−2を、編集用モニタ41−3内の所望の位置に移動させることができる。
【0253】
また、編集用モニタ41−2には、撮影画像加工ボタン表示欄613が表示されている。ユーザは、撮影画像加工ボタン表示欄613の中から、所望するボタンを選択して、撮影画像341自体を加工することができる。例えば、撮影画像341の一部分を引き伸ばしたり、反対に縮めたり、被写体をセピア色に変色させたりすることができる。また、ユーザ561−2は、タッチペン43−2により、撮影画像加工ボタン表示欄613を、編集用モニタ41−2内の所望の位置に移動させることができる。
【0254】
また、編集用モニタ41−1乃至41−3には、それぞれ、合成画像縮小表示領域601−1乃至601−3が設けられ、合成画像縮小表示領域601−1乃至601−3内に、縮小された合成画像302が表示されている。ユーザ561−1は、タッチペン43−1により、合成画像縮小表示領域601−1を、編集用モニタ41−1内の所望の位置に移動させることができる。また、ユーザ561−2は、タッチペン43−2により、合成画像縮小表示領域601−2を、編集用モニタ41−2内の所望の位置に移動させることができる。また、ユーザ561−3は、タッチペン43−3により、合成画像縮小表示領域601−3を、編集用モニタ41−3内の所望の位置に移動させることができる。
【0255】
ユーザ561−1乃至561−4は、編集用モニタ41−1乃至41−4に表示された画像を確認しつつ、分担して、画像への落書きの入力を行うことができる。従って、ユーザ561−1乃至561−4は、より短時間に、多くの編集を入力することができる。
【0256】
なお、図44、および図46に示される例においては、編集用モニタ41−1乃至41−4の複数のモニタが、面1Cに設置されているが、このことは、本発明が、複数の編集用モニタを設置することに限定されることを意味するものではない。
【0257】
例えば、面1Cに、編集用モニタ41−1乃至41−4の画面を合計した面積と同一、あるいはそれ以上の面積を有する大型モニタを1つ設置し、図47の編集用モニタ41−1乃至41−4に表示されている4つの画面と同一の画面を仮想画面として大型モニタに表示させるようにしても良い。
【0258】
特に、面1Cに設置する大型モニタを、鉛直方向の辺が長い大型モニタにした場合(例えば、面1Cの床からの高さが50cm乃至200cmの範囲全体をモニタとした場合)、ユーザの身長に合わせた高さに、仮想画面を表示させるようにすることができる。
【0259】
具体的には、例えば、編集処理の開始時に、図47の編集用モニタ41−1乃至41−4に表示されている4つの画面と同一の4つの仮想画面を、大型モニタの、所定の高さ位置(例えば、床からの高さが100cm位の位置)に表示させる。そして、例えば、ユーザが、タッチペン43により、所望する仮想画面の所定の位置にタッチし、仮想画面にタッチしたまま、タッチペン43を上下に移動させた場合、CPU131は、その仮想画面の表示位置(高さ)をタッチペン43の移動に合わせて移動させる。
【0260】
これにより、個々のユーザ561−1乃至561−4は、自分の身長に合った、最適な高さに仮想画面を表示させて、編集操作を入力することができる。従って、ユーザ561−1乃至561−4は、編集入力をし易くなり、結果的に、より満足の行く落書きを行うことができる。
【0261】
さらに、例えば、大型モニタに表示された仮想画面を、左右方向にも移動可能なようにしてもよい。すなわち、例えば、ユーザが、タッチペン43により、大型モニタ上の所望する仮想画面にタッチし、仮想画面にタッチしたまま、タッチペン43を上下左右に移動させた場合、CPU131は、タッチペン43の移動に合わせて、その仮想画面の表示位置を上下左右に移動させる。これにより、ユーザは、隣で編集操作を入力しているユーザと、担当する仮想画面を交換することもできる。
【0262】
また、例えば、大型モニタに表示された仮想画面の表示サイズを変更可能なようにしてもよい。すなわち、例えば、ユーザが、タッチペン43により、所望する仮想画面の枠にタッチし、仮想画面の枠にタッチしたまま、タッチペン43を上下左右に移動させた場合、CPU131は、タッチペン43の移動に合わせて、その仮想画面を拡大表示(または縮小表示)させる。これにより、ユーザは、より細部に渡って、落書きを入力することができる。また、例えば、仮想画面のうち1つを、大型モニタ全体に表示させることもできる(他の仮想画面は、大型モニタ全体に表示された仮想画面の背後に隠される)ようにすることにより、大型モニタに、ユーザの等身大、またはそれ以上の大きさの撮影画像(合成画像)を表示することができるため、より娯楽性を増大させることができる。
【0263】
ところで、写真シール自動販売機1の管理者は、写真シール自動販売機1内に装填しているシール紙121がなくなりそうになった場合、新しいシール紙ユニット97に交換することにより、シール紙121を補充する。シール紙121の補充に際し、写真シール自動販売機1のCPU131は、シール紙ユニット97に付されている制御タグ122を照合することにより、補充されたシール紙が、写真シール自動販売機1に適合したものか否かを判別することができる。次に、図48を参照して、写真シール自動販売機1のID検出処理について説明する。
【0264】
図48のステップS501において、CPU131は、写真シール自動販売機1の所定の位置に、シール紙ユニット97が装着されたか否かを監視し、シール紙ユニット97が装着された場合、ステップS502に進む。
【0265】
ステップS502において、CPU131は、制御タグリーダライタ112を制御して、シール紙ユニット97に付されている制御タグ122のIDを読み取り、供給させる。
【0266】
ステップS503において、CPU131は、ステップS502において制御タグリーダライタ112より取得したIDと、予めROM132に記憶しているシール紙IDを照合し、両IDが同一であった場合、ステップS504に進み、CPU131は、記憶部136から、写真シール自動販売機1が使用可能である旨のメッセージを含む画面の画像データをRAM133にロードし、撮影用モニタ16、並びに編集用モニタ41−1および41−2のうち、少なくともいずれか1つのモニタに、写真シール自動販売機1が使用可能である旨のメッセージを含む画面を表示させる。
【0267】
ステップS505において、CPU131は、写真シール自動販売機1を通常のゲーム可能な状態(図7のステップS51の状態)に復帰させる。
【0268】
ステップS503において、CPU131が、制御タグリーダライタ112より取得したIDと、予めROM132に記憶しているシール紙IDが一致しないと判定した場合、CPU131は、ステップS506に進み、記憶部136から、写真シール自動販売機1が使用不可能である旨のメッセージを含む画面の画像データをRAM133にロードし、撮影用モニタ16、並びに編集用モニタ41−1および41−2のうち、少なくともいずれか1つのモニタに、写真シール自動販売機1が使用不可能である旨のメッセージを含む画面を表示させる。
【0269】
そして、ステップS507において、CPU131は、写真シール自動販売機1が使用不可能(ゲーム不可能)に設定する。その方法としては、例えば、硬貨投入口18から硬貨を投入されないように、硬貨投入口18にシャッタを下ろすことなどが可能である。
【0270】
なお、本実施の形態においては、シール紙ユニット97に制御タグ122を付すようにしたが、シール紙ユニット97に装填されているシール紙121の種類を識別することが可能であれば、その他の方法により、シール紙121を識別するようにしても構わない。
【0271】
例えば、制御タグ122の代わりに、バーコード、ICカード等の方法を用いて、シール紙ユニット97を識別するようにしてもよい。また、シール紙ユニット97の写真シール自動販売機への装着部分の形状を、写真シール自動販売機の機種毎に異なるものにし、適合するシール紙ユニット97だけ、写真シール自動販売機1に装着可能なようにしても良い。
【0272】
また、シール紙121とシール紙ユニット97を分離可能に構成することも可能であり、また、一体的に構成することも可能である。
【0273】
以上において、印刷媒体はシール紙として説明したが、シール紙に限られるものではなく、例えば、所定のサイズの紙や、ポスター用の紙などに印刷するようにしてもよい。また、撮影した画像データを、ユーザが自ら用意したフロッピディスクなどの記録媒体に記録させることができるようにしてもよい。
【0274】
上述した一連の処理は、ハードウエアにより実行させることもできるが、ソフトウエアにより実行させることもできる。一連の処理をソフトウエアにより実行させる場合には、そのソフトウエアを構成するプログラムが、専用のハードウエアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、ネットワークや記録媒体からインストールされる。
【0275】
この記録媒体は、図6に示されるように、装置本体とは別に、ユーザにプログラムを提供するために配布される、プログラムが記録されている磁気ディスク151(フレキシブルディスクを含む)、光ディスク152(CD−ROM(Compact Disk−Read Only Memory),DVD(Digital Versatile Disk)を含む)、光磁気ディスク153(MD(Mini−Disk)を含む)、もしくは半導体メモリ154などよりなるパッケージメディアにより構成されるだけでなく、装置本体に予め組み込まれた状態でユーザに提供される、プログラムが記録されているROM132や、記憶部136に含まれるハードディスクなどで構成される。
【0276】
なお、以上に説明した、本実施の形態においては、背景画像401への編集操作を受け付ける場合、図15に示されるような合成画像321を画像表示領域301に表示しているが、合成画像321を表示する代わりに、背景画像401を表示するようにしても良い。その場合、サムネイル305−1として、背景画像401のサムネイルを表示するようにしても良い。
【0277】
また、本実施の形態においては、前景画像431への編集操作を受け付ける場合、図16に示されるような合成画像331を画像表示領域301に表示しているが、合成画像331を表示する代わりに、前景画像431を表示するようにしても良い。その場合、サムネイル305−3として、前景画像431のサムネイルを表示するようにしても良い。
【0278】
また、上記した実施の形態においては、図34に示されるように、CPU131は、撮影画像341、背景画像401、および前景画像431をレイヤ構造で管理している。しかしながら、このことは、本発明が、撮影画像341、背景画像401、および前景画像431をレイヤ構造で管理することに限定されることを意味するものではない。
【0279】
例えば、CPU131が、前景画像431を除いた2つの画像、すなわち撮影画像341、および背景画像401をレイヤ構造で管理するようにしても良い。例えば、ユーザが、予め、被写体の前景に落書きをしないつもりの場合、前景画像431のサムネイル305−3(または前景画像を表示させるタブ502−3)を編集用モニタ41に表示させることは、無意味なばかりではなく、ユーザの誤操作を引き起こす原因となることもある。そこで、このような場合、前景画像431のサムネイル305−3(または前景画像を表示させるタブ502−3)を編集用モニタ41に表示させないようにしても良い。
【0280】
具体的には、例えば、編集処理の開始当初に、CPU131が、編集用モニタ41に、「被写体の前景に落書きを入力する? はい いいえ」のような案内を表示させる。そして、タッチペン43により「いいえ」がタッチされた場合、CPU131は、前景画像431のサムネイル305−3(または前景画像を表示させるタブ502−3)を編集用モニタ41に表示させないようにする。これにより、編集用モニタ41には、ユーザが必要とするサムネイル(またはタブ)だけが表示されるので、誤操作を引き起こす可能性を減少させ、操作性をさらに改善することができる。その場合、CPU131は、図34において、前景画像431を除いた2つの画像、すなわち撮影画像341、および背景画像401をレイヤ構造で管理する。
【0281】
同様に、CPU131が、背景画像401を除いた2つの画像、すなわち撮影画像341、および前景画像431をレイヤ構造で管理するようにしても良い。例えば、ユーザが、予め、被写体の背景に落書きをしないつもりの場合、背景画像401のサムネイル305−1(または背景画像を表示させるタブ502−1)を編集用モニタ41に表示させることは、無意味なばかりではなく、ユーザの誤操作を引き起こす原因となることもある。そこで、このような場合、背景画像401のサムネイル305−1(または背景画像を表示させるタブ502−1)を編集用モニタ41に表示させないようにしても良い。
【0282】
具体的には、例えば、編集処理の開始当初に、CPU131が、編集用モニタ41に、「被写体の背景に落書きを入力する? はい いいえ」のような案内を表示させる。そして、タッチペン43により「いいえ」がタッチされた場合、CPU131は、背景画像401のサムネイル305−1(または背景画像を表示させるタブ502−1)を編集用モニタ41に表示させないようにする。これにより、編集用モニタ41には、ユーザが必要とするサムネイル(またはタブ)だけが表示されるので、誤操作を引き起こす可能性を減少させ、操作性をさらに改善することができる。その場合、CPU131は、図34において、背景画像401を除いた2つの画像、すなわち撮影画像341、および前景画像431をレイヤ構造で管理する。
【0283】
また、上記した実施の形態においては、図34に示されるように、前景画像431、および背景画像401は、それぞれ1枚ずつ管理されているが、図34に示されたレイヤ構造において、背景画像401の下に、さらに1枚以上の背景画像を重ねるようにしても良い。同様に、図34に示されたレイヤ構造において、前景画像431の上に、さらに1枚以上の前景画像を重ねるようにしても良い。このように、背景画像をさらに細かいレイヤ構造とし、前景画像をさらに細かいレイヤ構造とすることにより、ユーザは、より、細かい部分への編集操作の入力を行うことができる。なお、この場合、レイヤ構造を構成する全ての画像に対応するサムネイル(またはタブ)を編集用モニタ41に表示させるようにすると良い。
【0284】
なお、本明細書において、システムとは、複数の装置により構成される装置全体を表すものである。
【0285】
【発明の効果】
以上のように、本発明によれば、ユーザは、撮影された画像を編集することができる。
【0286】
また、本発明によれば、ユーザが背景画像、または前景画像に、誤って落書きを入力したり削除したりすることを防止することができる。また、画面上に表示させるボタン類を少なくすることができる。結果的に、編集時の操作性を改善することができる。
【0287】
また、本発明によれば、より娯楽性のある編集操作を実現することができる。
【図面の簡単な説明】
【図1】本発明を適用した写真シール自動販売機の外観の例を示す斜視図である。
【図2】本発明を適用した写真シール自動販売機の他の外観の例を示す斜視図である。
【図3】図1の写真シール自動販売機の配置の例を示す図である。
【図4】図1の写真シール自動販売機の配置の例を上方から示す図である。
【図5】図1の写真シール自動販売機の内部構成の例を示すブロック図である。
【図6】図5の制御装置の構成例を示すブロック図である。
【図7】写真シール自動販売機の顧客応対処理を説明するフローチャートである。
【図8】図7のステップS53の処理を詳細に説明するフローチャートである。
【図9】撮影用モニタの表示例を示す図である。
【図10】撮影用モニタの表示例を示す他の図である。
【図11】撮影用モニタの表示例を示すさらに他の図である。
【図12】撮影用モニタの表示例を示す図である。
【図13】撮影用モニタの表示例を示す他の図である。
【図14】編集用モニタの表示例を示す図である。
【図15】編集用モニタの表示例を示す他の図である。
【図16】編集用モニタの表示例を示すさらに他の図である。
【図17】編集用モニタの表示例を示す図である。
【図18】編集用モニタの表示例を示す他の図である。
【図19】シール紙の例を示す図である。
【図20】従来の写真シール自動販売機の編集用モニタの表示例を示す、図14乃至図17の例と比較するための図である。
【図21】図7のステップS55の処理を詳細に説明するフローチャートである。
【図22】図21のステップS151、図36のステップS245、図37のステップS265、および図38のステップS285の処理を詳細に説明するフローチャートである。
【図23】図22のステップS182、ステップS185、およびステップS188の処理を詳細に説明するフローチャートである。
【図24】画像合成処理を説明する図である。
【図25】画像合成処理を説明する他の図である。
【図26】画像合成処理を説明するさらに他の図である。
【図27】画像合成処理を説明する図である。
【図28】画像合成処理を説明する他の図である。
【図29】画像合成処理を説明するさらに他の図である。
【図30】画像合成処理を説明する図である。
【図31】画像合成処理を説明する他の図である。
【図32】画像合成処理を説明するさらに他の図である。
【図33】画像合成処理を説明する図である。
【図34】画像のレイヤ構造を説明する図である。
【図35】図21のステップS154の処理を詳細に説明するフローチャートである。
【図36】図21のステップS156の処理を詳細に説明するフローチャートである。
【図37】図21のステップS158の処理を詳細に説明するフローチャートである。
【図38】図21のステップS160の処理を詳細に説明するフローチャートである。
【図39】写真シール自動販売機の編集時間制御処理を説明するフローチャートである。
【図40】編集用モニタの表示例を示す図である。
【図41】編集用モニタの表示例を示す他の図である。
【図42】編集用モニタの表示例を示すさらに他の図である。
【図43】編集用モニタの表示例を示す図である。
【図44】本発明を適用した写真シール自動販売機の図2とは異なる外観の例を示す斜視図である。
【図45】図44の写真シール自動販売機の内部構成の例を示すブロック図である。
【図46】ユーザの配置を説明する図である。
【図47】編集用モニタの表示例を示す図である。
【図48】写真シール自動販売機のID検出処理を説明するフローチャートである。
【符号の説明】
1 写真シール自動販売機
12 撮影装置
16 撮影用モニタ
17 操作パネル
31 シール取り出し口
41−1,41−2 編集用モニタ
43−1,43−2 タッチペン
91 制御装置
94−1,94−2 タッチパネル
97 シール紙ユニット
131 CPU
133 RAM
136 記憶部
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a photo sticker vending machine and method, a print medium, and a print medium unit, and more particularly to a photo sticker vending machine and method, a print medium, and a print medium unit with improved operability when editing an image.
[0002]
[Prior art]
2. Description of the Related Art Conventionally, a photo sticker vending machine (for example, Print Club (trademark)) which takes an image of a user, combines the image with a frame image prepared in advance, and prints the image on a sticker or the like to provide the image is provided. In the photo sticker vending machine, a user can write (edit) arbitrary characters, figures, and the like on a taken image with an attached pen (hereinafter, referred to as a touch pen). There are things that do.
[0003]
When playing a game with such a photo sticker vending machine, the user first pays for the price, then shoots himself, then applies scribble (edit) to the shot image, and finally displays the scribbled image. Receive the printed sticker.
[0004]
When performing an editing process, a photo sticker vending machine displays a plurality of pens (brushes) having different colors, thicknesses, patterns, and the like on a display, and selects a pen (brush) desired by the user from these. Let me choose. Then, an input of a graffiti with a touch pen is accepted on the captured image displayed on the display. The photo sticker vending machine draws a line corresponding to the pen (brush) selected by the user on the photographed image according to the locus of the received input.
[0005]
Also, when performing the editing process, the photo sticker vending machine displays a plurality of stamps having different colors, shapes, patterns, and the like on a display, and allows the user to select a desired stamp from these. Then, an input of the position where the stamp is to be attached by the touch pen is accepted on the captured image displayed on the display. The photo sticker vending machine draws the stamp selected by the user on the captured image according to the received input position. Further, a function of drawing different stamps at predetermined intervals on the locus of the touch pen (rolling stamp) is also common.
[0006]
In addition, the photo sticker vending machine displays a button for erasing graffiti on the display, and if the user does not like the drawn line or stamp, touch the button for erasing graffiti with the touch pen and then want to erase it By touching the part of the graffiti, the drawn graffiti can be erased as if the eraser erased the picture.
[0007]
In the above-described editing operation, the user may want to input graffiti near the subject (the area where the user is located in the captured image), but does not want to graffiti on the subject. In such a case, the user must operate the touch pen with great care so as not to input graffiti on the subject. However, in spite of that, there is a case where a graffiti is accidentally input on the subject.
[0008]
In order to solve such a problem, some photo sticker vending machines can invalidate graffiti input on a subject by a predetermined operation from a user. Things exist.
[0009]
In order to realize this function, the photo sticker vending machine manages three layers (layers) of images at the time of editing processing. That is, the photo sticker vending machine uses a photographed image, an image of graffiti input behind the subject (hereinafter referred to as a background image), and an image of graffiti input before the subject (hereinafter referred to as a foreground image). Are managed in a layer structure. The photo sticker vending machine displays a composite image in which these three images are superimposed in order from the top in the order of a foreground image, a photographed image, and a background image on a display.
[0010]
If the user wants to graffiti the background image (that is, does not want to paint the subject with graffiti), the user specifies the background image and then inputs the graffiti on the captured image displayed on the display. Then, the input graffiti is not reflected in the area where the subject is displayed, but is reflected in the other areas (lines and stamps corresponding to the graffiti are drawn). When the user wants to delete the graffiti drawn on the background image, the user can delete the graffiti drawn on the background image after designating the background image and touching a button for deleting the graffiti.
[0011]
When the user wants to draw graffiti on the foreground image (that is, when drawing a line or a stamp on the subject), the user specifies the foreground image and then inputs the graffiti on the captured image displayed on the display. . Then, the input graffiti is reflected on all the regions without distinguishing between the region where the subject is displayed and the other region, and a line or a stamp corresponding to the graffiti is drawn. When the user wants to delete the graffiti drawn on the foreground image, the user can delete the graffiti drawn on the foreground image after specifying the foreground image and touching a button for deleting the graffiti.
[0012]
[Problems to be solved by the invention]
However, conventionally, on the display of a photo sticker vending machine, only a composite image obtained by combining the foreground image, the photographed image, and the background image without distinction is displayed. There is a problem that it is difficult to determine whether the input is a graffiti input to the foreground image or a graffiti input to the foreground image.
[0013]
Therefore, the user may specify the image on which the graffiti to be deleted is not drawn from the foreground image and the background image in order to delete the drawn graffiti. As a result, there is a problem that the user accidentally erases graffiti that he does not want to erase.
[0014]
In particular, immediately after the input of the graffiti, the user remembers whether the graffiti is input for the foreground image or the background image, but after starting the doodle. As time goes on, that memory becomes uncertain. Therefore, when erasing graffiti input at the beginning of starting graffiti, the user often erases graffiti that he does not want to erase.
[0015]
In addition, since only the composite image is displayed on the display of the photo sticker vending machine, the user forgets to specify the foreground image (background image) and inputs the graffiti into the background image (foreground image). There is a problem that a graffiti may be input to the foreground image (background image).
[0016]
In order to solve such a problem, a pen, a stamp, and an erase button for a background image and a pen, a stamp, and an erase button for a foreground image are separately displayed on a display. However, in this case, the number of buttons to be displayed on the display increases, and it becomes difficult for the user to quickly select a desired button from the buttons. was there.
[0017]
The present invention has been made in view of such circumstances, and has as its object to improve operability at the time of image editing.
[0018]
[Means for Solving the Problems]
The photo sticker vending machine of the present invention is composed of a first image obtained by photographing a subject, a second image synthesized as a background with the first image, and a foreground synthesized with the first image. Selecting means for selecting a third image, or a fourth image obtained by synthesizing the first image, the second image, and the third image, and a first image, a second image, and a third image. Control means for controlling the display of the image and the fourth image so that the image selected by the selection means can be distinguished from the unselected image.
[0019]
In the photo sticker vending machine of the present invention, the first image obtained by photographing the subject, the second image synthesized as the background with the first image, and the first image A third image synthesized as a foreground, or a fourth image obtained by synthesizing the first image, the second image, and the third image is selected, and the first image and the second image are synthesized by the control unit. The display is controlled so that the image selected by the selection unit among the image, the third image, and the fourth image can be distinguished from the unselected image.
[0020]
Therefore, when the user inputs an editing operation, whether the user is going to input an editing operation for creating a second image (background image) or an editing operation for creating a third image (foreground image) The user can be identified whether the operation is being input. Which graffiti (lines, characters, stamps, etc.) among the already edited images belongs to the second image (background image) and which graffiti belongs to the third image (foreground image) Can be identified by the user.
[0021]
This selection means is constituted by, for example, a thumbnail or a tag displayed on the monitor. The control means is constituted by, for example, a CPU.
[0022]
According to the control of the control means, a display means for displaying an image selected by the selection means so as to be distinguishable from an unselected image, and a reception means for receiving an operation input from a user are further provided. Can be.
[0023]
The display means is composed of, for example, a CRT (Cathode-Ray Tube), and the reception means is composed of, for example, a touch pen and a touch panel.
[0024]
The control means, when the second image is selected by the selecting means, causes the receiving means to receive an input of an editing operation on the second image, and the input is received by the receiving means. The second image is edited based on an editing operation, and when the third image is selected by the selecting unit, the receiving unit is made to receive an input of an editing operation for the third image, and The third image can be edited based on the editing operation whose input has been received by the receiving unit.
[0025]
This allows the user to edit the background and foreground.
[0026]
The control unit includes tabs respectively corresponding to the first image, the second image, the third image, and the fourth image, and the image selected by the selection unit. The receiving means is configured to receive a selection of one of the tabs from among the plurality of tabs displayed by the display means. The image corresponding to the tab whose selection has been accepted may be selected.
[0027]
Thus, the user can display the image corresponding to the tab by selecting the displayed tab.
[0028]
The control means includes thumbnails respectively corresponding to the first image, the second image, the third image, and the fourth image, and the image selected by the selection means. And the receiving means receives a selection of one of the thumbnails from the plurality of thumbnails displayed by the display means, and the selecting means includes: The image corresponding to the thumbnail whose selection has been accepted can be selected.
[0029]
Thus, the user can display the image corresponding to the thumbnail by selecting the displayed thumbnail. Further, the user can grasp the editing status of the background and the foreground by looking at the displayed thumbnail of the background and the thumbnail of the foreground.
[0030]
A fifth image obtained by synthesizing the first image, the second image, and the third image so that an area where the second image is synthesized can be distinguished from other areas; And a sixth image obtained by synthesizing the first image, the second image, and the third image so that an area where the third image is synthesized can be distinguished from other areas. And a thumbnail corresponding to the first image, the fifth image, the sixth image, and the fourth image, respectively, and the selection unit. The selected image is displayed on the display means, and the receiving means receives one of the thumbnails selected from the plurality of thumbnails displayed by the display means, Selection The means may be adapted to select the image corresponding to the thumbnail selected by the reception unit has been accepted.
[0031]
Thus, the user can display the image corresponding to the thumbnail by selecting the displayed thumbnail. Also, the user can grasp the positional relationship between the background and the subject and the foreground, and the positional relationship between the foreground and the subject and the background by looking at the displayed thumbnail.
[0032]
The control means, when the fifth image is selected by the selection means, causes the receiving means to receive an input of an editing operation on the fifth image, and the input is received by the receiving means. The second image is edited based on the editing operation, and when the sixth image is selected by the selecting means, the input of the editing operation on the sixth image is received by the receiving means. The third image can be edited based on the editing operation whose input has been received by the receiving unit.
[0033]
This allows the user to edit the background while grasping the positional relationship between the background and the subject and the foreground. Further, the user can edit the foreground while grasping the positional relationship between the subject and the background in the foreground.
[0034]
A printing unit for printing the fourth image on a predetermined print medium may be further provided.
[0035]
Thereby, the print medium on which the edited image is printed can be provided to the user.
[0036]
Reading means for reading identification information for identifying the mounted print medium, wherein the control means is configured to read the print medium based on a result of reading by the reading means. Printing can be controlled.
[0037]
As a result, only the print medium produced for the photo sticker vending machine of the present invention can be used, and the use of non-genuine products can be suppressed.
[0038]
The reading means is constituted by, for example, an IC tag (control tag) reader / writer.
[0039]
The print medium unit according to the present invention is characterized in that the print medium on which an image is printed by the printing means is stored, and the identification information read by the reading means is held.
[0040]
The identification information is configured by a memory such as an IC tag (control tag) or an IC card, and stores a unique ID as unit identification information.
[0041]
In this way, the print medium unit can be used only when the identification information is authenticated, so that only the unit produced for the photo sticker vending machine of the present invention can be used, and other than the so-called genuine product Can be prevented from being used. Further, when a bar code or the like is attached to the print medium unit, whether or not the print medium unit is a genuine product may be determined based on the bar code.
[0042]
The print medium of the present invention is a print medium on which an image is printed by the above-described photo sticker vending machine.
[0043]
According to the photo sticker selling method of the present invention, a photographing step of photographing a subject, a first image obtained by photographing the subject by the processing of the photographing step, a second image synthesized as a background with the first image Selecting a third image synthesized as a foreground with the first image, or a fourth image obtained by synthesizing the first image, the second image, and the third image; A control step of controlling the display of the first image, the second image, the third image, and the fourth image so that the image selected by the processing of the selection step can be distinguished from an unselected image; And characterized in that:
[0044]
BEST MODE FOR CARRYING OUT THE INVENTION
FIG. 1 is a perspective view showing a configuration example of a photo sticker vending machine 1 to which the present invention is applied.
[0045]
A photographing device 12 is provided on a vertical surface 1A of the photo sticker vending machine 1 via a holding member 13 so as to protrude from the surface 1A. The photographing device 12 can be moved up and down within a predetermined range in accordance with a rail 14 provided in a direction perpendicular to the surface 1A. Further, the photographing device 12 is attached to the holding member 13 so as to be able to swing up and down in a vertical plane about a joint with the holding member 13.
[0046]
Therefore, the user using the photo sticker vending machine 1 adjusts the photographing device 12 to a desired height in accordance with the rails 14, and the front (CCD (Charge Coupled Device) 21 and image display unit 22) of the photographing device 12 (The surface provided) can be adjusted to a desired angle for photographing.
[0047]
The imaging device 12 is provided with a CCD 21, and an image display unit 22 is provided below the CCD 21. The image of the subject is captured by the CCD 21, and the captured image (moving image) is displayed on the image display unit 22 in real time. At a predetermined photographing timing, photographing is performed by the CCD 21, and the image of the user (subject) is stored in the photo sticker vending machine 1 as a still image. Since the image display unit 22 is provided in the vicinity of the CCD 21, the user can shoot while checking his / her own image displayed on the image display unit 22 while looking at the CCD 21. .
[0048]
A flash irradiation unit 15-1 is provided on the left side of the imaging device 12 (rail 14), and a flash irradiation unit 15-2 is provided on the right side. The flash irradiators 15-1 and 15-2 transmit the flash light emitted from the illumination device provided inside the photo sticker vending machine 1 at the timing when the image is captured by the imaging device 12 (CCD 21), Illuminate the subject.
[0049]
Below the flash irradiator 15-2, there is provided a photographing monitor 16 composed of an LCD (Liquid Crystal Display), a CRT (Cathode-Ray Tube), or the like. The photographing monitor 16 may be configured by a projector and a screen.
[0050]
Various messages for guiding the photographing method and the like are displayed on the photographing monitor 16 in accordance with the stage (progress stage) of the photographing process. Further, since the photographed image is displayed on the photographing monitor 16, the user can select an image to be edited (graffiti) from the displayed photographed images. As will be described later, after the photographing is completed, the user can move to the back side of the photo sticker vending machine 1, input desired characters, figures, and the like to the photographed image and edit the photographed image.
[0051]
The operation unit 11 is provided below the imaging monitor 16 so as to protrude from the surface 1A. The upper surface 11A of the operation unit 11 is provided so as to face slightly obliquely upward, and the operation panel 17 is provided there. The user proceeds with the shooting process using various buttons provided on the operation panel 17.
[0052]
The operation panel 17 includes, for example, an "O button" operated when deciding various selections displayed on the photographing monitor 16, and an "X button" operated when canceling the decided one. An "arrow button" or the like operated when moving a cursor or the like displayed on the photographing monitor 16 up, down, left, or right is arranged. In addition, a “photographing start button” which is operated when photographing is started is appropriately arranged. The operation unit 11 is also provided with a touch pen or the like for performing various selections by directly pressing the operation monitor 11 on the imaging monitor 16. Operation panel 17 transmits an operation signal corresponding to the operation input by the user to control device 91 (FIG. 5).
[0053]
A coin slot 18 is provided at the lower left of the surface 1A. When taking a picture using the photo sticker vending machine 1, the user inserts a predetermined price into the coin slot 18.
[0054]
Below the left side surface 1B of the photo sticker vending machine 1, a sticker outlet 31 is provided. A predetermined number of photographed and edited images are printed on a sticker sheet in a predetermined size, and the obtained sticker sheet is discharged from the sticker outlet 31.
[0055]
FIG. 2 is a perspective view showing a configuration example on the surface 1C side, which corresponds to the opposite side of the surface 1A of the photo sticker vending machine 1. In the following, the surface provided with the surface 1A will be appropriately described as the front of the photo sticker vending machine 1, and the surface provided with the surface 1C corresponding to the opposite side of the surface 1A will be referred to as the photo sticker vending machine. Description will be given as the back of the machine 1.
[0056]
On the surface 1C of the photo sticker vending machine 1, the editing monitors 41-1 and 41-2 (in the following description, if it is not necessary to distinguish the editing monitors 41-1 and 41-2 individually, they are collectively Editing monitors 41) are juxtaposed in the horizontal direction. A storage unit 42-1 is provided below the editing monitor 41-1. The touch pen 43-1 for editing an image by directly pressing the editing monitor 41-1 is stored therein. . Similarly, a storage portion 42-2 is provided below the editing monitor 41-2, and a touch pen 43-2 for editing an image by directly pressing the editing monitor 41-2 is provided therein. Is stored. In the following description, the touch pens 43-1 and 43-2 are collectively referred to as a touch pen 43 when it is not necessary to distinguish them individually.
[0057]
The image photographed by the photographing device 12 and selected as the image to be edited is displayed on the editing monitors 41-1 and 41-2 after the user completes the photographing process. A touch panel is stacked on the editing monitors 41-1 and 41-2, and the user can use the touch pens 43-1 and 43-2 to display arbitrary characters and graphics on the displayed image. Can be written (input). In the following description, the touch pen 43-1 (43-2) is pressed against the touch panel 94-1 (94-2) (FIG. 5) stacked on the editing monitor 41-1 (41-2). , Inputting an operation is also described as “touch with a touch pen 43-1 (43-2)”.
[0058]
On the editing monitors 41-1 and 41-2, buttons for selecting various editing tools are displayed together with the image to be edited. Then, when the button is operated and the image is edited, the edited monitor 41-1 and 41-2 display the edited image generated according to the input.
[0059]
The touch pens 43-1 and 43-2 are configured according to a position detection method (for example, a resistive film type, an ultrasonic type, or the like) of the touch panel stacked on the editing monitors 41-1 and 41-2.
[0060]
FIG. 3 is a diagram illustrating an example of the arrangement of the photo sticker vending machine 1.
[0061]
A background panel 61 is installed at a position facing the front (surface 1A) of the photo sticker vending machine 1 with a predetermined distance therebetween, and the user can take a photographing space between the photo sticker vending machine 1 and the background panel 61. Shooting is performed as 62. The photographing space 62 includes a ceiling member 63 supported by the top surface of the photo sticker vending machine 1 and the background panel 61, and a curtain 64-1 and a side panel so that the inside of the photographing space 62 cannot be seen from the outside. 65-1 are provided.
[0062]
An editing space 73 is provided at a position facing the surface 1C as a space for moving after finishing shooting and editing an image. In the editing space 73, a curtain 72-1 is attached to the curtain frame 71 in order to prevent the inside of the editing space 73 from being seen from the outside. The curtain 72-1 is provided on substantially the same plane as the surface 1B, and the curtain 72-2 is provided at a predetermined distance away from the surface 1C. In this example, the curtain frame 71 is provided on substantially the same plane as the ceiling member 43.
[0063]
FIG. 4 is a diagram showing an example of the arrangement of the photo sticker vending machine 1 from above.
[0064]
As shown in FIG. 4, similarly to the surface 1B, a curtain 64-2 is provided on the right side 1D of the photo sticker vending machine 1 in order to prevent the inside of the photographing space 62 from being viewed from the outside. A side panel 65-2 is provided. The inside of the photographing space 62 (the inside of the background panel 61, the ceiling member 63, the side panels 65-1, 65-2, and the like) is a so-called chroma-key, which is only an image of the user from the images photographed by the photographing device 12. For example, the surface is of a single color such as white or blue so that it can be extracted by processing.
[0065]
With reference to FIG. 4, a description will be given of the movement of the user from the start of shooting to the reception of the sticker sheet.
[0066]
When using the photo sticker vending machine 1, the user enters the photographing space 62 as shown by the outline arrow A1, and performs photographing processing. Therefore, when the photographing space 62 is used, a user who wants to use the photo sticker vending machine 1 waits until the photographing space 62 becomes empty, for example, in the waiting space 74 in front of the side panel 61. Will be.
[0067]
When a predetermined number of images are selected as images to be edited and shooting is completed, the user exits the shooting space 62 as indicated by an outline arrow A2, for example, as indicated by an outline arrow A3. To the editing space 73 provided on the back side of the photo sticker vending machine 1.
[0068]
At this time, the user who has been waiting for a turn in the waiting space 74 (the user who has been waiting for the shooting space 62 to be vacant) moves the group of users who have used the shooting space 62 first to the editing space 73. Accordingly, the user enters the shooting space 62.
[0069]
As described above, the editing monitors 41-1 and 41-2, which can be confirmed from the editing space 73, display images selected in the shooting space 62 and displayed, and the user edits them. When the user has finished editing, the user moves to the print waiting space 75 facing the surface 1B of the photo sticker vending machine 1 as indicated by the outline arrow A4, and the edited image is displayed on the sticker paper. It is printed on 121 and waits until it is ejected.
[0070]
Then, when the sticker paper 121 (FIG. 5) is discharged to the sticker outlet 31, the user receives it and ends the use of the photo sticker vending machine 1. The guidance of these movements is performed by the photographing monitor 16, the editing monitors 41-1 and 41-2, or a speaker (not shown).
[0071]
In this way, by providing a space for photographing, a space for editing, and a space for waiting for printing to be completed in front of different surfaces of the photo sticker vending machine 1, respectively, photographing processing, editing processing, and printing processing are performed. Can be executed in parallel, and the waiting time of the subsequent user can be reduced and the user of the photo sticker vending machine 1 per unit time can be reduced in comparison with the case where these processes are executed in one space. You can increase the number of people. Therefore, profit can be improved. Further, it is possible to secure a long time required for the photographing process, a long time required for the editing process, and the like.
[0072]
FIG. 5 is a block diagram showing an example of the internal configuration of the photo sticker vending machine 1. Detailed description of the above-described configuration will be appropriately omitted.
[0073]
The control device 91 is composed of, for example, a general-purpose personal computer, and controls the overall operation of the photo sticker vending machine 1. Specifically, it is stored in a storage unit 136 (both shown in FIG. 6) configured by a ROM (Read Only Memory) 132 or a hard disk by a CPU (Central Processing Unit) 131 provided in the control device 91. Processing based on the program is executed.
[0074]
The coin processing unit 92 detects when a predetermined money has been inserted into the coin insertion slot 18 by the user, and notifies the control device 91 of the detection. The illumination control unit 93 emits flash light based on an instruction from the control device 91 at the same time as the timing at which the subject is photographed by the photographing device 12. The emitted flash light irradiates a subject (user) via the flash irradiation units 15-1 and 15-2 in FIG.
[0075]
A touch panel 94-1 is laminated on the editing monitor 41-1 provided on the surface 1C of the photo sticker vending machine 1, and a touch panel 94-2 is laminated on the editing monitor 41-2. The touch panels 94-1 and 94-2 output instructions from the user input by the touch pens 43-1 and 43-2 to the control device 91. In the following description, when it is not necessary to individually distinguish the touch panels 94-1 and 94-2, they are collectively referred to as a touch panel 94.
[0076]
The power supply 95 supplies power to each part of the photo sticker vending machine 1.
[0077]
The printer unit 96 includes a printer unit 111 and a control tag reader / writer 112. A seal paper unit 97 attached to the printer unit 96 manages the seal paper 121, identification information for identifying each seal paper unit 97, and the like. It is configured by a control tag 122.
[0078]
When image data subjected to editing processing or the like is supplied from the control device 91, the printer unit 111 seals an image represented by the supplied image data according to the size and division number of the image selected by the user. Printing is performed on the paper 121, and the seal paper 121 is discharged to the seal outlet 31.
[0079]
The control tag reader / writer 112 reads the identification information stored in the control tag 122 by contact or non-contact, and outputs it to the control device 91. The control device 91 determines whether or not the attached seal paper unit 97 is a unit that can be used in the photo sticker vending machine 1 based on the identification information supplied from the control tag reader / writer 112 and uses it. Only when it is determined that the unit can be used, the printer unit 111 is made operable. That is, the control device 91 manages the identification information of the seal paper unit that can be used in the photo sticker vending machine 1.
[0080]
As a result, it is possible to suppress the use of a sticker sheet that is not compatible with the photo sticker vending machine 1 (not a genuine sticker). The control tag 122 also manages the remaining amount of the seal paper 121 and the like. Whether or not the seal paper unit 97 is genuine may be confirmed by a bar code or the like printed on the seal paper unit 97.
[0081]
FIG. 6 is a block diagram illustrating a detailed configuration example of the control device 91 in FIG.
[0082]
The CPU 131 executes various processes according to a program stored in the ROM 132 or a program loaded from the storage unit 136 into a RAM (Random Access Memory) 133. The RAM 133 also appropriately stores data necessary for the CPU 131 to execute various processes.
[0083]
The CPU 131, the ROM 132, and the RAM 133 are mutually connected via a bus 134. The input / output interface 135 is also connected to the bus 134.
[0084]
The input / output interface 135 includes a photographing device 12, a photographing monitor 16, an operation panel 17, editing monitors 41-1 and 41-2, a coin processing unit 92, a lighting control unit 93, and a touch panel 94- shown in FIG. 1 and 94-2 (touch panel 94) and a printer unit 96 are connected.
[0085]
The storage unit 136 stores, in addition to the program executed by the CPU 131, data of an image for editing to be combined with an image of a subject captured by the imaging device 12, data of an image obtained by shooting, and the like. The storage unit 136 appropriately reads and provides the data in response to a request from the CPU 131.
[0086]
A drive 137 is connected to the input / output interface 135, if necessary, and a magnetic disk 151, an optical disk 152, a magneto-optical disk 153, a semiconductor memory 154, or the like is appropriately mounted thereon. The image data is stored in the storage unit 136 as needed.
[0087]
Next, with reference to the flowchart of FIG. 7, the customer service processing of the photo sticker vending machine 1, that is, the entire photo sticker vending machine 1 responding to a customer (user) who uses the photo sticker vending machine 1. Will be described.
[0088]
In step S51, the CPU 131 of the control device 91 determines, based on the output from the coin processing unit 92, whether or not the money has been inserted, that is, whether or not there is a user who starts shooting, and determines that the money has been inserted. Wait until it is determined.
[0089]
If the CPU 131 determines in step S51 that the payment has been made, the process proceeds to step S52, in which the CPU 131 receives a selection of a shooting mode.
[0090]
The shooting mode will be described. The photo sticker vending machine 1 is configured to photograph a subject (user) a predetermined number of times in advance and acquire a photographed image of a predetermined number of subjects. The user shoots the subject (user) continuously for a predetermined number of times at predetermined time intervals (for example, 0.5 seconds) in a normal mode in which the user himself / herself specifies a shooting timing for each time. Either one of the two shooting modes of the continuous shooting mode can be selected.
[0091]
Therefore, in step S52, the CPU 131 of the control device 91 causes the photographing monitor 16 to display a message prompting selection of the photographing mode. By operating the operation panel 17, the user can select either the normal mode or the continuous shooting mode. The CPU 131 determines whether the user has selected the normal mode or the continuous shooting mode based on the operation signal from the operation panel 17, and temporarily stores mode selection information indicating which shooting mode has been selected. Is temporarily stored in the RAM 133.
[0092]
After the process in step S52, in step S53, the CPU 131 of the control device 91 executes a shooting process in the shooting space 62. Here, the process of step S53 of FIG. 7, that is, the photographing process of the photo sticker vending machine 1 will be described with reference to the flowchart of FIG. In the following, a case where the normal mode is selected in step S52 will be described as an example.
[0093]
In step S101, the CPU 131 of the control device 91 reads out image data of an explanation screen explaining various functions and an imaging method from the storage unit 136, and displays the image data on the imaging monitor 16. Note that the moving image captured by the CCD 21 is displayed on the image display unit 22.
[0094]
FIG. 9 is a diagram showing an example of an explanation screen displayed on the photographing monitor 16, and is a screen for selecting whether the image to be photographed is a vertically long image or a horizontally long image. Note that a message "Please select with +/- buttons" is displayed. When the user operates the "+ button" on the operation panel 17, a vertically long image can be captured, and the "-button" When is operated, a landscape image can be captured. In addition, the remaining number of recordable images is displayed as “four” in the upper right of the screen.
[0095]
FIG. 10 is a diagram showing another example of the explanation screen displayed on the photographing monitor 16, and is displayed, for example, after the direction of the image to be photographed is selected in FIG. In this example, the message “Adjust the zoom with the +/− buttons. When ready, press the start button” is displayed, and the user can use the “+ button” on the operation panel 17 and By operating the "-button", the zoom of the CCD 21 can be adjusted.
[0096]
In step S102, the CPU 131 of the control device 91 controls the photographing device 12 based on the input when the user inputs the adjustment of the CCD 21 in accordance with the explanation screens shown in FIGS. I do. For example, when the “+ button” is selected on the explanation screen as shown in FIG. 9, the imaging device 12 controls the CCD 21 based on an instruction from the CPU 131 so that the captured image is a vertically long image.
[0097]
In step S103, the CPU 131 of the control device 91 determines whether or not a shooting start button operated when starting shooting is operated based on an operation signal from the operation panel 17, and determines that the shooting start button has not been operated yet. If so, the process returns to step S101, and the subsequent processes are repeatedly executed. On the other hand, when the CPU 131 determines that the shooting start button has been operated, the process proceeds to step S104, where a countdown indicator is displayed on the shooting monitor 16, and when the shooting timing comes, the image shot by the CCD 21 is captured. Then, the image data of the created captured image (still image) is stored in the storage unit 136.
[0098]
FIG. 11 is a diagram illustrating an example of a display screen displayed on the photographing monitor 16 in step S104. As shown in the figure, a countdown indicator 201 is displayed. For example, when the leftmost signal is turned on and the rightmost signal is turned on, an image captured by the CCD 21 is captured and stored in the storage unit 136. Is stored in In this example, a message of "Yes, pause!" Is displayed at the same time as the image capturing timing.
[0099]
When it is time to take a picture, the CPU 131 instructs the lighting control unit 93 to cause the lighting devices 15-1 and 15-2 to emit light, irradiate the subject with a flash, and at the same time, is captured by the CCD 21. The image is captured (saved) as a still image and stored in the storage unit 136.
[0100]
In step S105, the CPU 131 of the control device 91 causes the photographing monitor 16 to display a confirmation screen of the image photographed in step S104.
[0101]
FIG. 12 is a view showing an example of the image confirmation screen. The image photographed in step S104 is displayed almost at the center of the photographing monitor 16, and the user presses the "OK / OK" button. ”Message is displayed. The user can select whether to save the displayed image as an image for editing by operating the “○ button” or “× button” on the operation panel 17.
[0102]
Then, in step S106, the CPU 131 determines whether or not an instruction to save the image as an image for editing has been given based on the operation signal from the operation panel 17, and the instruction has not been given (the "x button" is operated). If it is determined that it is (YES), the process proceeds to step S107, the image is captured in step S104, and the image stored in the storage unit 136 is deleted. Then, the process returns to step S101, and the subsequent processes are repeatedly executed.
[0103]
On the other hand, if the CPU 131 determines in step S106 that saving as an image for editing has been selected (the “O” button has been operated), the process proceeds to step S108, and the image is added to the image for editing. (The image is stored in the storage unit 136).
[0104]
Then, in step S109, the CPU 131 causes the imaging monitor 16 to display a brightness adjustment screen for adjusting the brightness of the image added as the editing image.
[0105]
FIG. 13 is a diagram illustrating an example of a brightness adjustment screen displayed on the photographing monitor 16 in step S109. In this example, an image stored as an image for editing is displayed substantially at the center of the screen, and a button for specifying a brightness level is displayed below the image. At the top of the screen, a message "Adjust the brightness with the +/- buttons. If you like, press the O button." Is displayed, and the user presses the "+ button" on the operation panel 17. Alternatively, the brightness is adjusted by operating the “−button” to move the cursor 211. Since the image for editing is selected in step S106, as shown in the upper right of FIG. 13, the number of remaining shootable images is reduced by one, for example, to “three”.
[0106]
The CPU 131 adjusts the brightness of the image for editing in accordance with the input from the operation panel 17, and saves the image for editing in the storage unit 136 at the level of brightness when the “○ button” is operated. Then, the process proceeds to step S110.
[0107]
In step S110, the CPU 131 checks the number of images for editing stored in the storage unit 136, and based on whether the remaining number of recordable images has become “0” or based on an operation signal from the operation panel 17, It is determined whether or not the “shooting end button” has been operated. If it is determined that the remaining number of shootable images is not “0” and that the “shooting end button” has not been operated, the process returns to step S101, and the same processing is performed. The photographing process is repeatedly executed.
[0108]
If the CPU 131 determines in step S110 that the remaining number of shootable images has become “0” or that the “shooting end button” has been operated, the shooting process ends.
[0109]
In the above description, an example in which the normal mode is selected in step S52 has been described. However, a case in which the continuous shooting mode is selected in step S52 will be described below.
[0110]
When the continuous shooting mode is selected, the processes in steps S101 to S103 in FIG. 8 are executed as in the normal mode. Then, in step S104, after displaying the countdown indicator 201, the CPU 131 instructs the illumination control unit 93 a predetermined number of times (for example, four times) at predetermined time intervals (for example, 0.5 second intervals). The illumination devices 15-1 and 15-2 emit light, and the image captured by the CCD 21 at that moment is captured (saved) as a still image and stored in the storage unit 136. As a result, the storage unit 136 stores a predetermined number (for example, four) of still images.
[0111]
Thereafter, in step S105, the CPU 131 causes the photographing monitor 16 to display all continuously photographed images. Then, in step S106, the CPU 131 determines whether or not to save the image as an image for editing. If the image is not to be saved as an image for editing, the process proceeds to step S107, where all of the continuously shot images stored in the storage unit 136 are stored. Erase the image. Thereafter, the process returns to step S101.
[0112]
On the other hand, if the CPU 131 determines in step S106 that the image is to be saved as an image for editing, the process proceeds to step S108, where all the continuously shot images are added to the image for editing. The brightness adjustment of all images received is accepted. Then, in step S110, it is determined that the number of remaining shootable images has become 0, and the process ends. The above is the shooting processing in the continuous shooting mode.
[0113]
This concludes the description of the photographing process of the photo sticker vending machine 1.
[0114]
After the photographing process ends, the process proceeds to step S54 in FIG.
[0115]
In step S54, the CPU 131 of the control device 91 reads a message urging the user to move to the editing space 73 from the storage unit 136, and displays the message on the photographing monitor 16. In accordance with this message, the user exits from the exit of the photographing space 62 shown in FIG. 4 as shown by the outline arrow A2, and moves to the editing space 73 as shown by the outline arrow A3.
[0116]
In step S55, the CPU 131 of the control device 91 executes an editing process for editing the captured image according to an input from the user who has moved to the editing space 73.
[0117]
The photo sticker vending machine 1 of the present invention can be used to input a graffiti near a subject (an area where a user is located in a photographed image) in a photographed image but do not want to graffiti on the subject. The user can easily input a graffiti near the subject.
[0118]
In order to realize this function, the photo sticker vending machine 1 manages three layers (layers) of images at the time of editing processing. That is, the photo sticker vending machine 1 manages a photographed image, a background image (an image based on graffiti drawn behind the subject), and a foreground image (an image based on graffiti drawn on the front of the subject) in a layered structure. ing.
[0119]
Here, first, a display example of the editing monitor 41 in the editing process in step S55 of FIG. 7 will be described with reference to FIGS. Details of the editing process will be described later with reference to FIGS. 21 to 39.
[0120]
FIG. 14 is an example of a screen displayed on the editing monitor 41-1 in step S55. A similar screen is also displayed on the editing monitor 41-2.
[0121]
In the following description, the editing monitor 41-1, the touch pen 43-1 and the touch panel 94-1 will be described as representatives, but the following description is based on the editing monitor 41-2, the touch pen 43-2, and the touch pen 42-1. The same applies to the touch panel 94-2. That is, the photo sticker vending machine 1 separately receives the input of the editing operation from the user on each of the editing monitors 41-1 and 41-2.
[0122]
In FIG. 14, a composite image 302 is displayed in an image display area 301 at the lower right of the center of the editing monitor 41-1. The user can select a captured image for creating the composite image 302 from the thumbnails of the captured images displayed on the image selection unit 304 with the touch pen 43-1. The image selection unit 304 displays a list of thumbnails of images for editing that have been instructed to be stored in the photographing process.
[0123]
At the lower right corner of the screen, an end button 303 operated by the user to end editing within the time limit is displayed. When the end button 303 is touched with the touch pen 43-1, the CPU 131 ends the editing processing on the editing monitor 41-1.
[0124]
Various buttons operated when selecting an editing tool are displayed on the left side of the image display area 301.
[0125]
On the left side of the image display area 301, for example, a pen menu 307 operated when selecting a "pen tool" for inputting a line or a character in the image to be edited, and a predetermined stamp image is arranged in the image to be edited. The stamp menu 308 operated when selecting the "stamp tool", the thickness selection menu 309 operated when selecting the thickness of characters and the like input by the "pen tool", the color of characters and the like input by the "pen tool" The color selection menu 310 operated when selecting is displayed.
[0126]
Below the color selection menu 310, there is displayed an eraser button 311 operated when selecting the "eraser tool" for erasing the graffiti and the like once input. At the lower right of the eraser button 311, a redo button 312 for canceling the last input operation and returning the graffiti to the state immediately before inputting the operation, and a start button for deleting all the input graffiti so far. Button 313 is displayed.
[0127]
In addition, thumbnails 305-1 to 305-4 are displayed above the image display area. The thumbnail 305-1 is a thumbnail of the composite image 321 (FIG. 15). The thumbnail 305-2 is a thumbnail of the captured image 341 (FIG. 17). The thumbnail 305-3 is a thumbnail of the composite image 331 (FIG. 16). The thumbnail 305-4 is a thumbnail of the composite image 302.
[0128]
In the thumbnail 305-1, only the area where the background image is displayed is displayed in color, and the area in which the subject is captured and the foreground image are displayed in monochrome to emphasize the background image. Similarly, in the thumbnail 305-3, only the foreground image is displayed in color, and the area where the subject image and the background image are displayed is displayed in monochrome, thereby enhancing the foreground image.
[0129]
Also, in FIG. 14, graffiti is depicted on the thumbnails 305-1 and 305-3. However, at the beginning of the editing process, since the graffiti has not been input by the user yet, the thumbnails 305-1 and 305-3 are not displayed. Thumbnail 305-3 has no graffiti drawn.
[0130]
In FIG. 14, the cursor 306 is set on the thumbnail 305-4 which is the thumbnail of the composite image. When any one of the thumbnails 305-1 to 305-4 is touched with the touch pen 43-1, the CPU 131 displays the cursor 306 at the position of the touched thumbnail, and displays the cursor 306 corresponding to the touched thumbnail. Is displayed in the image display area 301.
[0131]
For example, when the user touches the thumbnail 305-1 with the touch pen 43-1, the screen shown in FIG. 15 is displayed on the editing monitor 41-1. In FIG. 15, a cursor 306 is displayed at the position of the thumbnail 305-1. In FIG. 15, a composite image 321 corresponding to the thumbnail 305-1 is displayed in the image display area 301. In the composite image 321, the shaded area means monochrome. In the composite image 321, similar to the thumbnail 305-1, only the area where the background image is displayed is displayed in color, and the area where the subject image and the foreground image are displayed is displayed in monochrome, so that the background image is displayed. Emphasized.
[0132]
The user can input an editing operation (write or delete graffiti) on the background image (range displayed in color) in the image display area 301 on the screen shown in FIG.
[0133]
Also, for example, when the user touches the thumbnail 305-3 with the touch pen 43-1, the screen shown in FIG. 16 is displayed on the editing monitor 41-1. In FIG. 16, a cursor 306 is displayed at the position of the thumbnail 305-3. 16, a composite image 331 corresponding to the thumbnail 305-3 is displayed in the image display area 301. In the composite image 331, the shaded area means monochrome. In the composite image 331, as in the thumbnail 305-3, only the foreground image is displayed in color, and the area where the subject image and the background image are displayed is displayed in monochrome, so that the foreground image is emphasized.
[0134]
The user can input an editing operation to the foreground image in the image display area 301 (write or delete graffiti) on the screen shown in FIG.
[0135]
Also, for example, when the user touches the thumbnail 305-2 with the touch pen 43-1, the screen shown in FIG. 17 is displayed on the editing monitor 41-1. In FIG. 17, a cursor 306 is displayed at the position of the thumbnail 305-2. In FIG. 17, a captured image 341 corresponding to the thumbnail 305-2 is displayed in the image display area 301. Further, above the image display area 301, subject image processing buttons 342 and 343 are displayed. When the subject image processing button 342 is touched by the touch pen 43-1, the color of the subject's hair displayed in the image display area 301 is colored and displayed. When the object processing button 343 is touched by the touch pen 43-1, the object displayed in the image display area 301 is displayed in a sepia color.
[0136]
When the user wants to do graffiti on the background image, the user first touches the thumbnail 305-1 with the touch pen 43-1 to display the screen shown in FIG. In this state, the user selects a desired pen tool or stamp tool from the pen menu 307 or the stamp menu 308 with the touch pen 43-1 and selects the desired pen tool or stamp tool on the composite image 321 displayed in the image display area 301. Can draw lines, letters, or stamps.
[0137]
When the user wants to erase the graffiti drawn on the background image, the user first touches the thumbnail 305-1 with the touch pen 43-1 to display the screen shown in FIG. In this state, after touching the eraser button 311 with the touch pen 43-1, the user draws a line, character, or stamp drawn as a background image from the composite image 321 in the image display area 301 with the touch pen 43-1. By tracing above, a desired line, character, or stamp can be erased. At this time, even if the touch pen 43-1 is used to trace the area where the foreground image is displayed, the graffiti drawn as the foreground image is not erased. Therefore, the user can delete only the graffiti drawn as the background image without worrying about the graffiti drawn as the foreground image.
[0138]
The shaded area (area displayed in monochrome) of the composite image 321 in FIG. 15 is an area occupied by the subject and the foreground image. Therefore, even if the user uses the touch pen 43-1 to input graffiti such as lines, characters, and stamps in the shaded area, the graffiti corresponding to the input in the shaded area is the subject or the foreground. It is hidden below the image and is not reflected (drawn) on the composite image 321. For example, as shown in FIG. 15, even if the user draws a line from the star-shaped stamp on the upper left of the composite image 321 to the lower center of the composite image 321 using the touch pen 43-1, the user can draw a net. No line is drawn in the area that has been set.
[0139]
In the above description, the shaded area in the composite image 321 is displayed in monochrome, but if the user can identify only the background image from the subject and the foreground image, It does not have to be monochrome. For example, the brightness of the area occupied by the subject and the foreground image (the shaded area of the composite image 321) may be set to a low value, or the saturation or hue may be changed. Alternatively, the area occupied by the subject and the foreground image may be painted in a predetermined color. Further, for example, a red line, a dotted line, a blinking line, or the like may be displayed at the boundary between the region occupied by the background image and the other region.
[0140]
When the user wants to do graffiti on the foreground image, first, the user touches the thumbnail 305-3 with the touch pen 43-1 to display the screen shown in FIG. In this state, the user selects a desired pen tool or stamp tool from the pen menu 307 or the stamp menu 308 with the touch pen 43-1 and selects the desired pen tool or stamp tool on the composite image 331 displayed in the image display area 301. Can draw lines, letters, or stamps. In the composite image 331, the user can input graffiti in all desired ranges in the image display area 301. That is, all graffiti input to the composite image 331 are reflected (drawn).
[0141]
When the user wants to erase the graffiti drawn on the foreground image, first, the user touches the thumbnail 305-3 with the touch pen 43-1 to display the screen shown in FIG. In this state, after touching the eraser button 311 with the touch pen 43-1, the user draws a line, a character, or a stamp drawn as a foreground image from the composite image 331 in the image display area 301 with the touch pen 43-1. By tracing above, a desired line, character, or stamp can be erased. At this time, even if the user touches the area where the background image is displayed with the touch pen 43-1, the graffiti drawn as the background image is not erased. Therefore, the user can delete only the graffiti drawn as the foreground image without worrying about the graffiti drawn as the background image.
[0142]
The shaded area (the area displayed in monochrome) of the composite image 331 in FIG. 16 is the area occupied by the subject and the background image. In the above description, the shaded area in the composite image 331 is displayed in monochrome, but if the user can identify only the foreground image from the subject and the background image, It does not have to be monochrome. For example, the brightness of the area occupied by the subject and the background image may be set to a low value, or the saturation or hue may be changed. Further, the area occupied by the subject and the background image may be painted in a predetermined color. Further, for example, a red line, a dotted line, a blinking line, or the like may be displayed at the boundary between the region occupied by the foreground image and the other region.
[0143]
When the user wants to check the captured image 341, the screen shown in FIG. 17 is displayed by touching the thumbnail 305-2 with the touch pen 43-1. Since the captured image 341 is displayed in the image display area 301, the user can check the captured image. Further, the user can operate the subject image processing buttons 342 and 343 to change the color of the subject's hair in the captured image 341 or to change the color of the entire subject to sepia.
[0144]
When the user wants to check the composite image 302, the user touches the thumbnail 305-4 with the touch pen 43-1 to display the screen shown in FIG. Since the composite image 302 is displayed in the image display area 301, the user can check the image when the foreground image and the background image are combined with the subject.
[0145]
The CPU 131 stores the captured image, the background image, and the foreground image in the RAM 133.
[0146]
The CPU 131 displays the above screen on the editing monitor 41 and accepts an input of an editing operation from a user. After the editing process ends, the process proceeds to step S56 in FIG.
[0147]
In step S56, the CPU 131 of the control device 91 reads the image data of the arrangement selection screen from the storage unit 136, and displays the image data on the editing monitor 41-1. FIG. 18 shows an example of an arrangement selection screen displayed on the editing monitor 41-1.
[0148]
In the example of FIG. 18, a message “Please select a photo layout” is displayed at the top of the screen, and the user moves the cursor 351 with the touch pen 43-1 to select a desired image layout. Can be selected. After selecting a desired image arrangement, the user can determine the selected image arrangement by touching the determination button 352 with the touch pen 43-1. When the user touches the triangle displayed on the right and left ends of the layout selection screen with the touch pen 43-1, the CPU 131 displays a layout example different from the currently displayed layout example on the editing monitor 41-1. 1 is displayed.
[0149]
Then, when the enter button 352 is touched and the image arrangement is selected, the processing proceeds to step S57, and the CPU 131 converts the image edited in the editing processing in step S55 into the image arrangement selected in step S56. Printing is performed on the seal paper 121. That is, the CPU 131 loads the data of the composite image from the storage unit 136 into the RAM 133, arranges the composite image data in the image arrangement determined in the process of step S56, and creates print image data. Then, the CPU 131 supplies the created print image data to the printer unit 111 and causes the printer unit 111 to print the sticker paper 121. FIG. 19 shows an example of the sticker paper 121 on which the print image data is printed. In FIG. 19, the same composite image as the composite image 302 is printed on the upper left of the sticker paper 121.
[0150]
After the process of step S57 ends, the process returns to step S51, and the processes after step S51 are repeatedly executed.
[0151]
This concludes the description of the customer service processing of the photo sticker vending machine 1.
[0152]
The processing shown in FIG. 7 is performed not only in chronological order according to the described order, but also in parallel according to the usage status of the photo sticker vending machine 1 at that time. For example, after the first user finishes shooting in the shooting space 62 and moves to the editing space 73, while the first user is editing an image in the editing space 73, the second user shoots the image. When photographing is started in the space 62, the processing of steps S52 and S53 in FIG. 7 (the processing of the second user in the photographing space 62) and the processing of steps S55 and S56 (the processing of the first user in the editing space 73) ) Are performed in parallel. Similarly, each of the photographing process, the editing process, and the printing process in step S54 is performed in parallel according to the situation.
[0153]
As described above with reference to FIGS. 15 and 16, in the present invention, when a graffiti (editing operation) can be input to the background image, only the background image is displayed in color, and the subject and the foreground image are monochrome. To display. Further, in the present invention, when graffiti (editing operation) can be input to the foreground image, only the foreground image is displayed in color, and the subject and the background image are displayed in monochrome. In this way, by displaying the image in which the graffiti (editing operation) can be input and distinguishing it from the other portions, the user can input the graffiti (editing operation) in either the background image or the foreground image. You can easily understand what you are trying to do.
[0154]
As a result, it is possible to prevent the user from accidentally inputting graffiti (editing operation) to the foreground image when trying to input graffiti (editing operation) to the background image. Similarly, it is possible to prevent the user from inputting graffiti (editing operation) to the background image by mistake when trying to input graffiti (editing operation) to the foreground image.
[0155]
Further, the user can easily grasp whether the graffiti already drawn is graffiti on the background image or graffiti on the foreground image. Therefore, it is possible to prevent the user from accidentally erasing the graffiti drawn on the foreground image in an attempt to delete the graffiti drawn on the background image. Similarly, it is possible to prevent the graffiti drawn on the background image from being deleted by mistake when trying to delete the graffiti drawn on the foreground image.
[0156]
In a conventional photo sticker vending machine, for example, as shown in FIG. 20, a background pen button 361 for specifying a line or a character on a background image and a line or a character on a foreground image are input. In this case, it is necessary to display the foreground pen buttons 362 to be designated in order to perform the operations. Similarly, in a conventional photo sticker vending machine, for example, as shown in FIG. 20, a background eraser button 363 for erasing a graffiti drawn on a background image and a graffiti drawn on a foreground image are displayed. It was necessary to display the foreground eraser button 364 for erasing, respectively.
[0157]
On the other hand, in the present invention, when it is desired to input (delete) a graffiti in the background image or the foreground image, the corresponding thumbnail 305-1 or 305-3 is designated to display the image in the image display area 301. You can input (delete) graffiti on the image. Therefore, there is no need to provide buttons such as the background pen button 401 and the foreground pen button 402.
[0158]
Further, in the present invention, in order to erase the background image or the graffiti drawn on the foreground image, one eraser button 311 may be displayed, and as in the related art, the foreground eraser button 363 and the background eraser are used. It is not necessary to display the buttons 364 individually. As a result, the number of buttons displayed on the editing monitor 41 can be reduced as compared with the related art. Therefore, the user can quickly find a desired button, and operability is improved.
[0159]
Further, according to the present invention, a more entertaining editing operation can be realized.
[0160]
Next, the editing process in step S55 in FIG. 7 will be described in detail with reference to the flowchart in FIG.
[0161]
In the following description, the editing monitor 41-1, the touch pen 43-1 and the touch panel 94-1 will be described as representatives, but the following description is based on the editing monitor 41-2, the touch pen 43-2, and the touch pen 42-1. The same applies to the touch panel 94-2. That is, the photo sticker vending machine 1 separately receives the input of the editing operation from the user on each of the editing monitors 41-1 and 41-2.
[0162]
In step S151, the CPU 131 of the control device 91 executes an image creation process. Here, the image creation processing will be described in detail with reference to the flowchart in FIG.
[0163]
In step S181 in FIG. 22, the CPU 131 stores the captured image 341 read from the storage unit 136 in the RAM 133, creates a thumbnail of the captured image 341 and stores the thumbnail in the RAM 133. In step S182, the CPU 131 performs an image combining process. Here, the image combining process will be described in detail with reference to the flowchart in FIG.
[0164]
In step S201 of FIG. 23, the CPU 131 extracts the contour of the subject from the captured image 341 stored in the RAM 133. FIG. 24 illustrates an example of a contour extracted from the captured image 341. In the captured image 341 of FIG. 24, the boundary between the region 371 where the background panel is captured and the region 372 where the subject is captured is indicated by a dotted line, and the dotted line indicates the contour of the subject. The CPU 131 extracts the contour of the subject by using a preset color of the background panel 61 as a key.
[0165]
In step S202, the CPU 131 sets the pixel values of the pixels included in the area where the subject 372 is not captured to (R, G, B) = (0, 0, 0) (R is red, G is green, B represents blue (hereinafter, an image in which the pixel value of a pixel included in an area where the subject 372 is not shown is (R, G, B) = (0, 0, 0)). (Referred to as an image) and stored in the RAM 133. FIG. 25 shows an example of the subject image 381. In the subject image 381 of FIG. 25, the shaded area is the area where the subject is not shown, and the pixel values of the pixels included in the shaded area are all (R, G, B) = (0,0,0). The pixel values of the pixels included in the area where the subject is captured are the same as those of the captured image 341.
[0166]
In step S203, the CPU 131 sets the pixel values of the pixels included in the region where the subject is captured to (R, G, B) = (0, 0, 0) and sets the pixel values in the region where the subject is not captured. A mask image is created in which the pixel values of the pixels being set are (R, G, B) = (255, 255, 255) and stored in the RAM 133. FIG. 26 shows an example of the mask image 391. In the mask image 391 of FIG. 26, the shaded area is the area where the subject is shown, and the pixel values of the pixels in this area are (R, G, B) = (0, 0, 0). Is done. In the mask image 391 of FIG. 26, the area other than the shaded area is the area where the subject is not shown, and the pixel value of the pixel in this area is (R, G, B) = (255, 255, 255). .
[0167]
In step S204, the CPU 131 sets the pixel value of the pixel of the mask image 391 to (R, G, B) = (0, 0, 0), and sets the pixel value of the pixel forming the background image to (R, G, B) = (0, 0, 0) to create a masked image (hereinafter, the masked image is referred to as a masked image) and store it in the RAM 133. FIG. 27 shows an example of the background image 401, and FIG. 28 shows an example of the masked image 411 created in step S204. In the background image 401 as shown in FIG. 27, the CPU 131 sets the area (area where the pixel value is (R, G, B) = (0, 0, 0)) of the mask image 391 shown in FIG. The pixel value of the pixel in the corresponding area is set to (R, G, B) = (0, 0, 0), and the masked image 411 is created and stored in the RAM 133.
[0168]
In step S <b> 205, the CPU 131 adds the pixel values of the corresponding pixels of the subject image 381 and the masked image 411 stored in the RAM 133, creates a combined image of the background image 401 and the captured image 341, and creates the combined image. To memorize. FIG. 29 shows an example of a composite image 421 in which the background image 401 and the captured image 341 are composited.
[0169]
In step S206, the CPU 131 sets the pixel value of the pixel included in the area where the graffiti is drawn in the foreground image to (R, G, B) = (0, 0, 0), and sets the pixel value in the other area. Is set to (R, G, B) = (255, 255, 255), and a mask image is created and stored in the RAM 133. FIG. 30 shows an example of the foreground image 431, and FIG. 31 shows an example of the mask image 441 created based on the foreground image 431. In the foreground image 431 shown in FIG. 30, the pixel value of the pixel included in the area where the graffiti is not drawn, that is, the area included in the hatched area is (R, G, B) = (0, 0, 0). The CPU 131 creates a mask image 441 shown in FIG. 31 based on the foreground image 431 shown in FIG. In the mask image 441 of FIG. 31, the pixel values of the pixels included in the hatched area are (R, G, B) = (0, 0, 0). In the mask image 441 in FIG. 31, the pixel values of the pixels included in the region other than the hatched portion are (R, G, B) = (255, 255, 255).
[0170]
In step S207, the CPU 131 sets the pixel values of the pixels of the mask image 441 corresponding to the area where (R, G, B) = (0, 0, 0) to the pixel values of the pixels forming the composite image 421 by (R , G, B) = (0, 0, 0) to create a masked image to be masked and store it in the RAM 133. FIG. 32 shows an example of the masked image 451 created in step S207. In the masked image 451 in FIG. 32, the pixel values of the pixels included in the hatched area are (R, G, B) = (0, 0, 0). The CPU 131 determines a region of the combined image 421 in FIG. 29 that corresponds to the hatched region (region where the pixel value is (R, G, B) = (0, 0, 0)) of the mask image 441 in FIG. The pixel value of the pixel is set to (R, G, B) = (0, 0, 0), and the masked image 451 is created and stored in the RAM 133.
[0171]
In step S208, the CPU 131 adds up the pixel values of the corresponding pixels of the foreground image 431 and the masked image 451 stored in the RAM 133 to create a composite image in which the composite image 421 and the foreground image 431 are composited. To memorize. FIG. 33 shows an example of the composite image 302 in which the composite image 421 and the foreground image 431 are composited.
[0172]
The CPU 131 combines the captured image 341, the background image 401, and the foreground image 431 as described above. In the above description, first, the photographed image 341 and the background image 401 are combined, and then the foreground image 431 is combined. In the order of combining, the photographed image 341 and the foreground image 431 are combined first. Alternatively, the background image 401 may be synthesized.
[0173]
The synthesized image 302 synthesized as described above appears to the user as shown in FIG. That is, when viewing the composite image 302, the user sees an image as if the foreground image 431, the captured image 341, and the background image 401 were superimposed in this order from the top. The CPU 131 manages the captured image 341, the foreground image 431, and the background image 401 in a layer structure as described above.
[0174]
This time is the process of step S182 in the process of step S151 in FIG. That is, the editing process has just started. Therefore, no scribble is drawn on the foreground image 431 and the background image 401 because no editing operation has been input by the user yet. Therefore, even if the processing of step S182 is executed, the resultant composite image created is the same as the captured image 341.
[0175]
Returning to FIG. 22, in step S183, the CPU 131 creates a thumbnail of the composite image 302 created in step S182 and stored in the RAM 133, and stores the thumbnail in the RAM 133.
[0176]
In step S184, the CPU 131 creates a monochrome image (shade image) of the background image 401 and the photographed image 341 stored in the RAM 133, respectively, and causes the RAM 133 to store it.
[0177]
In step S185, the CPU 131 executes the image combining process shown in FIG. 23 using the foreground image stored in the RAM 133 and the monochrome image of the background image 401 and the captured image 341 created in step S184. However, the CPU 131 does not execute the process of extracting the contour of the subject from the captured image 341 (step S201 in FIG. 23), and already uses the contour information acquired in the image combining process in step S182 (because the monochrome image After that, it is difficult to extract the boundary between the background panel and the subject in the captured image 341).
[0178]
As a result of the image combining processing in step S185, a combined image (the combined image 331 in FIG. 16) in which the display area of the background image 401 and the subject image 381 is monochrome and the display area of the foreground image 431 is color is created and stored in the RAM 133. . In step S186, the CPU 131 creates a thumbnail of the composite image 331 created in step S184 and stores the thumbnail in the RAM 133.
[0179]
In step S187, the CPU 131 creates a monochrome image (shadow image) of the foreground image 431 and the captured image 341 stored in the RAM 133, and stores the monochrome image (shade image) in the RAM 133.
[0180]
In step S188, the CPU 131 executes the image combining process shown in FIG. 23 using the background image 401 stored in the RAM 133 and the monochrome image of the foreground image 431 and the captured image 341 created in step S187. . However, the CPU 131 does not execute the process of extracting the outline of the subject from the captured image 341 (step S201 in FIG. 23), and uses the outline information already acquired in the image synthesis process of step S182 (because the monochrome image After that, it is difficult to extract the boundary between the background panel and the subject in the captured image 341).
[0181]
As a result of the image combining process in step S188, a combined image (the combined image 321 in FIG. 15) in which the display area of the foreground image 431 and the subject image 381 is monochrome and the display area of the background image 401 is color is created and stored in the RAM 133. . In step S189, the CPU 131 creates a thumbnail of the composite image 321 created in step S188 and stores the thumbnail in the RAM 133.
[0182]
Thus, the image creation processing ends. This time, the image creation process is executed as the process of step S151 in FIG. That is, the editing process has just started. Therefore, graffiti has not yet been drawn on the foreground image 431 and the background image 401. Therefore, the thumbnail created in step S183 is the same as the thumbnail of the captured image 341 created in step S181, and the combined image created in step S185 and the combined image created in step S188 have graffiti. Not drawn. When the process in step S151 ends, the process proceeds to step S152 in FIG.
[0183]
In step S152, the CPU 131 reads the data of the editing screen from the storage unit 136, displays the editing screen shown in FIG. 14 on the editing monitor 41-1 for example, and sets a limit set in advance for the editing process. The time countdown is started (step S301 in FIG. 39 described later). In step S152, the thumbnails 305-1 to 305-4 and the composite image 302 have not been displayed yet.
[0184]
In step S153, the CPU 131 displays the thumbnails created in step S151 and stored in the RAM 133 on the editing screen as thumbnails 305-1 to 205-4. The thumbnail created in step S181 in FIG. 22 is displayed as a thumbnail 305-2, and the thumbnail created in step S183 in FIG. 22 is displayed as a thumbnail 305-4 and created in step S186 in FIG. The displayed thumbnail is displayed as the thumbnail 305-3, and the thumbnail created in step S189 in FIG. 22 is displayed as the thumbnail 305-1.
[0185]
After the process in step S153, in step S154, the CPU 131 executes a composite image display process. Here, the composite image display processing will be described in detail with reference to the flowchart in FIG.
[0186]
In step S221 of FIG. 35, the CPU 131 causes the cursor 306 to be displayed at the position of the thumbnail 305-4, which is the thumbnail of the composite image 302. In step S222, the CPU 131 causes the composite image 302 created in step S182 in FIG. 22 and stored in the RAM 133 to be displayed in the image display area 301 in FIG. In step S223, the CPU 131 determines whether display of the captured image 341 or editing of the background image 401 or the foreground image 431 has been instructed.
[0187]
That is, in the present embodiment, the user can instruct editing of the background image 401 by touching the thumbnail 305-1 with the touch pen 43. The user can instruct the display of the captured image 341 by touching the thumbnail 305-2 with the touch pen 43. Further, the user can instruct to edit the foreground image 431 by touching the thumbnail 305-3 with the touch pen 43. Furthermore, the user can instruct the display of the composite image 302 by touching the thumbnail 305-4 with the touch pen 43.
[0188]
Since the composite image 302 has already been displayed in the image display area 301 by the process of step S222, even if the thumbnail 305-4 is touched with the touch pen 43-1, the CPU 131 invalidates the input. No particular processing is performed. Therefore, in step S223, the CPU 131 waits until one of the thumbnails 305-1 to 305-3 is touched by the touch pen 43-1. If touched, the combined image display process ends, and the process proceeds to step S155 in FIG.
[0189]
In step S155, the CPU 131 determines whether the instruction touched by the touch pen 43-1 is the thumbnail 305-1 and thereby determines whether or not the instruction is to edit the background image 401. If the thumbnail touched by -1 is the thumbnail 305-1 (the instruction is to edit the background image 401), the process proceeds to step S156.
[0190]
In step S156, the CPU 131 executes a background image editing process. Here, the background image editing process will be described in detail with reference to the flowchart in FIG.
[0191]
In step S241, as shown in FIG. 15, the CPU 131 displays the cursor 306 at the position of the thumbnail 305-1 which is the thumbnail of the composite image 321. In step S242, the CPU 131 causes the image display area 301 to display the composite image created in step S188 in FIG. 22 and stored in the RAM 133, that is, the composite image 321 in which only the background image display area is colored.
[0192]
In step S243, the CPU 131 determines whether or not an editing operation has been input with the touch pen 43-1 on the composite image 321 displayed in the image display area 301. The editing operations include, for example, editing operations such as drawing lines and characters, arranging stamps, erasing drawn lines and characters, and erasing arranged stamps with the touch pen 43-1. . If the CPU 131 determines in step S243 that an editing operation has been input with the touch pen 43-1, the process proceeds to step S244, where the CPU 131 edits the background image 401 based on the input editing operation.
[0193]
After the process in step S244, in step S245, the CPU 131 executes the image creation process in FIG. 22 using the background image 401 edited in step S244. As a result, the composite image 302 reflecting the editing operation determined to have been input in step S243 and its thumbnail, the composite image 331 reflecting the editing operation and its thumbnail, and the composite image 321 reflecting the editing operation are displayed. The thumbnail is created.
[0194]
After the process in step S245, in step S246, the CPU 131 causes the image display area 301 to display the composite image 321 created in step S245.
[0195]
In step S247, the CPU 131 reflects the thumbnail of the composite image 302, the thumbnail of the composite image 321, and the thumbnail of the composite image 331 created in step S245 on the display of the editing monitor 41-1. That is, the CPU 131 displays the thumbnail of the composite image 302 as the thumbnail 305-4, displays the thumbnail of the composite image 331 as the thumbnail 305-3, and displays the thumbnail of the composite image 321 on the screen of FIG. It is displayed as a thumbnail 305-1.
[0196]
In this way, by reflecting the graffiti corresponding to the input editing operation on the thumbnail in real time, the user can grasp the editing status by looking at the thumbnails 305-1 to 305-4.
[0197]
After the process of step S247, the process returns to step S243, and the above-described processes after step S243 are repeatedly executed.
[0198]
If the CPU 131 determines in step S243 that an editing operation has not been input, the process proceeds to step S248. In step S248, the CPU 131 determines whether or not any of the thumbnails 305-2 to 305-4 has been touched with the touch pen 43-1 to display the captured image 341 or the composite image 302, or display the foreground image 431. It is determined whether or not editing has been instructed. If none of the thumbnails 305-2 to 305-4 has been touched with the touch pen 43-1 (display of the captured image 341 or the composite image 302 or editing of the foreground image 431 is not performed). If not instructed), the process returns to step S243, and repeats the above-described processes from step S243.
[0199]
In step S248, when the CPU 131 determines that one of the thumbnails 305-2 to 305-4 has been touched by the touch pen 43-1 (display of the captured image 341 or the composite image 302 or editing of the foreground image 431 is instructed). In this case, the CPU 131 ends the background image editing process, the process returns to step S155 in FIG. 21, and repeats the processes from step S155 described above.
[0200]
Returning to FIG. 21, in step S155, when the CPU 131 determines that the thumbnail touched by the touch pen 43-1 is not the thumbnail 305-1 (when it is determined that the instruction is not editing of the background image 401), the processing is performed. Goes to step S157.
[0201]
In step S157, the CPU 131 determines whether or not the instruction touched by the touch pen 43-1 is the thumbnail 305-3, thereby determining whether or not the instruction is for editing the foreground image 431. If the thumbnail touched by -1 is the thumbnail 305-3 (the instruction is to edit the foreground image 431), the process proceeds to step S158.
[0202]
In step S158, the CPU 131 executes a foreground image editing process. Here, the foreground image editing processing will be described in detail with reference to the flowchart in FIG.
[0203]
In step S261, the CPU 131 causes the cursor 306 to be displayed at the position of the thumbnail 305-3, which is the thumbnail of the composite image 331, as shown in FIG. In step S262, the CPU 131 causes the image display area 301 to display the composite image created in step S184 in FIG. 22 and stored in the RAM 133, that is, the composite image 331 in which only the foreground image is colored.
[0204]
In step S263, the CPU 131 determines whether an editing operation has been input with the touch pen 43-1 on the composite image 331 displayed in the image display area 301, and the editing operation has been input with the touch pen 43-1. In this case, the process proceeds to step S264, and the CPU 131 edits the foreground image 431 based on the input editing operation.
[0205]
After the process in step S264, in step S265, the CPU 131 executes an image creation process using the foreground image 431 created in step S264. As a result, the composite image 302 reflecting the editing operation determined to have been input in step S263 and its thumbnail, the composite image 331 reflecting the editing operation and its thumbnail, and the composite image 321 reflecting the editing operation are displayed. The thumbnail is created.
[0206]
After the process in step S265, in step S266, the CPU 131 causes the image display area 301 to display the composite image 331 created in step S265.
[0207]
In step S267, the CPU 131 reflects the thumbnail of the composite image, the thumbnail of the composite image 331, and the thumbnail of the composite image 321 created in step S265 on the display of the editing monitor 41-1. That is, the CPU 131 displays the thumbnail of the composite image 302 as the thumbnail 305-4, displays the thumbnail of the composite image 331 as the thumbnail 305-3, and displays the thumbnail of the composite image 321 on the screen of FIG. It is displayed as a thumbnail 305-1.
[0208]
In this way, by reflecting the graffiti corresponding to the input editing operation on the thumbnail in real time, the user can grasp the editing status by looking at the thumbnails 305-1 to 305-4.
[0209]
After the process in step S267, the process returns to step S263, and the processes in step S263 and thereafter are repeatedly executed.
[0210]
If the CPU 131 determines in step S263 that an editing operation has not been input, the process proceeds to step S268. In step S268, the CPU 131 determines whether any of the thumbnails 305-1, 305-2, and 305-4 has been touched with the touch pen 43-1 to display the captured image 341 or the composite image 302, or It is determined whether or not editing of the background image 401 has been instructed. If none of the thumbnails 305-1, 305-2, and 305-4 has been touched by the touch pen 43-1 (display of the captured image 341 or the composite image 302). Or, if the editing of the background image 401 has not been instructed), the process returns to step S263, and repeats the above-described processes from step S263.
[0211]
In step S268, when the CPU 131 determines that any of the thumbnails 305-1, 305-2, and 305-4 has been touched by the touch pen 43-1 (display of the captured image 341 or the composite image 302, or the display of the background image 401). When the editing is instructed), the CPU 131 ends the foreground image editing process, the process returns to step S155 in FIG. 21, and repeats the above-described processes from step S155.
[0212]
Returning to FIG. 21, in step S157, when the CPU 131 determines that the thumbnail touched by the touch pen 43-1 is not the thumbnail 305-3 (when it is determined that the instruction is not the editing of the foreground image 431), the processing is performed. Goes to step S159.
[0213]
In step S159, the CPU 131 determines whether the thumbnail touched by the touch pen 43-1 is the thumbnail 305-2, thereby determining whether the instruction is to display the captured image 341 or not. If the thumbnail touched by -1 is the thumbnail 305-2 (the instruction is to display the captured image 341), the process proceeds to step S160.
[0214]
In step S160, the CPU 131 executes a captured image display process. Here, the captured image display processing will be described in detail with reference to the flowchart in FIG.
[0215]
In step S281, the CPU 131 causes the cursor 306 to be displayed at the position of the thumbnail 305-2 which is the thumbnail of the captured image 341 as shown in FIG. In step S282, the CPU 131 causes the captured image 341 to be displayed in the image display area 301.
[0216]
In step S283, the CPU 131 determines whether one of the subject image processing buttons 342 and 343 has been touched with the touch pen 43-1 and thereby issues an instruction to process the captured image 341 displayed in the image display area 301. It is determined whether or not an input has been performed, and when one of the subject image processing buttons 342 and 343 is touched with the touch pen 43-1 (when an instruction to process the captured image 341 displayed in the image display area 301 is input) ), The process proceeds to step S284.
[0219]
In step S284, the CPU 131 processes the captured image 341 based on an instruction to process the captured image 341 determined to have been input in step S283. For example, when the subject image processing button 342 is touched by the touch pen 43-1, the CPU 131 extracts a hair region from the subject image 381 in FIG. 25 and creates an image in which the color in the extracted region is changed. . For example, when the subject image processing button 342 is touched with the touch pen 43-1, the CPU 131 creates an image in which the subject image 381 in FIG. 25 is changed to a sepia color.
[0218]
After the process in step S284, in step S285, the CPU 131 executes an image creation process using the captured image 341 processed in step S284. As a result, the composite image 302 reflecting the processing instruction of the captured image 341 determined to have been input in step S283 and its thumbnail, the composite image 331 reflecting the processing instruction of the captured image 341 and its thumbnail, and A composite image 321 on which the instruction for processing the captured image is reflected and its thumbnail are created.
[0219]
After the process in step S285, in step S286, the CPU 131 causes the captured image 341 processed in step S284 to be displayed in the image display area 301.
[0220]
In step S287, the CPU 131 reflects the thumbnail of the composite image 302, the thumbnail of the composite image 331, and the thumbnail of the composite image 321 created in step S285 on the display of the editing monitor 41-1. That is, for example, the CPU 131 causes the thumbnail of the processed captured image 341 to be displayed as the thumbnail 305-2, the thumbnail of the composite image 302 to be displayed as the thumbnail 305-4, and the thumbnail of the composite image 331 to be displayed on the screen of FIG. The thumbnail is displayed as the thumbnail 305-3, and the thumbnail of the composite image 321 is displayed as the thumbnail 305-1.
[0221]
In this way, by reflecting the graffiti corresponding to the input editing operation on the thumbnail in real time, the user can grasp the editing status by looking at the thumbnails 305-1 to 305-4.
[0222]
After the process in step S287, the process returns to step S283, and the processes in step S283 and thereafter are repeatedly executed.
[0223]
In step S283, when the CPU 131 determines that neither of the subject image processing buttons 342 and 343 has been touched with the touch pen 43-1 (an instruction to process the captured image 341 displayed in the image display area 301 has been input). If not, the process proceeds to step S288.
[0224]
In step S288, the CPU 131 determines whether or not any of the thumbnails 305-1, 305-3, and 305-4 has been touched with the touch pen 43-1 to display the composite image 302 or to display the foreground image 431 or It is determined whether or not editing of the background image 401 has been instructed. If none of the thumbnails 305-1, 305-3, and 305-4 has been touched by the touch pen 43-1 (display of the composite image 302 or foreground image 431 or when the editing of the background image 401 has not been instructed), the process returns to step S283, and the above-described processes after step S283 are repeatedly executed.
[0225]
In step S288, the CPU 131 determines that one of the thumbnails 305-1, 305-3, and 305-4 has been touched with the touch pen 43-1 (display of the composite image 302 or display of the foreground image 431 or the background image 401). If the editing is instructed), the CPU 131 ends the captured image display processing, returns to step S155 in FIG. 21, and repeatedly executes the processing from step S155 described above.
[0226]
Returning to FIG. 21, in step S159, the CPU 131 determines that the thumbnail touched by the touch pen 43-1 is not the thumbnail 305-2, that is, the thumbnail touched by the touch pen 43-1 is the thumbnail 305-4. Is determined (the display of the composite image 302 has been instructed), the process returns to step S154, and the above-described processes after step S154 are repeatedly executed.
[0227]
As described above, the image editing process of the photo sticker vending machine 1 is executed.
[0228]
By the way, the time limit is set in each of the photographing mode selection receiving process in step S52 of FIG. 7, the photographing process in step S53, the editing process in step S55, and the image placement selection receiving process in step S56. The CPU 131 executes each of the above-described processes within a preset time limit.
[0229]
Next, the editing time control processing of the photo sticker vending machine 1, that is, the processing of controlling the editing processing time in step S55 in FIG. 7, will be described with reference to the flowchart in FIG.
[0230]
When the editing process of step S55 in FIG. 7 is started and a screen as shown in FIG. 14 is displayed on the editing monitors 41-1 and 41-2, in step S301, the CPU 131 sets Start countdown of time limit.
[0231]
In step S302, the CPU 131 determines whether or not the time limit for starting the countdown in step S301 has elapsed, or touches the end button 303 displayed on the editing monitor 41-1 with the touch pen 43-1; The process waits until the end button 303 displayed on the editing monitor 41-2 is touched by the touch pen 43-2.
[0232]
In step S302, the CPU 131 determines that the time limit has elapsed, or the end button 303 displayed on the editing monitor 41-1 is touched with the touch pen 43-1 and the editing pen is pressed with the touch pen 43-2. If it is determined that the end button 303 displayed on the monitor 41-2 has been touched, the process proceeds to step S303.
[0233]
In step S303, the CPU 131 ends the editing processing in step S55 in FIG. For example, if the time limit has elapsed while the user is inputting an editing operation, the CPU 131 edits the foreground image 431 or the background image 401 by using the editing operation input at that time. In FIG. 7, after the editing process in step S55 ends, the process proceeds to step S56.
[0234]
By the way, the photo sticker vending machine 1 can display a screen as shown in FIG. 14 to FIG. 17 on the editing monitor 41 and receive an input of editing from the user, but FIG. 14 to FIG. This is an example of a screen displayed on the editing monitor 41, and other screens may be displayed on the editing monitor 41 to receive an input of editing from a user.
[0235]
FIGS. 40 to 43 show examples of screens displayed on the editing monitor 41, which are different from those shown in FIGS. FIGS. 40 to 43 show examples of screens displayed on the editing monitor 41-1 during the process of step S55 in FIG. 7, which are different from those in FIGS.
[0236]
In FIG. 40, the end button 303, the image selection unit 304, the pen menu 307, the stamp menu 308, the thickness selection menu 309, the color selection menu 310, the eraser button 311, the redo button 312, and the red button displayed on the editing monitor 41-1 in FIG. The redo button 313 has the same function as the button with the same reference numeral displayed in FIG.
[0237]
In FIG. 40, an image display area 501 is provided in the center and front of the editing monitor 41-1 and a composite image 302 is displayed in the image display area 501. The user can grasp the graffiti result from the composite image 302 displayed in the image display area 501. Further, a composite image reduced display area 503 is provided on the left side of the image display area 501, and a reduced composite image 504 obtained by reducing the composite image 302 is displayed in the composite image reduced display area 503. The user can perform graffiti while grasping the result of the input graffiti from the reduced composite image 504 displayed in the composite image reduced display area 503. The display of the reduced composite image 504 in the composite image reduced display area 503 is updated immediately when the background image 401 or the graffiti of the foreground image 431 is updated. Therefore, the user can perform graffiti while grasping the result of graffiti corresponding to the input editing operation in real time.
[0238]
Tabs 502-1 to 502-4 are displayed above the captured image display area 501. The tab 502-1 displays characters of "background", the tab 502-2 displays characters of "shooting result", the tab 502-3 displays characters of "foreground", In 502-4, the characters "composite" are displayed. In FIG. 40, the tabs 502-1 to 502-4 are displayed in the same bright color.
[0239]
When the tab 502-1 is touched by the touch pen 43-1, the CPU 131 causes the editing monitor 41-1 to display the screen illustrated in FIG. 41. In FIG. 41, the tabs 502-2, 502-3, and 502-4 are displayed in a darker color than the tab 502-1. In FIG. 41, a composite image 321 is displayed in an image display area 521 provided on the front. The user can input a graffiti on the composite image 321 in the image display area 521 by using the touch pen 43-1.
[0240]
When the tab 502-3 is touched with the touch pen 43-1, the CPU 131 causes the editing monitor 41-1 to display the screen shown in FIG. In FIG. 42, the tab 502-4 is displayed in a darker color than the tabs 502-1, 502-2, and 502-3. In FIG. 42, a composite image 331 is displayed in an image display area 531 provided on the front surface. The user can input a graffiti on the composite image 331 in the image display area 531 using the touch pen 43-1.
[0241]
When the tab 502-1 is touched by the touch pen 43-1, the CPU 131 causes the editing monitor 41-1 to display the screen shown in FIG. Although the tabs 502-3 and 502-4 are indicated by dotted lines in FIG. 43, they are actually displayed as slightly darker colors than the tabs 502-1 and 502-2. In FIG. 43, a captured image 341 is displayed in an image display area 541 provided on the front. The user can check the captured image 341 by using the captured image 341 in the image display area 541.
[0242]
In the examples of FIGS. 14 to 17, by accepting the designation of any one of the thumbnails 305-1 to 305-4 by the touch pen 43-1, the designated thumbnail is displayed in the image display area 301. The corresponding image was displayed. On the other hand, in the examples of FIGS. 40 to 23, when the designation of any of the tabs 502-1 to 502-4 is received by the touch pen 43, the image display corresponding to the designated tab is performed. Any of the areas 501, 521, 531 and 541) is provided at the center and the front of the editing monitor 41-1 and an image corresponding to the designated tab is displayed in the image display area.
[0243]
By the way, in the photo sticker vending machine 1 of the present invention, in order to naturally combine the graffiti drawn on the background image 401 and the photographed image 341, a translucent combining process is performed.
[0244]
The translucent composition processing is, for example, when combining the captured image 341 and the background image 401, a layer called a composite weight is provided, and the composite weight value is gradually changed between 0 and 255 to obtain the captured image. Reference numeral 341 denotes processing for creating an image that has melted into the background image 401. This processing is, of course, also performed when the captured image 341 and the foreground image 431 are combined.
[0245]
For example, the captured image 341 can be made to stand out from the background image 401 or, on the contrary, blurred, depending on how the composite weight value is changed. Similarly, the foreground image 431 can be made to stand out from the captured image 341 or, on the contrary, can be blurred. Therefore, for example, by providing a button on the screen shown in FIG. 14 for operating how to change the composite weight value between the captured image 341 and the background image 401, the user can display the captured image 341 The user can make the image stand out, blur, and operate freely from the background image 401. Similarly, by providing a button for operating how to change the combined weight value between the foreground image 431 and the captured image 341, the user can make the foreground image 431 stand out or blur from the captured image 341. , Can be operated freely.
[0246]
By the way, the configuration on the surface 1C side of the photo sticker vending machine 1 is such that in FIG. 2, two editing monitors, ie, the editing monitors 41-1 and 41-2, are provided. May not be two. The number of editing monitors provided on the surface 1C side of the photo sticker vending machine 1 may be, for example, four. FIG. 44 shows a configuration example on the surface 1C side when the number of editing monitors provided on the surface 1C side of the photo sticker vending machine 1 is four.
[0247]
In FIG. 44, editing monitors 41-1 to 41-4 are provided on the surface 1C, and storage units 42-1 to 42-4 are provided below the editing monitors 41-1 to 41-4, respectively. Then, the touch pens 43-1 to 43-4 are stored therein.
[0248]
FIG. 45 shows an example of the internal configuration of the photo sticker vending machine 1 having the external configuration as shown in FIG. As shown in FIG. 45, each of the editing monitors 41-1 to 41-4 is connected to the control device 91, and the touch panels 94-1 to 94- corresponding to the respective editing monitors 41-1 to 41-4. 4 are provided. Other configurations are the same as those in FIG.
[0249]
As described above, in the case of the photo sticker vending machine 1 having four editing monitors, as shown in FIG. 46, the users 561-1 to 561-4 respectively send the editing monitors 41-1 to 41-4. Before editing, editing is input using the touch pens 43-1 to 43-4.
[0250]
In the case of the photo sticker vending machine 1 having four editing monitors, an editing screen as shown in FIGS. 14 to 17 or FIGS. 40 to 43 is displayed on each of the editing monitors 41-1 to 41-4. Thus, it is possible to receive an edit input from the users 561-1 to 561-4. Alternatively, the composite image 321, the captured image 341, the composite image 331, and the composite image 302 may be displayed on each of the four editing monitors. FIG. 47 shows a display example of the edit monitors 41-1 to 41-4 when the composite image 321, the captured image 341, the composite image 331, and the composite image 302 are displayed on each of the four edit monitors. Shown in
[0251]
In FIG. 47, the composite image 321 is displayed on the editing monitor 41-1, the captured image 341 is displayed on the editing monitor 41-2, the composite image 331 is displayed on the editing monitor 41-3, and the editing monitor 331 is displayed. A composite image 302 is displayed at 41-4. The editing monitor 41-1 and the editing monitor 41-3 display a button display column 612-1 and a button display column 612-2, respectively. The button display columns 612-1 and 612-2 include a pen menu, a stamp menu, a thickness selection menu, a color selection menu, an eraser button, an end button, and the like.
[0252]
The user can input a graffiti having a desired effect to the composite image 321 or the composite image 331 by selecting a desired button or the like from the button display columns 612-1 and 612-2. . Further, the user 561-1 can move the button display field 612-1 to a desired position in the editing monitor 41-1 by using the touch pen 43-1. Further, the user 561-3 can move the button display column 612-2 to a desired position in the editing monitor 41-3 by using the touch pen 43-3.
[0253]
The editing monitor 41-2 displays a captured image processing button display field 613. The user can select a desired button from the captured image processing button display field 613 to process the captured image 341 itself. For example, a part of the captured image 341 can be stretched, conversely shrunk, or the subject can be changed to sepia. Further, the user 561-2 can use the touch pen 43-2 to move the captured image processing button display field 613 to a desired position in the editing monitor 41-2.
[0254]
The editing monitors 41-1 to 41-3 are provided with composite image reduced display areas 601-1 to 601-3, respectively, and are reduced in the composite image reduced display areas 601-1 to 601-3. The synthesized image 302 is displayed. The user 561-1 can use the touch pen 43-1 to move the combined image reduced display area 601-1 to a desired position in the editing monitor 41-1. Further, the user 561-2 can move the synthesized image reduced display area 601-2 to a desired position in the editing monitor 41-2 by using the touch pen 43-2. Further, the user 561-3 can use the touch pen 43-3 to move the combined image reduced display area 601-3 to a desired position in the editing monitor 41-3.
[0255]
The users 561-1 to 561-4 can share the graffiti into the images while checking the images displayed on the editing monitors 41-1 to 41-4. Therefore, the users 561-1 to 561-4 can input many edits in a shorter time.
[0256]
In the examples shown in FIGS. 44 and 46, a plurality of monitors of the editing monitors 41-1 to 41-4 are provided on the surface 1C. It does not mean that it is limited to installing an editing monitor.
[0257]
For example, one large monitor having an area equal to or greater than the total area of the screens of the editing monitors 41-1 to 41-4 is installed on the surface 1C, and the editing monitors 41-1 to 41-1 of FIG. The same screen as the four screens displayed in 41-4 may be displayed on a large monitor as a virtual screen.
[0258]
In particular, when the large monitor installed on the surface 1C is a large monitor having a long vertical side (for example, when the entire height of the surface 1C from the floor is 50 cm to 200 cm), the height of the user is increased. The virtual screen can be displayed at a height that matches the height of the virtual screen.
[0259]
Specifically, for example, at the start of the editing process, the same four virtual screens as the four screens displayed on the editing monitors 41-1 to 41-4 in FIG. At a position (for example, a position at a height of about 100 cm from the floor). For example, when the user touches a predetermined position on a desired virtual screen with the touch pen 43 and moves the touch pen 43 up and down while touching the virtual screen, the CPU 131 sets the display position of the virtual screen ( Is moved in accordance with the movement of the touch pen 43.
[0260]
Accordingly, each of the users 561-1 to 561-4 can display the virtual screen at an optimum height according to the user's height and input an editing operation. Therefore, the users 561-1 to 561-4 can easily perform editing input, and as a result, can perform more satisfactory graffiti.
[0261]
Further, for example, the virtual screen displayed on the large monitor may be movable in the left-right direction. That is, for example, when the user touches a desired virtual screen on a large monitor with the touch pen 43 and moves the touch pen 43 up, down, left, and right while touching the virtual screen, the CPU 131 adjusts to the movement of the touch pen 43. Then, the display position of the virtual screen is moved up, down, left, and right. Thereby, the user can also exchange the assigned virtual screen with the user who is inputting the editing operation next to the user.
[0262]
Further, for example, the display size of the virtual screen displayed on the large monitor may be changeable. That is, for example, when the user touches the desired virtual screen frame with the touch pen 43 and moves the touch pen 43 up, down, left, and right while touching the virtual screen frame, the CPU 131 adjusts the movement of the touch pen 43 To enlarge (or reduce) the virtual screen. Thereby, the user can input the graffiti in more detail. Also, for example, one of the virtual screens can be displayed on the entire large monitor (the other virtual screen is hidden behind the virtual screen displayed on the entire large monitor), so that the large screen is displayed. Since a photographed image (composite image) of the user's life size or larger can be displayed on the monitor, the entertainment can be further enhanced.
[0263]
By the way, when the sticker 121 loaded in the photo sticker vending machine 1 is almost exhausted, the manager of the photo sticker vending machine 1 replaces the sticker 121 with a new sticker paper unit 97. Replenish. When refilling the sticker paper 121, the CPU 131 of the photo sticker vending machine 1 checks the control tag 122 attached to the seal paper unit 97 so that the refilled seal paper matches the photo sticker vending machine 1. It can be determined whether or not it has been performed. Next, the ID detection processing of the photo sticker vending machine 1 will be described with reference to FIG.
[0264]
In step S501 of FIG. 48, the CPU 131 monitors whether the seal paper unit 97 is mounted at a predetermined position of the photo sticker vending machine 1. If the seal paper unit 97 is mounted, the process proceeds to step S502. .
[0265]
In step S502, the CPU 131 controls the control tag reader / writer 112 to read and supply the ID of the control tag 122 attached to the sticker paper unit 97.
[0266]
In step S503, the CPU 131 collates the ID acquired from the control tag reader / writer 112 in step S502 with the seal paper ID stored in the ROM 132 in advance. If the two IDs are the same, the process proceeds to step S504. The image data of the screen including the message indicating that the photo sticker vending machine 1 can be used is loaded from the storage unit 136 to the RAM 133, and the image data is displayed on the photographing monitor 16 and the editing monitors 41-1 and 41-2. A screen including a message indicating that the photo sticker vending machine 1 can be used is displayed on at least one of the monitors.
[0267]
In step S505, the CPU 131 returns the photo sticker vending machine 1 to a normal game playable state (the state of step S51 in FIG. 7).
[0268]
In step S503, if the CPU 131 determines that the ID acquired from the control tag reader / writer 112 does not match the sticker ID stored in the ROM 132 in advance, the CPU 131 proceeds to step S506 and stores the photo sticker in the storage unit 136. Image data of a screen including a message indicating that the vending machine 1 is unusable is loaded into the RAM 133, and at least one of the monitor 16 for photographing and the monitors 41-1 and 41-2 for editing is monitored. Then, a screen including a message indicating that the photo sticker vending machine 1 cannot be used is displayed.
[0269]
Then, in step S507, the CPU 131 sets the photo sticker vending machine 1 to be unusable (game not possible). As a method of this, for example, a shutter can be lowered to the coin insertion slot 18 so that coins are not inserted from the coin insertion slot 18.
[0270]
In the present embodiment, the control tag 122 is attached to the seal paper unit 97. However, if the type of the seal paper 121 loaded in the seal paper unit 97 can be identified, other control tags are used. The seal paper 121 may be identified by a method.
[0271]
For example, the seal paper unit 97 may be identified by using a method such as a barcode or an IC card instead of the control tag 122. In addition, the shape of the mounting portion of the seal paper unit 97 to the photo sticker vending machine is made different for each model of the photo sticker vending machine, and only the compatible seal paper unit 97 can be mounted to the photo sticker vending machine 1. You may do anything.
[0272]
Further, the seal paper 121 and the seal paper unit 97 can be configured to be separable, or can be integrally configured.
[0273]
In the above description, the printing medium is described as sticker paper, but is not limited to sticker paper. For example, printing may be performed on paper of a predetermined size or poster paper. The photographed image data may be recorded on a recording medium such as a floppy disk prepared by the user.
[0274]
The series of processes described above can be executed by hardware, but can also be executed by software. When a series of processing is executed by software, a program constituting the software executes various functions by installing a computer built in dedicated hardware or installing various programs. For example, it is installed in a general-purpose personal computer or the like from a network or a recording medium.
[0275]
As shown in FIG. 6, this recording medium is provided separately from the apparatus main body, and is distributed to provide a program to a user. The recording medium includes a magnetic disk 151 (including a flexible disk) and an optical disk 152 (including a flexible disk). It is configured by a package medium including a CD-ROM (Compact Disk-Read Only Memory), a DVD (including a Digital Versatile Disk), a magneto-optical disk 153 (including an MD (Mini-Disk)), or a semiconductor memory 154. In addition, the storage unit 136 includes a ROM 132 in which a program is recorded and a hard disk included in the storage unit 136, which are provided to the user in a state where the program is incorporated in the apparatus main body in advance.
[0276]
Note that, in the present embodiment described above, when an editing operation on the background image 401 is accepted, a composite image 321 as shown in FIG. 15 is displayed in the image display area 301. May be displayed instead of the background image 401. In that case, the thumbnail of the background image 401 may be displayed as the thumbnail 305-1.
[0277]
Further, in the present embodiment, when accepting the editing operation on the foreground image 431, the composite image 331 as shown in FIG. 16 is displayed in the image display area 301, but instead of displaying the composite image 331. Alternatively, the foreground image 431 may be displayed. In that case, a thumbnail of the foreground image 431 may be displayed as the thumbnail 305-3.
[0278]
Further, in the above-described embodiment, as shown in FIG. 34, the CPU 131 manages the captured image 341, the background image 401, and the foreground image 431 in a layer structure. However, this does not mean that the present invention is limited to managing the captured image 341, the background image 401, and the foreground image 431 in a layer structure.
[0279]
For example, the CPU 131 may manage two images except the foreground image 431, that is, the captured image 341 and the background image 401 in a layer structure. For example, when the user does not intend to graffiti the foreground of the subject in advance, the thumbnail 305-3 of the foreground image 431 (or the tab 502-3 for displaying the foreground image) is not displayed on the editing monitor 41. It is not only meaningful, but also may cause a user's erroneous operation. Therefore, in such a case, the thumbnail 305-3 of the foreground image 431 (or the tab 502-3 for displaying the foreground image) may not be displayed on the editing monitor 41.
[0280]
Specifically, for example, at the beginning of the editing process, the CPU 131 causes the editing monitor 41 to display guidance such as “Input graffiti in the foreground of the subject? Yes No”. When “NO” is touched by the touch pen 43, the CPU 131 prevents the thumbnail 305-3 of the foreground image 431 (or the tab 502-3 for displaying the foreground image) from being displayed on the editing monitor 41. Accordingly, only the thumbnails (or tabs) required by the user are displayed on the editing monitor 41, so that the possibility of causing an erroneous operation can be reduced, and the operability can be further improved. In that case, in FIG. 34, the CPU 131 manages two images except the foreground image 431, that is, the captured image 341 and the background image 401 in a layer structure.
[0281]
Similarly, the CPU 131 may manage two images except for the background image 401, that is, the captured image 341 and the foreground image 431 in a layer structure. For example, when the user does not intend to graffiti the background of the subject in advance, the thumbnail 305-1 of the background image 401 (or the tab 502-1 for displaying the background image) is not displayed on the editing monitor 41. It is not only meaningful, but also may cause a user's erroneous operation. Therefore, in such a case, the thumbnail 305-1 of the background image 401 (or the tab 502-1 for displaying the background image) may not be displayed on the editing monitor 41.
[0282]
Specifically, for example, at the beginning of the editing process, the CPU 131 causes the editing monitor 41 to display a guidance such as “Input graffiti on the background of the subject? Yes No”. When “NO” is touched by the touch pen 43, the CPU 131 prevents the thumbnail 305-1 of the background image 401 (or the tab 502-1 for displaying the background image) from being displayed on the editing monitor 41. Accordingly, only the thumbnails (or tabs) required by the user are displayed on the editing monitor 41, so that the possibility of causing an erroneous operation can be reduced, and the operability can be further improved. In this case, in FIG. 34, the CPU 131 manages two images except for the background image 401, that is, the captured image 341 and the foreground image 431 in a layer structure.
[0283]
In the above-described embodiment, as shown in FIG. 34, the foreground image 431 and the background image 401 are managed one by one. However, in the layer structure shown in FIG. One or more background images may be further superimposed below 401. Similarly, in the layer structure shown in FIG. 34, one or more foreground images may be further superimposed on the foreground image 431. In this way, by making the background image have a finer layer structure and the foreground image having a finer layer structure, the user can input an editing operation to a finer portion. In this case, thumbnails (or tabs) corresponding to all the images constituting the layer structure may be displayed on the editing monitor 41.
[0284]
In the present specification, the system represents the entire device including a plurality of devices.
[0285]
【The invention's effect】
As described above, according to the present invention, a user can edit a captured image.
[0286]
Further, according to the present invention, it is possible to prevent a user from accidentally inputting or deleting graffiti in a background image or a foreground image. Also, the number of buttons to be displayed on the screen can be reduced. As a result, operability during editing can be improved.
[0287]
Further, according to the present invention, a more entertaining editing operation can be realized.
[Brief description of the drawings]
FIG. 1 is a perspective view showing an example of the appearance of a photo sticker vending machine to which the present invention is applied.
FIG. 2 is a perspective view showing another example of the appearance of a photo sticker vending machine to which the present invention is applied.
FIG. 3 is a diagram showing an example of the arrangement of the photo sticker vending machine in FIG. 1;
4 is a diagram showing an example of the arrangement of the photo sticker vending machine of FIG. 1 from above.
FIG. 5 is a block diagram showing an example of an internal configuration of the photo sticker vending machine of FIG. 1;
FIG. 6 is a block diagram illustrating a configuration example of a control device in FIG. 5;
FIG. 7 is a flowchart illustrating a customer response process of the photo sticker vending machine.
FIG. 8 is a flowchart illustrating a process in step S53 of FIG. 7 in detail.
FIG. 9 is a diagram showing a display example of a photographing monitor.
FIG. 10 is another view showing a display example of the photographing monitor.
FIG. 11 is yet another view showing a display example of the photographing monitor.
FIG. 12 is a diagram illustrating a display example of a photographing monitor.
FIG. 13 is another view showing a display example of the photographing monitor.
FIG. 14 is a diagram illustrating a display example of an editing monitor.
FIG. 15 is another diagram showing a display example of the editing monitor.
FIG. 16 is yet another view showing a display example of the editing monitor.
FIG. 17 is a diagram illustrating a display example of an editing monitor.
FIG. 18 is another diagram showing a display example of the editing monitor.
FIG. 19 is a diagram illustrating an example of a seal sheet.
FIG. 20 is a view showing a display example of an editing monitor of a conventional photo sticker vending machine for comparison with the examples of FIGS. 14 to 17;
FIG. 21 is a flowchart illustrating a process in step S55 of FIG. 7 in detail.
22 is a flowchart describing in detail the processing of step S151 in FIG. 21, step S245 in FIG. 36, step S265 in FIG. 37, and step S285 in FIG.
FIG. 23 is a flowchart describing in detail the processing of steps S182, S185, and S188 of FIG. 22;
FIG. 24 is a diagram illustrating an image combining process.
FIG. 25 is another diagram illustrating the image combining process.
FIG. 26 is yet another diagram illustrating the image combining process.
FIG. 27 is a diagram illustrating an image combining process.
FIG. 28 is another diagram illustrating the image synthesis processing.
FIG. 29 is yet another diagram illustrating the image synthesizing process.
FIG. 30 is a diagram illustrating an image combining process.
FIG. 31 is another diagram illustrating the image synthesis processing.
FIG. 32 is yet another diagram illustrating the image synthesizing process.
FIG. 33 is a diagram illustrating an image combining process.
FIG. 34 is a diagram illustrating a layer structure of an image.
FIG. 35 is a flowchart illustrating in detail a process of step S154 in FIG. 21;
FIG. 36 is a flowchart illustrating the processing in step S156 of FIG. 21 in detail.
FIG. 37 is a flowchart illustrating in detail a process of step S158 in FIG. 21;
FIG. 38 is a flowchart illustrating the process of step S160 in FIG. 21 in detail.
FIG. 39 is a flowchart illustrating an editing time control process of the photo sticker vending machine.
FIG. 40 is a diagram illustrating a display example of an editing monitor.
FIG. 41 is another diagram showing a display example of the editing monitor.
FIG. 42 is yet another view showing a display example of the editing monitor.
FIG. 43 is a diagram illustrating a display example of an editing monitor.
FIG. 44 is a perspective view showing an example of an appearance different from that of FIG. 2 of the photo sticker vending machine to which the present invention is applied.
FIG. 45 is a block diagram showing an example of the internal configuration of the photo sticker vending machine in FIG. 44.
FIG. 46 is a diagram illustrating the arrangement of users.
FIG. 47 is a diagram illustrating a display example of an editing monitor.
FIG. 48 is a flowchart illustrating an ID detection process of the photo sticker vending machine.
[Explanation of symbols]
1 Photo sticker vending machine
12 Imaging equipment
16 Monitor for shooting
17 Operation panel
31 Seal outlet
41-1, 41-2 Editing monitor
43-1 and 43-2 Touch pen
91 Controller
94-1 and 94-2 Touch panel
97 Seal paper unit
131 CPU
133 RAM
136 storage unit

Claims (12)

被写体を撮影する撮影手段と、
前記撮影手段により前記被写体を撮影して得た第1の画像、前記第1の画像に対して背景として合成される第2の画像、前記第1の画像に対して前景として合成される第3の画像、または、前記第1の画像、前記第2の画像、および前記第3の画像を合成した第4の画像を選択する選択手段と、
前記第1の画像、前記第2の画像、前記第3の画像、および前記第4の画像のうち、前記選択手段により選択された画像が選択されていない画像と識別できるように、その表示を制御する制御手段と
を備えることを特徴とする写真シール自動販売機。
Photographing means for photographing a subject;
A first image obtained by shooting the subject by the shooting means, a second image synthesized as a background with the first image, and a third image synthesized as a foreground with the first image Selecting means for selecting an image or a fourth image obtained by synthesizing the first image, the second image, and the third image;
Among the first image, the second image, the third image, and the fourth image, the display is performed so that the image selected by the selection unit can be distinguished from an unselected image. A vending machine for photo stickers, comprising: control means for controlling.
前記制御手段による制御に従って、前記選択手段により選択された画像が選択されていない画像と識別できるように表示する表示手段と、
ユーザからの操作の入力を受け付ける受付手段と
をさらに備えることを特徴とする請求項1に記載の写真シール自動販売機。
Display means for displaying the image selected by the selection means so as to be distinguishable from an unselected image, according to the control by the control means;
2. The photo sticker vending machine according to claim 1, further comprising a receiving unit that receives an input of an operation from a user.
前記制御手段は、前記選択手段により前記第2の画像が選択された場合、前記受付手段に、前記第2の画像に対する編集操作の入力を受け付けさせ、前記受付手段により入力が受け付けられた前記編集操作に基づいて、前記第2の画像を編集し、前記選択手段により前記第3の画像が選択された場合、前記受付手段に、前記第3の画像に対する編集操作の入力を受け付けさせ、前記受付手段により入力が受け付けられた前記編集操作に基づいて、前記第3の画像を編集する
ことを特徴とする請求項2に記載の写真シール自動販売機。
The control unit, when the second image is selected by the selection unit, causes the reception unit to receive an input of an editing operation on the second image, and the editing unit receives the input by the reception unit. The second image is edited based on the operation, and when the third image is selected by the selecting means, the receiving means is made to receive an input of an editing operation for the third image, and The photo sticker vending machine according to claim 2, wherein the third image is edited based on the editing operation whose input has been accepted by the means.
前記制御手段は、前記第1の画像、前記第2の画像、前記第3の画像、および前記第4の画像にそれぞれ対応するタブ、および前記選択手段により選択された前記画像を前記表示手段に表示させ、
前記受付手段は、前記表示手段により表示された複数の前記タブの中から、1つの前記タブの選択を受け付け、
前記選択手段は、前記受付手段により選択が受け付けられた前記タブに対応する前記画像を選択する
ことを特徴とする請求項2または3に記載の写真シール自動販売機。
The control unit may display tabs respectively corresponding to the first image, the second image, the third image, and the fourth image, and the image selected by the selection unit on the display unit. Display,
The receiving unit receives a selection of one of the tabs from the plurality of tabs displayed by the display unit,
The photo sticker vending machine according to claim 2, wherein the selection unit selects the image corresponding to the tab selected by the reception unit.
前記制御手段は、前記第1の画像、前記第2の画像、前記第3の画像、および前記第4の画像にそれぞれ対応するサムネイル、および前記選択手段により選択された前記画像を前記表示手段に表示させ、
前記受付手段は、前記表示手段により表示された複数の前記サムネイルの中から、1つの前記サムネイルの選択を受け付け、
前記選択手段は、前記受付手段により選択が受け付けられた前記サムネイルに対応する前記画像を選択する
ことを特徴とする請求項2または3に記載の写真シール自動販売機。
The control means displays the thumbnails respectively corresponding to the first image, the second image, the third image, and the fourth image, and the image selected by the selection means on the display means. Display,
The receiving unit receives a selection of one of the thumbnails from the plurality of thumbnails displayed by the display unit,
The photo sticker vending machine according to claim 2, wherein the selection unit selects the image corresponding to the thumbnail selected by the reception unit.
前記第2の画像が合成される領域を、それ以外の領域と識別することができるように前記第1の画像、前記第2の画像、および前記第3の画像を合成した第5の画像、並びに、前記第3の画像が合成される領域を、それ以外の領域と識別することができるように前記第1の画像、前記第2の画像、および前記第3の画像を合成した第6の画像を作成する作成手段をさらに備え、
前記制御手段は、前記第1の画像、前記第5の画像、前記第6の画像、および前記第4の画像にそれぞれ対応するサムネイル、および前記選択手段により選択された前記画像を前記表示手段に表示させ、
前記受付手段は、前記表示手段により表示された複数の前記サムネイルの中から、1つの前記サムネイルの選択を受け付け、
前記選択手段は、前記受付手段により選択が受け付けられた前記サムネイルに対応する前記画像を選択する
ことを特徴とする請求項2または3に記載の写真シール自動販売機。
A fifth image obtained by synthesizing the first image, the second image, and the third image so that an area where the second image is synthesized can be distinguished from other areas; And a sixth image obtained by synthesizing the first image, the second image, and the third image so that an area where the third image is synthesized can be distinguished from other areas. Further comprising a creating means for creating an image,
The control unit displays the thumbnails respectively corresponding to the first image, the fifth image, the sixth image, and the fourth image, and the image selected by the selection unit on the display unit. Display,
The receiving unit receives a selection of one of the thumbnails from the plurality of thumbnails displayed by the display unit,
The photo sticker vending machine according to claim 2, wherein the selection unit selects the image corresponding to the thumbnail selected by the reception unit.
前記制御手段は、前記選択手段により前記第5の画像が選択された場合、前記受付手段に、前記第5の画像に対する編集操作の入力を受け付けさせ、前記受付手段により入力が受け付けられた前記編集操作に基づいて、前記第2の画像を編集し、前記選択手段により前記第6の画像が選択された場合、前記受付手段に、前記第6の画像に対する編集操作の入力を受け付けさせ、前記受付手段により入力が受け付けられた前記編集操作に基づいて、前記第3の画像を編集する
ことを特徴とする請求項6に記載の写真シール自動販売機。
When the fifth image is selected by the selection unit, the control unit causes the reception unit to receive an input of an editing operation on the fifth image, and the editing unit receives the input by the reception unit. The second image is edited based on the operation, and when the sixth image is selected by the selection means, the receiving means is made to receive an input of an editing operation on the sixth image, and 7. The photo sticker vending machine according to claim 6, wherein the third image is edited based on the editing operation accepted by the means.
前記第4の画像を、所定の印刷媒体に印刷する印刷手段をさらに備える
ことを特徴とする請求項1乃至7のいずれかに記載の写真シール自動販売機。
The photo sticker vending machine according to claim 1, further comprising a printing unit that prints the fourth image on a predetermined print medium.
前記所定の印刷媒体であって、装着された前記印刷媒体を識別するための識別情報を読み取る読み取り手段をさらに備え、
前記制御手段は、前記読み取り手段による読み取り結果に基づいて、前記印刷媒体への印刷を制御する
ことを特徴とする請求項8に記載の写真シール自動販売機。
The predetermined print medium, further comprising reading means for reading identification information for identifying the mounted print medium,
The photo sticker vending machine according to claim 8, wherein the control unit controls printing on the print medium based on a result of reading by the reading unit.
前記印刷手段により画像が印刷される前記印刷媒体を格納するとともに、前記読み取り手段により読み取られる前記識別情報を保持する
ことを特徴とする請求項9に記載の写真シール自動販売機により使用される印刷媒体ユニット。
The printing device according to claim 9, wherein the printing medium stores the print medium on which the image is printed by the printing unit, and holds the identification information read by the reading unit. Media unit.
写真シール自動販売機により画像が印刷された印刷媒体であって、
請求項1乃至9のいずれかに記載の写真シール自動販売機により画像が印刷された
ことを特徴とする印刷媒体。
A print medium on which an image is printed by a photo sticker vending machine,
A print medium, wherein an image is printed by the photo sticker vending machine according to any one of claims 1 to 9.
被写体を撮影する撮影ステップと、
前記撮影ステップの処理により前記被写体を撮影して得た第1の画像、前記第1の画像に対して背景として合成される第2の画像、前記第1の画像に対して前景として合成される第3の画像、または、前記第1の画像、前記第2の画像、および前記第3の画像を合成した第4の画像を選択する選択ステップと、
前記第1の画像、前記第2の画像、前記第3の画像、および前記第4の画像のうち、前記選択ステップの処理により選択された画像が選択されていない画像と識別できるように、その表示を制御する制御ステップと
を含むことを特徴とする写真シール販売方法。
A shooting step for shooting the subject,
A first image obtained by imaging the subject by the processing of the imaging step, a second image synthesized as a background with the first image, and synthesized as a foreground with the first image A selecting step of selecting a third image or a fourth image obtained by combining the first image, the second image, and the third image;
The first image, the second image, the third image, and the fourth image, the image selected by the process of the selection step is identified so that it can be identified as an unselected image. And a control step of controlling the display.
JP2002201557A 2002-07-10 2002-07-10 Photo sticker vending machine and method Expired - Fee Related JP4126534B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002201557A JP4126534B2 (en) 2002-07-10 2002-07-10 Photo sticker vending machine and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002201557A JP4126534B2 (en) 2002-07-10 2002-07-10 Photo sticker vending machine and method

Publications (2)

Publication Number Publication Date
JP2004048275A true JP2004048275A (en) 2004-02-12
JP4126534B2 JP4126534B2 (en) 2008-07-30

Family

ID=31708060

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002201557A Expired - Fee Related JP4126534B2 (en) 2002-07-10 2002-07-10 Photo sticker vending machine and method

Country Status (1)

Country Link
JP (1) JP4126534B2 (en)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005115011A (en) * 2003-10-08 2005-04-28 Ricoh Co Ltd Image display apparatus, image display method, image display program and recording medium recording the program
JP2008065112A (en) * 2006-09-08 2008-03-21 Make Softwear:Kk Photographing amusement machine
JP2009151698A (en) * 2007-12-21 2009-07-09 Furyu Kk Image converter, image providing system, photographing editing device, image conversion method, image conversion program, and recording medium recorded with program
JP2010039410A (en) * 2008-08-08 2010-02-18 Nikon Corp Projector
JP2012165454A (en) * 2012-04-26 2012-08-30 Furyu Kk Image conversion apparatus, image providing system, photographing/editing device, image converting method, image conversion program, and recording medium recording the program
JP2013083992A (en) * 2012-11-28 2013-05-09 Furyu Kk Photographic seal creation device, photographic seal creation method, and program
JP2016046622A (en) * 2014-08-21 2016-04-04 株式会社メイクソフトウェア Photographing play machine, photo sticker creation device, control method for photographing play machine, and control program for photographing play machine
JP2018018450A (en) * 2016-07-29 2018-02-01 辰巳電子工業株式会社 Image edition device, image edition method, and computer program
CN108055483A (en) * 2017-11-30 2018-05-18 努比亚技术有限公司 A kind of picture synthesis method, mobile terminal and computer readable storage medium
JP2021140390A (en) * 2020-03-04 2021-09-16 株式会社リコー Program, composite image generation method, terminal device and information processor
JP2022008999A (en) * 2016-07-29 2022-01-14 辰巳電子工業株式会社 Image editing device, image editing method and computer program
WO2023042401A1 (en) * 2021-09-17 2023-03-23 日本電信電話株式会社 Image presentation device, image presentation method, and program
WO2024088322A1 (en) * 2022-10-28 2024-05-02 影石创新科技股份有限公司 Video display method and apparatus, video display device, and storage medium

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005115011A (en) * 2003-10-08 2005-04-28 Ricoh Co Ltd Image display apparatus, image display method, image display program and recording medium recording the program
JP2008065112A (en) * 2006-09-08 2008-03-21 Make Softwear:Kk Photographing amusement machine
JP2009151698A (en) * 2007-12-21 2009-07-09 Furyu Kk Image converter, image providing system, photographing editing device, image conversion method, image conversion program, and recording medium recorded with program
JP2010039410A (en) * 2008-08-08 2010-02-18 Nikon Corp Projector
JP2012165454A (en) * 2012-04-26 2012-08-30 Furyu Kk Image conversion apparatus, image providing system, photographing/editing device, image converting method, image conversion program, and recording medium recording the program
JP2013083992A (en) * 2012-11-28 2013-05-09 Furyu Kk Photographic seal creation device, photographic seal creation method, and program
JP2016046622A (en) * 2014-08-21 2016-04-04 株式会社メイクソフトウェア Photographing play machine, photo sticker creation device, control method for photographing play machine, and control program for photographing play machine
JP2018018450A (en) * 2016-07-29 2018-02-01 辰巳電子工業株式会社 Image edition device, image edition method, and computer program
JP2022008999A (en) * 2016-07-29 2022-01-14 辰巳電子工業株式会社 Image editing device, image editing method and computer program
JP7017724B2 (en) 2016-07-29 2022-02-09 辰巳電子工業株式会社 Image editing equipment, image editing methods and computer programs
CN108055483A (en) * 2017-11-30 2018-05-18 努比亚技术有限公司 A kind of picture synthesis method, mobile terminal and computer readable storage medium
JP2021140390A (en) * 2020-03-04 2021-09-16 株式会社リコー Program, composite image generation method, terminal device and information processor
WO2023042401A1 (en) * 2021-09-17 2023-03-23 日本電信電話株式会社 Image presentation device, image presentation method, and program
WO2024088322A1 (en) * 2022-10-28 2024-05-02 影石创新科技股份有限公司 Video display method and apparatus, video display device, and storage medium

Also Published As

Publication number Publication date
JP4126534B2 (en) 2008-07-30

Similar Documents

Publication Publication Date Title
JP5051313B2 (en) Photo sticker creation apparatus and method, and program
JP3548852B2 (en) Photo sticker vending machine, image processing method of photo sticker vending machine, and program
JP4126534B2 (en) Photo sticker vending machine and method
JP5802911B2 (en) Photo game machine
JP7011206B2 (en) Amusement photography equipment, image processing equipment, and image processing methods
JP4730599B2 (en) Photo sticker creation apparatus and method, and program
JP4523839B2 (en) Image input apparatus and method, and program
JP2008065112A (en) Photographing amusement machine
JP4607992B2 (en) Photo print providing apparatus and method, and program
JP2008011305A (en) Photograph creation apparatus and photograph creation method, and program
JP2006293421A (en) Photographic sticker making device and method, and program
JP2006287285A (en) Photography seal forming device, method and program
JP2004072404A (en) Automatic photograph sticker vending machine and method, printing medium, and printing medium unit
JP2004320091A (en) Photographic print providing apparatus, and method and program thereof
JP6217013B2 (en) Photography game machine, photography game method and control program
JP5268080B2 (en) Photo game machine
JP2013041273A (en) Photography game device
JP4257129B2 (en) Photo print providing apparatus and method, and program
JP2004048374A (en) Photograph seal vending machine and method therefor photograph seal, and photograph seal unit
JP2009290328A (en) Image editing apparatus and photographing game machine using the same
JP4318564B2 (en) Automatic photo creation device and automatic photo creation method
JP2020187250A (en) Photograph creation game machine, game providing method, and program
JP4655198B2 (en) Photo sticker creation apparatus and method, and program
JP2006162719A (en) Photographic sticker-vending machine and its method and program
JP4207429B2 (en) Image printing device, print medium unit

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20050119

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20050413

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050630

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20070403

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070509

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070605

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20070613

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070720

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080416

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080429

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110523

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4126534

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120523

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120523

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130523

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130523

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140523

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees