JP2018182469A - 写真撮影遊戯機、写真撮影遊技機の制御方法、及び、写真撮影遊技機の制御プログラム - Google Patents

写真撮影遊戯機、写真撮影遊技機の制御方法、及び、写真撮影遊技機の制御プログラム Download PDF

Info

Publication number
JP2018182469A
JP2018182469A JP2017077188A JP2017077188A JP2018182469A JP 2018182469 A JP2018182469 A JP 2018182469A JP 2017077188 A JP2017077188 A JP 2017077188A JP 2017077188 A JP2017077188 A JP 2017077188A JP 2018182469 A JP2018182469 A JP 2018182469A
Authority
JP
Japan
Prior art keywords
image
face
user
photographing
photographic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017077188A
Other languages
English (en)
Inventor
内田 健
Takeshi Uchida
健 内田
石田 裕之
Hiroyuki Ishida
裕之 石田
英里香 沖
Erika Oki
英里香 沖
美智子 中原
Michiko Nakahara
美智子 中原
那智子 杉本
Nachiko Sugimoto
那智子 杉本
秀一 末宗
Shuichi Suemune
秀一 末宗
礼子 石井
Reiko Ishii
礼子 石井
健成 構
Takeshige Kamae
健成 構
関 正彦
Masahiko Seki
正彦 関
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Make Software Co Ltd
Original Assignee
Make Software Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Make Software Co Ltd filed Critical Make Software Co Ltd
Priority to JP2017077188A priority Critical patent/JP2018182469A/ja
Publication of JP2018182469A publication Critical patent/JP2018182469A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Cameras Adapted For Combination With Other Photographic Or Optical Apparatuses (AREA)
  • Studio Devices (AREA)

Abstract

【課題】撮影時に、ライブ画像で被写体と重ねて表示する顔配置合成用画像を、合成画像において適切に配置して、合成画像の品質を向上する。【解決手段】写真撮影遊戯機は、撮影手段と、調整手段と、合成画像生成手段と、印刷手段と、を備える。撮影手段は、カメラを制御してユーザを撮影し、写真画像を生成する。撮影手段は、撮影の際に、カメラで取り込まれたユーザのリアルタイムの画像を、被写体の顔に対応する位置に配置するための顔配置合成用画像と重ねてライブ画像としてモニタに表示する。調整手段は、撮影手段の撮影により生成された写真画像V31〜V42と、写真画像の撮影の際にライブ画像でユーザのリアルタイムの画像に重ねて表示されていた顔配置合成用画像H5〜H8とを重ねて表示し、ユーザから、写真画像に写る被写体の顔と顔配置合成用画像との相対位置、相対角度及び相対サイズの少なくともいずれかを変更する操作を受け付ける。【選択図】図19

Description

本発明は、写真撮影遊戯機、写真撮影遊技機の制御方法、及び、写真撮影遊技機の制御プログラムに関する。
ユーザを撮影して得られた写真画像に合成用画像及びユーザの落書きを合成して生成した合成画像を、シール紙等に印刷したり、ユーザの携帯端末に送信したりして、ユーザに合成画像を提供する写真撮影遊戯機が知られている。
写真撮影遊戯機には、写真画像に写る被写体の顔に対応する位置に、合成用画像を配置した合成画像を生成するものがある。さらに、被写体の顔に対応する位置に配置される顔配置合成用画像を、撮影の際に、ユーザのリアルタイムの画像に重ねて表示しながら、撮影を行う形態がある。
例えば、特開2008−79273号公報(下記特許文献1)には、撮影時のライブビュー画像において、ファッションモデルの女性の顔がくりぬかれた部分に、利用者の動画像がはめ込まれて表示される例が開示されている。
特開2008−79273号公報
被写体の顔に対応する位置に配置する顔配置合成用画像は、顔に対する適切な位置に精度良く配置することが求められる。適切な位置から少しずれただけで、被写体と顔配置合成用画像から生じる印象が不自然になる場合がある。この場合、合成写真は、ユーザに違和感を与える。その結果、合成画像全体の品質が著しく低下する。
そこで、本発明は、撮影時に、ライブ画像で被写体と重ねて表示する顔配置合成用画像を、合成画像において適切に配置し、合成画像の品質を向上することができる、写真撮影遊戯機、写真撮影遊技機の制御方法、及び、写真撮影遊技機の制御プログラムを提供することを目的とする。
発明者らは、撮影時のライブ画像で顔配置合成用画像を被写体と重ねて表示することで、ユーザに撮影を楽しんでもらえるとともに、顔配置合成用画像と写真画像が合成された合成写真において、違和感がないように、顔配置合成用画像を配置するための技術を検討した。
まず、撮影におけるライブ画像に加えて、画像と音声を用いたガイダンス機能を追加し、カメラに写るユーザの顔の位置と、顔配置合成用画像の位置が適切になるよう誘導する技術を検討した。これにより、ある程度の効果は見られるものの、限られた撮影時間において、微妙な位置の調整は難しいことがわかった。また、撮影に不慣れなユーザにとっては、ライブ画像を見ながら、自分の顔を目標位置に移動させることが難しいことがわかった。
また、ライブ画像において、被写体の顔を認識し、認識された顔の位置に基づいて、顔配置合成用画像を自動的に配置する技術を検討した。この技術を用いると、画像における被写体の顔を誤認識した場合に、顔配置合成用画像が配置される位置が不適切になる。この場合、ユーザに、大きな違和感を生じさせる。その結果、ユーザの満足度を著しく低下させることがわかった。
検討を重ねた結果、発明者らは、撮影の後に、ユーザの操作によって写真画像に写る被写体の顔と顔配置合成用画像との位置関係を調整する手段を敢えて設ける構成に想到した。具体的には、撮影の際にライブ画像でユーザのリアルタイムの画像に重ねて表示されていた顔配置合成用画像と、その撮影で得られた写真画像とを重ねて表示し、ユーザから、写真画像に写る被写体の顔と顔配置合成用画像との相対位置、相対角度及び相対サイズの少なくともいずれかを変更する操作を受け付ける調整手段を設ける構成に想到した。
この構成により、ユーザは、写真画像に写る被写体の顔と顔配置合成用画像との位置関係を、違和感がなくなるように、修正することができる。その結果、撮影時のライブ画像で、顔配置合成用画像を被写体と重ねて表示することで、ユーザに撮影を楽しんでもらえるとともに、顔配置合成用画像と写真画像が合成された合成写真において、違和感がないように、顔配置合成用画像を配置することができる。
本発明の実施形態における写真撮影遊戯機は、撮影手段と、調整手段と、合成画像生成手段と、印刷手段と、を備える。前記撮影手段は、カメラを制御して前記ユーザを撮影し、前記ユーザが前記被写体として写る写真画像を生成する。前記撮影手段は、前記撮影の際に、前記カメラで取り込まれた前記ユーザのリアルタイムの画像を、前記被写体の顔に対応する位置に配置するための顔配置合成用画像と重ねてライブ画像としてモニタに表示する。前記調整手段は、前記撮影手段の撮影により生成された前記写真画像と、前記写真画像の撮影の際に前記ライブ画像で前記ユーザのリアルタイムの画像に重ねて表示されていた前記顔配置合成用画像とを重ねて表示し、ユーザから、前記写真画像に写る被写体の顔と前記顔配置合成用画像との相対位置、相対角度及び相対サイズの少なくともいずれかを変更する操作を受け付ける。前記合成画像生成手段は、前記写真画像に、前記顔配置合成用画像を合成して、前記合成画像を生成する。前記印刷手段は、前記合成画像生成手段で生成された前記合成画像をシートに印刷する。
上記構成によれば、撮影手段により、写真画像を生成するための撮影の際に、カメラで取り込まれたユーザのリアルタイムの画像が、顔配置合成用画像と重ねてライブ画像としてモニタに表示される。これにより、撮影時の演出の幅が広がり、ユーザにとって撮影の楽しみ方のバリエーションが増える。さらに、調整手段により、撮影により生成された写真画像と、写真画像の撮影の際にライブ画像にユーザのリアルタイム画像と重ねて表示されていた顔配置合成用画像との相対位置関係を、ユーザが操作して調整できるようになる。そのため、撮影時に、ユーザが、写真画像に写る被写体の顔の位置を、顔配置合成用画像に対して適切な位置に配置できない場合であっても、撮影後に、ユーザが自らの操作で適切な位置に調整することができる。すなわち、ユーザは、写真画像が生成された後に、写真画像に写る被写体の顔と顔配置合成用画像との位置関係を、自らの操作により修正することができる。これにより、ユーザは、被写体の顔と顔配置合成用画像のずれによる違和感がなくすことができる。その結果、ライブ画像で顔配置合成用画像と被写体とを重ねて表示して撮影するとともに、撮影した得られた写真画像の被写体と顔配置合成用画像を合成画像において適切に配置できる。その結果、合成画像の品質が向上する。
前記顔配置合成用画像は、例えば、前記写真画像において認識される前記被写体の位置に基づいて配置される認識配置合成用画像、又は、前記被写体の顔を配置するための領域を有し、かつ被写体の前面に配置される顔はめ合成用画像であってもよい。なお、顔配置合成用画像は、上記の認識配置合成用画像及び顔はめ合成用画像に限定されない。その他、被写体と組み合わせにより一体的なデザインを形成する合成用画像を、顔配置合成用画像とすることができる。顔配置合成用画像は、被写体の顔との相対位置関係によって合成画像のデザイン性に貢献するものである。
上記写真撮影遊戯機は、前記写真画像に対する合成用画像の追加を含む編集を前記ユーザから受け付ける編集画面を表示する編集手段をさらに備えてもよい。この場合、前記調整手段は、前記撮影手段による前記写真画像の生成の後であって、前記編集手段による前記編集画面の表示の前において、前記撮影手段の撮影により生成された前記写真画像と、前記顔配置合成用画像とを重ねて表示し、ユーザから、前記写真画像に写る被写体の顔と前記顔配置合成用画像との相対位置、相対角度及び相対サイズの少なくともいずれかを変更する操作を受け付ける構成とすることができる。この構成によれば、ユーザは、撮影後であって編集作業の前に、編集作業とは別に、顔配置合成用画像と被写体との配置関係を調整できる。これにより、ユーザは、写真画像と顔配置合成用画像の配置関係の調整を、他の合成用画像を追加、削除又は更新する作業とは別の画面で行うため、調整作業に専念できる。また、ユーザは、編集作業において、写真画像と顔配置合成用画像の配置関係が調整された後の画像に対して、他の合成用画像を追加、削除又は更新する。そのため、ユーザは、編集作業にも専念できる。
前記顔配置合成用画像が、前記被写体の顔を配置するための領域を有し、かつ被写体の前面に配置される顔はめ合成用画像である場合に、前記撮影手段は、前記顔はめ合成用画像と前記ユーザのリアルタイムの画像とが重なる部分において、前記顔はめ合成用画像が透けて前記ユーザのリアルタイムの画像が見えるように、前記顔はめ合成用画像を半透明で表示した後、前記顔はめ合成用画像を不透明にして、顔はめ合成用画像と重なる部分のユーザのリアルタイム画像が見えないように表示してもよい。これにより、ユーザは、自分の顔が、顔はめ合成用画像に対して適切な位置で写るように調整しやすくなる。具体的には、顔はめ合成用画像が半透明の時に、ユーザは、カメラに写る自分の顔の位置と顔はめ画像中の顔をはめる領域との位置関係を把握しやすくなるため、顔を適切な位置に移動しやすくなる。その後、顔はめ合成画像が不透明になると、ユーザは、自分の顔のうち顔はめ合成用画像によって隠れる部分がどこかを把握しやすくなる。そのため、自分の顔の見え方を調整しやすくなる。
前記顔配置合成用画像が、前記被写体の顔を配置するための領域を有し、かつ被写体の前面に配置される顔はめ合成用画像である場合に、前記撮影手段は、前記顔はめ合成用画像の全体を表示した後、前記被写体の顔を配置する領域を拡大して表示し、前記拡大された顔はめ合成用画像を、前記ユーザのリアルタイムの画像に重ねて表示してもよい。これにより、ユーザは、まず、顔はめ合成用画像の全体を確認した上で、その後に拡大された顔はめ合成用画像に対して、自分の顔を適切な位置で写るように調整しやすくなる。
上記写真撮影遊戯機は、前記撮影の前に、複数の写真画像のそれぞれに合成する複数の合成用画像を含む合成用画像セットを、複数セット表示して前記ユーザに選択可能とする合成用画像セット選択手段をさらに備えてもよい。前記複数の合成用画像セットのうち少なくとも1セットは、前記被写体の顔に対応する位置に配置するための顔配置合成用画像を含んでもよい。この場合、前記撮影手段は、前記合成用画像セット選択手段において、前記顔配置合成用画像を含む合成用画像セットが選択された場合であって、かつ、前記顔配置合成用画像が合成される写真画像を生成するための撮影の際に、前記カメラで取り込まれた前記ユーザのリアルタイムの画像を、前記顔配置合成用画像と重ねてライブ画像としてモニタに表示することができる。
顔配置合成用画像を含む合成用画像セットを選択可能とすることで、写真撮影遊戯機のプレイにおける演出の幅が広くなる。一例として、合成用画像セットに含まれる複数の写真画像それぞれに合成される複数の合成用画像を、共通のコンセプトを持ったデザインとし、且つ、複数の合成用画像の少なくとも1つを顔配置合成用画像とすることができる。これにより、1つのコンセプトに従って合成画像の被写体を装飾することで、例えば、ユーザが、自分が変身したように感じられるような複数の合成画像を提供できる。
合成用画像セット選択手段は、前記複数の写真画像のうち1つの写真画像に合成するための前記顔配置合成用画像として前記被写体の顔を配置するための領域を有し、かつ被写体の前面に配置される顔はめ合成用画像と、前記複数の写真画像のうち他の写真画像に合成するための合成用画像として前記顔はめ合成用画像以外の合成用画像とを含む複合合成用画像セットを選択可能としてもよい。前記合成用画像セット選択手段において、前記複合合成用画像セットが選択された場合、前記撮影手段は、前記顔はめ合成用画像以外の合成用画像と合成される前記他の写真画像を生成するための撮影の次に、前記顔はめ合成用画像と合成される前記1つの写真画像を生成するための撮影を行うことができる。
なお、この場合、顔はめ合成用画像と合成される1つの写真画像を生成するための撮影のアングルと、顔はめ合成用画像以外の合成用画像(すなわち、顔はめ合成用画像を含まない合成用画像)と合成される他の写真画像を生成するための撮影のアングルは、同じであることが好ましい。
また、撮影処理を開始してから1番初めの撮影(複数の写真画像のうち1枚目の写真画像を生成するための撮影)は、顔はめ合成用画像を含まない合成用画像と合成される写真画像の撮影とすることが好ましい。
合成用画像セット選択手段は、前記複数の写真画像のうち2つ以上の写真画像それぞれに合成するための2以上の前記顔配置合成用画像として、前記被写体の顔を配置するための領域を有し、かつ被写体の前面に配置される2以上の顔はめ合成用画像を含む複数顔はめ合成用画像セットを選択可能としてもよい。この場合、前記合成用画像セット選択手段において、前記複数顔はめ合成用画像セットが選択された場合、前記撮影手段は、前記2以上の顔はめ合成用画像それぞれと合成される2つ以上の写真画像を生成するための撮影を、連続して行うことができる。これにより、ユーザは、顔はめ合成用画像が関わる撮影を連続して行うことになる。そのため、ユーザは、顔はめ合成用画像が関わる撮影に対処しやすくなる。
合成用画像セット選択手段は、前記複数の写真画像のうち1つの写真画像に合成するための前記顔配置合成用画像として前記被写体の顔を配置するための領域を有し、かつ被写体の前面に配置される顔はめ合成用画像と、前記複数の写真画像のうち他の写真画像に合成するための合成用画像として前記顔はめ合成用画像以外の合成用画像とを含む複合合成用画像セットを選択可能としてもよい。前記合成用画像セット選択手段において、前記複合合成用画像セットが選択された場合、前記撮影手段は、前記顔はめ合成用画像以外の合成用画像と合成される前記他の写真画像を生成するための撮影における撮影前のカウントダウンより、前記顔はめ合成用画像と合成される前記1つの写真画像を生成するための撮影における撮影前のカウントダウンを長くすることができる。
これにより、顔はめ合成画像が関わる撮影においては、ユーザが、顔を適切な位置に配置するための時間を多めに確保することができる。その結果、写真画像に顔はめ合成画像を合成して生成される合成画像の品質が向上する。
上記写真撮影遊戯機を制御する方法、及び、上記の写真撮影遊戯機を制御するプログラムも、本発明の実施形態に含まれる。
図1は、実施形態における写真撮影遊戯機のネットワーク構成を示す図である。 図2は、図1に示す写真撮影遊戯機の外観を表す斜視図である。 図3は、図2に示す正面筐体の斜視図である。 図4Aは、図2に示す背面筐体を右斜め下から見た斜視図である。 図4Bは、図4Aに示す背面筐体を左斜め下から見た斜視図である。 図5は、実施形態における編集ブースの編集ユニットの斜視図である。 図6は、図1に示す写真撮影遊戯機の構成例を示す機能ブロック図である。 図7は、図1に示す写真撮影遊戯機の全体動作例を示すフロー図である。 図8は、図7に示す事前接客処理の動作フロー例を示す図である。 図9は、合成用画像セット選択画面の例を示す図である。 図10は、撮影処理の動作フロー例を示す図である。 図11は、通常のアップ撮影処理と、その後に続く顔はめアップ撮影処理において表示される画面の例を示す図である。 図12は、顔はめアップ撮影における画面遷移の例を示す図である。 図13は、撮影時のライブ画像の画面表示の例を示す図である。 図14は、上から全身撮影処理における画面遷移例を示す図である。 図15は、正面全身撮影処理における画面遷移例を示す図である。 図16Aは、本実施形態におけるカメラで取り込んだ画像とトリミング枠を示す図である。 図16Bは、比較例におけるカメラで取り込んだ画像とトリミング枠を示す図である。 図17は、画像編集処理の動作例を示すフロー図である。 図18は、ユーザから目の大きさの選択を受け付ける画面の例を示す図である。 図19は、写真画像と顔配置合成用画像との位置関係を調整する操作を受け付ける画面の例を示す図である。 図20は、図19に示す画面に表示される写真画像を説明するための図である。 図21は、図19に示す画面において、写真画像と顔はめ合成画像の相対位置関係が、ユーザによって調整された場合の例を示す図である。 図22は、編集画面の一例を示す図である。 図23は、調整画面の例を示す図である。 図24は、2人プレイ用のレイアウト選択画面の一例を示す図である。
以下、本発明の実施形態について図面を参照しつつ説明する。図中同一及び相当する構成については、同一の符号を付して同じ説明を繰り返さない。
<<1.ネットワーク構成>>
図1は、本実施形態における写真撮影遊戯機のネットワーク構成を示すブロック図である。図1に示すように、写真撮影遊戯機1は、インターネット等のネットワークを介して、外部のサーバSVと通信可能に構成され、サーバSVは、インターネット等のネットワークを介して携帯端末CLと通信可能に構成されている。
携帯端末CLは、写真撮影遊戯機1のユーザによって保有される、例えば、フィーチャーフォンやスマートフォンを含む携帯電話機や、タブレット端末等を含む。
本実施形態では、写真撮影遊戯機1でユーザがプレイすることにより写真撮影遊戯機1で作成されたコンテンツを写真撮影遊戯機1からサーバSVに送信し、サーバSVを介して、そのユーザの携帯端末CLにコンテンツを提供する。サーバSVを介してユーザに提供されるコンテンツは、プレイによって得られた1又は複数の写真画像又は合成画像のデータや、写真画像又は合成画像のデータを用いて作成された動画コンテンツ等である。
<<2.写真撮影遊戯機の構成>>
<2.1.全体構成>
図2は、本実施形態に係る写真撮影遊戯機の外観を表す斜視図である。写真撮影遊戯機1は、撮影ブース2と、編集ブース4と、を備えている。
<2.2.撮影ブースの構成>
撮影ブース2は、図2に示すように、正面筐体20A及び背面筐体20Bによって区画された空間である。撮影ブース2内では、被写体であるユーザの写真撮影が行われる。なお、説明の便宜上、正面筐体20A側を前、背面筐体20B側を後ろといい、正面筐体20Aに向かって右を単に右、正面筐体20Aに向かって左を単に左という。図2に示すように、正面筐体20Aと背面筐体20Bとは前後方向に間を空けて配置されており、ユーザは、正面筐体20Aと背面筐体20Bとの間を通って撮影ブース2に出入りする。正面筐体20Aと背面筐体20Bが、撮影のための空間を確定する。
図3は、正面筐体20Aを表す斜視図である。図3に示すように、正面筐体20Aの内側には、撮影ユニット20が設けられている。撮影ユニット20は、カメラ21と、正面ディスプレイ22と、照明装置23(23a、23b)と、後述するスピーカ450(図6参照)と、を備えている。
カメラ21は、正面筐体20Aの内側前面の幅方向(X軸方向)中央付近に配置されている。カメラ21は、撮影ブース2内のユーザ(被写体)を撮影し、所定のタイミングで静止画像として記録する。
正面ディスプレイ22は、カメラ21の下方に配置されている。正面ディスプレイ22は、カメラ21によって撮影されたユーザの映像を左右反転させ、リアルタイムにライブ表示する。また、正面ディスプレイ22上にはタッチパネルが配置されており、タッチパネルを介して、ユーザによる入力操作が受け付けられる。ユーザによる入力操作は、ユーザが正面ディスプレイ22にタッチペン(図示略)又は指で直接タッチすることによって受け付けられる。
図3に示すように、上方照明装置の一例である照明装置23aは、カメラ21の上方に配置され、内部にストロボ光源(図示略)を備えるとともに、ストロボ光源(図示略)を覆うドーム形状のカバーを備える。
また、図3に示すように、下方照明装置の一例である照明装置23bは、カメラ21の下方であって、正面ディスプレイ22の下方に配置されている。照明装置23bは、内部にストロボ光源(図示略)を備え、ストロボ光源を覆う矩形形状のカバーを備える。
照明装置23a、23bにおける各ストロボ光源(図示略)は、カメラ21がユーザのライブ映像を静止画として記録する瞬間に発光し、発光面を介して撮影ブース2内のユーザに光を照射する。照明装置23aは、主に、被写体の顔を照らすために用いられ、照明装置23bは、主に、被写体の顔より下側の部分を照らすために用いられる。このように、カメラ21を挟んで上下に照明装置23aと照明装置23bが設けられることで、それぞれの照明光が被写体の目に映るアイキャッチ効果が得られる。また、照明装置23bは、照明装置23aの照射による被写体に生じる影を除去するとともに、影が出来やすい被写体の足元を照らし、クロマキー処理の精度を向上させるために用いられる。
図3に示す例では、正面筐体20Aが、撮影装置と受付装置を兼ねている。正面筐体20Aには、コイン投入口32が設けられる。コイン投入口32には、ユーザによってコインが投入される。図3に示す例では、正面ディスプレイ22の下の照明装置23bの左に隣接する面に、コイン投入口が設けられる。コイン投入口の位置は、特に限定されない。
撮影ユニット20の正面ディスプレイ22が、受付装置のディスプレイを兼ねる。正面ディスプレイ22は、例えば、ユーザがプレイに関する各種設定を入力するための画面等を表示する。正面ディスプレイ22のタッチパネルを介して、ユーザによる入力操作が受け付けられる。撮影ユニット20のスピーカは、受付装置のスピーカを兼ねる。
このように、正面筐体20Aの正面ディスプレイ22が受付装置を兼ねることで、ユーザは、撮影ブースの中で、コイン投入及び各種設定の操作をすることができる。これにより、ユーザは、通行人の目を気にすることなく、落ち着いてプレイを開始することができる。
図4Aは、背面筐体20Bを右斜め下から見た斜視図であり、図4Bは、図4Aに示す背面筐体20Bを左斜め下から見た斜視図である。
図4A及び図4Bに示すように、背面筐体20Bは、撮影スペースの背面を画定する背面部24Bと、撮影スペースの右側面の一部を画定する右側面部24Rと、撮影スペースの左側面の一部を画定する左側面部24Lを有する。右側面部24Rと左側面部24Lは、左右方向において互いに対向するよう配置される。右側面部24Rは、背面部24Bの右に接続される。左側面部24Lは、背面部24Bの左に接続される。
背面部24Bの内側の面すなわちカメラ21に対向する面には、上下方向全体にわたってクロマキーシートが設けられる。右側面部24Rの内面には、上下方向全体にわたってクロマキーシートが設けられる。左側面部24Lの内面には、上下方向全体にわたってクロマキーシートが設けられる。背面部24B、右側面部24R及び左側面部24Lの内面におけるクロマキーシートは、同じ色である。また、図4A及び図4Bに示す例では、背面部24B、右側面部24R及び左側面部24Lの内面におけるクロマキーシートの上下方向の長さは略同じである。なお、クロマキーシートは、パネルであってもよいし、カーテンであってもよい。
この構成により、右側面部24R及び左側面部24Lの内面において、ユーザの上半身の高さの位置にも、クロマキーシートが配置される。そのため、カメラ21の撮影画像におけるクロマキーシートが写る範囲を左右方向に広げることができる。
背面筐体20Bの床面には、クロマキー合成用の床マットや床板等の床部材(図示略)が設けられる。床部材の色は、背面部24B、右側面部24R及び左側面部24Lの内面におけるクロマキーシートの色と同じであり、例えば黄緑色等とされる。
また、図4A及び図4Bに示すように、撮影ブース2の内側において、背面筐体20Bの天井、背面、及び左右側面には、それぞれ、ストロボ光源を備える照明装置25(25a、25b、25cL、25cR)が設けられている。各ストロボ光源(図示略)は、カメラ21がユーザのライブ映像を静止画として記録する瞬間に発光し、発光面を介して撮影ブース2内のユーザに光を照射する。
<2.3.編集ブースの構成>
編集ブース4は、図2に示すように、正面筐体20Aの前方に設けられている。図5は、編集ブース4の斜視図である。図5に示すように、編集ブース4は、編集ユニット40を備えている。編集ユニット40は、2つの画像編集装置41と、各画像編集装置41を支持する編集筐体43とを備えている。
2つの画像編集装置41は、左右対称となるよう背中合わせに配置されている。図5では、2つの画像編集装置41のうち、左側に配置された画像編集装置41のみが示されている。各画像編集装置41は、編集用ディスプレイ411と、2本のタッチペン412と、後述するスピーカ413(図6参照)と、非接触通信装置97(図6参照)を備えている。
編集用ディスプレイ411には、ユーザに画像編集を行わせるために、撮影ブース2での撮影によって生成された写真画像が表示される。編集用ディスプレイ411上にはタッチパネルが配置されており、タッチパネルを介して、写真画像に対するユーザによる編集操作が受け付けられる。
2本のタッチペン412は、編集用ディスプレイ411の両側に配置されている。ユーザによる編集操作は、ユーザが各タッチペン412で編集用ディスプレイ411にタッチすることによって受け付けられる。ただし、ユーザによる編集操作は、ユーザが編集用ディスプレイ411に指で直接タッチすることによって受け付けられてもよい。
スピーカ413(図6参照)は、プレイ案内の音声やBGM等の音を出力する。非接触通信装置97(図6参照)は、画像の取得に必要な情報等をユーザの端末装置に送信する際に用いられる。
編集ユニット40の側面すなわち、編集用ディスプレイ411が配置される面以外の面に、写真シール排出口52が設けられる。写真シール排出口52には、編集筐体43内に備わるプリンタ60(図6参照)で印刷された写真シールが排出される。
編集ユニット40は、事後接客装置を兼ねる。すなわち、ユーザによる編集操作の受付が終了すると、編集用ディスプレイ411は、事後接客における画面を表示する。事後接客における画面は、例えば、携帯端末CLで画像を取得するためのメールアドレスを入力したり、携帯端末CLに送信する画像を選択したりするための画面等である。
<2.6.写真撮影遊戯機の機能構成>
次に、写真撮影遊戯機1の機能構成について、図6を参照しつつ説明する。
<2.6.1.制御装置の構成>
図6に示すように、写真撮影遊戯機1は、制御装置100を備えている。制御装置100は、コンピュータ装置101と、制御基板102と、クロマキーキャプチャボード17と、を備えている。
コンピュータ装置101は、撮影ユニット20、編集ユニット40の各画像編集装置41、及びプリンタ60と接続されている。コンピュータ装置101は、制御基板102を介して、発光制御部110、蛍光灯14、コイン制御部112、及びサービスパネル113と接続されている。
コンピュータ装置101は、Central Processing Unit(CPU)103と、ハードディスク(HDD)104と、メモリ105と、通信部106と、を備えている。
CPU103は、HDD104に記憶されている制御プログラムを実行することにより、後述する写真撮影遊戯機1の各機能を実現する。
HDD104は、CPU103によって実行される制御プログラム、各処理に必要なグラフィックデータ、音声データ、生成された写真画像に合成する合成用画像データ、生成された写真画像の編集に利用される編集用画像データ、予め用意されたプレイ案内のナレーションの情報、予め用意された撮影コースを示す情報、予め用意されたシートレイアウト、予め用意された動画用テンプレート等の各種設定データを記憶する。
メモリ105は、コンピュータ装置101のメインメモリであり、CPU103が制御プログラムを実行する際の一時的な作業領域である。通信部106は、ネットワークを介してサーバSV(図1参照)及び非接触通信装置97との通信を行う。
制御基板(デジタル入出力ボード(DIO))102は、コンピュータ装置101と接続され、コンピュータ装置101との間で信号の入出力を行う。また、制御基板102は、コイン制御部112、発光制御部110、蛍光灯14、及びサービスパネル113とも接続されており、これらとの間で信号の入出力を行う。
<2.6.2.事前接客処理時に動作する機能>
CPU103は、HDD104に記憶された制御プログラムを実行することにより、事前接客処理において予め定められた情報を撮影ユニット20の正面ディスプレイ22に表示し、事前接客処理において予め定められた音声をスピーカ450から出力させる。正面ディスプレイ22の表示、スピーカ450から出力する音声、及び、ユーザの操作及び行動によって、事前接客処理におけるプレイが進行する。
<2.6.3.撮影処理時に動作する機能>
CPU103は、HDD104に記憶された制御プログラムを実行することにより、撮影処理において予め定められた情報を正面ディスプレイ22に表示し、撮影処理において予め定められた音声をスピーカ450から出力させる。正面ディスプレイ22の表示、スピーカ450から出力する音声、及び、ユーザの操作及び行動によって、撮影処理におけるプレイが進行する。
CPU103は、HDD104に記憶された制御プログラムを実行することにより、発光制御部110によって照明装置23、25を制御する。発光制御部110は、例えば、照明装置23、25の発光タイミングや発光量を制御する。
クロマキーキャプチャボード17は、撮影ユニット20及びコンピュータ装置101と接続されている。クロマキーキャプチャボード17は、カメラ21が撮影しているライブ映像を所定の間隔(例えば30フレーム/秒)で静止画データとして取り込む。クロマキーキャプチャボード17は、各静止画データから被写体であるユーザの領域を抽出し、コンピュータ装置101に転送する。
<2.6.4.画像編集処理時に動作する機能>
CPU103は、HDD104に記憶された制御プログラムを実行することにより、画像編集処理において予め定められた情報を編集用ディスプレイ411に表示し、画像編集処理において予め定められた音声をスピーカ413から出力させる。編集用ディスプレイ411の表示、スピーカ413から出力する音声、及び、ユーザの操作及び行動によって、画像編集処理におけるプレイが進行する。
コンピュータ装置101は、プリンタ60と接続されている。CPU103は、HDD104に記憶された制御プログラムを実行することにより、プリンタ60に印刷処理を行わせる。
<2.6.5.事後接客処理時に動作する機能>
CPU103は、HDD104に記憶された制御プログラムを実行することにより、事後接客処理において予め定められた情報を編集用ディスプレイ411に表示し、事後接客処理において予め定められた音声をスピーカ413から出力させる。編集用ディスプレイ411の表示、スピーカ413から出力する音声、及び、ユーザの操作及び行動によって、事後接客処理におけるプレイが進行する。
<<3.写真撮影遊戯機の動作>>
次に、写真撮影遊戯機1の動作について説明する。以下で説明する各処理は、図6に示すCPU103が制御プログラムを実行することにより行う。
図7は、写真撮影遊戯機1の全体動作を示すフロー図である。写真撮影遊戯機1は、まず、プレイの開始を受け付けるための事前接客処理を行う(ステップS10)。次に、写真撮影遊戯機1は、事前接客処理で受け付けたプレイごとに撮影処理を行う(ステップS20)。その後、写真撮影遊戯機1は、撮影処理で生成された写真画像に対する画像編集処理を行う(ステップS30)。最後に、写真撮影遊戯機1は、画像編集処理後の写真画像について事後接客処理を行う(ステップS40)。以下、各処理について詳述する。
<3.1.事前接客処理>
まず、事前接客処理(ステップS10)について説明する。図8は、事前接客処理のフロー図である。
CPU103は、ユーザによるプレイ開始の操作を受け付ける間、正面ディスプレイ22に、プレイのデモンストレーション映像等を含むプレイ受付画面を表示する(ステップS111)。この時、CPU103は、受付画面に応じたBGMや、プレイ受付画面用のナレーション等をスピーカ450から出力させてもよい。
CPU103は、ユーザによるプレイ開始の操作を検出すると、プレイを開始する(ステップS112でYES)。例えば、ユーザによる1プレイ分のコインのコイン投入口32への投入が、プレイ開始の操作として検出される。コイン投入口32に1コインが投入されると、コイン制御部112(図6参照)により、コインが投入されたことを示す情報が制御基板102を介してコンピュータ装置101に出力される。CPU103は、コイン制御部112からの情報ごとにコインカウントを1つインクリメントする。CPU103は、コインカウントが1プレイ分に達すると、1プレイ分のコインが受け付けられたと判断し(ステップS112:Yes)、プレイを開始し、ステップS113以下の処理を行う。
CPU103は、ユーザによるプレイ開始の操作を検出すると、入力待機画面(図示略)を正面ディスプレイ22に表示する(ステップS113)。入力待機画面は、ユーザに事前接客における入力操作を開始する際の入力を受け付ける画面である。例えば、CPU103は、正面ディスプレイ22をタッチする操作をユーザに促す文字(一例として、「画面をタッチしてね」等)を表示し、その旨のナレーションをスピーカ450から出力する。
CPU103は、ユーザから、プレイの案内に用いる言語の選択を受け付ける(ステップ114)。CPU103は、複数の言語を示すアイコンを選択可能な状態で、正面ディスプレイ22に表示する。例えば、日本後、韓国語、中国語、英語等の複数の言語のうち1つの選択を、ユーザから受け付けることができる。写真撮影遊戯機1は、複数の言語のそれぞれに対応する、プレイを案内するナレーションの音声、及び、画面に表示する文字と画像のデータを予め記録しておく。S114以降の動作において、写真撮影遊戯機1は、S114で選択された言語に対応する音声、文字及び画像を出力する。
CPU103は、ユーザからプレイ人数の選択を受け付ける(ステップS115)。すなわち、CPU103は、プレイ人数を選択させるプレイ人数選択手段として機能する。例えば、CPU103は、撮影人数が、「1人」「2人」、「3人以上」のいずれかを選択するための選択画面(図示略)を正面ディスプレイ22に表示させ、撮影人数の選択を受け付ける。なお、この例では、「1人」、「2人」「3人以上」のいずれかを選択させる例であるが、人数の選択肢は、上記例に限られない。例えば、撮影人数として、2人か多人数(3人以上)かを選択できる態様であってもよい。
CPU103は、ユーザに、合成画像に用いる合成用画像セットの選択を、正面ディスプレイ22を介して受け付ける(ステップS116)。CPU103は、正面ディスプレイ22を制御することにより、合成用画像セット選択手段として機能する。本例では、CPU103は、合成用画像セット選択画面を正面ディスプレイ22に表示させる。写真撮影遊戯機1は、ユーザからの合成用画像セットの選択を、この合成用画像セット選択画面で受け付けることができる。合成用画像セット選択画面の例については、後述する。
事前接客処理のフローは、上記の図8に示す例に限られない。図8に示す例では、事前接客処理において、写真撮影遊戯機は、言語、プレイ人数及び合成用画像セットの選択を受け付ける。写真撮影遊戯機は、これらの以外の選択を、事前接客処理にてユーザから受け付けてもよい。例えば、写真撮影遊戯機は、ユーザの名前の入力を受け付けてもよい。また、写真撮影遊戯機は、プレイ中の任意の時刻に基づいて、プレイを開始した時間が予め設定された期間区分のいずれに該当するかを決定してもよい。この場合、写真撮影遊戯機は、プレイ開始時間の期間区分に応じて、動作を変えることができる。
<3.1.1合成用画像セット選択画面の例>
図9は、合成用画像セット選択画面の例を示す図である。図9に示す合成用画像セット選択画面は、ユーザが選択可能なカテゴリ選択タブ201a〜201dと、各カテゴリ選択タブ201a〜201dの選択に応じて表示が切り替わる合成用画像セット選択部202を有する。本例では、ユーザが選択可能な複数の合成用画像セットのそれぞれは、各カテゴリに対応付けられて、写真撮影遊技機に記録される。CPU103は、カテゴリ選択タブ201a〜201dで選択されたカテゴリに対応する合成用画像セットを、合成用画像セット選択部202にユーザが選択可能な態様で表示する。
なお、合成用画像セットのカテゴリの設定は、特定のものに限られない。例えば、最終的にユーザに提供される合成画像における演出の方向性等に基づいて、合成用画像セットを複数のカテゴリに分類することができる。図9に示す例では、選択タブ201aのカテゴリに対応する合成用画像セットは、ユーザが変身したように見せる合成画像を提供するための合成用画像セットである「変身セット」である。選択タブ201bのカテゴリに対応する合成用画像セットは、ユーザが、ある特定の空間、地域、又は、物語の世界の中に存在するように見せる合成画像を提供するための合成用画像セットである「世界観セット」である。選択タブ201cのカテゴリに対応する合成用画像セットは、特定のキャラクタによる演出を含む合成画像を提供するための合成用画像セットである「キャラクタセット」である。「ばら背景」の選択タブ201dは、合成用画像を、セットではなく個別に選択するためのタブである。ユーザが選択タブ201dを選択すると、CPU103は、合成用画像セット選択部202に、複数の合成用画像を1つずつ個別に選択可能な態様で表示する。
図9に示す例では、合成用画像セット選択部202に、選択タブ201aが選択された場合の合成用画像セットである「変身セット」が複数表示されている。すなわち、選択タブ201aに対応するカテゴリに含まれる複数の合成用画像セット202a〜202fが表示されている。各合成用画像セット202a〜202fは、複数の写真画像それぞれに対応する複数の合成用画像が含まれる。また、各合成用画像セット202a〜202fに対応する動画コンテンツアイコン204a〜204fが表示される。動画コンテンツアイコン204a〜204fは、合成用画像セット202a〜202fの各々に対応する動画コンテンツがあることを示す画像である。
図9に示す合成用画像セット選択画面は、さらに、合成用画像セット選択部202で選択された合成用画像セットを拡大して表示する選択セット表示部206を有する。例えば、ユーザが、指又はタッチペンを用いて、合成用画像セット選択部202に表示される合成用画像セット202a〜202fのうち1つを選択すると、選択セット表示部206に、合成用画像セット選択部202でユーザが選択した合成用画像セットが拡大して表示される。図9では、一例として、合成用画像セット202bが選択セット表示部206に表示される。選択セット表示部206には、選択確定ボタン208(図9では一例として「OK」ボタン)が表示される。ユーザが、選択確定ボタン208を押すと、選択セット表示部206に表示されている合成用画像セット202bの選択が確定する。
図9に示す例では、合成用画像セットとともに、写真画像に写る被写体のモデルMの画像が表示される。これにより、ユーザは、写真画像と合成用画像を合成した合成画像をイメージしやすくなる。なお、モデルMの画像は、予め用意された画像であり、合成用画像ではない。選択セット表示部206における合成用画像セットの表示において、モデルMの表示をしないようにすることもできる。図9に示す例では、選択セット表示部206には、モデルMの表示のオン/オフを切り替えるモデル表示切替ボタン207(図9では、一例として「モデル表示OFF」ボタン)が表示される。選択セット表示部206において、合成用画像セット202bとともに、モデルMが表示されている時に、ユーザがモデル表示切替ボタン207を押すと、CPU103は、選択セット表示部206におけるモデルMの表示を消す。選択セット表示部206の合成用画像セット202bにおいて、モデルMが表示されていない時に、ユーザがモデル表示切替ボタン207を押すと、CPU103は、選択セット表示部206において、モデルMを表示する。
また、図9に示す例では、選択セット表示部206において、合成用画像セット202bとともに、合成用画像セット202bに対応する動画コンテンツのサンプル202mが、再生可能な状態で表示される。動画コンテンツのサンプル202mのデータは、写真撮影遊戯機1において、予め、合成用画像セット202bに対応付けて、記録される。CPU103は、合成用画像セット202bに対応する動画コンテンツのサンプル202mを、合成用画像セット選択画面において再生する。
動画コンテンツのサンプル202mは、ユーザの操作に応じて再生されてもよいし、又は、自動的に再生されてもよい。例えば、合成用画像セット選択部202において、合成用画像セット202bが選択され、選択セット表示部206に合成用画像セット202bが表示された時に、自動的に、動画コンテンツのサンプル202mを再生することができる。或いは、選択セット表示部206に合成用画像セット202bが表示された状態で、ユーザが再生を指示する操作(例えば、動画コンテンツのサンプル202mのアイコンを選択する操作)をした時に、CPU103は、動画コンテンツのサンプル202mの再生を開始してもよい。
合成用画像セット202bに対応する動画コンテンツのサンプル202mには、例えば、モデルMの画像が含まれる。合成用画像セット202bに対応する動画コンテンツは、写真撮影遊戯機1又はサーバSVが、撮影によって生成した写真画像を用いて生成する。プレイにおいて生成される動画コンテンツは、プレイの撮影により生成された写真画像に含まれる被写体の画像すなわちユーザの画像が含まれる。また、合成用画像セット202bに対応する動画コンテンツには、対応する合成用画像セット202bに含まれる合成用画像群のうち少なくとも一部が含まれてもよい。なお、合成用画像セット選択画面における動画コンテンツのサンプルの再生の形態は、上記例に限られない。例えば、合成用画像セット選択部202において、複数の合成用画像セット202a〜202fそれぞれに対応する動画コンテンツアイコン204a〜204fにおいて、自動的に又はユーザの操作に応じて、動画コンテンツのサンプルを再生することもできる。また、複数の合成用画像セット202a〜202fの一部に、対応する動画コンテンツを設けてもよい。
合成用画像セット選択部202に選択候補として表示される合成用画像セット202a〜202fの各々は、複数の写真画像のそれぞれに対する複数の合成用画像を含む。すなわち、複数の写真画像それぞれに合成するための複数の合成用画像が含まれる。図9に示す例では、複数の合成用画像が、複数の写真画像ごとに区別可能な状態で表示される。例えば、プレイにおいて、5ショットの撮影により、5枚の写真画像が生成される場合は、5枚の写真画像のそれぞれに合成するための複数の合成用画像が、1つの合成用画像セットに含まれる。1枚の写真画像に対応する合成用画像の数は、特に限定されず、1つでもよいし、複数でもよい。また、1枚の写真画像に対応する合成用画像には、被写体の画像の前面に配置される前景画像、被写体の画像の背面に配置される背景画像、又はそれらの両方が含まれてもよい。
複数の写真画像に対応する合成用画像は、各写真画像の撮影アングルに応じたものとなる。例えば、ある1枚の写真画像のアングルがアップの場合(すなわち写真画像がアップ画像の場合)は、その写真画像の合成用画像は、アップ画像用の合成用画像となる。本例では、各合成用画像セットに対して、合成用画像を合成する対象となる複数の写真画像のアングルが決められている。そのため、ユーザが合成用画像セットを選択すると、選択した合成用画像セットに応じて複数の写真画像のアングルが決まる。すなわち、ユーザは、合成用画像セットを選択することで、複数の写真画像のアングルも同時に選択することになる。なお、ユーザが「ばら背景」の選択タブ201dを選択した場合は、CPU103は、複数の写真画像のそれぞれについて、アングルの選択をユーザから受け付けてもよい。この場合、ユーザは、写真画像ごとに、アングル及び合成用画像を決定することができる。
また、複数の写真画像それぞれの撮影のアングルが、撮影回数目によって予め決められていてもよい。すなわち、何ショット目(何回目)に撮影されるかによって撮影のアングルが決まっていてもよい。例えば、1回目〜3回目の撮影のアングルはアップ、4回目の撮影のアングルは上から全身、5回目の撮影のアングルは、正面全身と決めることができる。この場合、各写真画像に対応する合成用画像は、各写真画像の撮影回数目によって予め決められたアングルに応じたデザインとすることができる。すなわち、複数の写真画像のそれぞれの撮影回数目のアングルに対応する合成用画像を含む合成用画像セットが用意される。上記の例の場合、1〜3枚目の写真画像に対応するアップ用の合成用画像、4枚目の写真画像に対応する上から全身用の合成用画像、5枚目の写真画像に対応する正面全身用の合成用画像を含む合成用画像セットが用意される。なお、合成用画像セット選択の前に、ユーザが、各写真画像の撮影のアングルを選択できる態様であってもよい。この場合、CPU103は、ユーザが選択したアングルに応じた合成用画像セットを、合成用画像セット選択画面で表示することができる。
合成用画像セット202a〜202fの少なくとも1つは、写真画像に写る被写体の顔に対応する位置に配置するための顔配置合成用画像を含むことが好ましい。例えば、図9において、選択セット表示部206に表示される合成用画像セット202bの2枚目の写真画像に対応する合成用画像202b2には、顔はめ合成用画像H1、H2が含まれる。3枚目の写真画像に対応する合成用画像202b3には、顔はめ合成用画像H3、H4が含まれる。顔はめ合成用画像H1〜H4は、被写体の顔を配置するための領域を有し、かつ被写体の前面に配置される画像である。顔はめ合成用画像H1〜H4は、顔の部分がくり抜かれたキャラクタの画像である。くり抜かれた部分が、被写体の顔を配置するための領域となる。なお、顔はめ合成用画像に用いられるキャラクタは、人間に限られない。または、キャラクタは、架空のものでも実在のものでもよい。
合成用画像セット202a〜202fの少なくとも1つには、写真画像において認識される被写体の位置に基づいて配置される認識配置合成用画像を含むことが好ましい。例えば、図9において、選択セット表示部206に表示される合成用画像セット202bの4枚目の写真画像に対応する合成用画像202b4には、認識配置合成用画像T1、T2が含まれる。認識配置合成用画像T1、T2は、写真画像において認識される被写体の位置を基準に配置位置が決められる画像素材である。選択セット表示部206に表示される合成用画像セット202bでは、モデルMの顔の位置に基づいて配置された認識配置合成用画像T1、T2が表示される。また、合成用画像セット選択部202における合成用画像セット202cの3枚目の写真画像に対応する合成用画像において、認識配置合成用画像T3が、モデルMの顔の位置に基づく位置に表示されている。
上記の顔はめ合成用画像H1〜H4、及び、認識配置合成用画像T1〜T3は、写真画像に写る被写体の顔に対応する位置に配置するための顔配置合成用画像の一例である。図9に示す例のように、CPU103は、合成用画像セット選択画面において、顔配置合成用画像を含む合成用画像セットに対して、顔配置合成用画像が含むことを示す文字情報203aを表示してもよい。
合成用画像セット選択画面に表示される複数の合成用画像セット202a〜202fのうち少なくとも1セットは、写真画像に写る被写体に対する特定の画像処理を伴う画像処理付き合成用画像を含むことができる。特定の画像処理としては、例えば、フィルター処理が挙げられる。具体例として、被写体の顔にメイクを施す処理や、被写体の髪の色を変える処理等が挙げられる。合成用画像セット選択画面に表示される合成用画像のうち、被写体に対する特定の画像処理を伴うものは、その画像処理が施された状態のモデルMの画像が表示されてもよい。例えば、図9において、合成用画像セット選択部202に表示される合成用画像セット202cの3枚目の写真画像に対応する合成用画像には、髪の色を変える処理を施したモデルMの画像が表示される。
このように、CPU103は、ある合成用画像セットを選択すると、撮影で得られた写真画像に写る被写体に対して特定の画像処理が施されることを、その合成用画像セットとともに表示することが好ましい。また、図9に示す例では、合成用画像セット選択画面において、選択候補として表示される合成用画像セットを選択した場合に、写真画像に写る被写体に対する特定の画像処理が行われることを示す文字情報205aが表示される。これにより、ユーザは、合成用画像セットを選択した場合に、自動的に、撮影で得られた写真画像に写る被写体に特定の画像処理が施されることをより明確に認識できる。また、ユーザは、合成用画像セットとともに表示されるモデルMの画像により、その特定の画像処理のイメージをつかむことができる。
CPU103は、S115でユーザが選択したプレイ人数に応じて、合成用画像セット選択画面に選択候補として表示する合成用画像セットを変えてもよい。例えば、CPU103は、プレイ人数に応じて1つの写真画像に対応する合成用画像において、顔はめ合成用画像の被写体の顔を配置するための領域の数を変えることができる。具体例として、プレイ人数が1人の場合は、1つの写真画像に対応する合成用画像において、顔はめ合成用画像の被写体の顔を配置するための領域を1つとし、プレイ人数が2人の場合は、上記領域を2つにし、プレイ人数が3人の場合は、上記領域を0とする(すなわち、顔はめ合成用画像を含めない)ことができる。これにより、プレイ人数に応じた適切な合成用画像セットをユーザが選択できる。
<3.2.撮影処理>
次に、撮影処理(ステップS20)について説明する。図10は、撮影処理の動作フロー例を示す図である。
CPU103は、撮影処理において、予め決められたN枚(一例としてN=5とする)の写真画像を生成するために、Nショット分の撮影処理を繰り返す。各ショットの撮影処理において、CPU103は、生成しようとする写真画像のアングルを判断する(S201)。上記の事前接客処理のS116において、ユーザが選択した合成用画像セットにより、複数の写真画像に合成する合成用画像に加えて、複数の写真画像のアングルも決まる。そのため、CPU103は、撮影処理において、ユーザが選択した合成用画像セットに基づいて、各写真画像のアングルを判断することができる。
生成しようとする写真画像のアングルがアップの場合、CPU103は、写真画像に合成する合成用画像に顔はめ合成用画像が含まれるか否かを判断する(S202)。CPU103は、上記S116で選択された合成用画像セットに基づいて、生成しようとする写真画像に顔はめ合成用画像が含まれるか否かを判断することができる。合成用画像に顔はめ合成用画像が含まれる場合は、CPU103は、顔はめアップ撮影処理を実行する(S205)。合成用画像に顔はめ合成用画像が含まれない場合は、CPU103は、通常のアップ撮影処理を実行する(S206)。
生成しようとする写真画像のアングルが上から全身の場合、CPU103は、上から全身撮影処理を実行する(S203)。生成しようとする写真画像のアングルが正面全身の場合、CPU103は、正面全身撮影処理を実行する(S204)。S205の顔はめアップ撮影、S206の通常アップ撮影、S203の上から全身撮影、S204の正面全身撮影については後述する。
CPU103は、Nショット分の撮影の後、編集ブース4が空いていない場合ユーザに対して待機を促す待機画面(図示略)を正面ディスプレイ22に表示する。編集ブース4が空いている場合、CPU103は、編集ブース4への移動を誘導する誘導画面(図示略)を正面ディスプレイ22に表示する。
<3.2.1通常アップ撮影処理>
図11は、通常のアップ撮影処理と、その後に続く顔はめアップ撮影処理において、正面ディスプレイ22に表示される画面の例を示す図である。図11に示すように、通常のアップ撮影においては、ユーザに立ち位置を案内するアップ立ち位置ガイダンス画面G1が表示される。アップ立ち位置ガイダンス画面G1は、1回目の通常アップ撮影の前に表示される。アップ立ち位置ガイダンス画面G1の表示の後、画面G2のような通常アップ撮影のための画面が表示される。
画面G2に示すように、通常アップ撮影においては、CPU103は、カメラ21に写るユーザのリアルタイム画像U1、U2をリアルタイムでライブ画像LGとして正面ディスプレイ22に表示する。図11に示す画面G2は、ユーザが選択した合成用画像セット202bの1枚目の写真画像を撮影する際の画面の例である。1枚目の写真画像に合成する合成用画像Yが、ライブ画像LGにおいて、ユーザのリアルタイム画像に重ねて表示される。すなわち、ライブ画像LGには、選択された合成用画像セットの1枚目の写真画像に対応する合成用画像Yと、クロマキー処理で抽出されたカメラに写るユーザの被写体の部分のリアルタイム画像U1、U2が重ねて表示される。
さらに、撮影時には、ライブ画像LGの下に、5枚のサムネイル画像SG1〜SG5が配置される。サムネイル画像のそれぞれには、選択された合成用画像セットの各写真画像に対応する合成用画像と、撮影により生成された撮影画像が重ねて表示される。撮影がまだ済んでおらず撮影画像がない場合、サムネイル画像には、合成用画像にモデルの画像が重ねて表示される。撮影画像は、例えば、クロマキー処理でユーザの被写体を抽出し、トリミングされた画像である。
また、撮影時には、ライブ画像LGと並んで、サンプル画像SAが表示される。サンプル画像SAは、今回の撮影(ショット)で生成される写真画像に合成される合成用画像と、モデルMの画像とを合成した合成画像である。ユーザは、サンプル画像SAを見て、合成画像をイメージしやすくなる。また、ユーザは、サンプル画像SAのモデルMを参考にして、立ち位置やポーズを決めることができる。
また、撮影時に、ライブ画像LG、サムネイル画像SG1〜SG5、及びサンプル画像SA以外の領域の少なくとも一部に表示される画像(撮影背景画像)は、ユーザがステップS116で選択した合成用画像セットに応じたものとすることができる。例えば、選択された合成用画像セットの世界観を表示するデザインの画像を、撮影背景画像とすることができる。これにより、撮影時に、ユーザが世界観をより感じられるように演出することができる。写真撮影遊戯機1は、選択可能な合成用画像セットと、撮影背景画像とを対応付けるデータを予め記録しておくことができる。CPU103は、このデータを基に、ユーザが選択した合成用画像セットに応じて、正面ディスプレイ22に表示する撮影背景画像を決定することができる。
なお、ライブ画像LG、サムネイル画像SG1〜SG5、サンプル画像SA及び、撮影背景画像は、通常アップ撮影だけでなく、顔はめアップ撮影、上から全身撮影、及び、正面全身撮影においても、正面ディスプレイ22に表示される。顔はめアップ撮影、上から全身撮影、及び、正面全身撮影においても、ユーザが選択した合成用画像セットに対応する撮影背景画像を表示することができる。
画面G2に示す通常アップ撮影により、1枚目の写真画像が生成される。次に、CPU103は、2枚目の写真画像を生成するための撮影処理を開始する。CPU103は、S116でユーザに選択された合成用画像セット202bに基づき、2枚目の写真画像のアングルはアップであり、かつ、2枚目の写真画像には、顔はめ合成用画像が合成されると判断する(図10のS202でYES)。そこで、CPU103は、顔はめアップ撮影処理(S205)を実行する。
<3.2.2顔はめアップ撮影処理>
顔はめアップ撮影処理(S205)では、CPU103は、例えば、図11の画面G3に示すような顔はめアップ撮影用ガイダンス画面を、正面ディスプレイ22に表示する。図11に示す顔はめアップ撮影用ガイダンス画面では、被写体の顔の位置が顔はめ合成用画像の顔を配置するための領域からずれている状態を示す見本画像と、被写体の顔の位置が顔はめ合成用画像の顔を配置するための領域からずれていない状態を示す見本画像が表示される。また、被写体の顔の位置が顔はめ合成用画像の顔を配置するための領域からずれても、後で修正が可能であることを示す情報が、顔はめアップ撮影用ガイダンス画面に表示される。すなわち、顔はめ合成用画像と合成される写真画像を生成するための撮影の前に、顔はめ合成用画像と写真画像に写る被写体との位置関係をユーザの操作により修正する手段があることを示す情報が、ユーザに対して提示される。
CPU103は、顔はめアップ撮影用ガイダンス画面を表示した後、画面G4に示すように、写真画像に合成する顔はめ合成用画像を正面ディスプレイ22に表示する。画面G4では、ユーザのリアルタイム画像は表示されていない。画面G4では、顔はめ合成用画像において、被写体の顔を配置する領域を示すガイドL1、L2が表示される。図11に示す例では、ガイドL1、L2は、破線である。ガイドL1、L2は、線に限られない。例えば、所定の色で塗りつぶされた領域等、その他の領域を示すできる形態のガイドL1、L2を表示することができる。画面G4により、ユーザは、顔はめ合成用画像の全体像と、顔はめ合成用画像において自分の顔を配置する領域を容易に把握することができる。なお、画面G4では、モデルが、顔はめ合成用画像H1、H2に、顔をはめた状態を表示するものであってもよい。これにより、画面G4を、ポーズ見本を示す画面とすることができる。
図12は、顔はめアップ撮影における画面G4の後の画面遷移の例を示す図である。顔はめアップ撮影は、顔はめ合成用画像と合成される写真画像を生成するための撮影の一例である。図12の画面G5に示すように、CPU103は、顔はめ合成用画像H1、H2を半透明にして、ユーザのリアルタイム画像U1、U2と重ねて、正面ディスプレイ22に表示する。これにより、顔はめ合成用画像H1、H2とユーザのリアルタイム画像U1、U2とが重なる部分において、顔はめ合成用画像H1、H2が透けてユーザのリアルタイム画像U1、U2が見える。画面G5では、ライブ画像LGと並んでサンプル画像SAが、表示される。図12に示す例では、サンプル画像SAには、顔はめ合成用画像H1、H2にモデルMの画像が合成されたものである。サンプル画像SAは、モデルMの画像がないものでもあってもよい。
なお、図12の画面G5では、顔はめ合成用画像H1、H2の全体を半透明で表示しているが、顔はめ合成用画像H1、H2の一部を半透明にしてもよい。例えば、顔はめ合成用画像H1、H2のうち、被写体の顔が配置される領域の周辺を半透明にして、被写体の顔が配置される領域から離れた部分は、不透明としてもよい。このように、顔はめ合成用画像H1、H2の少なくとも一部を半透明にして、ユーザのリアルタイム画像U1、U2の前面に重ねて表示することができる。これにより、ユーザのリアルタイム画像U1、U2の顔が,合成用画像の背面に隠れて、ユーザが自分の顔がどこにあるか分からなくなるといった事態を回避することができる。その結果、ユーザは、画面G5に表示される顔はめ合成用画像H1、H2の中の、顔を配置すべき領域に、自分の顔を合わせやすくなる。
顔はめ合成用画像H1、H2以外の合成用画像をユーザのリアルタイム画像U1、U2に重ねて表示する場合は、顔はめ合成用画像H1、H2以外の合成用画像は不透明とすることができる。このように、ユーザのリアルタイム画像U1、U2に重ねて表示する合成用画像の全てを半透明にするのではなく、一部を半透明にすることができる。これにより、ユーザが、顔はめ合成用画像H1、H2の顔を配置する領域に、自分の顔を合っているか否かをよりわかりやすくすることができる。
画面G5の表示の後、CPU103は、画面G6において、顔はめ合成用画像H1、H2を不透明にして、ユーザのリアルタイム画像U1、U2の前面に重ねて表示する。すなわち、CPU103は、カメラ21のシャッターを切る時刻(カメラ21が、静止画をキャプチャする時刻)が近づくと、半透明の顔はめ合成用画像H1、H2を不透明にして表示する。このように、顔はめ合成用画像H1、H2を、半透明から不透明にすることで、ユーザは、自分の顔のどの部分が、顔はめ合成用画像H1,H2で隠されていて、どの部分が見えているのかを把握しやすくなる。ユーザは、顔はめ合成用画像H1、H2が半透明の時に、顔を適切な位置に移動することができる。そして、シャッターを切る時刻が近づいて不透明になったときに、顔の位置や向きを微調整して、顔はめ合成用画像H1、H2に対する自分の顔の見え方を改善することができる。
画面G6には、シャッターを切る時刻までの残り時間(この例では「あと2秒」)が表示される。CPU103は、この残り時間の表示に同期して、シャッターを切るまでの残り時間を読み上げるカウントダウンの音声を出力することができる。
画面G6の表示の後、CPU103は、画面G7において、ユーザに、カメラ21を見るように案内する画面を表示する。画面G7では、ライブ画像は表示されない。これにより、シャッターを切る瞬間に、ユーザが目線をカメラ21に向けやすくなる。画面G7においても、シャッターを切る時刻までの残り時間(この例では「あと1秒」)が表示される。
CPU103は、シャッターを切る直前までカウントダウンの音声を出力し、カウントダウンに同期してカメラ21のシャッターを切る。すなわち、カメラ21に写る画像を静止画としてキャプチャする。例えば、CPU103が、カメラ21に対して、シャッターを切る命令を出力することで、カメラ12がシャッターを切る。
なお、シャッターを切る時刻までの残り時間の表示及び音声出力は、通常のアップ撮影、上から全身撮影、及び正面全身撮影でも行われる。顔はめアップ撮影では、通常のアップ撮影より、この残り時間の表示時間を、長く設定することができる。これにより、顔はめ撮影において、通常撮影よりも、ユーザの準備時間を長くすることができる。その結果、ユーザは、余裕を持って、自分の顔を適切な位置に合わせることができる。
カメラ21のシャッターを切った後、CPU103は、写真画像を生成する。CPU103は、例えば、キャプチャした静止画から、クロマキー処理でユーザの被写体を抽出し、トリミングした画像を写真画像として生成することができる。CPU103は、画面G8において、生成した写真画像V2を、顔はめ合成用画像H1、H2及び他の合成用画像Yと重ねて表示する。これにより、ユーザは、撮影で生成された写真画像を確認でき、写真画像を合成用画像と合成した場合のイメージも把握することができる。
図12に示す例は、顔はめ合成用画像H1、H2における被写体の顔を配置する領域の大きさが、ライブ画像において、ユーザのリアルタイム画像U1、U2の顔の大きさと略同じ程度である場合である。これに対して、ライブ画像において、ユーザのリアルタイム画像U1、U2に、顔はめ合成用画像H1、H2の全体を重ねて表示した場合に、顔はめ合成用画像H1、H2における被写体の顔を配置する領域の大きさが、ユーザのリアルタイム画像U1、U2の顔の大きさに比べて小さくなる場合がある。例えば、顔はめ合成用画像が、あるキャラクタの全身を含む画像である場合は、顔はめ合成用画像全体に対して顔の領域が占める面積の割合が小さくなる。
図13は、このような場合に、撮影時のライブ画像で、ユーザが、顔の位置を顔はめ合成用画像の顔の領域い合わせやすくなるような画面表示の例を示す図である。図13に示す例は、キャラクタの全身を含む顔はめ合成用画像に合成される写真画像を生成するための撮影(顔はめアップ撮影)における画面遷移例である。図13に示す例は、アップ撮影の例である。顔はめ合成用画像H1、H2は、キャラクタ(例えば、アイドル歌手)の全身を含む画像である。この場合、CPU103は、アップ撮影で生成された写真画像の被写体のサイズを、顔はめ合成用画像H1、H2に合わせて変更(縮小)し、顔はめ合成用画像H1、H2と合成することになる。
図13に示す例では、画面G9〜G11に示すように、CPU103は、顔はめ合成用画像H1、H2の全体を表示した後、顔はめ合成用画像H1、H2の被写体の顔を配置する領域を拡大して表示する。そして、画面G12において、CPU103は、拡大された顔はめ合成用画像H1、H2は、ユーザのリアルタイム画像U1、U1に重ねて表示する。これにより、ライブ画面において、顔はめ合成用画像H1、H2の被写体の顔を配置する領域の大きさと、ユーザのリアルタイム画像の顔の大きさを同程度にできる。また、始めに顔はめ合成用画像H1、H2の全体が表示されてから拡大されるので、ユーザは、全体像を把握しやすい。
画面G9〜G11の遷移において、CPU103は、複数の段階で、徐々に画像を拡大して表示することが好ましい。また、CPU103は、顔はめ合成用画像H1、H2を拡大する前の画面G9において、拡大表示する領域を枠W1で表示してもよい。これにより、ユーザには、枠W1で示した部分が拡大したように見える。
画面G11では、顔はめ合成用画像H1、H2における被写体の顔を配置する領域を示すガイドL1、L2が表示される。図13の画面G11は、図11の画面G4に相当する。画面G11以降の処理は、図12の画面G5〜G8と同様に実行することができる。すなわち、図12の画面G5は、図13の画面G12に対応する。図13の画面G12では、拡大された顔はめ合成用画像H1、H2が半透明の状態で、ユーザのリアルタイム画像U1、U2の前面に重ねて表示される。
<3.2.3上から全身撮影処理>
図14は、図10のS203における上から全身撮影処理における画面遷移例を示す図である。図14に示す画面遷移例は、認識配置合成用画像と合成される写真画像を生成するための撮影の画面遷移である。また、図14に示す画面遷移例は、写真画像に対して特定の画像処理を伴う合成用画像セット、すなわち画像処理付き合成用画像がS116で選択された場合の例である。
図14に示す例では、画面G13において、上から全身撮影におけるユーザの立ち位置の案内する情報が表示される。例えば、ユーザのつま先を、クロマキー合成用の床部材床の縁の線に合わせることを案内する情報が、画像及び文字により、正面ディスプレイ22に表示される。
上から全身撮影における立ち位置を案内する画面G13を表示した後、CPU103は、画面G14のように、ライブ画像LGとして、カメラ21に写るユーザのリアルタイム画像U1、U2を、合成用画像T1、T2、Yと重ねて、正面ディスプレイ22に表示する。合成用画像T1、T2、Yは、一例として、合成用画像セット選択画面(図9参照)でユーザが選択した合成用画像セット202bの4枚面の写真画像に対応する合成用画像とする。
合成用画像T1、T2、T11、T12は、ユーザのリアルタイム画像U1、U2において認識された顔の位置に基づいて配置される認識配置合成用画像の例である。合成用画像Yは、ユーザのリアルタイム画像U1、U2の位置とは関係なく所定の位置に配置される背景画像である。ライブ画像LGに写るユーザのリアルタイム画像U1、U2の顔の位置が変わると、認識配置合成用画像である合成用画像T1、T2の位置も、顔の位置に応じて変わる。例えば、合成用画像T1、T2は、常に、ユーザのリアルタイム画像U1、U2それぞれの顔の横に配置される。合成用画像T11、T12は、常に、ユーザのリアルタイム画像U1、U2の肩の近くに配置される。このように、認識配置合成用画像は、ライブ画像において、被写体であるユーザの動きに追従して動くので、追従画像、又は追従素材等と称することもできる。
合成用画像T1、T2は、リアルタイム画像U1、U2の前面に配置される。合成用画像T11、T12は、リアルタイム画像U1、U2の背面に配置される。ライブ画像LGでは、例えば、認識配置合成用画像及びユーザのリアルタイム画像をバッファメモリに書き込む順序の前後によって、これらの表示における前後関係を制御することができる。例えば、認識配置合成用画像を、ユーザのリアルタイム画像より先にバッファメモリに書き込み、バッファメモリのデータを正面ディスプレイ22へ送ることで、ライブ画像において、認識配置合成用画像を、ユーザのリアルタイム画像の背面に表示することができる。
このように、ライブ画像において、ユーザのリアルタイム画像の背面に、ユーザの動きに追従する認識配置合成用画像を重ねて表示することもできる。言い換えれば、リアルタイム画像において認識される被写体(ユーザの画像)の位置に応じて配置される認識配置合成用画像の前面に、被写体(ユーザの画像)を重ねて表示することができる。この場合、認識配置合成用画像は、画像において認識される被写体(ユーザの画像)と重ならない部分を有する、すなわち、完全に被写体の背面に隠れてしまわない形状とすることが好ましい。このように、ユーザのリアルタイム画像の背面に、ユーザの動きに追従する認識配置合成用画像を重ねて表示することで、ライブ画像において、背景をユーザの動きに追従させることができる。これにより、撮影時のライブ画像による演出の幅が広がる。
認識配置合成用画像は、例えば、リアルタイム画像において認識されるユーザ毎に異なる認識配置合成用画像を追加することができる。例えば、CPU103は、リアルタイム画像において認識されるユーザに識別番号を付し、識別番号ごとに異なる認識配置合成用画像を、各ユーザの位置に応じて配置することができる。この場合、例えば、認識されるユーザの数が、所定数を超えると、所定数以降のユーザに対しては、所定数内のユーザの認識配置合成用画像のいずれとも異なる予め決められた認識配置合成用画像を追加することができる。例えば、所定数以降のユーザに対して、全て同じ認識配置合成用画像を追加することができる。一例として、1枚の写真画像に対して、桃太郎をテーマにした合成用画像群を追加する場合、1人目から4人目の4人のユーザには、それぞれ、桃太郎、犬、猿、雉をあしらった認識配置用画像を重ねて表示し、5人目以降のユーザには、全て、鬼をあしらった認識配置用画像を重ねて表示してもよい。
CPU103は、カメラ21のシャッターを切る時刻を所定秒前から、カウントダウン音声を出力するとともに、正面ディスプレイ22にシャッターを切るまでの残り秒数を表示する。シャッターを切る1秒前からシャッターを切る瞬間にかけては、画面G15に示すように、ライブ画像LGは表示されずに、カメラ21を見るよう案内するメッセージが表示される。カメラ21のシャッターを切った後、CPU103は、写真画像を生成する。CPU103は、画面G16において、生成した写真画像V1、V2を、認識配置合成用画像T1、T2及び他の合成用画像Yと重ねて表示する。これにより、ユーザは、撮影で生成された写真画像を確認でき、写真画像を合成用画像と合成した場合のイメージも把握することができる。
さらに、画面G16では、写真画像V4に特定の画像処理が施される。画像処理として、例えば、写真画像V4の少なくとも一部の色を変えるフィルター処理が施される。画面G16の例では、写真画像V4に写る被写体の顔のチークの部分の色を変化させるフィルター処理C1、C2が施される。このように、フィルター処理は、例えば、写真画像V4における被写体のヘアー、チーク、リップ等の特定の部位を認識して、その部位に対して、色調変化、テクスチャ合成、又は、ぼかし処理等の画像処理を実行するものとすることができる。或いは、フィルター処理は、写真画像V4全体又は、写真画像V4及び合成用画像の双方に渡って、色調変化、テクスチャ合成、又は、ぼかし処理等の画像処理を実行するものであってもよい。また、フィルター処理は、色調変化、テクスチャ合成、及び、ぼかし処理のすくなくとも2つの組み合わせを含んでも良い。
なお、図14に示す例では、写真画像V1、V2に対してフィルター処理等の画像処理を施す形態である。この他に、CPU103は、ライブ画像LGにおけるユーザのリアルタイム画像U1、U2に対してフィルター処理を施してもよい。これにより、ユーザは、画像処理が施された後の自分の画像を見ながら撮影することができる。
<3.2.4正面全身撮影処理>
図15は、図10のS204における正面全身撮影処理における画面遷移例を示す図である。図15に示す画面遷移例は、顔配置合成用画像ではない合成用画像と合成される写真画像を生成するための撮影の画面遷移である。図15に示す例では、画面G17において、正面全身撮影におけるユーザの立ち位置の案内する情報が表示される。例えば、ユーザに撮影ブースの一番後ろ、すなわち背面まで下がることを案内する情報が、画像及び文字により、正面ディスプレイ22に表示される。
正面全身撮影における立ち位置を案内する画面G17を表示した後、CPU103は、画面G18のように、ライブ画像LGとして、カメラ21に写るユーザのリアルタイム画像U1、U2を、合成用画像Yと重ねて、正面ディスプレイ22に表示する。合成用画像Yは、一例として、合成用画像セット選択画面(図9参照)でユーザが選択した合成用画像セット202bの5枚面の写真画像に対応する合成用画像とする。合成用画像Yは、ユーザのリアルタイム画像U1、U2の位置に関係なく、ライブ画像LGにおける所定の位置に配置される。
CPU103は、カメラ21のシャッターを切る時刻を所定秒前から、カウントダウン音声を出力するとともに、正面ディスプレイ22にシャッターを切るまでの残り秒数を表示する。シャッターを切る1秒前からシャッターを切る瞬間にかけては、画面G19に示すように、ライブ画像LGは表示されずに、カメラ21を見るよう案内するメッセージが表示される。カメラ21のシャッターを切った後、CPU103は、写真画像を生成する。CPU103は、画面G20において、生成した写真画像V1、V2を、合成用画像Yと重ねて表示する。これにより、ユーザは、撮影で生成された写真画像を確認でき、写真画像を合成用画像と合成した場合のイメージも把握することができる。
ここで、正面全身撮影におけるカメラ21の画角と、カメラ21で取り込んだ画像のトリミング枠の例を説明する。図16Aは、本実施形態におけるカメラ21で取り込んだ画像W2と、カメラ21で取り込んだ画像のトリミング枠W3を示す。図16Aに示す例では、カメラ21の画角は、撮影空間の背面を画定する背面部24B及び、背面部24Bの左に接続され、撮影空間の左面の一部を画定する左側面部24L、及び、背面部24Bの右に接続され、撮影空間の右側面の一部を画定する右側面部24Rが写る範囲に設定される。さらに、カメラ21で取り込んだ画像のトリミング枠W3も、背面部24B及び、左側面部24L、及び、右側面部24Rが写る範囲に設定される。ここで、上述したように、左側面部24L及び右側面部24Rの内面には、上下方向全体にわたってクロマキーシートが設けられる。そのため、トリミング枠W3が、左側面部24L及び右側面部24Rの双方を含むことができる。これにより、広い範囲を撮影することができ、写真に写るユーザのポーズの自由度が高まる。
図16Bは、比較例におけるカメラ21で取り込んだ画像W4と、カメラ21で取り込んだ画像のトリミング枠W5を示す。比較例では、左側面部24L及び右側面部24Rの下半分にクロマキーシートが形成される。左側面部24L及び右側面部24Rの上半分にクロマキーシートが形成されない。そのため、トリミング枠W5は、左側面部24L及び右側面部24Rを含まないことが好ましい。結果として、トリミング枠W5の自由度が狭くなる。ひいては、ユーザのポーズの自由度が狭くなる。図16A及び図16Bに示すように、ユーザUS1、US2が同じポーズを取っても、図16Aに示す場合は、トリミング枠W3内にユーザUS1、US2の全身が入る、図16Bに示す場合は、ユーザUS1、US2の体の一部が、トリミング枠W5からはみ出す。この場合、ユーザUS1、US2の全身の画像は、写真画像として利用できなくなる。
図16Aに示す例では、カメラ21と背面部24Bとの距離が、図16Bに示す例におけるカメラ21と背面部24Bとの距離より長くなっている。また、図16Aに示す例では、左側面部24L及び右側面部24Bのクロマキーシートの上下方向の範囲を背面部24Bと同程度である。このように、カメラ21と背面部24Bとの距離を長くして、左側面部24L及び右側面部24Rのクロマキーシートの上下方向全体にわたってクロマキーシートを形成することで、撮影ブース内の広い範囲の画像を有効に利用することができる。例えば、カメラの焦点距離が同じであれば、カメラ21と背面部24Bとの距離を長くして、ユーザとカメラ21との距離を長くすることで、カメラ21で取り込まれた画像におけるユーザの部分の割合が低くすることができる。トリミング枠におけるユーザの部分の割合も低くなる。これにより、ユーザに提供される合成画像の演出の幅が広くなる。例えば、ユーザが広々とした空間にいるような合成画像を提供しやすくなる。
また、図16Aに示すように、カメラの画角及びトリミング枠の横方向(水平方向)の幅を広くとることにより、正面全身のアングルで撮影された写真画像に対して合成する合成用画像のデザインの幅が広くなる。例えば、写真画像の被写体の左右における合成用画像を配置可能なスペースを広くできる。
<3.2.5撮影の順番>
上述したように、S116(図8参照)で、ユーザが、合成用画像セットを選択することで、N個(本例ではN=5)の写真画像それぞれに合成する合成用画像が決定する。すなわち、ユーザに選択された合成用画像セットによって、N回の撮影のそれぞれにおいて、ライブ画像で、ユーザのリアルタイム画像と重ねて表示する合成用画像が決定する。さらにN個の写真画像の撮影の順番も、選択された合成用画像セットによって決まる。また、N回の撮影それぞれにおける撮影のアングルも、選択された合成用画像セットによって決まる。そのため、写真撮影遊戯機1は、ユーザに選択された合成用画像セットによって決まる、N個の写真画像の撮影の順番、各写真画像のアングル、及び各写真画像に合成する合成用画像を示すデータを、HDD104又はメモリ105等の記録装置に記録しておく。CPU103は、記録されたデータに基づいて上記の撮影処理を実行する。
合成用画像セットが対象とするN個の写真画像のうち少なくとも1つ写真画像の合成用画像に顔はめ合成用画像が含まれる場合は、N個の写真画像の撮影の順番を、例えば、次のように設定することができる。なお、N個の写真画像の撮影の順番は、合成用画像セット毎に予め決定してもよいし、ユーザが指定して決定してもよい。N個の写真画像の撮影の順番を示すデータは、各合成用画像セットを示すデータに対応付けて写真撮影遊戯機1の記録装置に記録される。
例えば、顔はめ合成用画像と合成される写真画像の撮影が、顔はめ合成用画像を含まない合成用画像と合成される他の写真画像の撮影の次になるよう設定することができる。これにより、顔はめ合成用画像が関わらない撮影を先に行ってから、顔はめ合成用画像が関わる撮影を行うことができる。これにより、ユーザは、簡単な撮影を先に行って、撮影の動きに慣れてから、複雑な顔はめ合成用画像が関わる撮影を行うことができる。
この場合、先に行う撮影のアングルと、その次に行う撮影のアングルは同じであることが好ましい。すなわち、顔はめ合成用画像を含まない合成用画像と合成される写真画像の撮影のアングルと、その次に行う、顔はめ合成用画像と合成される写真画像の撮影のアングルは、同じであることが好ましい。これにより、顔はめ合成用画像が関わる撮影の前に、同じアングルで、顔はめ合成用画像が関わらない撮影を行うことができる。そのため、ユーザは、顔はめ合成用画像が関わる撮影により対処しやすくなる。
また、N回の撮影において、顔はめ合成用画像が関わる撮影が2回以上ある場合は、顔はめ合成用画像が関わる撮影を連続して行うことが好ましい。例えば、合成用画像セットが対象とするN個の写真画像のうち2以上の写真画像が、顔はめ合成用画像と合成される場合、顔はめ合成用画像と合成される2以上の写真画像の撮影を連続して行うことができる。これにより、ユーザは、顔はめ合成用画像の撮影に対処しやすくなる。
例えば、上記の撮影処理の例において、CPU103は、まず、顔はめ合成用画像が関わらないアップ撮影を実行し、次に、CPU103は、同じアップのアングルで、顔はめ合成用画像が関わる顔はめアップ撮影を実行する。この1回目の顔はめアップ撮影の後に、CPU103は、2回目の顔はめアップ撮影を実行することができる。これにより、ユーザは、まず、通常のアップ撮影で撮影動作に慣れた上で、同じアップのアングルで顔はめアップ撮影を行うことができる。さらに、顔はめアップ撮影を続けて行うことで、ユーザは、顔はめアップ撮影の記憶が新しいうちに再度、顔はめアップ撮影を行うことができる。なお、2回目の顔はめアップ撮影は、図13に示すように顔はめ合成用画像が拡大してライブ画像に表示される。このように、連続する2回の顔はめ撮影のうち、1回目は、顔はめ合成用画像がそのままライブ画像に表示される形態とし、2回目に、顔はめ合成用画像が拡大してライブ画像に表示される形態とすることができる。これにより、ユーザにとってわかりやすい顔はめ撮影が可能になる。
<3.2.6カウントダウン>
上記例では、撮影において、CPU103は、シャッターを切る所定秒前からシャッターを切るまでの残り秒数をカウントダウンする音声を出力し、正面ディスプレイ22に残り秒数を表示する。ここで、シャッター前のカウントダウンの長さを、顔はめ合成用画像がライブ画像に表示される場合と、顔はめ合成用画像がライブ画像に表示されない場合とで異ならせることができる。例えば、上記例では、図12に示す顔はめアップ撮影では、シャッターを切る5秒前からカウントダウン及び残り秒数表示を開始し、図14に示す上から全身撮影及び図15に示す正面全身撮影では、3秒前からカウントダウン及び残り秒数表示を開始することができる。このように、顔はめ合成用画像が関わる撮影では、シャッターを切るまでのカウントダウンを、顔はめ合成用画像が関わらない撮影の場合より長くとることで、ユーザに、顔を適切な位置に動かすための時間を与えることができる。
<3.3.画像編集処理>
次に、画像編集処理(ステップS30)について説明する。図17は、画像編集処理の動作例を示すフロー図である。
<3.3.1目の大きさ調整>
CPU103は、画像編集処理に必要な画像その他のデータの準備が完了すると、編集用ディスプレイ411に、画像編集開始を案内する入力待機画面(図示略)を表示する(ステップS311)。入力待機画面には、編集開始ボタンが表示されている。撮影ブース2から編集ブース4へ移動したユーザが入力待機画面にタッチペン412(図5参照)でタッチすると、以降の処理が開始される。
CPU103は、ユーザから写真画像における被写体の目の大きさを調整する操作を受け付ける(ステップS312)。CPU103は、ユーザから目の大きさの選択を受け付ける画面を編集用ディスプレイ411に表示する。図18は、ユーザから目の大きさの選択を受け付ける画面の例を示す図である。図18に示す例では、N回の撮影処理で生成されたN枚の写真画像のうち2枚の写真画像V3、V4が表示される。図18に示す例では、アップのアングルで撮影された写真画像が表示される。ここでは、表示されるのは写真画像のみであり、合成用画像は、表示されない。図18に示す画面には、目の大きさを調整するためのスライダSL及びアイコン(ボタン)B1、B2が表示される。デフォルト(画面の初期状態)で表示される写真画像における被写体の目の大きさは、スライダSLにおける推奨を示す「オススメ」の位置に対応している。「オススメ」の位置の目の大きさは、元の写真画像の目の大きさから、ある程度大きくしたものである。
ユーザが、スライダSLを指又はタッチペンで動かすと、スライダSLの動いた方向及び位置に応じて、画面に表示される写真画像V3、V4における被写体の目の大きさが変化する。ユーザが、アイコンB1又はB2がタッチしても、写真画像V3、V4における被写体の目の大きさが変化する。すなわち、CPU103は、スライダSL又はアイコンを介したユーザの入力に応じて、写真画像V3、V4における被写体の目の部分の画像を処理して表示に反映させる。スライダSL又はアイコンの操作が、リアルタイムに、画面に表示されている複数の写真画像V3、V4の被写体の目の大きさに反映される。画面には、目の大きさの調整を確定するOKボタンB3が表示される。ユーザがOKボタンを押すと、OKボタンB3を押した時に、表示されている写真画像V3、V4における被写体の目の大きさに決定する。
具体例として、スライダSLを第1の方向(例えば、右)に動かす操作、又は、2つのアイコンB1、B2のうち一方のアイコン(例えば、右のアイコンB2)をタッチする操作がされると、CPU103は、表示している複数の写真画像V3、V4における被写体の目が、現在の表示中の目より大きくなるようにする。スライダSLを第2の方向(例えば、左)に動かす操作、又は、2つのアイコンB1、B2のうち他方のアイコン(例えば、左のアイコンB1)をタッチする操作がされると、CPU103は、表示している複数の写真画像V3、V4における被写体の目が、現在表示中の目より小さくなるようにする。この時、CPU103は、スライダSLの移動量又はアイコンのタッチ回数に応じて、目の大きさの変更の度合いを決定する。
CPU103は、スライダSLの単位移動量あたり又はアイコンのタッチ1回あたり(以下、単位操作あたりと称する)の目の縦方向の寸法の変化量と、目の横方向の寸法の変化量を異ならせることが好ましい。例えば、単位操作あたりの、目の縦方向の寸法の変化量を、目の横方向の寸法の変化量より大きくすることができる。これにより、目の大きさの変化を自然なものにすることができる。ここで、目の縦方向は、写真画像における縦方向(垂直方向)とし、目の横方向は、写真画像における横方向(水平方向)としてもよいし、二つの瞳の中心間を結ぶ線の方向を横方向とし、横方向に垂直な方向を縦方向としてもよい。また、ユーザの操作を受け付けるインターフェースの構成は、上記のスライダ及びアイコンに限られない。スライダ及びアイコンの少なくとも一方を含む構成としてもよいし、他のインターフェースをさらに含む構成としてもよい。
図18に示すように、N回の撮影で生成されたN個の写真画像のうち少なくとも2つの写真画像を表示し、表示される少なくとも2つの写真画像の被写体の目の大きさを、ユーザの操作に応じてリアルタイムに更新することができる。これにより、ユーザは、簡単な操作で、かつ直感的にわかりやすい目の大きさの調整が可能になる。なお、ユーザの操作により調整される対象は、目の大きさに限られず、目の形状、目の色、まつげの大きさ、まつげの形状、その他の目に関するものを調整の対象とすることができる。
再び、図17を参照して、CPU103は、ユーザから写真画像の明るさを調整する操作を受け付ける(ステップS313)。CPU103は、ユーザから、写真画像の明るさの選択を受け付ける画面(図示略)を編集用ディスプレイ411に表示する。この写真画像の明るさの選択を受け付ける画面も、図18に示した例と同様に、N枚の写真画像のうち少なくとも2枚を表示し、ユーザの操作に応じて、表示した少なくとも2枚の写真画像の明るさをリアルタイムに変更する態様とすることができる。また、ユーザの操作を受け付けるインターフェースも、図18の例と同様に、スライダ及びアイコンの少なくともいずれかを含む構成とすることができる。なお、明るさの調整は、例えば、写真画像全体の明るさを調整するものであってもよいし、写真画像の被写体の肌の明るさを調整するものであってもよい。
<3.3.2顔はめ合成用画像と写真画像の相対位置関係の調整>
CPU103は、撮影処理で生成された写真画像に、顔はめ合成用画像と合成される写真画像があるか否かを判断する(ステップS314)。顔はめ合成用画像と合成される写真画像がある場合(ステップS314でYES)、CPU103は、ユーザから写真画像と顔配置合成用画像との位置関係を調整する操作を受け付ける(ステップS315)。CPU103は、ユーザから写真画像と顔配置合成用画像との位置関係を調整する操作を受け付ける画面を編集用ディスプレイ411に表示する。
図19は、写真画像と顔配置合成用画像との位置関係を調整する操作を受け付ける画面の例を示す図である。図19に示す例では、複数の表示領域LD1〜LD4の各々において、顔はめ合成用画像と写真画像(H5とV31、H6とV32、H7とV41、H8とV42)が重ねて表示される。この例では、顔はめ合成用画像が、写真画像の前面に表示される。なお、顔はめ合成用画像は、半透明で表示されてもよい。各表示領域LD1〜LD4において、画面表示の初めに表示される顔はめ合成用画像と写真画像の相対位置関係は、例えば、撮影処理においてシャッターを切った時の相対位置関係とすることができる。
図19に示す例では、顔はめ合成用画像V31、V32、V41、V42を、ユーザの操作により、回転、拡大、縮小、及び移動できるようになっている。すなわち、顔はめ合成用画像と写真画像との相対位置、相対角度及び相対サイズが、ユーザの操作により変更可能となっている。具体的には、各表示領域LD1〜LD4において、写真画像V31、V32、V41、V42をユーザが指又はタッチペンでタッチした状態で指又はタッチペンを動かすことにより、指又はタッチペンの動きに応じて写真画像が移動する。また、各表示領域LD1〜LD4の下に、写真画像を回転させるためのスライダSL2とアイコンB4、B5が表示される。各表示領域LD1〜LD4の右に、写真画像のサイズを変更するためのスライダSL3とアイコンB6、B7が表示される。これにより、被写体の顔を配置するための領域をそれぞれ有する顔はめ合成用画像H5〜H8において、互いに独立して、写真画像との相対位置関係が調整可能となる。
各表示領域LD1、LD3に表示される写真画像は、1回目の顔はめ撮影で生成された1枚の写真画像の一部を切り出したものである。各表示領域LD2、LD4に表示される写真画像は、2回目の顔はめ撮影で生成された1枚の写真画像の一部を切り出したものである。図19に示す例では、1回目の撮影で生成された1枚目の写真画像V3の顔はめ合成用画像H5と重なる部分(写真画像V3の左半分)を切り出した写真画像V31が表示領域LD1に表示され、1枚目の写真画像V3の顔はめ合成用画像H6と重なる部分(写真画像V3の右半分)を切り出した写真画像V32が表示領域LD3に表示される。
このように、顔はめ合成用画像と写真画像との相対位置関係を調整するための画面では、ライブ画像で表示した顔はめ合成用画像の顔を配置するための領域(ここでは、顔はめ領域と称する)毎に、異なる表示領域に、顔はめ合成用画像と写真画像とを重ねて表示することが好ましい。各表示領域に、それらの相対位置関係を調整するためのインターフェース(例えば、スライダ、アイコン又はボタン等)が設けられる。これにより、ユーザ毎、かつ写真画像毎に、顔はめ合成用画像と写真画像との相対位置関係を調整することが可能になる。
図19に示す例では、1つの写真画像に合成される顔はめ合成用画像に複数(本例では2つ)の顔はめ領域が含まれる。このような場合、複数の顔はめ領域の顔はめ合成用画像における配置(例えば、右か左か)に応じて、どの表示領域LD1〜LD4に表示するかを決めることができる。図19に示す例では、ユーザから見て右の顔はめ領域は、画面の右にある表示領域LD1、LD2に配置され、ユーザから見て左の顔はめ領域は、画面の右にある表示領域LD3、LD4に配置される。これにより、右の顔はめ領域に顔をはめたユーザは、右の表示領域LD1、LD2で調整を行い、左の顔はめ領域に顔をはめたユーザは、左の表示領域LD3、LD4で調整を行うことができる。
図19に示す画面には、右の表示領域LD1、LD2と、左の表示領域LD3、LD4との位置を入れ替えるボタンB10が表示される。なお、表示領域の切り替えの態様はこの例に限られない。例えば、1枚目の写真画像に対応する表示領域LD1、LD3のみの位置を入れ替えるなど、写真画像毎に、表示領域の切り替えを可能にする態様であってもよい。
このように、図19に示す画面では、複数の表示領域LD1〜LD4は、複数のユーザから操作を受け付けるように、複数の区分(表示領域LD1、LD2と、表示領域LD3、LD4)に分かれて表示される。操作を受け付ける複数のユーザそれぞれに対応する区分毎に、OKボタンB8、B9が設けられる。1つの区分のOKボタンB8が押されると、その区分の表示領域LD1、LD2に表示されている顔はめ合成用画像と写真画像との相対位置関係が確定する。なお、CPU103は、OKボタンB8が押されると、表示領域LD1,LD2に表示される相対位置関係でよいかを確認する確認画面又は確認メッセージを表示してもよい。
図20は、表示領域LD1及びLD3に表示される写真画像V31、V32を説明するための図である。図20に示すように、1枚目の写真画像V3を左右に分割してできる写真画像V31、V32が、それぞれ別の表示領域LD1、LD3に表示される。分割の境界は、例えば、写真画像V3に合成される顔はめ合成用画像H5、H6のそれぞれにおける顔を配置するための領域の位置(顔がくり抜かれた領域)の位置に応じて決められる。一例として、合成用画像H5、H6のそれぞれにおける顔を配置するための領域の位置の左右方向における中間の位置を通る上下方向の線を、写真画像V31とV32の境界線とすることができる。
分割された写真画像V31、V32は、それぞれ独立して、表示領域LD1、LD3において、ユーザの操作に応じた移動、回転、サイズの変更可能となる。写真画像の移動、回転、及びサイズの変更のうちすくなくとも1つについて、変更できる範囲に制限を設けてもよい。例えば、写真画像と顔はめ合成用画像との相対位置を変更できる範囲に制限を設けることができる。図20に示す例において、写真画像V31の中心点J1が、表示領域LD3からでないように、ユーザが写真画像V31を移動できる範囲を制限してもよい。なお、一例として、写真画像V31の回転中心は、写真画像V31の中心点J1より一定のピクセル値分上の位置に設定することができる。
図21は、図19に示す画面において、写真画像と顔はめ合成画像の相対位置関係が、ユーザによって調整された場合の例を示す図である。図21に示す例では、顔はめ合成用画像の被写体の顔を配置する領域に、ぴったり合うように写真画像が配置される。これにより、違和感がなくなる。
また、図21に示すように、ユーザが、写真画像V42をタッチペン412でタッチすると、タッチした部分にカーソルK1が表示されるようにしてもよい。カーソルK1が表示される間は、タッチペン412の動きに応じて写真画像V42が動く。ユーザがタッチペン412を画面から離すと、カーソルK1が消える。ユーザが写真画像V42をタッチペン412で写真画像V42を動かしている時に、動かせる範囲の境界に達してそれ以上タッチペン412の動く方向に写真画像V42を動かせない状態となる場合がある。この場合、例えば、CPU103は、カーソルK1の形状を変化させて、それ以上タッチペン412の動く方向には写真画像V42を動かせないことを示すことができる。
なお、図19及び図21に示す例では、ユーザの操作に応じて、写真画像の回転、移動、及びサイズの変更をすることで顔はめ合成用画像と写真画像との相対位置を調整する構成である。調整の態様はこれに限られない。例えば、写真画像の回転、移動、及びサイズの変更のうち、いずれか2つ、又はいずれか1つの操作を受け付ける構成であってもよい。或いは、写真画像は固定表示して、顔はめ合成用画像の回転、移動、及びサイズの変更の少なくとも1つに対するユーザの操作を受け付ける構成であってもよい。
また、顔はめ合成用画像は、半透明で表示してもよい。例えば、ユーザが、写真画像をタッチペンでタッチしている間は、顔はめ合成用画像を半透明で表示することができる。これにより、ユーザは、顔はめ合成用画像と写真画像との相対位置関係を把握しやすくなる。又は、ユーザがOKボタンB8、B9を押すまでは、顔はめ合成用画像を半透明で表示し、ユーザがOKボタンB8、B9を押した後は、顔はめ合成用画像を不透明で表示することもできる。
顔はめ合成用画像と写真画像との相対位置、相対角度、及び相対サイズを変更する操作を受け付けるインターフェースは、図19及び図21に示すスライダSL2、SL3及びアイコンB4〜B7に限られない。例えば、スライダ及びアイコンのいずれか一方のみであってもよい。また、図19及び図21では、顔はめ合成用画像と写真画像との相対サイズを変更するためのインターフェース(スライダSL3及びアイコンB6、B7)が、表示領域LD1〜LD4の横にあり、相対角度を変更するためのインターフェース(スライダSL2及びアイコンB4、B5)が表示領域LD1〜LD4の下にある。インターフェースの配置は、これに限られない。例えば、顔はめ合成用画像と写真画像との相対サイズを変更するためのインターフェースと、相対角度を変更するためのインターフェースの双方を、表示領域LD1〜LD4の下、上又は横に並べ配置してもよい。このように、2つのインターフェースを並べて配置することで、ユーザの操作性を向上できる場合がある。
再び、図17を参照し、CPU103は、ユーザから名前の入力を受け付ける(ステップS316)。CPU103は、ユーザから名前の入力を受け付ける名前入力画面(図示略)を編集用ディスプレイ411に表示する。CPU103は、S114で選択された言語、及びS115で選択されたプレイ人数に応じて、表示する名前入力画面を変えることができる。
<3.3.3落書き編集>
CPU103は、ユーザから落書き編集を受け付ける(ステップS317)。CPU103は、編集用ディスプレイ411に、ユーザごとの編集画面を表示する。編集画面において、ユーザごとに、N回の撮影で生成されたN枚(本例ではN=5)の写真画像に対し、落書き操作を受け付ける。
図22は、編集画面の一例を示す図である。図22に示す編集画面では、中央上部領域に、編集時間の残り時間を表示する残時間表示領域300が配置される。この中央部上部領域300の左右両側に、それぞれ、編集領域301L、301Rとサムネイル画像表示領域307L、307Rが配置される。各編集領域301L、301Rの下方には、編集ツールが配置される編集ツール表示領域302L、302Rが配置されている。編集領域301L、301Rは、1回のプレイで関わる複数のユーザそれぞれに対応して設けられる。本例では、編集領域及び編集ツール表示領域が、左右に並んで配置されるので、2人のユーザが同時に編集画面に対して入力を行うことができる。すなわち、左側の編集領域301L、編集ツール表示領域302Lは、左側のユーザによるタッチペン412を用いた入力を受け付け、右側の編集領域301R、編集ツール表示領域302Rは、右側のユーザによるタッチペン412を用いた入力を受け付ける。
各編集領域301L、301Rの上方には、サムネイル画像表示領域307L、307Rが各々配置されている。サムネイル画像表示領域307L、307Rには、5回の撮影で生成された5枚の写真画像V1〜V5を縮小したサムネイル画像が撮影順に表示される。各編集領域301L、301Rには、写真画像V1〜V5のうち1枚の写真画像と、その写真画像に対応する合成用画像とを重ねた画像が表示される。左の編集領域301Lと右の編集領域301Rには、互いに異なる写真画像が表示される。
初期状態において、各編集領域301L、301Rには、ステップS116でユーザが選択した合成用画像セットの合成用画像T4〜T9も重ねて配置される。これらの合成用画像T4〜T9は、上記の撮影処理においても、ライブ画像で、ユーザのリアルタム画像に重ねて表示されていたものである。
図22に示す編集画面において、各編集領域301L、301Rに表示される合成用画像T4〜T9は、写真画像において認識される被写体の位置に基づいて配置される認識配置合成用画像の例である。
ユーザが、サムネイル画像表示領域307L、307Rにおいて、写真画像V1〜V5のいずれかのサムネイル画像をタッチペン412でタッチすると、CPU103は、タッチペン412でタッチされたサムネイル画像に対応する写真画像を編集領域301L、301Rに表示させる。図22の例では、左側において写真画像V1のサムネイル画像が選択され、編集領域301Lに写真画像V1が表示されている。右側において写真画像V4のサムネイル画像が選択され、編集領域301Rに写真画像V4が表示されている。CPU103は、各サムネイル画像表示領域307L、307Rにおいて、各編集領域301L、301Rに表示された写真画像のサムネイル画像の表示領域に、「らくがき中」の文字を表示させる。
編集ツール表示領域302L、302Rには、編集領域301L、301Rに入力可能なアイテム(スタンプ)の一覧(305)が表示される。ここで、スタンプは、写真画像における人物の前景又は背景に入力可能な素材画像の一例である。編集ツール表示領域302L、302Rの上には、大項目シートタブ3021、シートタブ3022が表示される。CPU103は、大項目シートタブ3021、シートタブ3022の選択によって、編集ツール表示領域302L、302Rの表示内容を切り替える。
図22に示す例では、シートタブ3022で選択可能な項目として、「キャラクタ1」、「キャラクタ2」、「ネーム+日付」、「バースデー」、「アニバーサリー」、「イベント」・・・等がユーザに選択可能な状態で表示される。これらのシートタブ3022の項目の内容を切り替えるための大項目シートタブ3021が、さらに設けられる。大項目シートタブ3021で選択可能な項目には、「すぺしゃる」、「すたんぷ」、「めっせーじ」、「めいく」、「ペン」・・・等が含まれる。
なお、編集ツール表示領域302L、302Rは、編集(落書き)操作を行う複数のユーザそれぞれに対応して設けられる。そのため、シートタブ3022、大項目シートタブ3021の切り替えは、複数のユーザそれぞれに対応する編集ツール表示領域302L、302Rにおいて、互いに独立して行うことができる。
図22に示す例では、左の編集ツール表示領域302L及び右の編集ツール表示領域302Rでは、大項目シートタブ3021で「すぺしゃる」が選択され、シートタブ3022で「キャラクタ1」が選択されている。この場合、左右の編集ツール表示領域302L、302Rには、アイテム一覧305の他に、回転を制御するボタン312、スタンプのサイズを制御するボタン313が表示される。なお、この他にも、スタンプ色切り替えボタン、スタンプの配置レイヤ、等その他のスタンプを制御するためのボタン群が表示されてもよい。アイテム一覧305は、例えば、シートタブ3022で選択されたキャラクタ1にまつわるデザインとすることができる。
アイテム一覧305には、複数のスタンプそれぞれのアイコンが、選択可能な状態で表示される。図22に示す例では、各アイコンは、スタンプの画像が矩形形状のアイコンフレームの内側に配置された態様ではなく、絵の輪郭がアイコンの縁となっている。すなわち、スタンプそのものがアイコンとなっている。このように、アイコンを矩形形状とないで、スタンプの輪郭をアイコンの輪郭にそろえることで、ユーザは、シールを貼る感覚で、スタンプを扱うことができる。これにより、ユーザは、スタンプにかわいらしさを感じることができる。
また、CPU103は、表示されているアイコンの縁の外側であってアイコンの近傍の領域が、タッチペンでタッチされた場合に、そのアイコンの選択を受け付けてもよい。場合、アイコンの外側における選択を受け付ける領域は、隣のアイコンと抵触しない範囲内に設定される。これにより、例えば、細長いデザインのスタンプ(例えば、スタンプST2)等のように、面積が小さいスタンプのアイコンを、選択し易くすることができる。例えば、タッチペンがタッチされるとそのアイコンが選択されたとCPU103により判断される当たり判定領域を、アイコンの縁(すなわちスタンプの縁)の外側の領域にまで広げて設定することができる。
ユーザは、アイコンST1をタッチペンでタッチし選択状態にした後に、編集領域301Lをタッチペンでタッチすると、タッチした位置にアイコン305に表示されているスタンプST1が配置される。スタンプST1は、写真画像V1の前景に表示される。
大項目シートタブ3021で「めいく」タブが選択された場合、編集ツール表示領域302L、302Rには、写真画像に対して施す画像処理(例えば、ヘアー、チーク、リップの色の制御等)の指示を、ユーザから受け付けるための画像処理パレット(例えば、メイクパレット)が表示される(図示省略)。CPU103は、このような画像処理パレットを画面に表示して、ユーザから画像処理の指示入力を受け付ける。これにより、複数の写真画像の少なくとも1つに対して画像処理を施す手動画像処理手段が実現できる。例えば、メイクパレットにおいて、写真画像の被写体の髪の色、頬の色、唇の色、瞳の色、又は、画像全体の色味、等の選択又は調整をユーザから受け付けることができる。
大項目シートタブ3021で「ぺん」タブが選択された場合、編集ツール表示領域302L、302Rには、ペンツール選択のためのペンツール選択パレットが表示される(図示省略)。ペンツール選択パレットでは、ペンの種類、色及び太さを選択可能となっている。
編集画面には、編集領域301L、301Rにおける合成用画像の削除/配置を、切り替えるための合成用画像切り替えボタン303が設けられる。合成用画像切り替えボタン303は、ユーザがS116で選択した合成用画像セットの合成用画像のうち、顔配置合成用画像T4〜T9以外の通常の合成用画像の削除/配置を切り替えるボタンである。なお、合成用画像切り替えボタン303は、合成用画像セットの合成用画像の全ての削除/配置を切り替えるものであってもよいし、合成用画像セットの合成用画像のうち前景画像の削除/配置を切り替えるものであってもよい。
編集領域301L、301Rに表示される写真画像は、初期状態では、ユーザがS116で選択した合成用画像セットに付随する画像処理が施された状態で表示される。編集画面には、合成用画像セットに付随する画像処理を施した写真画像の表示と、この画像処理を施していない写真画像の表示とを切り替える画像処理切り替えボタン304が設けられる。これにより、ユーザは、簡単な操作で、合成用画像セットに伴う画像処理(例えば、髪の色を変えるフィルター等)を施すか、施さないかを制御することができる。
また、ユーザが、大項目シートタブ3021で「めいく」タブを選択し、写真画像に対する画像処理を指示する操作をした場合に、CPU103は、編集領域301L、301Rの写真画像を、合成用画像セットに付随する画像処理を施さない状態で表示するようにすることができる。例えば、CPU103は、ユーザが、大項目シートタブ3021で「めいく」タブを選択する、又は、写真画像に対する画像処理を指示する操作をした場合に、合成用画像セットに付随する画像処理がキャンセルされることを示すメッセージを表示することができる。合成用画像セットに付随する画像処理は、合成用画像セットで提供される世界観を演出するものであることが多い。そのため、ユーザが個別に画像処理を指示しようとする場合は、この世界観が失われてしまうことをメッセージによりユーザに確認することができる。
また、CPU103は、ユーザが、大項目シートタブ3021で「めいく」タブを選択して、写真画像に対する画像処理を指示する操作をすることにより、合成用画像セットに付随する画像処理がキャンセルされた場合、画像処理切り替えボタン304が、「フィルターON」の表示になる。これにより、ユーザが、画像処理切り替えボタン304を押した場合は、キャンセルされた合成用画像セットに付随する画像処理が再度施され、ユーザが「めいく」タブを選択して写真画像に対して施すよう指示した画像処理はキャンセルされることになる。
編集画面には、タッチペンを消しゴムとして利用できる消しゴムツールを設定する消しゴムツールボタン306が設けられる。また、操作を1つ戻す、もどるボタン308、操作を1つ進める、すすむボタン309が設けられる。さらに、編集領域301L、301Rの写真画像に対してユーザが行った落書き操作をリセットするリセットボタン311が設けられる。
さらに、編集画面には、編集領域301L、301Rに表示された認識配置合成用画像の調整をするための調整ボタン310(ひとぴたスタンプ調整ボタン)が設けられる。ユーザが調整ボタン310を押すと、編集領域301L、301Rに表示された認識配置合成用画像と写真画像との相対位置関係を調整するための調整画面が表示される。
なお、調整ボタン310は、サムネイル画像表示領域307L、307Rにおいて、写真画像V1〜V5のうち、認識配置合成用画像と合成される写真画像が選択された場合に有効にすることができる。また、サムネイル画像表示領域307L、307Rにおいて、認識配置合成用画像と合成される写真画像が1回目に選択された場合に、調整画面を表示して、認識配置合成用画像の調整が可能であることをユーザに案内することもできる。この場合、2回目以降の選択においては、調整画面を表示せず、調整ボタン310を押すことで調整が可能なことを案内するメッセージのみを表示するようにすることができる。
図23は、ユーザが調整ボタン310を押した場合に表示される調整画面の例を示す図である。図23に示す例では、表示領域314に、写真画像V1と、認識配置合成用画像である合成用画像T4〜T7が重ねて表示される。合成用画像T4〜T7は、写真画像の前面に表示される。合成用画像T4〜T7を囲む矩形の線が表示される。これにより、ユーザは、合成用画像T4〜T7が、認識された被写体の位置に基づいて配置される認識配置合成用画像であることを識別できる。また、合成用画像T4〜T7のそれぞれに対応して、削除ボタンCBが表示される。ユーザが削除ボタンCBを押すと、削除ボタンCBに対応する合成用画像が削除される。
ユーザは、指又はタッチペンで、合成用画像T4〜T7のいずれかのタッチすることで、操作対象の合成用画像を選択する。調整画面には、選択された合成用画像のサイズを調整するためのスライダSL3及びアイコンB11、B12が表示される。選択された合成用画像の回転を調整する回転ボタンB13、B14が表示される。また、調整画面には、ユーザの操作をリセットするリセットボタンB15、ユーザの1回の操作を戻すもどるボタンB16、ユーザの1回の操作を進めるすすむボタンB17、操作による合成用画像の位置調整を確定するためのOKボタンB18が表示される。また、調整画面を表示中は、調整ボタン310は、らくがきにもどるボタン315に変わる。らくがきにもどるボタン315が押されると、調整画面が消えて、編集画面が表示される。
ユーザは、表示領域314において、操作対象の合成用画像を選択する。ユーザは、指又はタッチペンで、合成用画像にタッチした状態で、指又はタッチペンを動かすと、その動きに合わせて合成用画像も動く。これにより、ユーザは、合成用画像の位置を調整する。例えば、ユーザが、スライダSL3、又はアイコンB11、B12を操作すると、CPU103は、選択された合成用画像のサイズを、ユーザの操作に応じてリアルタイムに変更して表示領域314に表示する。同様に、CPU103は、ユーザの回転ボタンB13、B14の操作に応じて、選択された合成用画像を回転させて表示する。ユーザが、OKボタンB18を押すと、ユーザの操作による合成用画像の移動、回転、サイズの変更が確定する。
図23に示す例では、ユーザの操作に応じて、合成用画像の回転、移動、及びサイズの変更をすることで認識配置合成用画像と写真画像との相対位置を調整する構成である。調整の態様はこれに限られない。例えば、認識配置合成用画像の回転、移動、及びサイズの変更のうち、いずれか2つ、又はいずれか1つの操作を受け付ける構成であってもよい。或いは、認識配置合成画像は固定表示して、写真画像の回転、移動、及びサイズの変更の少なくとも1つに対するユーザの操作を受け付ける構成であってもよい。
このように、認識配置合成用画像を、ユーザが調整できるようにすることで、誤認識により不適切な位置に誤認識配置合成用画像が配置された場合も、適切な位置に調整することができる。例えば、誤認識により誤認識配置合成用画像が、写真画像の顔からずれた位置に配置されると、違和感が生じて、画像全体の品質が著しく低下することがある。ユーザは、調整画面で、認識配置合成用画像を調整することで、違和感のなくすことができる。また、上記例では、落書き編集画面の表示時に、認識配置合成用画像の調整が可能な構成であるため、ユーザは、スタンプを配置するのと近い感覚で、認識配置合成用画像の調整が可能になる。
再び図22を参照し、編集画面に対する操作により、ユーザは、素材画像であるスタンプを、写真画像の背景又は前景に配置することができる。図17におけるステップS317の落書き編集は、所定の編集時間が経過するか、又は、ユーザが編集終了の操作した場合に、終了する。CPU103は、落書き処理が終了すると、ユーザごとに、5枚の写真画像のそれぞれに対して選択された編集用画像を、その写真画像と対応づけてメモリ105に記憶する。また、ステップS116でユーザが選択した合成用画像セットの5枚の合成用画像が、各写真画像に対応付けてメモリ105に記憶される。
合成画像を生成する工程で、CPU103は、ユーザが選択した合成用画像セットの5枚の合成用画像を、撮影により生成された写真画像V1〜V5の背景又は前景に、それぞれ重ねて合成し、さらに、S317の落書き編集でユーザの操作により追加された素材画像を、写真画像V1〜V5の前景又は背景に合成する。これにより、写真画像V1〜V5を基にした合成画像が生成される。すなわち、CPU103は、合成画像生成手段として機能する。合成画像生成手段は、ユーザに選択された合成用画像セットを用いて、かつ、編集手段で受け付けたユーザの編集に基づいて、複数の写真画像に合成用画像を合成して複数の合成画像を生成する。
なお、CPU103は、顔配置合成用画像と写真画像とを合成する際は、ユーザの操作によって調整された顔配置合成用画像と写真画像の相対位置関係で、顔配置合成用画像と写真画像とを合成することができる。
<3.3.4レイアウト選択>
図17のステップS318において、CPU103は、シートレイアウトの選択をユーザから受け付ける。CPU103は、シートレイアウトガイダンスをスピーカ413及び編集用ディスプレイ411から出力する。CPU103は、S115でユーザが選択したプレイ人数に対応するシートレイアウト選択画面を、編集用ディスプレイ411に表示し、ユーザによるシートレイアウトの選択を受け付ける。
図24は、2人プレイ用のレイアウト選択画面の一例を示す図である。図24に示す例では、複数の2人プレイ用のシートレイアウト511a、511b、511cが選択可能な状態で表示される。図24は、シートレイアウト511aが選択された状態を示している。また、レイアウト選択画面には、選択されたシートレイアウト511aを表示するプレビュー領域512が含まれる。プレビュー領域512の横には、プレビュー表示されたシートレイアウト511a中に配置されるキャラクタを切り替えるためのキャラクタ選択ボタン513a〜513dが配置される。
ここで選択できるキャラクタは、合成用画像セット選択画面で登場するキャラクタとすることができる。例えば、合成用画像セット選択画面において、複数のキャラクタそれぞれに対応する合成用画像セットが選択可能とすることができる。この場合、ユーザは、特定にキャラクタに対応する合成用画像セットを選択することができる。なお、合成用画像セット選択画面において、ユーザが、特定のキャラクタに対応する合成用画像セットを選択しなかった場合でも、レイアウト選択画面において、特定のキャラクタのシートレイアウトを選択することができる。
選択が確定した旨を入力するためのOKボタン515も、レイアウト選択画面に表示される。ここで、シートレイアウトは、シートにおける複数の合成画像の配置の仕方であるレイアウトパターンと、合成画像が配置される領域以外の部分のシートのデザインである、シートデザインとの組み合わせである。シートは、プリンタ60(印刷手段の一例)により印刷される。
図24に示すレイアウト選択画面では、1つのキャラクタに対応する複数のシートレイアウト511a〜511cが選択可能な状態で表示される。シートレイアウト511a〜511cの少なくとも1つのシートデザインは、上記の1つのキャラクタ(一例としてJun)に関連するものとなっている。例えば、シートレイアウト511aのシートデザインには、キャラクタJunの画像205aの一部が含まれる。また、シートレイアウト511bのシートデザインには、キャラクタJunの名前を示す文字「Jun」が含まれる。
例えば、ユーザが選択可能なキャラクタの各々と、複数のシートデザインとの対応を示すデータが、シートデザインのデータとともに、写真撮影遊戯機1が備えるシート情報記録手段に記録される。シート情報記録手段は、例えば、上記のコンピュータ装置101(図6参照)が備えるハードディスク(HDD)104又はメモリ105等の記録装置によって構成される。CPU103は、ユーザに選択されたキャラクタに対応する複数のシートデザインを、シート情報記録手段から読み出して、ユーザが選択可能な状態で、複数のシートレイアウトとして表示する。CP103は、シート選択手段として機能する。
ユーザは、キャラクタ選択ボタン513a〜513dを押すことにより、プレビュー表示されたシートレイアウト511aのシートデザインを切り替えることができる。キャラクタ選択ボタン513a〜513dのそれぞれは、1又は複数のキャラクタを示すボタンとなっている。キャラクタ選択ボタン513a〜513dのいずれかをユーザが押すと、プレビュー表示されたシートレイアウト511aのシートデザインが、ユーザに押されたボタンが示すキャラクタに対応するデザインに切り替わる。すなわち、CPU103は、ユーザが押したキャラクタ選択ボタンが示すキャラクタに対応するシートデザインであって、プレビュー表示されたシートレイアウトのシートデザインを、シート情報記録手段から読み出してプレビュー領域512に表示する。
シートレイアウト511aは、ユーザの被写体を含まず、且つキャラクタの画像205aを配置する矩形領域514を有する。このキャラクタの画像205aを配置する矩形領域514の面積は、同じシートに配置される合成画像のうち最も面積が小さいものの面積と、同程度か若しくは大きくできる。すなわち、印刷されるシートにおいて、最小の合成画像の領域より大きい矩形領域に、ユーザの被写体を配置せず、キャラクタを配置してもよい。これにより、シートにおけるキャラクタが締める割合を大きくなる。その結果、キャラクタに興味があるユーザの満足度を高めることができる。
ユーザが、OKボタン515を押すと、その時に選択状態になっていたシートレイアウトの選択が決定する。なお、図24に示す例では、1プレイで提供されるシートの半分、すなわち1人分のシートレイアウトの選択を受け付ける画面である。CPU13は、シートレイアウトの選択を、ユーザごとに、同時に受け付けてもよい。
図17を再び参照し、CPU103は、ステップS318でユーザに選択されたシートレイアウトと、メモリ105に記憶された画像配置情報とに基づいて、シール紙に印刷するシート画像を生成する。具体的には、CPU103は、一のユーザについて選択されたシートレイアウトと画像配置情報とに基づいて、選択されたシートレイアウトにおける各写真画像領域に、当該写真画像領域に対応する写真画像に基づく合成画像を配置する。さらに、CPU103は、選択されたシートレイアウトのシートデザインを合成する。そして、合成した画像に対して、シール紙の印刷に適した印刷用の解像度及び色味の調整等を行って一のシート画像を生成する。
ステップS319において、CPU103は、動画コンテンツを、編集用ディスプレイ411及びスピーカ413により再生する。動画コンテンツは、予め用意されたテンプレートに基づいて生成される。テンプレートは、生成する動画の仕様を設定するためのテンプレート情報を有する。テンプレート情報には、動画に用いられる背景画像及び前景画像等のテンプレート画像と、テンプレート画像の配置、動画に用いる写真画像及び動画に用いる名前や日付の配置と、これらの配置タイミングなどが含まれる。テンプレート情報は、HDD104に予め記憶されている。
本実施形態では、動画コンテンツのテンプレートは、各合成用画像セットに対応して用意される。なお、複数の合成用画像セットに対応する1つの動画コンテンツを用意してもよい。動画コンテンツは、例えば、予め定められたテンプレート画像と、写真画像とを用いて生成される。テンプレートは、これらのテンプレート画像及び、写真画像の再生タイミングなどを示す情報を含む。テンプレート画像及び写真画像の他、動画コンテンツ用の名前及び日付(以下、動画用文字情報)を用いて動画コンテンツを生成することができる。
動画用文字情報は、ユーザによる名前や日付の入力を受け付けることにより得られる。この場合、写真画像だけなく、動画コンテンツ用にユーザによって入力される名前や日付が用いられるため、ユーザに入力された名前及び日付が入っていない動画コンテンツよりもユーザのオリジナル性が高い動画コンテンツとなる。
ここで、動画コンテンツに用いられる写真画像は、S116でユーザが選択した合成用画像セットに伴う画像処理が施されたものであってもよいし、施されていないものでもよい。また、写真画像に、ユーザが選択した合成用画像セットの合成用画像を合成したものを、動画コンテンツに用いてもよい。例えば、顔配置合成用画像を写真画像に合成したものを、動画コンテンツに用いることができる。この場合、顔配置合成用画像と写真画像との相対位置関係がユーザの操作によって調整されたものを用いることが好ましい。
図17のステップS320において、CPU103は、ユーザの携帯端末に送信する画像の選択を受け付ける。CPU103は、携帯端末へ送信する画像の候補を選択可能な状態で表示する携帯送信画像選択画面(図示略)を、編集用ディスプレイ411に表示する。携帯端末へ送信する画像の候補には、例えば、写真画像と顔配置合成用画像が合成された合成画像を含めることができる。
ステップS321において、CPU103は、メールアドレスの入力を受け付けるアドレス入力画面(図示略)を表示する。ただし、CPU103は、S114でユーザが選択した言語に応じて、メールアドレスの入力を受け付けるか否かを制御してもよい。
CPU103は、シート画像を生成後、プリンタ60が空いているか否かを判断する(ステップS322)。プリンタ60が空いていない場合(ステップS322:NO)、CPU103は、ユーザに対して待機を促す待機画面(図示略)を編集用ディスプレイ411に表示させる(ステップS323)。プリンタ60が空いている場合(ステップS322:YES)、CPU103は、ステップS318で選択されたシートレイアウトを基に生成されたシート画像をプリンタ60に送信し、1枚のシール紙に、ユーザごとのシート画像を並べて印刷する(ステップS324)。また、CPU103は、ユーザをプリントコーナー(写真シール排出口52の前)へ誘導する誘導画面(図示略)を編集用ディスプレイ411に表示させる(ステップS325)。CPU103は、誘導画面の表示とともに、ユーザをプリントコーナーへ誘導する音声をスピーカ413から出力させてもよい。
また、CPU103は、ユーザに入力されたメールアドレスと、ユーザに選択された送信対象画像の情報と、N回の撮影で生成されたN枚の写真画像と、S116で選択された合成用画像セット及びS317の落書き編集で選択された編集用画像とを合成した合成写真画像データとをサーバSVに送信する。さらに、CPU103は、ステップS318で選択されたシートレイアウトを基に生成されたシート画像の画像データをサーバSVに送信する。シート画像の画像データを送信する際、シート画像を所定の分割数で分割して送信してもよい。
CPU103は、画像データをサーバSVへ送信後、ステップS319において再生された動画コンテンツの映像データに音声データを結合した動画データと、対応するテンプレート等の情報をサーバSVに送信する。なお、サーバSVに送信される動画コンテンツの動画データには音声が含まれず、動画コンテンツの音声は映像と別に送信され、サーバSVにおいて、携帯端末CLに提供されるまでに、動画データと音声データとが結合されてもよい。このように構成することで、動画コンテンツを送信する際の通信負荷を抑制することができる。
サーバSVは、写真撮影遊戯機1から送信されたユーザのメールアドレスを宛先として、写真撮影遊戯機1から送信された画像データのうち、各ユーザの送信対象画像の画像データと、シート画像の画像データと、動画コンテンツとを取得するためのURLが記載された通知メールを送信する。なお、取得できるシート画像の画像データと、動画コンテンツは、ユーザの会員種別によって異ならせることができる。例えば、動画コンテンツは、有料会員のみが取得できるようにすることができる。
シート画像の印刷が終了すると、CPU103は、シート画像が印刷されたシール紙(写真シール)を写真シール排出口52から排出する。ここまでが、1回の利用における一連のプレイである。
<変形例、その他>
本発明は、上記実施形態に限定されない。上記例では、顔はめ合成用画像と写真画像との相対位置関係の調整を、落書き編集画面の表示前に行い、認識配置合成用画像と写真画像との相対位置関係の調整を、落書き編集画面の表示時に行っている。これにより、ユーザ毎に写真画像の完成度を高めるための顔はめに関する調整と、合成画像の完成度を高めるための写真画像毎の認識配置合成用画像に関する調整とを適切なタイミングで実行できる。すなわち、ユーザは、まず各ユーザの顔はめを調整して写真画像の完成度を高め、完成度の高い写真画像に対して、落書きの延長の感覚で認識配置合成用画像の調整ができる。そのため、わかりやすい操作で、効率良く、提供される画像の品質を高めることができる。顔はめ合成画像と写真画像との相対位置関係の調整のタイミングは、これに限られない。例えば、下記の(1)〜(5)のパターンが可能である。
(1)顔はめ合成用画像と写真画像との相対位置関係の調整、及び、認識配置合成用画像と写真画像との相対位置関係の調整を、編集画面の表示前に行う。
(2)顔はめ合成用画像と写真画像との相対位置関係の調整を編集画面の表示前に行い、認識配置合成用画像と写真画像との相対位置関係の調整を、編集画面の表示時に行う。
(3)認識配置合成用画像と写真画像との相対位置関係の調整を編集画面の表示前に行い、顔はめ合成用画像と写真画像との相対位置関係の調整を、編集画面の表示時に行う。
(4)顔はめ合成用画像と写真画像との相対位置関係の調整、及び、認識配置合成用画像と写真画像との相対位置関係の調整を、編集画面の表示時に行う。
(5)顔はめ合成用画像と写真画像との相対位置関係の調整、及び、認識配置合成用画像と写真画像との相対位置関係の調整の少なくともいずれかを、撮影時に行ってもよい。
また、上記実施形態にその例を示すように、本発明の写真撮影遊戯機では、合成用画像セット選択手段が表示する複数の合成用画像セットのうち少なくとも1セットは、写真画像に写る被写体に対する特定の画像処理を伴う画像処理付き合成用画像を含んでもよい。この場合、合成用画像セット選択手段は、画像処理付き合成用画像と合成される写真画像に写る被写体に対して特定の画像処理が施されることを、合成用画像セットとともに表示してもよい。また、写真撮影遊戯機は、合成用画像セット選択手段において、画像処理付き合成用画像を含む合成用画像セットが選択された場合、画像処理付き合成用画像と合成される写真画像に写る被写体に対して特定の画像処理を施す、自動画像処理手段をさらに備えてもよい。
上記実施形態のその例を示すように、前記合成用画像セット選択手段は、前記複数の合成用画像セットのそれぞれに対応する動画コンテンツのサンプルを、(ユーザの操作に応じて、又は自動的に)再生可能な状態で表示してよい。この場合、写真撮影遊戯機は、前記合成用画像セット選択手段で選択された合成用画像セットに対応する動画コンテンツであって、前記複数の写真画像又は前記複数の写真画像に基づく画像を利用した動画コンテンツを生成する動画コンテンツ生成手段をさらに備えてもよい。
上記実施形態のその例を示すように、写真撮影遊戯機は、ユーザに、プレイ人数を選択させるプレイ人数選択手段をさらに備えてもよい。この場合、前記合成用画像セット選択手段は、前記プレイ人数選択手段で選択されたプレイ人数に応じて、表示する複数の合成用画像セットのうち前記顔はめ合成用画像を含む合成用画像セットの内容を異ならせるか、又は、表示する複数の合成用画像セットのうち少なくとも1つにおいて、前記顔はめ合成用画像を含ませるか否かを前記プレイ人数に応じて切り替えることができる。
上記実施形態のその例を示すように、写真撮影遊戯機は、前ユーザの操作に基づいて、複数の写真画像の少なくとも1つに対して画像処理を施す手動画像処理手段をさらに備えてもよい。前記合成用画像セット選択手段において、前記画像処理付き合成用画像を含む合成用画像セットが選択された場合であって、前記自動画像処理手段によって前記画像処理付き合成用画像と合成される前記写真画像に前記特定の画像処理が施された場合に、前記ユーザが、前記写真画像にさらに他の画像処理を施す操作すると、前記手動画像処理手段は、前記特定の画像処理が施される前の前記写真画像に対して、前記ユーザの操作に基づく前記他の画像処理を施すことができる。
前記自動画像処理手段は、前記ユーザによるスライダの操作に応じて、前記写真画像に写る被写体の目の大きさを段階的に変化させて表示することで、前記ユーザの操作に応じて前記写真画像に写る前記被写体の目の大きさを変化させる画像処理を施してもよい。
上記実施形態のその例を示すように、写真撮影遊戯機は、撮影手段による撮影において、前記カメラに映る空間であって、前記撮影時に前記ユーザが位置する空間の背面を画定する背面クロマキーシートと、前記撮影時に前記ユーザが位置する空間の側面の一部を画定する側面クロマキーシートをさらに備えてもよい。この場合、前記側面クロマキーシートの上下方向における上端の位置は、前記背面クロマキーシートの上下方向における上端の位置と略同じとすることができる。前記合成用画像セット選択手段において、前記複数の合成用画像セットのうち少なくとも1セットは、前記ユーザの全身が写る被写体の左右の少なくともいずれかに配置される合成用画像を含むことができる。
上記実施形態では、撮影のアングルは、「アップ」、「上から全身」及び「正面全身」の3つであるが、撮影のアングルは、これらに限られない。撮影のアングルは、例えば、カメラ21の光軸の向き、焦点距離等のカメラ21の物理的な設定の他、撮影ブースの構成、ユーザの立ち位置、その他撮影環境によって制御することができる。撮影のアングルが異なる場合、必ずしも、カメラ21の物理的な設定が異なるとは限られない。
1 写真撮影遊戯機
21 カメラ
103 CPU
104 HDD
105 メモリ

Claims (11)

  1. カメラを制御してユーザを撮影し、前記ユーザが被写体として写る写真画像を生成する撮影手段であって、前記撮影の際に、前記カメラで取り込まれた前記ユーザのリアルタイムの画像を、前記被写体の顔に対応する位置に配置するための顔配置合成用画像と重ねてライブ画像としてモニタに表示する撮影手段と、
    前記撮影手段の撮影により生成された前記写真画像と、前記写真画像の撮影の際に前記ライブ画像で前記ユーザのリアルタイムの画像に重ねて表示されていた前記顔配置合成用画像とを重ねて表示し、ユーザから、前記写真画像に写る被写体の顔と前記顔配置合成用画像との相対位置、相対角度及び相対サイズの少なくともいずれかを変更する操作を受け付ける、調整手段と、
    前記写真画像に、前記顔配置合成用画像を合成して、前記合成画像を生成する合成画像生成手段と、
    前記合成画像生成手段で生成された前記合成画像をシートに印刷する印刷手段と、
    を備える、写真撮影遊戯機。
  2. 前記顔配置合成用画像は、前記写真画像において認識される前記被写体の位置に基づいて配置される認識配置合成用画像、又は、前記被写体の顔を配置するための領域を有し、かつ被写体の前面に配置される顔はめ合成用画像である、請求項1に記載の写真撮影遊戯機。
  3. 前記写真画像に対する合成用画像の追加を含む編集を前記ユーザから受け付ける編集画面を表示する編集手段をさらに備え、
    前記調整手段は、前記撮影手段による前記写真画像の生成の後であって、前記編集手段による前記編集画面の表示の前において、前記撮影手段の撮影により生成された前記写真画像と、前記顔配置合成用画像とを重ねて表示し、ユーザから、前記写真画像に写る被写体の顔と前記顔配置合成用画像との相対位置、相対角度及び相対サイズの少なくともいずれかを変更する操作を受け付ける、請求項1又は2に記載の写真撮影遊戯機。
  4. 前記顔配置合成用画像が、前記被写体の顔を配置するための領域を有し、かつ被写体の前面に配置される顔はめ合成用画像である場合に、前記撮影手段は、前記顔はめ合成用画像と前記ユーザのリアルタイムの画像とが重なる部分において、前記顔はめ合成用画像の少なくとも一部が透けて前記ユーザのリアルタイムの画像が見えるように、前記顔はめ合成用画像を半透明で表示した後、前記顔はめ合成用画像を不透明にして、顔はめ合成用画像と重なる部分のユーザのリアルタイム画像が見えないように表示する、請求項1〜3のいずれか1項に記載の写真撮影遊戯機。
  5. 前記顔配置合成用画像が、前記被写体の顔を配置するための領域を有し、かつ被写体の前面に配置される顔はめ合成用画像である場合に、前記撮影手段は、前記顔はめ合成用画像の全体を表示した後、前記被写体の顔を配置する領域を拡大して表示し、前記拡大された顔はめ合成用画像を、前記ユーザのリアルタイムの画像に重ねて表示する、請求項1〜4のいずれか1項に記載の写真撮影遊戯機。
  6. 前記撮影の前に、複数の写真画像のそれぞれに合成する複数の合成用画像を含む合成用画像セットを、複数セット表示して前記ユーザに選択可能とする合成用画像セット選択手段をさらに備え、
    前記複数の合成用画像セットのうち少なくとも1セットは、前記被写体の顔に対応する位置に配置するための顔配置合成用画像を含み、
    前記撮影手段は、前記合成用画像セット選択手段において、前記顔配置合成用画像を含む合成用画像セットが選択された場合であって、かつ、前記顔配置合成用画像が合成される写真画像を生成するための撮影の際に、前記カメラで取り込まれた前記ユーザのリアルタイムの画像を、前記顔配置合成用画像と重ねてライブ画像としてモニタに表示する、請求項1〜5のいずれか1項に記載の写真撮影遊戯機。
  7. 合成用画像セット選択手段は、前記複数の写真画像のうち1つの写真画像に合成するための前記顔配置合成用画像として前記被写体の顔を配置するための領域を有し、かつ被写体の前面に配置される画像顔はめ合成用画像と、前記複数の写真画像のうち他の写真画像に合成するための合成用画像として前記顔はめ合成用画像以外の合成用画像とを含む複合合成用画像セットを選択可能とし、
    前記合成用画像セット選択手段において、前記複合合成用画像セットが選択された場合、前記撮影手段は、前記顔はめ合成用画像以外の合成用画像と合成される前記他の写真画像を生成するための撮影の次に、前記顔はめ合成用画像と合成される前記1つの写真画像を生成するための撮影を行う、請求項6に記載の写真撮影遊戯機。
  8. 合成用画像セット選択手段は、前記複数の写真画像のうち2つ以上の写真画像それぞれに合成するための2以上の前記顔配置合成用画像として、前記被写体の顔を配置するための領域を有し、かつ被写体の前面に配置される2以上の顔はめ合成用画像を含む複数顔はめ合成用画像セットを選択可能とし、
    前記合成用画像セット選択手段において、前記複数顔はめ合成用画像セットが選択された場合、前記撮影手段は、前記2以上の顔はめ合成用画像それぞれと合成される2つ以上の写真画像を生成するための撮影を、連続して行う、請求項6又は7に記載の写真撮影遊戯機。
  9. 合成用画像セット選択手段は、前記複数の写真画像のうち1つの写真画像に合成するための前記顔配置合成用画像として前記被写体の顔を配置するための領域を有し、かつ被写体の前面に配置される顔はめ合成用画像と、前記複数の写真画像のうち他の写真画像に合成するための合成用画像として前記顔はめ合成用画像以外の合成用画像とを含む複合合成用画像セットを選択可能とし、
    前記合成用画像セット選択手段において、前記複合合成用画像セットが選択された場合、前記撮影手段は、前記顔はめ合成用画像以外の合成用画像と合成される前記他の写真画像を生成するための撮影における撮影前のカウントダウンより、前記顔はめ合成用画像と合成される前記1つの写真画像を生成するための撮影における撮影前のカウントダウンを長くする、請求項6〜8のいずれか1項に記載の写真撮影遊戯機。
  10. カメラを制御してユーザを撮影し、前記ユーザが前記被写体として写る写真画像を生成する撮影工程と、
    前記撮影工程において、前記カメラで取り込まれた前記ユーザのリアルタイムの画像を、前記被写体の顔に対応する位置に配置するための顔配置合成用画像と重ねてライブ画像としてモニタに表示する工程と、
    前記撮影工程における撮影により生成された前記写真画像と、前記写真画像の撮影の際に前記ライブ画像で前記ユーザのリアルタイムの画像に重ねて表示されていた前記顔配置合成用画像とを重ねて表示し、ユーザから、前記写真画像に写る被写体の顔と前記顔配置合成用画像との相対位置、相対角度及び相対サイズの少なくともいずれかを変更する操作を受け付ける、調整工程と、
    前記写真画像に、前記顔配置合成用画像を合成して、前記合成画像を生成する合成画像生成工程と、
    前記合成画像生成工程で生成された前記合成画像をシートに印刷する印刷工程と、
    を有する、写真撮影遊戯機の制御方法。
  11. カメラを制御してユーザを撮影し、前記ユーザが前記被写体として写る写真画像を生成する撮影処理と、
    前記撮影処理において、前記カメラで取り込まれた前記ユーザのリアルタイムの画像を、前記被写体の顔に対応する位置に配置するための顔配置合成用画像と重ねてライブ画像としてモニタに表示する処理と、
    前記撮影処理における撮影により生成された前記写真画像と、前記写真画像の撮影の際に前記ライブ画像で前記ユーザのリアルタイムの画像に重ねて表示されていた前記顔配置合成用画像とを重ねて表示し、ユーザから、前記写真画像に写る被写体の顔と前記顔配置合成用画像との相対位置、相対角度及び相対サイズの少なくともいずれかを変更する操作を受け付ける、調整処理と、
    前記写真画像に、前記顔配置合成用画像を合成して、前記合成画像を生成する合成画像生成処理と、
    前記合成画像生成処理で生成された前記合成画像をシートに印刷する印刷処理と、
    をコンピュータに実行させる、写真撮影遊戯機の制御プログラム。
JP2017077188A 2017-04-07 2017-04-07 写真撮影遊戯機、写真撮影遊技機の制御方法、及び、写真撮影遊技機の制御プログラム Pending JP2018182469A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017077188A JP2018182469A (ja) 2017-04-07 2017-04-07 写真撮影遊戯機、写真撮影遊技機の制御方法、及び、写真撮影遊技機の制御プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017077188A JP2018182469A (ja) 2017-04-07 2017-04-07 写真撮影遊戯機、写真撮影遊技機の制御方法、及び、写真撮影遊技機の制御プログラム

Publications (1)

Publication Number Publication Date
JP2018182469A true JP2018182469A (ja) 2018-11-15

Family

ID=64276160

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017077188A Pending JP2018182469A (ja) 2017-04-07 2017-04-07 写真撮影遊戯機、写真撮影遊技機の制御方法、及び、写真撮影遊技機の制御プログラム

Country Status (1)

Country Link
JP (1) JP2018182469A (ja)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109448549A (zh) * 2018-12-29 2019-03-08 河北三川科技有限公司 一种基于人脸识别自动调整广告播放设备角度的方法
JP2019148903A (ja) * 2018-02-26 2019-09-05 大日本印刷株式会社 写真撮影装置
JP2020137012A (ja) * 2019-02-22 2020-08-31 成司 猪俣 合成動画像生成装置
JP2020170210A (ja) * 2019-04-01 2020-10-15 株式会社ネットデータ 不動産情報検索装置、不動産情報検索方法及びプログラム
KR102178396B1 (ko) * 2019-11-28 2020-11-13 이민구 증강현실 기반의 이미지출력물 제작 방법 및 장치
CN113225483A (zh) * 2021-05-10 2021-08-06 北京字跳网络技术有限公司 图像融合方法、装置、电子设备和存储介质
JP2021132320A (ja) * 2020-02-20 2021-09-09 株式会社セガ 遊戯画像撮影装置およびプログラム
CN113457135A (zh) * 2021-06-29 2021-10-01 网易(杭州)网络有限公司 游戏中的显示控制方法、装置及电子设备
WO2024102080A1 (zh) * 2022-11-10 2024-05-16 脸萌有限公司 拍摄页面的显示方法、装置、电子设备和存储介质

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019148903A (ja) * 2018-02-26 2019-09-05 大日本印刷株式会社 写真撮影装置
CN109448549A (zh) * 2018-12-29 2019-03-08 河北三川科技有限公司 一种基于人脸识别自动调整广告播放设备角度的方法
JP2020137012A (ja) * 2019-02-22 2020-08-31 成司 猪俣 合成動画像生成装置
JP2020170210A (ja) * 2019-04-01 2020-10-15 株式会社ネットデータ 不動産情報検索装置、不動産情報検索方法及びプログラム
KR102178396B1 (ko) * 2019-11-28 2020-11-13 이민구 증강현실 기반의 이미지출력물 제작 방법 및 장치
JP2021132320A (ja) * 2020-02-20 2021-09-09 株式会社セガ 遊戯画像撮影装置およびプログラム
CN113225483A (zh) * 2021-05-10 2021-08-06 北京字跳网络技术有限公司 图像融合方法、装置、电子设备和存储介质
CN113457135A (zh) * 2021-06-29 2021-10-01 网易(杭州)网络有限公司 游戏中的显示控制方法、装置及电子设备
WO2024102080A1 (zh) * 2022-11-10 2024-05-16 脸萌有限公司 拍摄页面的显示方法、装置、电子设备和存储介质

Similar Documents

Publication Publication Date Title
JP2018182469A (ja) 写真撮影遊戯機、写真撮影遊技機の制御方法、及び、写真撮影遊技機の制御プログラム
JP2007240887A (ja) 自動写真撮影装置及びその方法
JP2006262328A (ja) 画像プリント装置およびその画像処理方法
JP6206707B2 (ja) 撮影装置および表示制御方法
JP6245530B2 (ja) 写真撮影遊戯機
JP2007181163A (ja) 写真撮影装置
JP2018042250A (ja) 写真撮影遊戯機
JP2012169987A (ja) 自動写真作成装置
JP4439204B2 (ja) 写真自動販売機および写真自動販売機における写真の提供方法
JP6521136B1 (ja) 写真作成ゲーム機、制御方法、およびプログラム
JP5802965B2 (ja) 写真撮影遊戯機
JP7152687B2 (ja) 表示制御装置、表示制御方法、プログラム
JP6712047B2 (ja) 写真作成ゲーム機および画像生成方法
JP2018107515A (ja) 写真作成ゲーム機および画像処理方法
JP2007241199A (ja) 自動写真撮影装置及びその方法
JP2017032779A (ja) 写真撮影遊戯機
JP2012060688A (ja) 写真撮影遊戯機、写真撮影遊戯方法及び写真撮影遊戯機の制御プログラム
JP5483136B1 (ja) 撮影装置および表示制御方法
JP7074994B2 (ja) 写真作成ゲーム機および画像処理方法
JP5895394B2 (ja) 遊戯用撮影装置、遊戯用撮影方法、および遊戯用撮影プログラム
JP2016213780A (ja) 写真シール作成装置および画像表示方法
JP6183721B2 (ja) 写真撮影遊戯機、及び制御プログラム
JP6734629B2 (ja) 写真撮影遊戯機、及び制御プログラム
JP5967275B2 (ja) 写真撮影遊戯機とその制御方法及び制御コンピュータ
JP5983717B2 (ja) 撮影装置、撮影方法、およびそのプログラム

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20190515

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20190802