JP2004297754A - Automatic photograph making apparatus - Google Patents

Automatic photograph making apparatus Download PDF

Info

Publication number
JP2004297754A
JP2004297754A JP2003186285A JP2003186285A JP2004297754A JP 2004297754 A JP2004297754 A JP 2004297754A JP 2003186285 A JP2003186285 A JP 2003186285A JP 2003186285 A JP2003186285 A JP 2003186285A JP 2004297754 A JP2004297754 A JP 2004297754A
Authority
JP
Japan
Prior art keywords
image
predetermined
specific
area
light source
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2003186285A
Other languages
Japanese (ja)
Other versions
JP4214010B2 (en
Inventor
Satoshi Tatsumi
聡 辰巳
Tadashi Noma
忠 野間
Michihiro Hasegawa
光寛 長谷川
Masasato Chiba
全学 千葉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tatsumi Denshi Kogyo KK
Original Assignee
Tatsumi Denshi Kogyo KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tatsumi Denshi Kogyo KK filed Critical Tatsumi Denshi Kogyo KK
Priority to JP2003186285A priority Critical patent/JP4214010B2/en
Publication of JP2004297754A publication Critical patent/JP2004297754A/en
Application granted granted Critical
Publication of JP4214010B2 publication Critical patent/JP4214010B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an automatic photograph making apparatus which changes a composited image generated based on photographic images with high degree of freedom according to a user's taste. <P>SOLUTION: A photographing room is provided with a background panel 300 to provide the background of a photographic object in the back of a user as the photographic subject. The background panel 300 has a plurality of light sources 301 arranged at a position different from an area corresponding to the background of the user, and turn-on/turn-off of these light sources 301 is controlled by an operation of the user. A main control device in a main body portion 4 detects an area corresponding to turned-on light sources 301 as a specific area in a photographic image for monitoring obtained by a camera 10, generates a combined image by making a picture of a selective image selected from a plurality of prescribed images in the specific area, and displays it on a preview screen. When a turn-on pattern of the light sources 301 or the selective image is changed by the operation of the user, the change is reflected on the display of the composited image in real time. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は、利用者をカメラで撮影し、その撮影画像に基づき生成される合成画像を写真として出力する自動写真作成装置に関する。
【0002】
【従来の技術】
従来より、利用者をカメラで撮影し、その撮影画像を写真として出力する遊戯用写真作成装置が知られている。このような遊戯用写真作成装置は、遊戯性または娯楽性が高いことから、撮影画像と合成すべき画像(以下「付加画像」という)を、利用者の嗜好に応じて、予め用意された多種多様な背景画像および前景画像から選択したり、タッチペンやライトペン等のペン型入力手段を用いて利用者が自由に描いたりできるように構成されているものが多い。
【0003】
例えば複数種類のカーテンを用意し、被写体としての利用者の背景を構成すべきカーテンをその複数種類のカーテンから選択できるように構成した遊戯用写真作成装置が知られている。また、撮影画像に対し別途用意された所定画像をクロマキー処理によって合成するという技術も周知であり、この技術を遊戯用写真作成装置に応用することにより多様な背景画像を得ることができる。さらに、クロスフィルタと呼ばれる技術、すなわち、撮影カメラのレンズに格子状のキズを付しておくことにより、撮影画像においてその格子点に相当する位置に星状の模様が現れるようにするという技術も知られており、遊戯性の高い撮影画像を得るためにこのクロスフィルタの技術を自動写真作成装置に利用することも考えられる。さらにまた、特許第3050209号公報には、撮影画像についての被写体の特定部位の位置を検出し、その特定部位の位置に基づいて適当なオブジェクトが例えば当該撮影画像に描画されるように構成された遊戯用写真作成装置としてのシール自販機が開示されており、このような構成によれば、いわゆる「落書き」と呼ばれる手書き画像の描画による装置の稼働率低下を抑えつつ遊戯性を高めることが可能となる。
【0004】
【特許文献1】
特許第3050209号公報
【0005】
【発明が解決しようとする課題】
しかし、遊戯用写真作成装置において被写体の背景を構成すべきカーテンを複数種類のカーテンから選択するようにした場合や、複数種類の画像の中から選択された画像を背景画像としてクロマキー処理によって撮影画像に合成する場合には、撮影画像に背景画像を付加することにより得られる合成画像を利用者の好みに応じて高い自由度で変化させることはできない。また、クロスフィルタの技術を遊戯用写真作成装置に応用した場合には、撮影画像に付加できるのは星状模様という固定されたパターンのみである。さらに、特許第3050209号公報に開示された装置では、描画すべきオブジェクトの内容を利用者の好みに応じて自由に変更することはできず、検出すべき特定部位は被写体の選択されたポーズによって決定されるという制約もある。
【0006】
そこで本発明では、撮影画像に基づき生成される合成画像を利用者の嗜好に応じて高い自由度で変化させることができる自動写真作成装置を提供することを目的とする。
【0007】
【課題を解決するための手段および発明の効果】
第1の発明は、所定の撮影領域における被写体である利用者を撮影する撮像手段と、当該撮像手段により得られる撮影画像または当該撮影画像を含む合成画像を表示する表示手段と、当該合成画像を写真として出力する出力手段とを備える自動写真作成装置であって、
前記撮像手段により得られる撮影画像において特定の画像的特徴を有する領域を特定領域として検出する領域検出手段と、
前記領域検出手段の検出結果に基づき前記特定領域の属性情報を取得する属性取得手段と、
前記属性情報に応じて前記撮影画像に所定画像を描画することにより前記合成画像を生成する画像合成手段とを備え、
前記特定領域と前記所定画像のうちの少なくとも一方は手動的または自動的に変更可能であることを特徴とする。
【0008】
このような第1の発明によれば、特定の画像的特徴を有する領域が特定領域として検出されると共に、その特定領域の属性情報が取得され、その属性情報に応じて撮影画像に所定画像が描画されることで、合成画像が生成される。そして、検出されるべき特定領域と描画されるべき所定画像の少なくとも一方は手動的または自動的に変更可能であるので、撮影画像に基づき利用者の嗜好に応じて変化に富んだ合成画像の写真を作成することができる。
【0009】
第2の発明は、第1の発明において、
所定操作に基づき、前記特定領域が有すべき特定の画像的特徴の設定を変更する特徴設定変更手段を更に備え、
前記特徴設定変更手段によって特定の画像的特徴の設定を変更することによって、前記領域検出手段によって検出される特定領域を変更することを特徴とする。
【0010】
このような第2の発明によれば、特定領域が有すべき特定の画像的特徴を所定操作によって変更することで、検出される特定領域が変化するので、撮影画像に基づき生成される合成画像を利用者の嗜好に応じ高い自由度で容易に変化させることができる。
【0011】
第3の発明は、第1または第2の発明において、
前記属性取得手段は、前記特定領域の位置を示す座標を取得し、
前記画像合成手段は、前記撮影画像において前記座標により示される位置に前記所定画像を描画することを特徴とする。
【0012】
このような第3の発明によれば、利用者が特定領域を変更することにより、撮影画像に付加されるべき画像の位置を変化させることで、撮影画像に基づき生成される合成画像を利用者の嗜好に応じ高い自由度で変化させることができる。
【0013】
第4の発明は、第1から第3の発明のいずれかにおいて、
前記被写体の背景に相当する領域に配置された光源を含む背景提供手段と、
所定操作に応じて前記光源の点灯/消灯を制御する光源制御手段とを更に備え、
前記領域検出手段は、前記撮影画像において点灯状態の前記光源に相当する領域を前記特定領域として検出することを特徴とする。
【0014】
このような第4の発明によれば、背景提供手段における光源の点灯/消灯を制御することによって特定領域が変更するので、撮影画像に基づき生成される合成画像を利用者の嗜好に応じ高い自由度で容易に変化させることができる。
【0015】
第5の発明は、第4の発明において、
前記背景提供手段は、前記被写体の背景に相当する領域の異なる位置に配置された複数の光源を含み、
前記光源制御手段は、所定操作に応じて前記複数の光源のうち点灯状態の光源を変更することにより前記背景提供手段における点灯パターンを制御することを特徴とする。
【0016】
このような第5の発明によれば、背景提供手段における点灯パターンを制御することによって特定領域が変化するので、撮影画像に基づき生成される合成画像を利用者の嗜好に応じ高い自由度で容易に変化させることができる。
【0017】
第6の発明は、第1から第3の発明のいずれかにおいて、
前記被写体の背景に相当する領域に配置された光源を含む背景提供手段と、
所定操作に応じて前記光源の光度および/または色を制御する光源制御手段とを更に備え、
前記領域検出手段は、前記撮影画像において前記光源に相当する領域を前記特定領域として検出することを特徴とする。
【0018】
このような第6の発明によれば、背景提供手段における光源の光度および/または色を制御することによって特定領域の属性を変化させることができるので、撮影画像に基づき生成される合成画像を利用者の嗜好に応じ高い自由度で容易に変化させることが可能となる。
【0019】
第7の発明は、第1から第3の発明のいずれかにおいて、
前記被写体の背景に相当する領域に配置された特定色の領域を含む背景提供手段を更に備え、
前記領域検出手段は、前記撮影画像において前記特定色の領域に相当する領域を前記特定領域として検出することを特徴とする。
【0020】
このような第7の発明によれば、撮影画像において特定色の領域に相当する領域に描画されるべき所定画像を利用者によって変更することで、撮影画像に基づき生成される合成画像を利用者の嗜好に応じ高い自由度で容易に変化させることができる。
【0021】
第8の発明は、第7の発明において、
所定操作に応じて前記特定色の領域のサイズまたはサイズ範囲を指定するサイズ指定手段を更に備え、
前記背景提供手段は、前記特定色の領域としてサイズの異なる複数の領域を有しており、
前記領域検出手段は、前記撮影画像において前記複数の特定色の領域のうち前記指定されたサイズまたはサイズ範囲に該当する特定色の領域に相当する領域を前記特定領域として検出することを特徴とする。
【0022】
このような第8の発明によれば、特定色の領域のサイズまたはサイズ範囲の指定を変えることによって特定領域が変化するので、撮影画像に基づき生成される合成画像を利用者の嗜好に応じ高い自由度で容易に変化させることができる。
【0023】
第9の発明は、第1から第3の発明のいずれかにおいて、
前記被写体の背景に相当する領域に配置された特定柄の領域を有する背景提供手段を更に備え、
前記領域検出手段は、前記撮影画像において前記特定柄の領域に相当する領域を前記特定領域として検出することを特徴とする。
【0024】
このような第9の発明によれば、撮影画像において特定柄の領域に相当する領域に描画されるべき所定画像を利用者が変更することで、撮影画像に基づき生成される合成画像を利用者の嗜好に応じ高い自由度で容易に変化させることができる。
【0025】
第10の発明は、第9の発明において、
所定操作に応じて前記特定柄の領域のサイズまたはサイズ範囲を指定するサイズ指定手段を更に備え、
前記背景提供手段は、前記特定柄の領域としてサイズの異なる複数の領域を有しており、
前記領域検出手段は、前記撮影画像において前記複数の特定柄の領域のうち前記指定されたサイズまたはサイズ範囲に該当する特定柄の領域に相当する領域を前記特定領域として検出することを特徴とする。
【0026】
このような第10の発明によれば、特定柄の領域のサイズまたはサイズ範囲の指定を変えることによって特定領域が変化するので、撮影画像に基づき生成される合成画像を利用者の嗜好に応じ高い自由度で容易に変化させることができる。
【0027】
第11の発明は、第1から第3の発明のいずれかにおいて、
前記利用者に携帯され、前記利用者近傍の所定空間における任意の位置に配置可能な携帯光源を更に備え、
前記領域検出手段は、前記撮影画像において前記携帯光源に相当する領域を前記特定領域として検出することを特徴とする。
【0028】
このような第11の発明によれば、携帯光源を利用者近傍の所定空間における任意の位置に移動させることによって特定領域の位置が変化するので、撮影画像に基づき生成される合成画像を利用者の嗜好に応じ高い自由度で容易に変化させることができる。
【0029】
第12の発明は、第11の発明において、
前記携帯光源は、互いに所定間隔だけ離れて配置された第1および第2の光源を含み、
前記領域検出手段は、前記撮影画像において前記第1の光源に相当する第1の特定領域、および、前記撮影画像において前記第2の光源に相当する第2の特定領域とを検出すると共に、前記第1の特定領域と前記第2の特定領域とを結ぶ方向を検出し、
前記画像合成手段は、前記領域検出手段によって検出された前記方向に応じて前記所定画像を前記撮影画像に描画することにより前記合成画像を生成することを特徴とする。
【0030】
このような第12の発明によれば、携帯光源に含まれる第1および第2の光源の位置に基づき定まる方向に応じて撮影画像に所定画像が描画されるので、利用者が携帯光源を傾けることによって撮影画像への所定画像の描画を容易に変化させることができる。
【0031】
第13の発明は、第12の発明の発明において、
前記第1および第2の光源は、互いに異なる波長を有し、
前記領域検出手段は、前記第1の特定領域から前記第2の特定領域へと向かう方向を検出することを特徴とする。
【0032】
このような第13の発明によれば、第1の特定領域から第2の特定領域へ向かう方向と、第2の特定領域から第1の特定領域へ向かう方向とが区別できるので、検出される方向の範囲は0〜360度となる。その結果、撮影画像に基づき生成される合成画像を利用者の嗜好に応じ高い自由度で変化させることができる。
【0033】
第14の発明は、第11の発明において、
前記携帯光源は、互いに所定間隔だけ離れて配置された第1および第2の光源を含み、
前記領域検出手段は、前記撮影画像において前記第1の光源に相当する第1の特定領域、および、前記撮影画像において前記第2の光源に相当する第2の特定領域とを検出すると共に、当該第1および第2の特定領域と前記所定間隔とに基づき前記携帯光源までの距離を検出し、
前記画像合成手段は、前記領域検出手段によって検出された前記距離に応じて前記所定画像を前記撮影画像に描画することにより前記合成画像を生成することを特徴とする。
【0034】
このような第14の発明によれば、携帯光源に含まれる第1および第2の光源の位置に基づき当該携帯光源までの距離が検出され、その距離に応じて撮影画像に所定画像が描画されるので、利用者が携帯光源を移動させることによって撮影画像への所定画像の描画を容易に変化させることができる。
【0035】
第15の発明は、第11の発明において、
前記携帯光源は、棒状光源を含み、
前記領域検出手段は、前記撮影画像において前記棒状光源に相当する特定領域を検出すると共に当該特定領域の長手方向を検出し、
前記画像合成手段は、前記長手方向に応じて前記所定画像を前記撮影画像に描画することにより前記合成画像を生成することを特徴とする。
【0036】
このような第15の発明によれば、携帯光源に含まれる棒状光源の長手方向に応じて撮影画像に所定画像が描画されるので、利用者が携帯光源を傾けることによって撮影画像への所定画像の描画を容易に変化させることができる。
【0037】
第16の発明は、第1から第3の発明のいずれかにおいて、
前記領域検出手段は、前記撮影画像において前記利用者の衣服または身体における特定色の領域を前記特定領域として検出することを特徴とする。
【0038】
第17の発明は、第1から第3の発明のいずれかにおいて、
前記領域検出手段は、前記撮影画像において前記利用者の衣服または身体における特定柄の領域を前記特定領域として検出することを特徴とする。
【0039】
第18の発明は、第1から第17の発明のいずれかにおいて、
予め決められた複数種類の画像の中から所定操作に基づき画像を選択するための画像選択手段を更に備え、
前記画像合成手段は、前記画像選択手段によって選択された画像を前記所定画像として前記撮影画像に描画することを特徴とする。
【0040】
このような第18の発明によれば、撮影画像に描画すべき所定画像が複数種類の画像の中で所定操作に基づき変化するので、撮影画像に基づき生成される合成画像を利用者の嗜好に応じ高い自由度で容易に変化させることができる。
【0041】
第19の発明は、第1から第18の発明のいずれかにおいて、
前記画像合成手段は、前記撮影画像に描画すべき前記所定画像を時間の経過に従って変化させることを特徴とする。
【0042】
このような第19の発明によれば、撮影画像に描画すべき所定画像が時間の経過に従って変化するので、撮影画像に基づき生成される合成画像として変化に富んだ遊戯性の高い合成画像を得ることができる。
【0043】
第20の発明は、第19の発明において、
前記画像合成手段は、前記撮影画像に描画すべき前記所定画像を所定の基準画像を中心にランダムに変化させることを特徴とする。
【0044】
このような第20の発明によれば、撮影画像に描画すべき所定画像が時間の経過に従ってランダムに変化するので、撮影画像に基づき生成される合成画像として変化に富んだ遊戯性の高い合成画像を得ることができる。
【0045】
第21の発明は、第1から第18の発明のいずれかにおいて、
前記画像合成手段は、前記撮影画像に描画すべき前記所定画像を時間の経過に従って移動させることを特徴とする。
【0046】
このような第21の発明によれば、撮影画像に描画すべき所定画像が時間の経過に従って移動するので、撮影画像に基づき生成される合成画像として変化に富んだ遊戯性の高い合成画像を得ることができる。
【0047】
第22の発明は、第21の発明において、
前記画像合成手段は、前記撮影画像において前記所定画像を描画すべき位置を、前記特定領域の位置を基準とする所定の範囲内でランダムに変化させることを特徴とする。
【0048】
このような第22の発明によれば、撮影画像において所定画像の描画される位置が所定範囲内でランダムに変化するので、撮影画像に基づき生成される合成画像として変化に富んだ更に遊戯性の高い合成画像を得ることができる。
【0049】
第23の発明は、第1から第22の発明のいずれかにおいて、
前記画像合成手段は、前記特定領域の位置を基準とする所定の範囲内におけるランダムな位置に所定画像を描画することを特徴とする。
【0050】
このような第23の発明によれば、撮影画像において所定の範囲内におけるランダムな位置に所定画像が描画されるので、撮影画像に基づき生成される合成画像として変化に富んだ遊戯性の高い合成画像を得ることができる。
【0051】
第24の発明は、第1から第18の発明のいずれかにおいて、
前記属性取得手段は、前記特定領域のサイズ、面積、形状、明るさ、または色のうち少なくとも1つを前記属性情報として取得し、
前記画像合成手段は、前記属性情報として取得されるサイズ、面積、形状、明るさ、または色の少なくとも1つに応じて所定の基準画像を変形させた画像を前記所定画像として前記撮影画像に描画することを特徴とする。
【0052】
このような第24の発明によれば、特定領域のサイズ、面積、形状、明るさ、または色のうち少なくとも1つに応じて所定の基準画像を変形させた画像を撮影画像に描画することにより合成画像が生成されるので、合成画像を利用者の嗜好に応じ高い自由度で容易に変化させることができる。
【0053】
第25の発明は、第1から第24の発明のいずれかにおいて、
前記領域検出手段は、前記撮像手段により得られる撮影画像をリアルタイムで取得して、当該取得された撮影画像において前記特定の画像的特徴を有する特定領域をリアルタイムで検出し、
前記属性取得手段は、前記特定領域または前記所定画像の変更に応じて前記属性情報をリアルタイムで取得し、
前記画像合成手段は、前記特定領域または前記所定画像の変更に応じて前記合成画像をリアルタイムで生成し、
前記表示手段は、前記特定領域または前記所定画像の変更に応じて、前記生成される前記合成画像をリアルタイムで表示することを特徴とする。
【0054】
このような第25の発明によれば、特定領域または所定画像の変更が、撮影画像に基づく合成画像の表示にリアルタイムで反映されるので、効率よく容易に合成画像を利用者の嗜好に応じ高い自由度で変化させることができる。
【0055】
第26の発明は、第1から第25の発明のいずれかにおいて、
前記画像合成手段は、前記属性取得手段によって前記属性情報として順次取得される前記特定領域の座標に基づき前記特定領域の移動軌跡を前記撮影画像にリアルタイムで描画し、
前記表示手段は、前記移動軌跡をリアルタイムで表示することを特徴とする。
【0056】
このような第26の発明によれば、特定領域の移動の軌跡が撮影画像にリアルタイムで描画されるので、撮影画像に基づき生成される合成画像として変化に富んだ遊戯性の高い合成画像を得ることができる。
【0057】
第27の発明は、所定の撮影領域における被写体である利用者を撮影する撮影ステップと、当該撮影ステップにより得られる撮影画像または当該撮影画像を含む合成画像を表示する表示ステップと、当該合成画像を写真として印刷する出力ステップとを備える自動写真作成方法であって、
前記撮影ステップにより得られる撮影画像において特定の画像的特徴を有する領域を特定領域として検出する領域検出ステップと、
前記領域検出ステップでの検出結果に基づき、前記特定領域の属性情報を取得する属性取得ステップと、
前記取得された属性情報に応じて前記撮影画像に所定画像を描画することにより前記合成画像を生成する画像合成ステップとを備え、
前記特定領域と前記所定画像のうちの少なくとも一方は手動的または自動的に変更可能であることを特徴とする。
【0058】
第28の発明は、第27の発明において、
所定操作に基づき、前記特定領域が有すべき特定の画像的特徴の設定を変更する特徴設定変更ステップを更に備え、
前記特徴設定変更ステップにて前記特定の画像的特徴の設定が変更されることにより、前記領域検出ステップにて検出される特定領域が変更されることを特徴とする。
【0059】
第29の発明は、第27または第28の発明において、
前記属性取得ステップでは、前記特定領域の位置を示す座標が取得され、
前記画像合成ステップでは、前記撮影画像において前記座標により示される位置に前記所定画像が描画されることを特徴とする。
【0060】
第30の発明は、第27から第29の発明のいずれかにおいて、
所定操作に応じて、前記被写体の背景に相当する領域に配置された光源の点灯/消灯を制御する光源制御ステップを更に備え、
前記領域検出ステップでは、前記撮影画像において点灯状態の前記光源に相当する領域が前記特定領域として検出されることを特徴とする。
【0061】
第31の発明は、第27から第29の発明のいずれかにおいて、
所定操作に応じて、前記被写体の背景に相当する領域に配置された光源の光度および/または色を制御する光源制御ステップを更に備え、
前記領域検出ステップでは、前記撮影画像において前記光源に相当する領域が前記特定領域として検出されることを特徴とする。
【0062】
第32の発明は、第27から第29の発明のいずれかにおいて、
前記領域検出ステップでは、前記撮影画像において、前記被写体の背景に相当する領域に配置された特定色の領域に相当する領域が前記特定領域として検出されることを特徴とする。
【0063】
第33の発明は、第27から第29の発明のいずれかにおいて、
前記領域検出ステップでは、前記撮影画像において、前記被写体の背景に相当する領域に配置された特定柄の領域に相当する領域が前記特定領域として検出されることを特徴とする。
【0064】
第34の発明は、第27から第29の発明のいずれかにおいて、
前記領域検出ステップでは、前記撮影画像において、前記利用者に携帯され前記利用者近傍の所定空間における任意の位置に配置可能な携帯光源に相当する領域が前記特定領域として検出されることを特徴とする。
【0065】
第35の発明は、第27から第34の発明のいずれかにおいて、
前記画像合成ステップでは、前記撮影画像に描画すべき前記所定画像が時間の経過に従って変化することを特徴とする。
【0066】
第36の発明は、第27から第35の発明のいずれかにおいて、
前記領域検出ステップでは、前記撮像ステップにて得られる撮影画像がリアルタイムで取得されて、当該取得された撮影画像において前記特定の画像的特徴を有する特定領域がリアルタイムで検出され、
前記属性取得ステップでは、前記特定領域または前記所定画像の変更に応じて前記属性情報がリアルタイムで取得され、
前記画像合成ステップでは、前記特定領域または前記所定画像の変更に応じて前記合成画像がリアルタイムで生成され、
前記表示ステップでは、前記特定領域または前記所定画像の変更に応じて、前記生成される前記合成画像がリアルタイムで表示されることを特徴とする。
【0067】
第37の発明は、第27から第36の発明のいずれかにおいて、
前記画像合成ステップでは、前記属性取得ステップにて前記属性情報として順次取得される前記特定領域の座標に基づき前記特定領域の移動軌跡が前記撮影画像にリアルタイムで描画され、
前記表示ステップでは、前記移動軌跡がリアルタイムで表示されることを特徴とする。
【0068】
第38の発明は、プログラムであって、第27から第37の発明のいずれかの発明に係る自動写真作成方法をコンピュータに実行させることを特徴とする。
【0069】
第39の発明は、印刷媒体であって、第27から第37の発明のいずれかの発明に係る自動写真作成方法により写真として印刷されたことを特徴とする。
【0070】
第40の発明は、所定の撮影領域における被写体である利用者を撮影する撮像手段と、当該撮像手段により得られる撮影画像または当該撮影画像を含む合成画像を写真として出力する出力手段とを備える自動写真作成装置であって、
前記撮像手段により得られる撮影画像において特定の画像的特徴を有する領域である特定領域の位置を示す座標を特定座標として検出する位置検出手段と、
前記位置検出手段によって順次検出される特定座標からなる時系列データを、前記特定領域の移動軌跡を示す座標列データとして取得する座標列取得手段と、
前記座標列データによって示される移動軌跡のパターンである移動パターンが、当該自動写真作成装置において実行されるべき処理を指示する1つ以上の所定のコマンドにそれぞれ予め対応付けられた所定のコマンドパターンのいずれと一致するかを決定するパターン認識手段と、
前記パターン認識手段の認識結果に基づき、前記移動パターンに一致すると決定されたコマンドパターンに対応付けられたコマンドによって指示される処理を実行するコマンド実行手段とを備えることを特徴とする。
【0071】
このような第40の発明によれば、所定領域を移動させることによって自動写真作成装置に対し指示(コマンド)を与えることができるので、撮影画像または当該撮影画像を含む合成画像の写真作成の際の操作性が向上する。
【0072】
第41の発明は、第40の発明において、
前記利用者に携帯され、前記利用者近傍の所定空間における任意の位置に配置可能な携帯光源を更に備え、
前記位置検出手段は、前記撮像手段により得られる撮影画像において前記携帯光源に相当する領域の位置を示す座標を前記特定座標として検出することを特徴とする。
【0073】
このような第41の発明によれば、被写体としての利用者が携帯光源を移動させることによって自動写真作成装置に対し指示(コマンド)を与えることができるので、撮影の際の操作性等、撮影画像または当該撮影画像を含む合成画像の写真作成の際の操作性が更に向上する。
【0074】
第42の発明は、所定の撮影領域における被写体である利用者を撮影する撮像ステップと、当該撮像ステップにより得られる撮影画像または当該撮影画像を含む合成画像を写真として印刷する出力ステップとを備える自動写真作成方法であって、
前記撮像ステップにより得られる撮影画像において特定の画像的特徴を有する領域である特定領域の位置を示す座標を特定座標として検出する位置検出ステップと、
前記位置検出ステップによって順次検出される特定座標からなる時系列データを、前記特定領域の移動軌跡を示す座標列データとして取得する座標列取得ステップと、
前記座標列データによって示される移動軌跡のパターンである移動パターンが、当該自動写真作成のために実行されるべき処理を指示する1つ以上の所定のコマンドにそれぞれ予め対応付けられた所定のコマンドパターンのいずれと一致するかを決定するパターン認識ステップと、
前記パターン認識ステップでの認識結果に基づき、前記移動パターンに一致すると決定されたコマンドパターンに対応付けられたコマンドによって指示される処理を実行するコマンド実行ステップとを備えることを特徴とする。
【0075】
第43の発明は、プログラムであって、第42の発明に係る自動写真作成方法をコンピュータに実行させることを特徴とする。
【0076】
第44の発明は、印刷媒体であって、第42の発明に係る自動写真作成方法により写真として印刷されたことを特徴とする。
【0077】
第45の発明は、所定の撮影領域における被写体である利用者を撮影する撮像手段と、当該撮像手段により得られる撮影画像または当該撮影画像を含む合成画像を表示する表示手段と、当該合成画像を写真として出力する出力手段とを備える自動写真作成装置であって、
前記撮影領域における所定の波源が発する波を検出する検出手段と、
前記検出手段によって検出される波に基づき前記波源の属性情報を取得する属性取得手段と、
前記属性情報に基づき前記合成画像を生成する画像合成手段とを備えることを特徴とする。
【0078】
このような第45の発明によれば、撮影領域に存在する所定の波源の属性情報に基づき合成画像が生成されるので、撮影画像に基づき変化に富んだ合成画像の写真を作成することができる。
【0079】
第46の発明は、第45の発明において、
前記属性取得手段は、前記検出手段によって検出される波に基づき、前記波源の位置を示す位置情報を前記属性情報として取得する位置情報取得手段を含み、
前記画像合成手段は、前記位置情報に応じて所定画像を前記撮影画像に描画することにより前記合成画像を生成することを特徴とする。
【0080】
このような第46の発明によれば、撮影領域に存在する所定の波源の位置情報に基づき所定画像が撮影画像に描画されるので、撮影画像に基づき変化に富んだ合成画像の写真を作成することができる。
【0081】
第47の発明は、第46の発明において、
前記所定の波源と前記所定画像のうちの少なくとも一方は手動的または自動的に変更可能であることを特徴とする。
【0082】
このような第47の発明によれば、撮影領域に存在する所定の波源の位置情報に基づき所定画像が撮影画像に描画され、所定の波源と所定画像のうちの少なくとも一方は手動的または自動的に変更可能であるので、撮影画像に基づき利用者の嗜好に応じ変化に富んだ合成画像の写真を作成することができる。
【0083】
第48の発明は、第第45から第47までの発明のいずれかにおいて、
前記波源は、前記利用者に携帯され、前記利用者近傍の所定空間における任意の位置に配置可能な携帯波源であることを特徴とする。
【0084】
このような第48の発明によれば、携帯波源を利用者近傍の所定空間における任意の位置に移動させることによって撮影画像への所定画像の描画が変化するので、撮影画像に基づき生成される合成画像を利用者の嗜好に応じ高い自由度で容易に変化させることができる。
【0085】
第49の発明は、第48の発明において、
前記携帯波源は、互いに所定間隔だけ離れて配置され、互いに異なる波長の波を発する第1および第2の波源を含み、
前記検出手段は、前記第1の波源の位置を示す第1位置情報と、前記第2の波源の位置を示す第2位置情報とを取得し、当該第1および第2位置情報に基づき、前記第1の波源から前記第2の波源へ向かう方向を検出し、
前記画像合成手段は、前記検出手段によって検出された前記方向に応じて前記所定画像を前記撮影画像に描画することにより前記合成画像を生成することを特徴とする。
【0086】
このような第49の発明によれば、携帯波源に含まれる第1および第2の波源の位置に基づき定まる方向に応じて撮影画像に所定画像が描画されるので、利用者が携帯波源を傾けることによって撮影画像への所定画像の描画を容易に変化させることができる。
【0087】
第50の発明は、第48の発明において、
前記携帯波源は、互いに所定間隔だけ離れて配置され、互いに異なる波長の波を発する第1および第2の波源を含み、
前記検出手段は、前記第1の波源の位置を示す第1位置情報および前記第2の波源の位置を示す第2位置情報を検出し、当該第1および第2位置情報と前記所定間隔とに基づき前記携帯波源までの距離を検出し、
前記画像合成手段は、前記検出手段によって検出された前記距離に応じて前記所定画像を前記撮影画像に描画することにより前記合成画像を生成することを特徴とする。
【0088】
このような第50の発明によれば、携帯波源に含まれる第1および第2の波源の位置に基づき当該携帯波源までの距離が検出され、その距離に応じて撮影画像に所定画像が描画されるので、利用者が携帯波源を移動させることによって撮影画像への所定画像の描画を容易に変化させることができる。
【0089】
第51の発明は、第46から第50までの発明のいずれかにおいて、
前記検出手段は、前記波源が発する波を検出する複数のセンサを含み、
前記位置情報取得手段は、前記複数のセンサによってそれぞれ検出される波の間での強度差または位相差に基づき前記波源の位置を算出し、当該算出された位置を示す情報を前記位置情報として生成することを特徴とする。
【0090】
第52の発明は、所定の撮影領域における被写体である利用者を撮影する撮像手段と、当該撮像手段により得られる撮影画像または当該撮影画像を含む合成画像を表示する表示手段と、当該合成画像を写真として出力する出力手段とを備える自動写真作成装置であって、
所定位置に配置され、前記撮影領域における空間を伝搬する所定の波を発する波源と、
前記波源が発する波を検出する検出手段と、
前記検出手段によって検出される波に基づき、前記検出手段の位置を示す位置情報を取得する位置情報取得手段と、
前記位置情報に応じて所定画像を前記撮影画像に描画することにより前記合成画像を生成する画像合成手段とを備えることを特徴とする。
【0091】
このような第52の発明によれば、所定の波源の発する波の検出手段の位置情報に基づき所定画像が撮影画像に描画されるので、撮影画像に基づき変化に富んだ合成画像の写真を作成することができる。
【0092】
第53の発明は、第52の発明において、
前記所定画像は手動的または自動的に変更可能であることを特徴とする。
【0093】
このような第53の発明によれば、所定の波を検出する検出手段の位置情報に基づき撮影画像に描画されるべき所定画像は、手動的または自動的に変更可能であるので、撮影画像に基づき利用者の嗜好に応じ変化に富んだ合成画像の写真を作成することができる。
【0094】
第54の発明は、第52または第53の発明において、
前記検出手段は、前記利用者に携帯され、前記利用者近傍の所定空間における任意の位置に配置可能であることを特徴とする。
【0095】
このような第54の発明によれば、所定の波を検出する検出手段を利用者近傍の所定空間における任意の位置に移動させることによって撮影画像への所定画像の描画が変化するので、撮影画像に基づき生成される合成画像を利用者の嗜好に応じ高い自由度で容易に変化させることができる。
【0096】
第55の発明は、第45から第54までの発明のいずれかにおいて、
前記波源は、可視光もしくは赤外光の光源と、可聴音波もしくは超音波の音源と、電波の発信源とのうちのいずれかであることを特徴とする。
【0097】
第56の発明は、所定の撮影領域における被写体である利用者を撮影する撮像ステップと、当該撮像ステップにより得られる撮影画像または当該撮影画像を含む合成画像を写真として印刷する出力ステップとを備える自動写真作成方法であって、
前記撮影領域における所定の波源が発する波を検出する所定の検出手段による検出結果に基づき前記波源の属性情報を取得する属性取得ステップと、
前記属性情報に基づき前記合成画像を生成する画像合成ステップと
を備えることを特徴とする。
【0098】
第57の発明は、第56の発明において、
前記属性取得ステップは、前記検出結果に基づき、前記波源の位置を示す位置情報を前記属性情報として取得する位置情報取得ステップを含み、
前記画像合成ステップでは、前記位置情報に応じて所定画像を前記撮影画像に描画することにより前記合成画像が生成されることを特徴とする。
【0099】
第58の発明は、所定の撮影領域における被写体である利用者を撮影する撮像ステップと、当該撮像ステップにより得られる撮影画像または当該撮影画像を含む合成画像を写真として印刷する出力ステップとを備える自動写真作成方法であって、
所定位置に配置された所定の波源が発する波を検出する所定の検出手段の検出結果に基づき、当該検出手段の位置を示す位置情報を取得する位置情報取得ステップと、
前記位置情報に応じて所定画像を前記撮影画像に描画することにより前記合成画像を生成する画像合成ステップとを備えることを特徴とする。
【0100】
第59の発明は、プログラムであって、第56から第58までの発明のいずれかの発明に係る自動写真作成方法をコンピュータに実行させることを特徴とする。
【0101】
第60の発明は、印刷媒体であって、第56から第58までの発明のいずれかの発明に係る自動写真作成方法により写真として印刷されたことを特徴とする。
【0102】
【発明の実施の形態】
以下、本発明の実施形態につき添付図面を参照して説明する。
<1 第1の実施形態>
<1.1 全体構成>
図1は、本発明の第1の実施形態に係る自動写真作成装置である遊戯用写真作成装置を側面から見た図であり、図2は、この遊戯用写真作成装置の本体部4を正面から(被写体としての利用者Uから見た)図である。以下、図1および図2を参照して、本実施形態に係る遊戯用写真作成装置の全体構成について説明する。
【0103】
この遊戯用写真作成装置は、利用者Uが入る撮影室2と、利用者Uの撮影画像を含む合成画像を生成して写真シール(または写真カード)として出力する本体部4とを備えており、撮影室2内には被写体Uの背景を提供する背景提供部として背景パネル300を備えている。
【0104】
本体部4は、利用者Uを撮影する撮像手段としてのカメラ10と、当該カメラ10の上方の適宜の位置に配置され閃光を発するフラッシュ11と、当該カメラ10の下方に配置されたCRT(Cathode Ray Tube)または液晶ディスプレイパネル等からなる表示装置であるプレビューモニタ22と、操作画面を提供する液晶ディスプレイおよび当該操作画面を覆う操作位置検出用の透明シートからなる液晶タッチパネル20と、液晶タッチパネル20に対する操作に使用されるタッチペン21とを備える。カメラ10は、撮影室2の床面上に存在する利用者Uを被写体として撮影し、その撮影画像を表す画像信号を出力する。典型的には、CCD(電荷結合素子)を利用してデジタル画像信号を生成するデジタルカメラが使用される。プレビューモニタ22は、上記画像信号の表す画像をリアルタイムで表示するように構成されており、カメラ10によって得られる撮影画像を確認するために使用される。液晶タッチパネル20は、後述の画像合成の際に撮影画像において検出される特定領域に描画(上書き)すべき画像を指定するための操作手段や、背景パネル300における後述の光源301を制御するための操作手段などとして機能する。
【0105】
また本体部4は、コンピュータを中心に構成され各部の制御や上記画像合成等の画像処理を行う主制御装置およびI/O制御装置や、カメラ10により得られる撮影画像または当該撮影画像を含む合成画像を写真シール(または写真カード)として出力するプリンタ等を内蔵している。さらに、本体部4は、前面下方にコイン投入口26を、側面に写真シールの取出口28を、それぞれ備えている。さらにまた、本体部4は、本遊戯用写真作成装置の動作中は常時点灯される照明装置201L,201Rをカメラ10の左右にそれぞれ備えている。
【0106】
背景パネル300は、被写体の背景を構成するように撮影時における利用者Uの後方に配置され、その利用者Uの背面に対向する面(以下「対向面」という)を有し、その対向面上の異なる位置に配置された複数の光源301を備えている。
【0107】
<1.2 機能的構成>
図3は、本実施形態に係る遊戯用写真作成装置の要部を機能面から見た構成を示すブロック図である。この遊戯用写真作成装置は、機能的には、撮像部52と、確認表示部54と、操作部62と、出力部64と、照明部70と、I/O制御部72と、背景提供部74と、主制御部80とから構成される。
【0108】
この構成において、撮像部52は、CCD等の撮像素子を用いて構成されるカメラ10に相当し、リアルタイムに画像を取り込んで当該画像(この画像は「スルー画像」と呼ばれることがあるが、以下では「モニタ用撮影画像」というものとする)を表す画像信号を出力する。この画像信号は主制御部80に入力されて、その内部のメモリにモニタ用画像データとして一時的に記憶される。また、このモニタ用画像データは、モニタ用画像信号として主制御部80から確認表示部54に供給される。確認表示部54は、プレビューモニタ22に相当し、そのモニタ用画像信号に基づきモニタ用撮影画像をリアルタイムで表示する。
【0109】
操作部62は、液晶タッチパネル20に相当し、後述の画像合成処理に関連する利用者Uの操作や、シャッター操作、プリント出力のための操作等を受け付け、これらの操作を示す信号は、操作信号として主制御部80に入力される。いま、利用者Uの撮影のためにシャッターボタンが押下されたとすると、主制御部80からの指示に基づき、数秒程度の予め決められた時間の経過後にカメラ10の撮影方向にフラッシュ11から閃光が放たれ、利用者Uの撮影画像(以下、このようなシャッターボタン押下時の撮影画像を「プリント用撮影画像」という)を表す信号として撮像部52から出力される画像信号が主制御部80に入力され、主制御部80内のメモリまたは補助記憶装置としてのハードディス装置等にプリント用画像データとして格納される。出力部64は、本体部4に内蔵されるプリンタに相当し、主制御部80からの指示に基づき、このプリント用画像データの表す画像を写真シール(または写真カード)として出力する。
【0110】
照明部70は、本体部4における照明装置201L,201Rとフラッシュ11とに相当し、主制御部80からの指示に基づきI/O制御部72によって点灯/消灯および調光が制御される。
【0111】
背景提供部74は、撮影室2内に設けられる背景パネル300に相当し、背景パネル300は、図5に示すように、被写体としての利用者Uの背景に相当する領域(対向面)の異なる位置に配置された複数個の光源(ほぼ点光源と見なせるような光源)301を有しており、これらの光源301は、操作部62に対する所定操作に基づく主制御部80からの指示に従って、I/O制御部72により点灯/消灯が制御される。すなわち利用者Uは、背景パネル300の各光源301の点灯/消灯を制御し、背景パネル300における点灯パターンを変更することができる。
【0112】
I/O制御部72は、本体部4に内蔵されるI/O制御装置に相当し、主制御部80からの指示に基づき、照明部70や背景提供部74を制御すると共に、後述のコイン検出部(不図示)からの検出信号等の入力信号を主制御部80へ転送する。
【0113】
主制御部80は、本体部4に内蔵され、CPU(Central Processing Unit)や、メモリ、タイマー、補助記憶装置などを含むコンピュータを中心に構成される主制御装置に相当し、内部メモリに格納された所定プログラムをCPUが実行することにより、上述のようにして入力される操作信号に基づき各部を制御するために、上述のように各部に指示を出す。また、モニタ用またはプリント用撮影画像に対する後述の画像処理を行い、操作信号に基づき上記のモニタ用画像データまたはプリント用画像データの一部を書き換えることにより、モニタ用撮影画像またはプリント用撮影画像に所定画像を描画した画像であるモニタ用合成画像またはプリント用合成画像を生成する。ここで描画されるうる画像としては、予め複数種類の画像(典型的には星形を表す画像やハート形を表す画像のような周知パターンの画像であるが、これに限定されるものではなく、例えば予め取得された撮影画像であってもよい)が用意されて主制御部80内のメモリまたは補助記憶装置に格納されている。上記のような画像合成が行われると、その後、確認表示部54(プレビューモニタ22)には、モニタ用画像データに基づきモニタ用合成画像が表示され、出力部からはプリント用合成画像が写真シール等として出力される。出力された写真シール等は、本体部4の側面に設けられた取出口28から取り出される。
【0114】
上記の構成要素の他、本体部4におけるコイン投入口26に投入されたコインを検出するためのコイン検出部(不図示)が更に本体部4に設けられており、主制御部80は、コイン検出部での検出結果に基づき、利用者Uに所定時間だけ撮影や撮影画像に対する描画等による合成画像の生成など、本遊戯用写真作成装置によるプレイを許容するように各部を制御する。このコイン検出部やその検出結果に基づく主制御部80による制御動作は、従来の遊戯用写真作成装置と同様であって周知であるので、その詳しい説明を省略する。
【0115】
なお、主制御装置において実行される上記所定プログラムは、例えば、そのプログラムを記録した記録媒体であるCD−ROMによって提供される。すなわち、上記所定プログラムの記録媒体としてのCD−ROMが主制御装置内に補助記憶装置として内蔵されたCD−ROM駆動装置に装着され、そのCD−ROMから所定プログラムが読み出されて補助記憶装置としてのハードディスク装置にインストールされる。そして、本遊戯用写真作成装置の起動のための所定操作がなされると、ハードディスク装置にインストールされた所定プログラムは、主制御装置内のメモリに転送されてそこに一時的に格納され、主制御装置内のCPUによって実行される。これにより、主制御装置による上記各部の制御や後述の画像処理が実現される。
【0116】
<1.3 動作>
上述のように本実施形態における主制御部80の動作は、その内部のCPUが上記所定プログラムを実行により実現される。図4は、このようにして実現される主制御部80の動作を示すフローチャートである。本実施形態では、コイン投入口26に所定のコインが投入されると、主制御部80(主制御装置)は以下のように動作する。
【0117】
まず、本実施形態に係る遊戯用写真作成装置を初期化する(この初期化にはハードウェアとしての初期化に加えて、設定値として主制御部80に記憶されるデータの初期化も含まれるものとする)(ステップS102)。次に、カメラ10から出力される画像信号を受け取ってモニタ用画像データとして内部メモリに一時的に記憶することにより、モニタ用撮影画像を取得する(ステップS104)。その後、後述の画像合成の際に描画すべき画像として予め用意された複数の所定画像(以下「描画画像」という)の中からいずれかの画像を選択するための操作が操作部62において行われたか否かを判定する(ステップS106)。この判定の結果、このような描画画像の選択操作が行われていない場合は、そのままステップS110へ進み、選択操作が行われた場合には、その選択操作によって選択された描画画像を選択画像として設定し(ステップS108)、その後にステップS110へ進む。
【0118】
ステップS110では、上記モニタ用画像データに基づき、モニタ用撮影画像において背景パネル300の光源のうち点灯している光源に相当する領域を、例えばモニタ用撮影画像の各画素の輝度値に基づき特定領域として検出する(ステップS110)。次に、その検出結果に基づき、各特定領域のモニタ用撮影画像における位置を示す座標を算出する(ステップS112)。そして、モニタ用撮影画像において、算出された各座標が示す位置に選択画像を描画する(ステップS114)。この描画は撮影画像に対する上書きであって、モニタ用画像データの一部を書き換えることに相当し、この描画によりモニタ用合成画像が得られる。その後、この描画後のモニタ用画像データに基づき確認表示部54(プレビューモニタ22)にそのモニタ用合成画像を表示させる。
【0119】
例えば図5に示すように、背景パネル300における全ての光源301が点灯され、星形の描画画像が選択画像として設定された場合には、モニタ用撮影画像において点光源301に相当する各領域が全て特定領域として検出され、図6(a)に示すように、その特定領域の位置に星形画像が付加された(上書きされた)画像がモニタ用画像(合成画像)として得られ、これがプレビューモニタ22に表示される。また、ハート形の描画画像が選択画像として設定された場合には、図6(b)に示すように、モニタ用撮影画像において点光源301に相当する各特定領域の位置にハート形画像が付加された(上書きされた)画像がモニタ用画像(合成画像)として得られ、これがプレビューモニタ22に表示される。なお、図6(a)および(b)に示した例では、被写体である利用者Uの全身と背景パネル300の前面全体が合成画像に現れているが、生成される(モニタ用)合成画像はこれに限定されるものではなく、実際には、利用者Uの上半身とそれに対応する背景を表す(モニタ用)撮影画像が取得されることが多いので、プレビューモニタ22に表示される合成画像もそれに対応した範囲の画像となることが多い。しかし、ここでは説明の便宜のため、利用者Uの全身と背景パネル300の前面全体が合成画像に現れるものとしている。この点については、以下の述べるモニタ用またはプリント用合成画像の例(他の実施形態における例も含む)についても同様である。
【0120】
上記のようにしてモニタ用合成画像が表示されると、次に、シャッターボタンが押下されたか否かを判定する(ステップS118)。この判定の結果、シャッターボタンが押下されていない場合には、ステップS104へ戻り、以降、シャッターボタンが押下されるまで、上述のステップS104〜S118の動作を繰り返す。そして、この繰り返し動作中に、利用者U等による操作部62(液晶タッチパネル20)に対する操作によって選択画像が変更されると、特定領域に描画される画像が変化する。ここで、上述のステップS104からS118までの実行に要する時間は、人間の動作(操作)に要する時間に比べて十分に短くなるように主制御部80を実現することにより、選択画像の変更に応じて、プレビューモニタ22に表示される合成画像において描画画像(付加画像)をリアルタイムで変化させることができる。本発明はこのような構成に限定されないが、本実施形態ではこのように構成されているものとして以下の説明を進める。したがって、例えば選択画像が星型画像からハート形画像に変更されると、プレビューモニタ22に表示される合成画像は、リアルタイムで図6(a)に示す画像から図6(b)に示す画像へと変化する。
【0121】
上述のステップS104〜S118の動作を繰り返している間にシャッターボタンが押下されると、ステップS120へ進み、その押下時点でカメラ10による取得される撮影画像をプリント用撮影画像として主制御部80内に取り込み、これをプリント用画像データとして保存する。そして、その時点で算出されている特定領域の座標と選択画像とに基づき、プリント用画像データの一部を書き換えることにより、プリント用撮影画像に選択画像を描画した画像であるプリント用合成画像を生成する(ステップS120)。このプリント用合成画像は、シャッターボタンが押下される直前にプレビューモニタ22に表示されていたモニタ用合成画像と(解像度の相違を除けば)実質的に同じである。このようにして生成されたプリント用合成画像は、出力部64(プリンタ)から写真シールとして出力される(ステップS122)。
【0122】
なお、本実施形態では、以上で1回分の遊戯用写真作成が終了するが、一般的には、以上の動作を複数回繰り返すことで複数個のプリント用画像データを主制御部80内に保存しておき、その後に、利用者U等の操作に基づき写真シールとしてプリンタから出力されることが多い。また、本実施形態では、シャッターボタンが押下されると、プリント用画像が生成された後にそのプリント用画像(合成画像)が写真シールとしてプリント出力されるが(ステップS118〜S122)、従来の遊戯用写真作成装置においては、プリント出力の前に、タッチペン等によって撮影画像に落書き等の手書き入力やその他の編集入力を受け付けるように構成されている場合が多い。本実施形態においても、タッチペン21や液晶タッチパネル20等を利用してそれらと同様の機能が実現されるように構成されていてもよい。しかし、本実施形態では説明の便宜のため、図4に示すように動作が簡略化された構成となっており、この点は、他の実施形態においても同様である。
【0123】
ところで本実施形態では、利用者U等による操作部62(液晶タッチパネル20)に対する操作によって、背景パネル300における光源301の点灯パターンを変更することが可能であり、この点灯パターンの変更によって特定領域を変化させることで、(モニタ用またはプリント用)合成画像をリアルタイムで変化させることも可能である。例えば、図5に示したように背景パネル300の光源を全て点灯させた状態(点灯パターン)から、図7(a)に示すように一部の光源のみを点灯させた状態(点灯パターン)へと変更した場合、(モニタ用またはプリント用)合成画像は、図6(a)に示す画像から図7(b)に示す画像へとリアルタイムで変化する。なお、図7(a)に示す背景パネル300において、白丸で描かれている光源は点灯状態にあり、黒丸で描かれている光源は消灯状態にあるものとする(以下の図においても同様)。
【0124】
<1.4 効果>
上記のように本実施形態によれば、利用者U等の操作によって選択画像や特定領域を変更することができ、それらの変更に応じ、(モニタ用またはプリント用)合成画像において背景を構成する画像(付加画像)が変化する。しかも、液晶タッチパネル20に対する操作により簡単に付加画像自体や付加画像の位置を変更することができる。したがって、利用者の嗜好に応じ高い自由度で容易に背景画像を変化させることができ、変化に富んだ特徴のある背景画像を含む合成画像の写真シールが得られる。
【0125】
また、本実施形態によれば、主制御部80を適切な処理能力を有するCPU等を用いて実現することにより、プレビューモニタ22に表示される合成画像(撮影画像と選択画像との合成画像)において、利用者U等の操作に応じてリアルタイムで背景画像の内容を変化させることができるので、利用者の嗜好に合った合成画像を効率よく容易に生成することができる。
【0126】
<1.5 第1の実施形態の変形例>
上記第1の実施形態では、点灯状態の光源に相当する領域として検出された特定領域の位置を示す座標が算出され(ステップS112)、その座標に基づいて選択画像がモニタ用撮影画像に付加されるが、付加される選択画像のサイズや色等は同一である。しかし、ステップS112において、座標以外の各特定領域の属性情報、例えば明るさ(または対応する光源の強度もしくは光度)、サイズ(または面積)、方向、形状、色の少なくとも1つを取得し、座標以外の他の属性情報に応じて、付加すべき選択画像を変化させるようにしてもよい。例えば、特定領域の明るさ(または対応する光源の強度もしくは光度)をもステップS112で取得し、その明るさに応じて、付加される選択画像のサイズを変えるようにしてもよい。この場合、主制御部80からの指示に基づきI/O制御部72により背景パネル300の光源301の調光が可能な構成とすることで、すなわち光源301の強度もしくは光度を変更できる構成とすることで、例えば光源301の光度に応じてサイズの異なる複数の星型画像を撮影画像の背景画像として付加することが可能となる。また、この場合、主制御部80からの指示に基づきI/O制御部72により背景パネル300の光源301の色を変更できる構成とすることで、例えば光源301の色に応じて色の異なる複数の選択画像である星型画像を撮影画像の背景画像として付加することが可能となる。
【0127】
また、背景パネル300の光源301に代えて又はこれに加えて、利用者Uが携帯可能な光源、例えば手持ち可能な光源30を本体部4に備えておき、その手持ち可能な光源(以下「手持ち光源」という)30を利用者が把持した状態でカメラ10によって(モニタ用またはプリント用)撮影画像を取得するようにしてもよい。この場合、その手持ち光源30に相当する領域も特定領域として検出され、その撮影画像においてその手持ち光源30に相当する位置にも選択画像が付加される。そして、この場合、その手持ち光源30の位置(光源本体の位置)は利用者Uによって容易に変更可能であるので、その変更によってリアルタイムで、その手持ち光源30に対応して付加される選択画像の位置も変化する。また、この場合において上記のように、撮影画像における特定領域に付加される選択画像のサイズをその特定領域に明るさ(対応する光源の強度もしくは光度)に応じて変化する構成とすれば、背景パネル300の点灯状態の光源に対応して描かれる選択画像のサイズと手持ち光源に対応して描かれる選択画像のサイズとを、異なるものとすることができる。すなわち、例えば図8(a)に示すように被写体としての利用者Uが手持ち光源30を持っている場合には、図8(b)に示すような(モニタ用またはプリント用)合成画像が得られる。
【0128】
さらに、検出すべき特定領域に対応する光源が利用者Uによって移動させられる場合において、上記第1の実施形態におけるステップS112で順次算出される座標を所定個数記憶しておき、その移動の軌跡を(モニタ用またはプリント用)撮影画像において描くようにしてもよい。この構成によれば、利用者Uが例えば手持ち光源30を文字を描くように移動させることにより、その文字が撮影画像に描かれた合成画像が得られる。なお、このような構成を実現するには、例えば、後述の第3の実施形態におけるステップS312〜S316(図20)と同様の処理により光源の移動軌跡座標列を取得し、その移動軌跡座標列に基づき光源の移動軌跡を(モニタ用またはプリント用)撮影画像に描くようにすればよい。そして、この場合、これらの処理を実行する主制御部80を適切な処理能力を有するCPU等を用いて実現することにより、特定領域に対応する光源の移動に応じて、その移動軌跡を撮影画像にリアルタイムで描画すると共に、その移動軌跡が描画された合成画像をリアルタイムでプレビューモニタ22に表示することができる。また、この場合、その移動軌跡上における所定間隔毎に選択画像を描くことで撮影画像に当該軌跡を描くようにしてもよく、そのような構成にすれば、更に変化に富んだ合成画像を生成することができる。例えば図9(a)に示すように利用者Uが手持ち光源30をその光源本体が弧を描くように振ると、図9(b)に示すような(モニタ用またはプリント用)合成画像が得られる。
【0129】
さらにまた、上記第1の実施形態におけるステップS112で算出された座標の示す位置に固定的に選択画像を描くのではなく、時間の経過にしたがってその位置から選択画像が予め決められた方向に移動するように、描く位置を順次変更するようにしてもよい。また、この場合において、上記のようにしてその移動軌跡を描くようにしてもよく、このとき、その軌跡上における所定間隔毎に選択画像を描くことで撮影画像に当該軌跡を描くようにしてもよい。このようにすれば、更に変化に富んだ合成画像を生成することができ、例えば、図10(a)に示すような点灯パターンの背景パネル300を背にして利用者Uが立っている場合、図10(b)に示すような(モニタ用またはプリント用)合成画像が得られる。なお、上記変形例では、選択画像の移動方向が予め決められているが、これに代えて、ステップS112での算出座標の示す位置を中心に所定範囲内(例えば算出座標を中心とする所定の円領域内)でランダムに選択画像が移動するようにしてもよい。また、撮影画像に描画すべき選択画像の移動に代えて、時間の経過にしたがって、描画すべき選択画像が変形する(例えばサイズを変化させる)ようにしてもよく、その場合、予め決められた(選択画像としての)基準画像を中心に所定範囲内で、描画すべき選択画像がランダムに変形するようにしてもよい。
【0130】
さらにまた、上記第1の実施形態では撮影画像における1つの特定領域に対して基本的には1つの選択画像が描画されるのみであるが、ステップS114において、検出された特定領域の位置(算出座標の示す位置)を基準とする所定範囲内(例えば特定領域の位置を中心とする所定の円領域内)のランダムな位置に、所定画像を追加的に(または選択画像に代えて)描画するようにしてもよい。例えば図11(a)に示すように手持ち光源30を持った利用者Uの撮影画像に基づく合成画像として、例えば図11(b)に示すように手持ち光源30の光源本体の周囲にランダムな大きさの星状模様を散りばめた合成画像を生成するようにしてもよい。また、この場合、上記所定範囲内のランダムな位置に描画される所定画像としての星状模様が、時間の経過にしたがって、その大きさや色を変化させたり、移動したり(例えば手持ち光源本体を中心として回転したり)、他の模様(パターン)と入れ替わったり、アニメーションとして描画されたり(例えば動物が星状模様に入れ替わりアニメーションとして描画されたり)するように構成されていてもよい。
【0131】
さらにまた、上記第1の実施形態では、撮影画像において光源に相当する各特定領域に対して選択画像が描画されるが、撮影画像において複数の光源にそれぞれ相当する複数の特定領域を1組として扱い、1つの組を構成する複数の特定領域に対し、それらの特定領域の位置等の属性情報に応じて選択画像を撮影画像に描画するようにしてもよい。例えば図12(a)に示すように、第1光源31aと第2光源31bという2つの光源本体を含む手持ち光源31を本体部4に備えておき、その手持ち光源31を把持する利用者Uをカメラ10で撮像して得られる撮影画像において、その手持ち光源31における第1および第2光源31a,31bに相当する特定領域を1組として扱う。この場合、例えば、第1の実施形態と同様にして撮影画像において、第1光源31aに相当する特定領域の位置を示す第1の座標と、第2光源31bに相当する特定領域の位置を示す第2の座標とを求め、更に、それら第1および第2の座標から方向(例えば第1の座標と第2の座標とを結ぶ方向)を算出し、選択画像をその方向に応じて変形し、変形後の選択画像を撮影画像に描画するようにするとよい。このようにすれば、例えば図12(a)に示すように、手持ち光源の傾きに応じた方向性を有する選択画像が描画され、変化に富んだ合成画像の写真シールが得られる。そして、この場合、第1光源31aと第2光源31bとの間で光源としての特性(例えば、光源の色(より一般的には光源の波長))を異なるように設定するの好ましく、このようにすれば、第1の座標から第2の座標へ向かう方向と、第2の座標から第1の座標へ向かう方向とが区別できるので、上記の算出される方向が0〜180度の範囲から0〜360度の範囲へと広がることになる。
【0132】
また、手持ち光源31における第1光源31aと第2光源31bとの間隔(以下「光源間隔」という)が予め所定値に設定されている場合(既知の場合)には、その光源間隔と第1および第2の座標より、カメラ10(または本体部4)から手持ち光源31までの距離を算出し、その距離に応じて、選択画像を変形し(例えば、距離が長くなるほど選択画像を小さくする)、変形後の選択画像を撮影画像に描画するようにしてもよい。このようにすれば、利用者Uが手持ち光源31を移動させることで、撮影画像に描画される選択画像が容易に変更可能であるので、より変化に富んだ合成画像の写真シールを容易に作成できる。
【0133】
なお、上記のように第1および第2光源31a,31bを有する手持ち光源31の代わりに、棒状の光源を有する手持ち光源を備えるようにしてもよい。この場合において、撮影画像においてその棒状光源に相当する特定領域を検出すると共に、当該特定領域の長手方向を検出し、その長手方向に応じて選択画像を撮影画像に描画することにより、上記と同様、変化に富んだ合成画像の写真シールを容易に作成できる。
【0134】
<2 第2の実施形態>
次に、本発明の第2の実施形態に係る自動写真作成装置である遊戯用写真作成装置を説明する。この遊戯用写真作成装置では、第1の実施形態における背景提供部すなわち複数の光源301を備えた背景パネル300に代えて、それと同様の位置に、固定的なパターンの形成された背景パネル320が設けられている。本実施形態における他のハードウェア的構成要素は、第1の実施形態におけるものとほぼ同様であるので、同一または対応する構成要素には同一の参照符号を付して詳しい説明を省略する(図1〜図3参照)。
【0135】
図13は、このような本実施形態に係る遊戯用写真作成装置を側面から見た図であり、図14は、本実施形態に係る遊戯用写真作成装置における背景パネル320を被写体としての利用者Uと共に示す図である。本実施形態における背景パネル320では、予め決められた特定の色の領域が印刷により被写体としての利用者Uに臨む面(対向面)に形成されている。ここでは、図14に示すように、特定色の大小2種類の円形模様321,322が異なる位置に複数個印刷されているものとして以下の説明を進める。
【0136】
<2.1 動作>
図15は、本実施形態における主制御部80の動作を示すフローチャートである。本実施形態におけるステップS202〜S208は第1の実施形態におけるステップS102〜S108とそれぞれ同様であるので、説明を省略する。
【0137】
本実施形態におけるステップS210では、モニタ用撮影画像において特定色の領域のうち特定領域として検出すべき領域を選択するために、利用者U等による操作部62(液晶タッチパネル20)に対する操作に基づき、特定色の領域のサイズまたはサイズ範囲を指定する。図14に示す例では、特定色の領域は大円領域321と小円領域322との2種類が存在するので、これらの2種類のいずれかに対応するサイズまたはサイズ範囲が指定されることになる。次に、モニタ用画像データに基づき、モニタ用撮影画像において特定色の領域を検出し、検出された各特定色領域のサイズを算出する(ステップS212)。そして、算出されたサイズをステップS210で指定されたサイズまたはサイズ範囲と比較し、検出された特定色の領域のうち指定のサイズまたはサイズ範囲に該当するものを特定領域として決定する(ステップS214)。この後のステップS216〜S220は、第1の実施形態におけるステップS112〜S116とそれぞれ同様であるので、説明を省略する。
【0138】
本実施形態では、星形の描画画像が選択画像として設定され、特定色の領域のうち例えば小円領域322のサイズまたはそれに対応するサイズ範囲がステップS210で指定された場合には、モニタ用撮影画像において特定色の領域のうち小円領域322に相当する各領域が特定領域として検出され、図16(a)に示すように、その特定領域の位置に星形画像が付加された(上書きされた)画像がモニタ用画像(モニタ用合成画像)として得られ、これがプレビューモニタ22に表示される。また、特定色の領域のうち大円領域321のサイズまたはそれに対応するサイズ範囲がステップS210で指定された場合には、モニタ用撮影画像において特定色の領域のうち大円領域321に相当する各領域が特定領域として検出され、図16(b)に示すように、その特定領域の位置に星形画像が付加された(上書きされた)画像がモニタ用画像(モニタ用合成画像)として得られ、これがプレビューモニタ22に表示される。この場合、被写体としての利用者Uの身体または衣服に、指定のサイズまたはサイズ範囲に該当する特定色の領域が存在する場合には、撮影画像においてその領域に相当する領域331も特定領域として検出され、その特定領域に選択画像が描画される(図16(b)参照)。
【0139】
上記のようにしてモニタ用合成画像が表示されると、次に、シャッターボタンが押下されたか否かを判定する(ステップS222)。この判定の結果、シャッターボタンが押下されていない場合には、ステップS204へ戻り、以降、シャッターボタンが押下されるまで、上述のステップS204〜S222の動作を繰り返す。そして、この繰り返し動作中に、利用者U等による操作部62(液晶タッチパネル20)に対する操作によって選択画像が変更されると、特定領域に描画される画像が変化する。ここで、適切な能力のCPU等を用いて主制御部80を実現することにより、選択画像の変更に応じて、プレビューモニタ22に表示される合成画像において描画画像(付加画像)をリアルタイムで変化させることができる。なお、この場合、上記繰り返し動作中に、利用者U等による操作部62(液晶タッチパネル20)に対する操作によって指定サイズまたはサイズ範囲を変更することによって選択画像の描画される位置をリアルタイムで変化させることも可能である。
【0140】
上述のステップS204〜S222の動作を繰り返している間にシャッターボタンが押下されると、ステップS224へ進む。これ以降の動作(ステップS224,S226)は、第1の実施形態と実質的に同様であるので説明を省略する。
【0141】
<2.2 効果>
上記のように本実施形態によっても、利用者U等の操作によって選択画像や特定領域を変更することができ、それらの変更に応じ、(モニタ用またはプリント用)合成画像において背景を構成する画像(付加画像)が変化する。しかも、所定の操作により簡単に付加画像自体や付加画像の位置を変更することができる。したがって、第1の実施形態と同様、利用者の嗜好に応じ高い自由度で容易に背景画像を変化させることができ、変化に富んだ特徴のある背景画像を含む合成画像の写真シールが得られる。
【0142】
また、本実施形態においても、主制御部80を適切な処理能力を有するCPU等を用いて実現することにより、第1の実施形態と同様、プレビューモニタ22に表示される合成画像(撮影画像と選択画像との合成画像)において、利用者U等の操作に応じてリアルタイムで背景画像の内容を変化させることができるので、利用者の嗜好に合った合成画像を効率よく容易に生成することができる。
【0143】
<2.3 第2の実施形態の変形例>
上記第2の実施形態では、ステップS212で検出される特定色の領域のうち指定のサイズまたはサイズ範囲に該当しない領域すなわち特定領域に該当しない特定色の領域については、選択画像が描画されないので、図16(a)および(b)に示すように、それらの特定色の領域が(モニタ用またはプリント用)合成画像に残ることになる。このため、このような特定領域に該当しない特定色の領域については、背景パネル320の対向面における特定色の領域以外の領域の色すなわち背景色で塗りつぶすようにするのが好ましい。例えば、背景色が黒である場合(この場合、特定色は黒以外の例えば白である)、このような特定領域に該当しない特定色の領域を黒で塗りつぶすようにするのが好ましい。このような特定領域以外の特定色の領域に対する背景色での塗りつぶしの処理をも合成画像の生成(ステップS218)の際に行うようにすれば、上記図16(a)に示す合成画像に代えて図17(a)に示す(モニタ用またはプリント用)合成画像が得られ、上記図16(b)に示す合成画像に代えて図17(b)に示す(モニタ用またはプリント用)合成画像が得られる。なお、このような背景色での塗りつぶし処理の追加に代えて、上記第2の実施形態におけるステップS218での処理を、撮影画像における全ての特定色の領域を背景色で塗りつぶした後に特定領域に対して選択画像を描画するという処理に変更するようにしてもよい。
【0144】
また、上記第2の実施形態では、利用者U等に操作により特定色の領域のサイズまたはサイズ範囲の指定を変更すると、検出される特定領域が変更されるが、これに代えて又はこれと共に、複数の色を特定色として決めておくと共に背景パネル320において複数の特定色の領域を異なる位置に形成しておき、利用者U等の操作により複数色の特定色の中からいずれかの特定色を選択し、撮影画像において複数の特定色のうち選択された特定色の領域のみを特定領域として検出するようにしてもよい。このような構成によれば、選択される特定色を変更することにより、合成画像における背景画像を変化させることができる。なお、このような構成は、より一般的には、検出すべき特定領域が有すべき画像的特徴の設定を所定操作に応じて変更可能に構成されたものと考えることができる。また、このような構成に代えて、背景パネル320における特定色の領域を全て特定領域として検出するようにしてもよい。この場合、利用者U等の操作によって特定領域の位置を変更することはできないが、選択画像を変更することにより背景画像を変化させることは可能である。
【0145】
また、上記第2の実施形態では、特定領域検出のための特定色を予め決めておき、撮影画像における特定色の領域を、選択画像を描画すべき特定領域として検出しているが、これに代えて又はこれと共に、特定領域検出のための特定柄を予め決めておくと共に背景パネル320において特定柄を形成しておき、撮影画像における特定柄の領域を、選択画像を描画すべき特定領域として検出するようにしてもよい。このような構成によっても、撮影画像における背景画像を利用者U等の操作によって容易に変化させることができる。なお、このような構成において、被写体としての利用者Uの身体または衣服に、特定領域検出のための特定柄の領域が存在する場合には、撮影画像においてその領域に相当する領域も特定領域として検出され、その特定領域に選択画像が描画される(図16(b)参照)。
【0146】
さらに、上記第2の実施形態では、モニタ用撮影画像において背景パネル320の特定色の領域に相当する領域として検出された特定領域の位置を示す座標が算出され(ステップS216)、その座標に基づいて選択画像がモニタ用撮影画像に付加されるが、付加される選択画像のサイズは同一である。しかし、ステップS216において、座標以外の各特定領域の属性情報、例えば明るさ(または対応する光源の強度もしくは光度)、サイズ(または面積)、方向、形状、色の少なくとも1つを取得し、座標以外の他の属性情報に応じて、付加すべき選択画像を変化させるようにしてもよい。すなわち、例えば図18に示す手法1のように、検出される特定領域のサイズ(面積)に応じて、描画すべき選択画像のサイズを変えるようにしてもよいし、例えば図18に示す手法2のように、特定領域および選択画像に方向性がある場合には、検出される特定領域の方向に応じて、描画すべき選択画像の方向を変えるようにしてもよい。また、特定領域検出のために特定色に代えて特定柄を使用する場合には、予め決められた複数の特定柄の領域を特定領域として検出し、その特定領域の特定柄の種類に応じて、例えば図18に示す手法3のように、十字模様の特定柄の領域には星型の選択画像を描画し、渦巻き模様の特定柄の領域にはハート形の選択画像を描画するようにしてもよい。
【0147】
さらにまた、上記第2の実施形態では、背景パネル320に形成される特定色の領域の配置は固定的であるが、例えば電動カーテンを利用して背景パネル320を構成することにより、利用者U等に操作によって背景パネル320における特定色の領域が移動したり、背景パネル320の形成されるパターン全体を取り替えたりできるようにしてもよい。このような構成によれば、利用者U等の操作に応じて、検出される特定領域の位置や配置パターンが変化し、それに応じて描画される選択画像の位置も変化するので、更に変化に富んだ背景画像を含む合成画像が得られる。
【0148】
さらにまた、上記第2の実施形態では、ステップS216で算出された座標の位置に固定的に選択画像が描かれるが、これに代えて、第1の実施形態の変形例として既述したように、時間の経過にしたがってその位置から選択画像が予め決められた方向に移動するように、描く位置を順次変更するようにしてもよい。また、この場合において、その移動軌跡が描かれるように、その軌跡上における所定間隔毎に選択画像を描くようにしてもよい。更にこれに代えて、ステップS216での算出座標の示す位置を中心に所定範囲内でランダムに選択画像が移動するようにしてもよい。また、撮影画像に描画すべき選択画像の移動に代えて、時間の経過にしたがって、描画すべき選択画像が変形する(例えばサイズを変化させる)ようにしてもよく、その場合、予め決められた(選択画像としての)基準画像を中心に所定範囲内で、描画すべき選択画像がランダムに変形するようにしてもよい。さらにまた、撮影画像において特定領域の位置を基準とする所定範囲内のランダムな位置に所定画像を追加的に(又は選択画像に代えて)描画するようにしてもよく、この場合、時間の経過にしたがってその所定画像自体が変化したり、その所定画像の描画位置が変化したりするようにしてもよい。
【0149】
<3 第3の実施形態>
次に、本発明の第3の実施形態に係る自動写真作成装置である遊戯用写真作成装置を説明する。この遊戯用写真作成装置は、第2の実施形態と同様のハードウェア構成を有すると共に、第1の実施形態の変形例における手持ち光源30と同様の光源、すなわち利用者Uが把持してその近傍の任意の位置に移動させることができる携帯光源(これも「手持ち光源」といい、同様の参照符号“30”を付すものとする)が備え付けられている。本実施形態における手持ち光源30以外のハードウェア構成は第2の実施形態と同様であるので、同一の構成要素には同一の参照符号を付して詳しい説明を省略する(図13、図14参照)。
【0150】
本実施形態に係る遊戯用写真作成装置は、第2の実施形態と同様の機能に加えて、利用者Uが手持ち光源30を所定パターンで移動させることにより当該遊戯用写真作成装置に対して指示(コマンド)を与えることができるという機能を有している。そのために本実施形態では、予め複数のコマンドcmd1〜cmdNが手持ち光源30の移動軌跡のパターンによって入力可能なコマンド(以下「パターンコマンド」という)として設定され、かつ、それらのパターンコマンドcmd1〜cmdNのそれぞれに対して基準となる移動軌跡パターンがコマンドパターンとして対応付けられている。そして、図19に示すように、コマンドパターンを示すデータであるコマンドパターンデータpdat1〜pdatNがパターンコマンドcmd1〜cmdNと対応付けられて主制御部80内のメモリまたは補助記憶装置に予め格納されている。なお、コマンドパターンデータpdat1〜pdatNは、それぞれ対応するコマンドパターンを表す画像データであってもよいが、対応するコマンドパターンの持つ特徴を表す数値の組からなる特徴ベクトルであってもよい。
【0151】
<3.1 動作>
図20は、本実施形態における主制御部80の動作を示すフローチャートである。本実施形態におけるステップS302,S304,S324,S326は、第2の実施形態におけるステップ202,S204,S224,S226とそれぞれ同様である。また、本実施形態におけるS306〜S310の処理は、第2の実施形態におけるステップS206〜S220の処理に対応し、第2の実施形態の当該処理は、本実施形態におけるS306〜S310の処理の一態様に相当する。
【0152】
本実施形態におけるステップS306では、モニタ用撮影画像において特定色の領域を検出すると共に、各特定色の領域の属性情報を算出する。ここで、属性情報とは、その特定色の領域の座標や、明るさ、面積等である。このような属性情報が得られると、その属性情報に基づき所定の画像を描画し、これによりその所定画像と撮影画像との合成画像を生成する(ステップS308)。そして、この合成画像をプレビューモニタ22に表示する(ステップS310)。なお、第2の実施形態では、上記画像合成の一態様として、特定色の領域のうち指定されたサイズまたはサイズ範囲に該当する領域である特定領域の座標が属性情報として算出され、その座標に基づき各特定領域の位置に、複数の所定画像の中から選択された選択画像が描画されることにより、合成画像が生成される。
【0153】
本実施形態では、この後、モニタ用撮影画像において手持ち光源30(正確にはその光源本体)の位置を示す座標を検出し(ステップS312)、この検出された座標をメモリの所定領域に格納することにより移動軌跡座標列に追加する(ステップS314)。ここで移動軌跡座標列は、このステップS314が実行される毎にメモリの所定領域に格納される座標からなる時系列データであるが、検出されてから一定時間以上経過した座標はこの移動軌跡座標列から除外されていくようになっている。
【0154】
次に、現時点の移動軌跡座標列によって表される手持ち光源30(の光源本体)の移動軌跡のパターン(以下「移動パターン」という)が、予め決められた複数のコマンドパターンのいずれかと一致するか否かを調べるための処理、すなわちパターン認識処理を行う(ステップS316)。このパターン認識処理には周知の各種手法を使用することができ、例えば、コマンドパターンデータpdat1〜pdatNとして各コマンドパターンの特徴ベクトルが予め主制御部80に格納されている場合には、特徴ベクトルの空間において移動パターンと各コマンドパターンとの距離を算出し、その距離に基づき上記パターン認識を行うことができる。このような周知のいずれかの手法を利用して、主制御部80に予め格納されているコマンドパターンデータpdat1〜pdatNに基づき、移動パターンが所定誤差範囲内でコマンドパターンのいずれと一致するかを調べ、移動パターンに一致する1つのコマンドパターンを認識結果として得るか、または、一致するコマンドパターン無しという認識結果を得る。
【0155】
上記パターン認識の結果、移動パターンがいずれかのコマンドパターンに一致する場合には、ステップS320へ進み、移動パターンに一致するコマンドパターンに対応付けられたコマンド(図19参照)を実行する。すなわち、本遊戯用写真作成装置において実行されるべき処理を指示するパターンコマンドとして予め設定されているコマンドのうち、移動パターンに一致するコマンドパターンに対応付けられたコマンドによって指示される処理を実行する。そして、その後にステップS322へ進む。一方、上記パターン認識の結果、移動パターンがいずれのコマンドパターンとも一致しない場合は、コマンドを実行することなく、ステップS322へ進む。
【0156】
ステップS322では、シャッターボタンが押下されたか否かを判定する。この判定の結果、シャッターボタンが押下されていない場合には、ステップS304へ戻り、以降、シャッターボタンが押下されるまで、上述のステップS304〜S320の動作を繰り返す。そして、この繰り返し動作中において、移動パターンがいずれかのコマンドパターンと一致すると判定される毎に、一致するコマンドパターンに対応するコマンドを実行する(ステップS318、S320)。ここで、例えば、(モニタ用)撮影画像において所定画像を描画すべき位置を変更するためのコマンドや、(モニタ用)撮影画像に描画すべき所定画像を変更するためのコマンドをパターンコマンドとして設定しておけば(図19参照)、利用者Uは手持ち光源30を移動させることによって、(モニタ用)合成画像において得られる背景画像を変化させることが可能となる。例えば、図21(a)に示すように利用者Uが手持ち光源30(正確にはその光源本体30s)を水平方向に移動させたときには、特定色の領域のうち所定画像を描画すべき領域のサイズ(面積)を変更するためのコマンドが入力され、一方、図21(b)に示すように利用者Uが手持ち光源30(光源本体30s)をV字状に移動させたときには、(モニタ用)撮影画像に描画すべき所定画像を変更するためのコマンドが入力されるようにすることができる(なお、図21では移動パターンを見やすくするために背景パネル320における特定色のパターンは省略されている)。これにより、手持ち光源30を移動させることで、液晶タッチパネル20を操作することなく合成画像における背景を変化させることが可能となる。なお、手持ち光源30の移動によって入力すべきコマンドは、このような背景画像の変更に関するコマンドに限定されるものではなく、例えば、シャッターを切るためのコマンドをパターンコマンドとして設定してもよい。
【0157】
上述のステップS304〜S322の動作を繰り返している間にシャッターボタンが押下されると、ステップS324へ進む。これ以降の動作(ステップS324,S326)は、第2の実施形態と実質的に同様であるので説明を省略する。
【0158】
<3.2 効果>
上記のように本実施形態によれば、被写体としての利用者Uが手持ち光源30を移動させることにより、遊戯用写真作成装置に対してコマンドを入力できるので、撮影時における操作性が向上する。そして、このような移動パターンによって入力可能なコマンド(パターンコマンド)の設定によっては、被写体としての利用者Uが手持ち光源30を移動させることにより、撮影画像において所定画像を描画すべき位置を変更したり、撮影画像に描画すべき所定画像を変更したり、シャッターを切ったりすることができるので、利用者Uの嗜好に応じて変化に富んだ(背景画像と撮影画像との)合成画像を容易に効率よく作成することができる。
【0159】
<4 第4の実施形態>
次に、本発明の第4の実施形態に係る自動写真作成装置である遊戯用写真作成装置を説明する。この遊戯用写真作成装置では、第1の実施形態における背景パネル300に代えて、光源を含まないパネルが設けられており、本体部4bは、図22に示すように、利用者Uと向き合う面の上部において水平方向に所定間隔だけ隔てて配置された2個の光検出装置12a,12bを備えている(以下、これら2個の光検出装置を区別しない場合には参照符号“12”で示すものとする)。本実施形態における他のハードウェア構成は、第1の実施形態におけるものと同様であるので、同一部分には同一の参照符号を付して詳しい説明を省略する(図1、図2参照)。
【0160】
図23は、上記光検出装置12の一構成例を示している。この構成例の場合、光検出装置12は、本体部4bの前面側すなわち被写体としての利用者Uに向かい合う側にスリットが形成された筐体を有し、その筐体内のスリットに対向する内面には、鉛直方向に1列に複数個(この例では3個)の受光素子(光センサ)121〜123が配置されている。そして、それらの受光素子121〜123から出力される検出信号S1〜S3は、本体内の主制御装置に入力される。この光検出装置12の前方であって図23において実線で示す位置に光源が存在する場合、3個の受光素子121〜123のうち中央の受光素子122の検出信号S2の強度が最も大きくなり、この光検出装置12の前方であって図23において点線で示す位置に光源が存在する場合、3個の受光素子121〜123のうち上部の受光素子121の検出信号S1の強度が最も大きくなる。したがって、3つの検出信号S1〜S3より、光検出装置12の前方すなわち本体部4bの前方に存在する光源の上下方向の位置を算出することができる。本実施形態では、このような光検出装置12が水平方向(左右方向)に所定間隔だけ隔てて2個配置されているので、これらの光検出装置12a,12bの間での光検出信号の差すなわち検出される光強度の差に基づき、本体部4bの前方に存在する光源の水平方向(左右方向)の位置を算出することができる。例えば図25(a)に示すように被写体のとしての利用者Uが本体部4bの前で手持ち光源30を把持したときには、上記構成の光検出装置12a,12bからの検出信号に基づき手持ち光源30(の光源本体)の左右方向および上下方向の位置を算出することができる。
【0161】
なお、図23に示した構成では、複数個(3個)の受光素子121〜123が鉛直方向に1列に配置されているが、これに加えて、複数個の受光素子を水平方向に1列に配置してそれらの検出信号に基づき、光検出装置12の前方(本体部4bの前方)に存在する光源の水平方向(左右方向)の位置を算出するようにしてもよい。この場合、光検出装置12は本体部に1個だけ備える構成であってもよい。また、図23に示した構成に代えて、本体部4bの前方の任意方向からの光を検出する光検出装置を3個以上、互いに所定間隔だけ隔てて配置し、それらの光検出装置で検出される光の強度またはそれらの間での強度差に基づき、光検出装置12の前方(本体部4bの前方)に存在する光源の水平方向および鉛直方向(左右方向および上下方向)の位置を算出するようにしてもよい。この場合、その光源の発光強度(光度)が既知であれば、それらの検出強度より、検出装置からその光源までの距離を算出することも可能である。
【0162】
図24は、本実施形態に係る遊戯用写真作成装置の要部を機能面から見た構成を示すブロック図である。この遊戯用写真作成装置では、第1の実施形態につき図3に示した機能的構成に比べ、上記の光検出装置12a,12bに相当する光検出部56が追加され、背景提供部74が省かれている。本実施形態における他の機能的構成要素は、第1の実施形態におけるものと基本的に同様であるので、同一または対応する構成要素に同一の参照符号を付して詳しい説明を省略する。ただし、主制御部80の動作は第1の実施形態とは相違する部分を有しており、これについては以下に説明する。
【0163】
<4.1 動作>
図26は、本実施形態における主制御部80の動作を示すフローチャートである。本実施形態におけるステップS402〜S408は第1の実施形態におけるステップS102〜S108とそれぞれ同様であるので、説明を省略する。なお以下では、本実施形態における本体部4bの前方(撮影室2内)において、被写体である利用者Uは、図25(a)に示すように手持ち光源30を把持しているものとする。
【0164】
本実施形態におけるステップS410では、利用者Uの把持する手持ち光源30に対する各光検出装置12a,12bでの検出値(検出信号の値)を取得し、次にステップS412において、その手持ち光源30(の光源本体)の位置を特定光源の位置として算出する。その後、モニタ用撮影画像において、その算出された位置に相当する位置に選択画像を描画することにより、例えば図25(a)に示すようなモニタ用合成画像を生成する(ステップS414)。そして、この描画後のモニタ用撮影画像であるモニタ用合成画像を確認表示部54(プレビューモニタ22)に表示させる(ステップS416)。
【0165】
上記のようにしてモニタ用合成画像が表示されると、次に、シャッターボタンが押下されたか否かを判定する(ステップS418)。この判定の結果、シャッターボタンが押下されていない場合には、ステップS404へ戻り、以降、シャッターボタンが押下されるまで、上述のステップS404〜S418の動作を繰り返す。そして、この繰り返し動作中に、利用者Uが手持ち光源30を移動させると、その移動後の手持ち光源30の位置が順次算出され、その順次算出される位置に応じたモニタ用撮影画像の位置に選択画像が描画される。したがって、手持ち光源30の現実の移動に応じて、モニタ用撮影画像上において手持ち光源30に上書きされる選択画像が移動することになる。ここで、適切な能力のCPU等を用いて主制御部80を実現することにより、手持ち光源30の移動に応じて、プレビューモニタ22に表示される合成画像において描画画像(付加画像)をリアルタイムで移動させることができる。
【0166】
上述のステップS404〜S418の動作を繰り返している間にシャッターボタンが押下されると、ステップS420へ進む。これ以降の動作(ステップS420,S422)は、特定領域の座標に代えて手持ち光源30の位置に基づき選択画像の撮影画像上の描画位置が決定されるという相違を除き、第1の実施形態と実質的に同様であるので説明を省略する。
【0167】
<4.2 効果>
上記のように本実施形態によっても、利用者U等の操作(手持ち光源30の移動)によって付加画像としての選択画像の変更や選択画像の撮影画像上の描画位置の変更が可能であり、しかも、所定の操作により簡単に付加画像自体や付加画像の位置を変更することができる。したがって、第1の実施形態と同様、変化に富み利用者の嗜好に合った合成画像の写真シールが容易に作成することができる。
【0168】
また、本実施形態においても、主制御部80を適切な処理能力を有するCPU等を用いて実現することにより、第1の実施形態と同様、プレビューモニタ22に表示される合成画像において、利用者U等による手持ち光源30等の移動に応じてリアルタイムで合成画像における付加画像の位置を変化させることができるので、利用者の嗜好に合った合成画像を効率よく容易に生成することができる。
【0169】
なお、上記では手持ち光源30を例に挙げて説明したが、光検出装置12a,12bで検出可能な光源であれば、手持ち光源のように利用者Uが携帯可能な光源には限定されず、例えば第1の実施形態のように背景パネル300に設けられた光源301からの光を光検出装置12a,12bで検出し、その光源301の位置を算出し、その位置に基づいて選択画像を撮影画像に描画してもよい。
【0170】
<4.3 第4の実施形態の主な変形例>
上記第4の実施形態では、光検出装置12a,12bで検出可能な光を発する1つの光源の位置に基づき選択画像が描画されるが、光検出装置12a,12bで識別可能な複数の光源を1組として扱い、1つの組を構成する複数の光源の位置を算出し、それらの複数の位置に応じて選択画像を撮影画像に描画するようにしてもよい。例えば第1の実施形態の変形例(図12参照)において使用される手持ち光源31と同様の手持ち光源、すなわち図27(a)に示すように第1光源31aと第2光源31bという2つの光源本体を含む手持ち光源31を本体部4bに備えておき、それら第1および第2光源31a,31bを1組として扱う。この場合、手持ち光源31における第1光源31aと第2光源31bとの間隔である光源間隔Aが所定値に設定されている場合(既知の場合)には、第1光源31aおよび第2光源31bについて算出される位置より、検出点(光検出装置12a,12b)から光源間隔Aを見た角度θが求まるので、図28に示すように、このθと光源間隔Aとに基づき検出点から光源までの距離Lを求めることができる(ただし、撮影方向に垂直な平面に対し手持ち光源31が平行に保たれることが前提となる)。以下、本体部4bがこのような手持ち光源31を備える自動写真作成装置の主制御部80の動作を図29のフローチャートを参照して説明する。なお、このフローチャートに示すステップのうち図26のフローチャート(第4の実施形態)のステップと同様のものについては同一のステップ番号を付して説明を省略する。なお以下では、手持ち光源31における第1光源31aと第2光源31bとの間で光源の色(より一般的には光源の波長)が異なっており、光検出装置12a,12bは、この相違を利用して第1光源31aからの光と第2光源31bからの光を識別して検出するように構成されているものとする。なお、第1光源31aからの光と第2光源31bからの光を識別して検出する手法は、このような波長の相違に基づくものには限定されず、例えば、両者の点灯期間を互いに重ならないように予め決めておくというような手法を使用してもよい。
【0171】
本変形例におけるステップS402〜S408では第4の実施形態と同様の動作を行い、次のステップS430では、手持ち光源31における第1および第2光源に対する各光検出装置12a,12bでの検出値を取得する(ステップS430)。そして、第1光源31aに対するそれらの検出値に基づき第1光源31aの位置を示す第1の座標を算出し、第2光源31bに対するそれらの検出値に基づき第2光源31bの位置を示す第2の座標を算出する(ステップS432)。次に、それら第1および第2の座標から方向(例えば第1の座標から第2の座標へと向かう方向)Dirを算出すると共に、前述のようにして検出点(光検出装置12a,12b)から手持ち光源31までの距離Lを算出する(ステップS434)。その後、選択画像をその方向Dirおよび距離Lに応じて変形し、変形後の選択画像を撮影画像に描画する。この変形は、例えば、その方向Dirに対応する手持ち光源31の傾きに応じた方向性を有するように選択画像を変形し、また、その距離Lに応じて選択画像を拡大または縮小する(例えば、距離が長くなるほど選択画像を小さくする)。このようにして変形された選択画像をモニタ用撮影画像において第1および第2の座標に基づく位置に描画することにより、例えば図27(b)に示すようなモニタ用合成画像を生成する(ステップS436)。そして、この描画後のモニタ用撮影画像であるモニタ用合成画像を確認表示部54(プレビューモニタ22)に表示させる(ステップS416)。
【0172】
上記のようにしてモニタ用合成画像が表示されると、次に、シャッターボタンが押下されたか否かを判定する(ステップS418)。この判定の結果、シャッターボタンが押下されていない場合には、ステップS404へ戻り、以降、シャッターボタンが押下されるまで、上述のステップS404〜S418の動作を繰り返す。そして、この繰り返し動作中に、利用者Uが手持ち光源30を移動させたり傾けたりすると、そのような利用者Uの振る舞いに応じて手持ち光源31における第1および第2光源31a,31bの位置(第1および第2の座標)が算出されると共にそれらの位置から方向Dirおよび距離Lが順次算出され、その順次算出される位置、方向Dirおよび距離Lに応じて選択画像がモニタ用撮影画像に合成されることによりモニタ用撮影画像が生成される。ここで、適切な能力のCPU等を用いて主制御部80を実現することにより、手持ち光源31の移動や傾きの変化に応じて、プレビューモニタ22に表示される合成画像において描画画像(付加画像)をリアルタイムで移動させたり変形させたりすることができる。
【0173】
上述のステップS404〜S418の動作を繰り返している間にシャッターボタンが押下されると、ステップS420へ進む。これ以降の動作(ステップS420,S422)は、第4の実施形態と同様であるので説明を省略する。
【0174】
本変形例によれば、利用者U等の操作(手持ち光源31の移動や傾きの変化)によって付加画像としての選択画像の変形や選択画像の撮影画像上の描画位置の変更を容易に行うことができる。したがって、第1の実施形態と同様、変化に富み利用者の嗜好に合った合成画像の写真シールを容易に作成することができる。
【0175】
また、本変形例においても、主制御部80を適切な処理能力を有するCPU等を用いて実現することにより、第1の実施形態と同様、プレビューモニタ22に表示される合成画像(撮影画像と選択画像との合成画像)において、利用者U等による手持ち光源31等の移動や傾きの変化に応じてリアルタイムで合成画像における付加画像を変形させたり付加画像の位置を変化させたりすることができるので、利用者の嗜好に合った合成画像を効率よく容易に生成することができる。
【0176】
なお、上記では手持ち光源31を例に挙げて説明したが、光検出装置12a,12bで検出可能な光源であれば、手持ち光源のように利用者Uが携帯可能な光源には限定されない。
【0177】
<4.4 第4の実施形態の他の変形例>
上記第4の実施形態では、自動写真作成装置における本体部4bに光検出装置12a,12bが設けられており、この光検出装置12a,12bでの検出値に基づき手持ち光源等の特定光源の位置が算出されるが、これに代えて、図30に示すように、自動写真作成装置における本体部4cに光源13を備えると共に、利用者Uに携帯されかつ利用者U近傍の所定空間における任意の位置に配置可能な光検出装置(以下「手持ち検出装置」という)40を備えるようにしてもよい。この場合、この手持ち検出装置40での検出値は所定の信号線を介して本体部4cの主制御部80に入力され、それらの検出値に基づき手持ち検出装置40の位置が算出され、その位置に基づき選択画像が撮影画像に描画されることにより合成画像が生成される。このような構成によっても上記第4の実施形態と同様の効果を得ることができる。
【0178】
また、上記の第4の実施形態やその変形例では、光の検出手段としての光検出装置12a,12bによる検出結果に基づいて光源の位置を算出し、その位置に基づいて付加画像を撮影画像に合成することにより合成画像を生成しているが、ここでの光は可視光には限定されない。例えば、赤外光の検出手段(赤外光センサ)を設け、その検出結果に基づき赤外光の光源(手持ち光源等)の位置を算出し、その位置に基づいて上記のような合成画像を生成するようにしてもよい。さらに、光の代わりに電波を使用し、光検出手段の代わりに電波の検出手段(電波センサ)を設けて電波の発信源(手持ちの電波発信機等)の位置を求めるようにしてもよい。また、光の代わりに音波(可聴音波)または超音波を使用し、光検出手段の代わりに音波または超音波の検出手段(マイクロホンまたは超音波センサ等)を設けて音波または超音波の音源(手持ち音源等)の位置を算出するようにしてもよい。そして、音波または超音波や電波等を使用する場合においても図27(a)に示した手持ち光源31のように、音波または超音波や電波等を発する源としての波源(本体)を2個有する手持ち波源を自動写真作成装置が備え、その手持ち波源を把持する利用者Uの撮影画像に対し音波または超音波や電波等の検出手段での検出結果に基づき所定画像を描画することにより、上記変形例と同様、例えば図27(b)に示したような合成画像を生成することができる。なお、音波または超音波を使用する場合、それらの検出手段(マイクロホンまたは超音波センサ等)を互いに所定間隔を隔てて複数個配置し、それらで検出される音波または超音波の位相差に基づき音源の位置を算出するという手法を使用することができる。
【0179】
さらにまた、上記の第4の実施形態およびその変形例では、画像合成に反映させるべき位置情報(上位概念的には属性情報)は、光源(可視光のみならず赤外光等の非可視光の光源も含む)、電波の発信源、または音波(可聴音のみならず超音波等の非可聴音も含む)の音源(上位概念的には空間を伝搬する波を発する波源)の位置情報であり、その位置情報を求めるべき波源の種類は固定的に決まっているものとしているが、この波源の種類が利用者の操作等により変更可能なように構成されていてもよい。例えば、利用者Uの本体部4bへの操作によって光検出装置が検出すべき光の波長または波長帯を切り換えるようにしてもよく、また、光検出装置と超音波の検出装置の双方を本体部4bが備え、光を検出するか超音波を検出するかを利用者Uの本体部4bへの操作によって切り換えることができるようにしてもよい。このようにすれば、利用者の嗜好に応じて更に富んだ合成画像を生成することができる。
【0180】
<5 その他>
本発明は上記の各実施形態やその変形例に限定されるものではなく、本発明の範囲を逸脱しない限りにおいて種々の変形を施すことができる。そして、撮影画像において特定の画像的特徴を有する領域を特定領域として検出し、その特定領域に対応付けて予め用意された所定画像を撮影画像に描画することでモニタ用またはプリント用合成画像を生成し、その特定領域と描画すべき所定画像のうち少なくとも一方が変更可能なように構成された自動写真作成装置は、本発明の範囲に属する。また、撮影室2内において電磁波(可視光、赤外光、電波等)や音波(可聴音波、超音波等)等の波源の位置情報(上位概念的には属性情報)を検出し、その位置情報に応じて所定画像を撮影画像に描画することにより合成画像を生成するように構成された自動写真作成装置も本発明の範囲に属する。なお、上記の各実施形態やその変形例では、特定の画像的特徴を有する領域として検出すべき特定領域(または位置を検出すべき波源の種類)と描画すべき所定画像(選択画像)とは、基本的には利用者Uの操作等によって手動的に変更されうる構成となっているが、これに代えて又はこれと共に、所定のプログラム等に基づきこれら特定領域(または波源の種類)と所定画像のうち少なくとも一方が自動的に変更されうる構成であってもよい。これら特定領域(または波源の種類)と所定画像のうち少なくとも一方が自動的に変更される場合であっても、シャッターボタンを押下するタイミングを利用者U等が種々に変えることで、撮影画像に基づき利用者Uの嗜好に応じて変化に富んだプリント用合成画像およびその写真シールを作成することが可能となる。
【図面の簡単な説明】
【図1】本発明の第1の実施形態に係る遊戯用写真作成装置の側面図である。
【図2】第1の実施形態に係る遊戯用写真作成装置の本体部を示す正面図である。
【図3】第1の実施形態に係る遊戯用写真作成装置の要部を機能面から見た構成を示すブロック図である。
【図4】第1の実施形態に係る遊戯用写真作成装置における主制御部の動作を説明するためのフローチャートである。
【図5】第1の実施形態に係る遊戯用写真作成装置における背景パネルを被写体と共に示す図である。
【図6】第1の実施形態における合成画像の一例を示す図(a)および他の例を示す図(b)である。
【図7】第1の実施形態における背景パネルの点灯パターンの一例を示す図(a)、および、当該点灯パターンに対応する合成画像を示す図(b)である。
【図8】第1の実施形態の変形例を説明するための図である。
【図9】第1の実施形態の他の変形例を説明するための図である。
【図10】第1の実施形態の更に他の変形例を説明するための図である。
【図11】第1の実施形態の更に他の変形例を説明するための図である。
【図12】第1の実施形態の更に他の変形例を説明するための図である。
【図13】本発明の第2の実施形態に係る遊戯用写真作成装置の側面図である。
【図14】第2の実施形態に係る遊戯用写真作成装置における背景パネルを被写体と共に示す図である。
【図15】第2の実施形態に係る遊戯用写真作成装置における主制御部の動作を説明するためのフローチャートである。
【図16】第2の実施形態における合成画像の一例を示す図(a)および他の例を(b)である。
【図17】第2の実施形態の変形例において生成される合成画像を示す図である。
【図18】第2の実施形態の他の変形例を説明するための図である。
【図19】本発明の第3の実施形態に係る遊戯用写真作成装置に予め格納されているコマンドパターンのデータを説明するための図である。
【図20】第3の実施形態における主制御部の動作を説明するためのフローチャートである。
【図21】第3の実施形態におけるパターンコマンドの入力を説明するための図である。
【図22】本発明の第4の実施形態に係る遊戯用写真作成装置の本体部を示す正面図である。
【図23】第4の実施形態における光検出装置の構成例を示す図である。
【図24】第4の実施形態に係る遊戯用写真作成装置の要部を機能面から見た構成を示すブロック図である。
【図25】第4の実施形態に係る遊戯用写真作成装置の作用を説明するための図である。
【図26】第4の実施形態における主制御部の動作を説明するためのフローチャートである。
【図27】第4の実施形態の変形例の作用を説明するための図である。
【図28】第4の実施形態の変形例において手持ち光源までの距離の算出するための方法を説明するための図である。
【図29】第4の実施形態の変形例における主制御部の動作を説明するためのフローチャートである。
【図30】第4の実施形態の他の変形例に係る遊戯用写真作成装置の側面図である。
【符号の説明】
2 …撮影室
4 …本体部
4b …(第4の実施形態における)本体部
12a,12b,12 …光検出装置
10 …カメラ
13 …光源
20 …液晶タッチパネル
21 …タッチペン
22 …プレビューモニタ
30 …手持ち光源(携帯光源)
31 …手持ち光源(携帯光源)
31a…(手持ち光源における)第1光源
31b…(手持ち光源における)第2光源
40 …手持ち検出装置
52 …撮像部(カメラ)
54 …確認表示部(プレビューモニタ)
56 …光検出部(光検出装置)
62 …操作部(液晶タッチパネル)
64 …出力部(プリンタ)
70 …照明部
72 …I/O制御部(I/O制御装置)
74 …背景提供部(背景パネル)
80 …主制御部(主制御装置)
121〜123…受光素子(光センサ)
300…背景パネル(第1の実施形態における背景提供部)
301…光源
320…背景パネル(第2の実施形態における背景提供部)
321,322 …特定色の領域
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an automatic photo creation apparatus that captures a user with a camera and outputs a composite image generated based on the captured image as a photograph.
[0002]
[Prior art]
2. Description of the Related Art Conventionally, there is known a photo creation device for a game where a user is photographed with a camera and the photographed image is output as a photograph. Such a play photo creating apparatus has high playability or entertainment, and therefore, various images prepared in advance according to the user's preference are prepared for images to be synthesized with the photographed images (hereinafter referred to as “additional images”). In many cases, a user can select from various background images and foreground images, or can freely draw by a user using a pen-type input unit such as a touch pen or a light pen.
[0003]
For example, there is known a photo creation device for a game in which a plurality of types of curtains are prepared and a curtain that should constitute a user's background as a subject can be selected from the plurality of types of curtains. In addition, a technique of synthesizing a predetermined image separately prepared for a photographed image by chroma key processing is also well known, and various background images can be obtained by applying this technique to an amusement photo creating apparatus. Furthermore, there is a technique called a cross filter, that is, a technique in which a star-like pattern appears at a position corresponding to the lattice point in the photographed image by attaching a lattice-like scratch to the lens of the photographing camera. It is also possible to use this cross filter technique in an automatic photo creation apparatus in order to obtain a photographed image that is known and has high playability. Furthermore, Japanese Patent No. 3050209 is configured to detect the position of a specific part of a subject in a captured image and draw an appropriate object, for example, on the captured image based on the position of the specific part. A sticker vending machine as a photo creation device for games is disclosed, and according to such a configuration, it is possible to improve playability while suppressing a reduction in the operation rate of the device due to drawing of handwritten images called `` graffiti '' Become.
[0004]
[Patent Document 1]
Japanese Patent No. 3050209
[0005]
[Problems to be solved by the invention]
However, in the game photo creation device, when a curtain that should constitute the background of a subject is selected from a plurality of types of curtains, or an image selected from a plurality of types of images as a background image by chroma key processing. In the case of combining images, the combined image obtained by adding the background image to the photographed image cannot be changed with a high degree of freedom according to the user's preference. In addition, when the cross filter technique is applied to an amusement photo production apparatus, only a fixed pattern called a star pattern can be added to a photographed image. Furthermore, in the apparatus disclosed in Japanese Patent No. 3050209, the contents of the object to be drawn cannot be freely changed according to the user's preference, and the specific part to be detected depends on the selected pose of the subject. There is also a constraint that it is determined.
[0006]
Therefore, an object of the present invention is to provide an automatic photo creation apparatus that can change a composite image generated based on a photographed image with a high degree of freedom in accordance with a user's preference.
[0007]
[Means for Solving the Problems and Effects of the Invention]
According to a first aspect of the present invention, there is provided imaging means for photographing a user who is a subject in a predetermined photographing area, display means for displaying a photographed image obtained by the imaging means or a composite image including the photographed image, and the composite image. An automatic photo creation device comprising output means for outputting as a photo,
A region detecting unit for detecting a region having a specific image characteristic as a specific region in a captured image obtained by the imaging unit;
Attribute acquisition means for acquiring attribute information of the specific area based on a detection result of the area detection means;
Image combining means for generating the composite image by drawing a predetermined image on the captured image according to the attribute information;
At least one of the specific area and the predetermined image can be changed manually or automatically.
[0008]
According to the first invention, an area having a specific image characteristic is detected as the specific area, and attribute information of the specific area is acquired, and a predetermined image is added to the captured image according to the attribute information. A composite image is generated by drawing. Since at least one of the specific area to be detected and the predetermined image to be drawn can be changed manually or automatically, the photograph of the composite image rich in change according to the user's preference based on the photographed image Can be created.
[0009]
According to a second invention, in the first invention,
Based on a predetermined operation, further comprising a feature setting changing means for changing a setting of a specific image characteristic that the specific region should have,
The specific region detected by the region detecting unit is changed by changing the setting of a specific image feature by the feature setting changing unit.
[0010]
According to the second invention, the specific area to be detected is changed by changing a specific image characteristic that the specific area should have by a predetermined operation, so that the composite image generated based on the photographed image Can be easily changed with a high degree of freedom according to the preference of the user.
[0011]
According to a third invention, in the first or second invention,
The attribute acquisition means acquires coordinates indicating the position of the specific area,
The image composition means draws the predetermined image at a position indicated by the coordinates in the captured image.
[0012]
According to the third aspect of the invention, the user changes the position of the image to be added to the captured image by changing the specific area by the user, so that the composite image generated based on the captured image is displayed by the user. It can be changed with a high degree of freedom according to the preference of the user.
[0013]
According to a fourth invention, in any one of the first to third inventions,
Background providing means including a light source disposed in a region corresponding to the background of the subject;
A light source control means for controlling turning on / off of the light source according to a predetermined operation,
The area detecting means detects an area corresponding to the light source in a lit state in the captured image as the specific area.
[0014]
According to the fourth aspect of the invention, the specific area is changed by controlling the turning on / off of the light source in the background providing means, so that the composite image generated based on the photographed image can be freely controlled according to the user's preference. Can be easily changed in degrees.
[0015]
A fifth invention is the fourth invention,
The background providing means includes a plurality of light sources arranged at different positions in a region corresponding to the background of the subject,
The light source control unit controls a lighting pattern in the background providing unit by changing a light source in a lighting state among the plurality of light sources according to a predetermined operation.
[0016]
According to the fifth aspect, the specific area is changed by controlling the lighting pattern in the background providing means, so that the composite image generated based on the photographed image can be easily selected with a high degree of freedom according to the preference of the user. Can be changed.
[0017]
According to a sixth invention, in any one of the first to third inventions,
Background providing means including a light source disposed in a region corresponding to the background of the subject;
A light source control means for controlling the light intensity and / or color of the light source according to a predetermined operation,
The area detecting unit detects an area corresponding to the light source in the captured image as the specific area.
[0018]
According to the sixth aspect of the invention, the attribute of the specific area can be changed by controlling the light intensity and / or color of the light source in the background providing means, so the composite image generated based on the photographed image is used. It can be easily changed with a high degree of freedom according to the user's preference.
[0019]
According to a seventh invention, in any one of the first to third inventions,
A background providing means including an area of a specific color arranged in an area corresponding to the background of the subject;
The area detecting means detects an area corresponding to the area of the specific color in the captured image as the specific area.
[0020]
According to the seventh aspect, the composite image generated based on the captured image is changed by the user by changing the predetermined image to be drawn in the region corresponding to the specific color region in the captured image. It can be easily changed with a high degree of freedom according to the preference of the user.
[0021]
In an eighth aspect based on the seventh aspect,
Size specifying means for specifying the size or size range of the specific color area according to a predetermined operation;
The background providing means has a plurality of regions of different sizes as the specific color region,
The area detecting means detects, as the specific area, an area corresponding to a specific color area corresponding to the designated size or size range among the plurality of specific color areas in the captured image. .
[0022]
According to the eighth aspect, the specific area is changed by changing the size of the specific color area or the size range. Therefore, the composite image generated based on the photographed image is high according to the preference of the user. It can be easily changed with a degree of freedom.
[0023]
According to a ninth invention, in any one of the first to third inventions,
A background providing means having a specific pattern area arranged in an area corresponding to the background of the subject;
The area detecting means detects an area corresponding to the specific pattern area in the captured image as the specific area.
[0024]
According to such a ninth aspect, the user changes the predetermined image to be drawn in the area corresponding to the specific pattern area in the photographed image, so that the composite image generated based on the photographed image is displayed to the user. It can be easily changed with a high degree of freedom according to the preference of the user.
[0025]
A tenth invention is the ninth invention,
Size specifying means for specifying a size or a size range of the specific pattern region in accordance with a predetermined operation;
The background providing means has a plurality of regions of different sizes as the specific pattern region,
The area detecting means detects, as the specific area, an area corresponding to a specific pattern area corresponding to the specified size or size range among the plurality of specific pattern areas in the captured image. .
[0026]
According to the tenth invention, the specific area changes by changing the size of the area of the specific pattern or the size range, so that the synthesized image generated based on the photographed image is high according to the preference of the user. It can be easily changed with a degree of freedom.
[0027]
In an eleventh aspect based on any one of the first to third aspects,
A portable light source that is carried by the user and can be arranged at an arbitrary position in a predetermined space near the user;
The area detecting means detects an area corresponding to the portable light source in the captured image as the specific area.
[0028]
According to such an eleventh aspect, the position of the specific area is changed by moving the portable light source to an arbitrary position in the predetermined space near the user. Therefore, the synthesized image generated based on the photographed image is used by the user. It can be easily changed with a high degree of freedom according to the preference of the user.
[0029]
In a twelfth aspect based on the eleventh aspect,
The portable light source includes first and second light sources disposed at a predetermined distance from each other,
The area detecting means detects a first specific area corresponding to the first light source in the captured image and a second specific area corresponding to the second light source in the captured image, and Detecting a direction connecting the first specific area and the second specific area;
The image synthesizing unit generates the synthesized image by drawing the predetermined image on the photographed image according to the direction detected by the region detecting unit.
[0030]
According to such a twelfth aspect, since the predetermined image is drawn on the photographed image in accordance with the direction determined based on the positions of the first and second light sources included in the portable light source, the user tilts the portable light source. This makes it possible to easily change the drawing of the predetermined image on the photographed image.
[0031]
In a thirteenth aspect of the invention according to the twelfth aspect of the invention,
The first and second light sources have different wavelengths;
The area detecting means detects a direction from the first specific area to the second specific area.
[0032]
According to such a thirteenth aspect, the direction from the first specific area to the second specific area can be distinguished from the direction from the second specific area to the first specific area, so that it is detected. The range of directions is 0 to 360 degrees. As a result, the composite image generated based on the captured image can be changed with a high degree of freedom according to the user's preference.
[0033]
In a fourteenth aspect based on the eleventh aspect,
The portable light source includes first and second light sources disposed at a predetermined distance from each other,
The area detecting means detects a first specific area corresponding to the first light source in the captured image and a second specific area corresponding to the second light source in the captured image, and Detecting a distance to the portable light source based on the first and second specific regions and the predetermined interval;
The image synthesizing unit generates the synthesized image by drawing the predetermined image on the photographed image according to the distance detected by the region detecting unit.
[0034]
According to such a fourteenth aspect, the distance to the portable light source is detected based on the positions of the first and second light sources included in the portable light source, and a predetermined image is drawn on the photographed image according to the distance. Therefore, the drawing of the predetermined image on the photographed image can be easily changed by moving the portable light source by the user.
[0035]
In a fifteenth aspect based on the eleventh aspect,
The portable light source includes a rod-shaped light source,
The area detecting means detects a specific area corresponding to the rod-shaped light source in the captured image and detects a longitudinal direction of the specific area,
The image synthesizing unit generates the synthesized image by drawing the predetermined image on the photographed image according to the longitudinal direction.
[0036]
According to such a fifteenth aspect, since the predetermined image is drawn on the captured image in accordance with the longitudinal direction of the rod-shaped light source included in the portable light source, the predetermined image on the captured image is tilted by the user tilting the portable light source. The drawing can be easily changed.
[0037]
According to a sixteenth aspect of the invention, in any one of the first to third aspects of the invention,
The area detecting unit detects an area of a specific color in the user's clothes or body in the captured image as the specific area.
[0038]
According to a seventeenth aspect of the invention, in any one of the first to third aspects of the invention,
The region detecting means detects a specific pattern region in the user's clothes or body in the captured image as the specific region.
[0039]
According to an eighteenth aspect of the invention, in any one of the first to seventeenth aspects,
An image selection means for selecting an image based on a predetermined operation from a plurality of predetermined images;
The image synthesizing unit draws the image selected by the image selecting unit as the predetermined image on the photographed image.
[0040]
According to the eighteenth aspect, the predetermined image to be drawn on the photographed image changes based on a predetermined operation among a plurality of types of images. Therefore, the composite image generated based on the photographed image is made to the user's preference. It can be easily changed with a high degree of freedom.
[0041]
In a nineteenth aspect based on any one of the first to eighteenth aspects,
The image synthesizing unit changes the predetermined image to be drawn on the photographed image as time passes.
[0042]
According to such a nineteenth aspect, the predetermined image to be drawn on the photographed image changes with the passage of time, so that a composite image having a great variety of playability is obtained as a composite image generated based on the photographed image. be able to.
[0043]
In a twentieth aspect based on the nineteenth aspect,
The image synthesizing unit is characterized in that the predetermined image to be drawn on the photographed image is randomly changed around a predetermined reference image.
[0044]
According to the twentieth aspect, since the predetermined image to be drawn on the photographed image changes randomly with the passage of time, the composite image that is rich in change as the composite image generated based on the photographed image. Can be obtained.
[0045]
According to a twenty-first aspect, in any one of the first to eighteenth aspects,
The image synthesizing unit moves the predetermined image to be drawn on the captured image as time passes.
[0046]
According to such a twenty-first aspect, since the predetermined image to be drawn on the captured image moves with the passage of time, a composite image having a great variety of playability is obtained as a composite image generated based on the captured image. be able to.
[0047]
According to a twenty-second aspect, in the twenty-first aspect,
The image synthesizing unit randomly changes a position where the predetermined image should be drawn in the photographed image within a predetermined range based on the position of the specific area.
[0048]
According to the twenty-second aspect, since the position where the predetermined image is drawn in the captured image changes randomly within a predetermined range, the composition image generated based on the captured image is more varied and more playable. A high composite image can be obtained.
[0049]
According to a twenty-third aspect, in any one of the first to twenty-second aspects,
The image composition means draws a predetermined image at a random position within a predetermined range based on the position of the specific area.
[0050]
According to the twenty-third aspect, since the predetermined image is drawn at random positions within the predetermined range in the photographed image, the composition is rich in change and has high playability as a composite image generated based on the photographed image. An image can be obtained.
[0051]
A twenty-fourth aspect of the invention is any one of the first to eighteenth aspects of the invention,
The attribute acquisition means acquires at least one of the size, area, shape, brightness, or color of the specific region as the attribute information,
The image composition means draws an image obtained by deforming a predetermined reference image according to at least one of size, area, shape, brightness, or color acquired as the attribute information as the predetermined image on the captured image. It is characterized by doing.
[0052]
According to such a twenty-fourth aspect, by rendering an image obtained by deforming a predetermined reference image according to at least one of the size, area, shape, brightness, or color of the specific region on the captured image. Since the composite image is generated, the composite image can be easily changed with a high degree of freedom according to the user's preference.
[0053]
A twenty-fifth aspect of the invention is any one of the first to twenty-fourth aspects of the invention,
The region detection unit acquires a captured image obtained by the imaging unit in real time, detects a specific region having the specific image characteristic in the acquired captured image in real time,
The attribute acquisition means acquires the attribute information in real time according to the change of the specific area or the predetermined image,
The image synthesizing unit generates the synthesized image in real time according to the change of the specific region or the predetermined image,
The display means displays the generated composite image in real time according to a change in the specific area or the predetermined image.
[0054]
According to the twenty-fifth aspect, since the change of the specific area or the predetermined image is reflected in real time on the display of the composite image based on the photographed image, the composite image can be efficiently and easily adapted to the user's preference. It can be changed with a degree of freedom.
[0055]
According to a twenty-sixth aspect of the invention, in any one of the first to twenty-fifth aspects of the invention,
The image synthesizing unit draws the movement locus of the specific area on the captured image in real time based on the coordinates of the specific area sequentially acquired as the attribute information by the attribute acquisition unit,
The display means displays the movement locus in real time.
[0056]
According to such a twenty-sixth aspect, since the trajectory of the movement of the specific area is drawn on the captured image in real time, a composite image having a great variety of playability is obtained as a composite image generated based on the captured image. be able to.
[0057]
In a twenty-seventh aspect, a photographing step for photographing a user who is a subject in a predetermined photographing region, a display step for displaying a photographed image obtained by the photographing step or a composite image including the photographed image, and the composite image An automatic photo creation method comprising an output step of printing as a photo,
A region detecting step for detecting a region having a specific image characteristic as a specific region in a captured image obtained by the photographing step;
An attribute acquisition step for acquiring attribute information of the specific region based on the detection result in the region detection step;
An image synthesis step of generating the synthesized image by drawing a predetermined image on the captured image in accordance with the acquired attribute information,
At least one of the specific area and the predetermined image can be changed manually or automatically.
[0058]
In a twenty-eighth aspect, in the twenty-seventh aspect,
A feature setting changing step of changing a setting of a specific image feature that the specific region should have based on a predetermined operation;
The specific area detected in the area detecting step is changed by changing the setting of the specific image characteristic in the characteristic setting changing step.
[0059]
The twenty-ninth invention is the twenty-seventh or twenty-eighth invention,
In the attribute acquisition step, coordinates indicating the position of the specific area are acquired,
In the image composition step, the predetermined image is drawn at a position indicated by the coordinates in the captured image.
[0060]
In a thirtieth aspect of the present invention based on any one of the twenty-seventh to twenty-ninth aspects of the invention,
A light source control step for controlling turning on / off of a light source arranged in a region corresponding to the background of the subject according to a predetermined operation;
In the area detection step, an area corresponding to the light source in a lit state in the captured image is detected as the specific area.
[0061]
In a thirty-first aspect, in any of the twenty-seventh to twenty-ninth aspects,
A light source control step of controlling a light intensity and / or color of a light source arranged in a region corresponding to the background of the subject according to a predetermined operation;
In the region detection step, a region corresponding to the light source in the captured image is detected as the specific region.
[0062]
In a thirty-second invention according to any of the twenty-seventh to twenty-ninth inventions,
In the region detecting step, a region corresponding to a region of a specific color arranged in a region corresponding to the background of the subject is detected as the specific region in the photographed image.
[0063]
In a thirty-third invention according to any of the twenty-seventh to twenty-ninth inventions,
In the region detection step, a region corresponding to a specific pattern region arranged in a region corresponding to the background of the subject is detected as the specific region in the photographed image.
[0064]
In a thirty-fourth aspect of the invention according to any of the twenty-seventh to twenty-ninth aspects of the invention,
In the area detection step, an area corresponding to a portable light source that is carried by the user and can be placed in an arbitrary position in a predetermined space near the user is detected as the specific area in the captured image. To do.
[0065]
A thirty-fifth aspect of the invention is any one of the twenty-seventh to thirty-fourth aspects of the invention,
In the image synthesizing step, the predetermined image to be drawn on the photographed image changes with the passage of time.
[0066]
A thirty-sixth aspect of the invention is any one of the twenty-seventh to thirty-fifth aspects of the invention,
In the region detection step, the captured image obtained in the imaging step is acquired in real time, and the specific region having the specific image characteristic is detected in real time in the acquired captured image,
In the attribute acquisition step, the attribute information is acquired in real time according to the change of the specific area or the predetermined image,
In the image synthesizing step, the synthesized image is generated in real time according to the change of the specific region or the predetermined image,
In the display step, the generated composite image is displayed in real time according to the change of the specific region or the predetermined image.
[0067]
A thirty-seventh aspect of the invention is any one of the twenty-seventh to thirty-sixth aspects of the invention,
In the image composition step, the movement locus of the specific area is drawn in real time on the captured image based on the coordinates of the specific area sequentially acquired as the attribute information in the attribute acquisition step,
In the display step, the movement trajectory is displayed in real time.
[0068]
A thirty-eighth aspect is a program that causes a computer to execute the automatic photo creation method according to any one of the twenty-seventh to thirty-seventh aspects.
[0069]
A thirty-ninth aspect of the invention is a print medium, which is printed as a photograph by the automatic photo creating method according to any one of the twenty-seventh to thirty-seventh aspects.
[0070]
A 40th aspect of the present invention is an automatic apparatus comprising: an imaging unit that captures a user who is a subject in a predetermined imaging region; and an output unit that outputs a captured image obtained by the imaging unit or a composite image including the captured image as a photograph. A photo creation device,
Position detection means for detecting, as specific coordinates, coordinates indicating the position of a specific area that is an area having specific image characteristics in a captured image obtained by the imaging means;
Coordinate sequence acquisition means for acquiring time-series data consisting of specific coordinates sequentially detected by the position detection means as coordinate sequence data indicating a movement trajectory of the specific area;
A movement pattern which is a pattern of a movement trajectory indicated by the coordinate sequence data is a predetermined command pattern associated in advance with one or more predetermined commands instructing processing to be executed in the automatic photo creating apparatus. Pattern recognition means for determining which matches,
Command execution means for executing processing instructed by a command associated with a command pattern determined to match the movement pattern based on the recognition result of the pattern recognition means.
[0071]
According to such a 40th aspect, an instruction (command) can be given to the automatic photo creating apparatus by moving a predetermined area. Therefore, when creating a photograph of a photographed image or a composite image including the photographed image. Improved operability.
[0072]
In a forty-first aspect, in the forty-first aspect,
A portable light source that is carried by the user and can be arranged at an arbitrary position in a predetermined space near the user;
The position detecting means detects coordinates indicating the position of an area corresponding to the portable light source in the captured image obtained by the imaging means as the specific coordinates.
[0073]
According to such a forty-first aspect, a user as a subject can give an instruction (command) to the automatic photo creating apparatus by moving the portable light source. The operability when creating a photograph of an image or a composite image including the captured image is further improved.
[0074]
A forty-second aspect of the invention includes an imaging step of photographing a user who is a subject in a predetermined photographing region, and an automatic step of outputting a photographed image obtained by the photographing step or a composite image including the photographed image as a photograph. A method for creating a photo,
A position detecting step of detecting, as specific coordinates, coordinates indicating the position of a specific area, which is an area having specific image characteristics in a captured image obtained by the imaging step;
A coordinate sequence acquisition step for acquiring time series data consisting of specific coordinates sequentially detected by the position detection step as coordinate sequence data indicating a movement locus of the specific region;
A predetermined command pattern in which a movement pattern, which is a pattern of a movement trajectory indicated by the coordinate string data, is previously associated with one or more predetermined commands instructing processing to be executed for the automatic photo creation. A pattern recognition step that determines which one of
And a command execution step of executing a process instructed by a command associated with a command pattern determined to match the movement pattern based on a recognition result in the pattern recognition step.
[0075]
The forty-third invention is a program that causes a computer to execute the automatic photo creating method according to the forty-second invention.
[0076]
The forty-fourth invention is a print medium, which is printed as a photograph by the automatic photo creating method according to the forty-second invention.
[0077]
According to a forty-fifth aspect of the present invention, there is provided an imaging means for photographing a user who is a subject in a predetermined photographing area, a display means for displaying a photographed image obtained by the imaging means or a composite image including the photographed image, and the composite image. An automatic photo creation device comprising output means for outputting as a photo,
Detecting means for detecting a wave emitted by a predetermined wave source in the imaging region;
Attribute acquisition means for acquiring attribute information of the wave source based on the waves detected by the detection means;
And image synthesizing means for generating the synthesized image based on the attribute information.
[0078]
According to such a forty-fifth aspect, since the composite image is generated based on the attribute information of the predetermined wave source existing in the photographing region, it is possible to create a photograph of the composite image rich in change based on the photographed image. .
[0079]
The forty-sixth invention is the forty-fifth invention,
The attribute acquisition means includes position information acquisition means for acquiring position information indicating the position of the wave source as the attribute information based on the wave detected by the detection means,
The image synthesizing unit generates the synthesized image by drawing a predetermined image on the photographed image according to the position information.
[0080]
According to such a forty-sixth aspect, since the predetermined image is drawn on the captured image based on the position information of the predetermined wave source existing in the imaging region, a photograph of a composite image rich in change is created based on the captured image. be able to.
[0081]
47th invention is the 46th invention,
At least one of the predetermined wave source and the predetermined image can be changed manually or automatically.
[0082]
According to the forty-seventh aspect, the predetermined image is drawn on the captured image based on the position information of the predetermined wave source existing in the imaging region, and at least one of the predetermined wave source and the predetermined image is manually or automatically Therefore, based on the photographed image, it is possible to create a composite image having a variety of changes according to the user's preference.
[0083]
The forty-eighth invention is any one of the forty-fifth to forty-seventh inventions,
The wave source is a portable wave source that is carried by the user and can be placed at an arbitrary position in a predetermined space near the user.
[0084]
According to the forty-eighth aspect, since the drawing of the predetermined image on the captured image is changed by moving the portable wave source to an arbitrary position in the predetermined space near the user, the synthesis generated based on the captured image is performed. The image can be easily changed with a high degree of freedom according to the user's preference.
[0085]
The forty-ninth aspect of the invention is the forty-eighth aspect of the invention,
The portable wave source includes first and second wave sources that are spaced apart from each other by a predetermined distance and emit waves having different wavelengths,
The detection means obtains first position information indicating the position of the first wave source and second position information indicating the position of the second wave source, and based on the first and second position information, Detecting a direction from the first wave source to the second wave source;
The image synthesizing unit generates the synthesized image by drawing the predetermined image on the photographed image according to the direction detected by the detecting unit.
[0086]
According to such a 49th aspect, since the predetermined image is drawn on the photographed image in accordance with the direction determined based on the positions of the first and second wave sources included in the portable wave source, the user tilts the portable wave source. This makes it possible to easily change the drawing of the predetermined image on the photographed image.
[0087]
The 50th invention is the 48th invention, wherein
The portable wave source includes first and second wave sources that are spaced apart from each other by a predetermined distance and emit waves having different wavelengths,
The detection means detects first position information indicating a position of the first wave source and second position information indicating a position of the second wave source, and detects the first and second position information and the predetermined interval. Detecting the distance to the portable wave source based on
The image synthesizing unit generates the synthesized image by drawing the predetermined image on the photographed image according to the distance detected by the detecting unit.
[0088]
According to such a 50th aspect, the distance to the portable wave source is detected based on the positions of the first and second wave sources included in the portable wave source, and a predetermined image is drawn on the photographed image according to the distance. Therefore, the drawing of the predetermined image on the photographed image can be easily changed by the user moving the portable wave source.
[0089]
According to a 51st aspect of the invention, in any of the 46th to 50th aspects of the invention,
The detection means includes a plurality of sensors that detect waves emitted by the wave source,
The position information acquisition unit calculates a position of the wave source based on an intensity difference or a phase difference between waves detected by the plurality of sensors, and generates information indicating the calculated position as the position information. It is characterized by doing.
[0090]
According to a fifty-second invention, an imaging means for photographing a user who is a subject in a predetermined photographing area, a display means for displaying a photographed image obtained by the imaging means or a composite image including the photographed image, and the composite image An automatic photo creation device comprising output means for outputting as a photo,
A wave source arranged at a predetermined position and emitting a predetermined wave propagating through the space in the imaging region;
Detecting means for detecting a wave emitted by the wave source;
Position information acquisition means for acquiring position information indicating the position of the detection means based on the waves detected by the detection means;
Image synthesizing means for generating the synthesized image by drawing a predetermined image on the photographed image according to the position information.
[0091]
According to such a fifty-second aspect, since the predetermined image is drawn on the captured image based on the position information of the wave detecting means emitted from the predetermined wave source, a photograph of a composite image rich in change is created based on the captured image. can do.
[0092]
The fifty-third invention is the fifty-second invention,
The predetermined image can be changed manually or automatically.
[0093]
According to such a fifty-third aspect, the predetermined image to be drawn on the captured image based on the position information of the detecting means for detecting the predetermined wave can be changed manually or automatically. Based on this, it is possible to create a photograph of a composite image rich in change according to the user's preference.
[0094]
54th invention is based on 52nd or 53rd invention,
The detection means is carried by the user and can be arranged at an arbitrary position in a predetermined space near the user.
[0095]
According to such a fifty-fourth aspect, the drawing of the predetermined image on the photographed image is changed by moving the detection means for detecting the prescribed wave to an arbitrary position in the prescribed space near the user. It is possible to easily change the composite image generated based on the user with a high degree of freedom according to the user's preference.
[0096]
The 55th invention in any of the 45th to 54th inventions,
The wave source is any one of a visible light or infrared light source, an audible sound wave or an ultrasonic sound source, and a radio wave source.
[0097]
A fifty-sixth aspect of the invention includes an imaging step of photographing a user who is a subject in a predetermined photographing region and an output step of printing a photographed image obtained by the photographing step or a composite image including the photographed image as a photograph. A method for creating a photo,
An attribute acquisition step of acquiring attribute information of the wave source based on a detection result by a predetermined detection means for detecting a wave emitted from the predetermined wave source in the imaging region;
An image synthesis step for generating the synthesized image based on the attribute information;
It is characterized by providing.
[0098]
The 57th invention is the 56th invention,
The attribute acquisition step includes a position information acquisition step of acquiring position information indicating the position of the wave source as the attribute information based on the detection result,
In the image composition step, the composite image is generated by drawing a predetermined image on the captured image in accordance with the position information.
[0099]
A 58th aspect of the invention includes an imaging step of photographing a user who is a subject in a predetermined photographing region and an output step of printing a photographed image obtained by the photographing step or a composite image including the photographed image as a photograph. A method for creating a photo,
A position information acquisition step for acquiring position information indicating a position of the detection means based on a detection result of a predetermined detection means for detecting a wave emitted from a predetermined wave source arranged at a predetermined position;
And an image composition step of generating the composite image by drawing a predetermined image on the captured image in accordance with the position information.
[0100]
The 59th invention is a program, characterized by causing a computer to execute the automatic photo creating method according to any one of the 56th to 58th inventions.
[0101]
A sixty-sixth aspect of the present invention is a print medium, which is printed as a photograph by the automatic photo creating method according to any one of the fifty-sixth to eighty-eighth inventions.
[0102]
DETAILED DESCRIPTION OF THE INVENTION
Embodiments of the present invention will be described below with reference to the accompanying drawings.
<1 First Embodiment>
<1.1 Overall configuration>
FIG. 1 is a side view of an amusement photo creation apparatus that is an automatic photo creation apparatus according to a first embodiment of the present invention. FIG. 2 is a front view of a main body 4 of the amusement photo creation apparatus. FIG. 6 is a view (as viewed from a user U as a subject). Hereinafter, with reference to FIG. 1 and FIG. 2, an overall configuration of the game photo creation device according to the present embodiment will be described.
[0103]
This play photo creation apparatus includes a shooting room 2 in which a user U enters and a main body 4 that generates a composite image including a shot image of the user U and outputs it as a photo sticker (or photo card). In the photographing room 2, a background panel 300 is provided as a background providing unit that provides the background of the subject U.
[0104]
The main body 4 includes a camera 10 as an imaging unit for photographing the user U, a flash 11 that is arranged at an appropriate position above the camera 10 and emits flash light, and a CRT (Cathode) that is arranged below the camera 10. A preview monitor 22 that is a display device including a Ray Tube) or a liquid crystal display panel, a liquid crystal display that provides an operation screen, a liquid crystal touch panel 20 that includes a transparent sheet for detecting an operation position that covers the operation screen, and the liquid crystal touch panel 20 And a touch pen 21 used for operation. The camera 10 captures an image of a user U present on the floor surface of the imaging room 2 as a subject, and outputs an image signal representing the captured image. Typically, a digital camera that generates a digital image signal using a CCD (Charge Coupled Device) is used. The preview monitor 22 is configured to display an image represented by the image signal in real time, and is used to confirm a captured image obtained by the camera 10. The liquid crystal touch panel 20 is used to control an operation unit for designating an image to be drawn (overwritten) in a specific area detected in a captured image at the time of image synthesis described later, and a light source 301 described later on the background panel 300. It functions as an operation means.
[0105]
The main body unit 4 is configured mainly by a computer, and controls the respective units and performs image processing such as image synthesis and the like, and a composite image including a photographed image obtained by the camera 10 or the photographed image. It has a built-in printer that outputs images as photo stickers (or photo cards). Further, the main body 4 is provided with a coin insertion slot 26 below the front surface and a photographic sticker outlet 28 on the side surface. Furthermore, the main body 4 includes lighting devices 201L and 201R that are always turned on during the operation of the present photo creating device, on the left and right sides of the camera 10, respectively.
[0106]
The background panel 300 is disposed behind the user U at the time of photographing so as to constitute the background of the subject, and has a surface (hereinafter referred to as “opposing surface”) facing the back surface of the user U. A plurality of light sources 301 arranged at different positions are provided.
[0107]
<1.2 Functional configuration>
FIG. 3 is a block diagram showing a configuration of the main part of the play photo creating apparatus according to the present embodiment as seen from the functional aspect. Functionally, the game photo creation device includes an imaging unit 52, a confirmation display unit 54, an operation unit 62, an output unit 64, an illumination unit 70, an I / O control unit 72, and a background providing unit. 74 and a main control unit 80.
[0108]
In this configuration, the imaging unit 52 corresponds to the camera 10 configured using an imaging device such as a CCD, and captures an image in real time (this image may be referred to as a “through image”, In this case, an image signal representing a “captured image for monitoring” is output. This image signal is input to the main control unit 80 and temporarily stored as monitor image data in its internal memory. The monitor image data is supplied from the main control unit 80 to the confirmation display unit 54 as a monitor image signal. The confirmation display unit 54 corresponds to the preview monitor 22 and displays a monitor photographic image in real time based on the monitor image signal.
[0109]
The operation unit 62 corresponds to the liquid crystal touch panel 20 and accepts an operation of a user U related to an image composition process to be described later, a shutter operation, an operation for print output, and the like. To the main control unit 80. Now, assuming that the shutter button is pressed for shooting by the user U, the flash 11 flashes in the shooting direction of the camera 10 after the elapse of a predetermined time of about several seconds based on an instruction from the main control unit 80. The image signal output from the imaging unit 52 as a signal representing the captured image of the user U (hereinafter, such a captured image when the shutter button is pressed is referred to as “printed captured image”) is sent to the main control unit 80. The data is input and stored as image data for printing in a memory in the main control unit 80 or a hard disk device as an auxiliary storage device. The output unit 64 corresponds to a printer built in the main body unit 4, and outputs an image represented by the print image data as a photo sticker (or photo card) based on an instruction from the main control unit 80.
[0110]
The illumination unit 70 corresponds to the illumination devices 201 </ b> L and 201 </ b> R and the flash 11 in the main body unit 4, and is turned on / off and dimmed by the I / O control unit 72 based on an instruction from the main control unit 80.
[0111]
The background providing unit 74 corresponds to the background panel 300 provided in the photographing room 2, and the background panel 300 has different areas (opposing surfaces) corresponding to the background of the user U as the subject as shown in FIG. A plurality of light sources (light sources that can be regarded as point light sources) 301 are disposed at positions, and these light sources 301 are in accordance with instructions from the main control unit 80 based on a predetermined operation on the operation unit 62. On / off control is controlled by the / O control unit 72. That is, the user U can control lighting / extinguishing of each light source 301 of the background panel 300 and change a lighting pattern in the background panel 300.
[0112]
The I / O control unit 72 corresponds to an I / O control device built in the main body unit 4, and controls the illumination unit 70 and the background providing unit 74 based on an instruction from the main control unit 80, and a coin described later. An input signal such as a detection signal from a detection unit (not shown) is transferred to the main control unit 80.
[0113]
The main control unit 80 is built in the main body unit 4 and corresponds to a main control unit mainly composed of a computer including a CPU (Central Processing Unit), a memory, a timer, an auxiliary storage device, etc., and is stored in an internal memory. When the predetermined program is executed by the CPU, an instruction is issued to each unit as described above in order to control each unit based on the operation signal input as described above. Further, image processing described later is performed on the monitor or print photographed image, and a part of the monitor image data or print image data is rewritten based on the operation signal, whereby the monitor photograph image or the print photograph image is obtained. A monitor composite image or a print composite image, which is an image in which a predetermined image is drawn, is generated. The image that can be drawn here is a plurality of types of images (typically images of known patterns such as an image representing a star shape or an image representing a heart shape, but is not limited thereto. For example, a captured image acquired in advance) may be prepared and stored in a memory or an auxiliary storage device in the main control unit 80. When the image composition as described above is performed, a monitor composite image is displayed on the confirmation display unit 54 (preview monitor 22) based on the monitor image data, and the print composite image is displayed on the photo sticker from the output unit. Etc. are output. The outputted photographic sticker or the like is taken out from an outlet 28 provided on the side surface of the main body 4.
[0114]
In addition to the above components, a coin detection unit (not shown) for detecting coins inserted into the coin insertion slot 26 in the main body unit 4 is further provided in the main body unit 4, and the main control unit 80 Based on the detection result of the detection unit, each unit is controlled so as to allow the user U to play with the present photo creation device, such as generation of a composite image by photographing or drawing the captured image for a predetermined time. Since the control operation by the coin control unit and the main control unit 80 based on the detection result is the same as that of the conventional game photo creation device and is well known, detailed description thereof will be omitted.
[0115]
The predetermined program executed in the main control device is provided by, for example, a CD-ROM that is a recording medium on which the program is recorded. That is, a CD-ROM serving as a recording medium for the predetermined program is mounted on a CD-ROM driving device built in the main control device as an auxiliary storage device, and the predetermined program is read from the CD-ROM to be an auxiliary storage device. Installed on the hard disk device. Then, when a predetermined operation for starting up the present photo creating device is performed, the predetermined program installed in the hard disk device is transferred to the memory in the main control device and temporarily stored therein, and the main control It is executed by the CPU in the apparatus. As a result, the above-described control of each unit by the main control device and image processing described later are realized.
[0116]
<1.3 Operation>
As described above, the operation of the main control unit 80 in the present embodiment is realized by executing the predetermined program by the internal CPU. FIG. 4 is a flowchart showing the operation of the main control unit 80 realized in this way. In the present embodiment, when a predetermined coin is inserted into the coin insertion slot 26, the main control unit 80 (main control device) operates as follows.
[0117]
First, the game photo creation device according to the present embodiment is initialized (this initialization includes initialization of data stored in the main control unit 80 as a set value in addition to initialization as hardware). (Step S102). Next, an image signal output from the camera 10 is received and temporarily stored in the internal memory as monitor image data, thereby obtaining a monitor photographic image (step S104). Thereafter, an operation for selecting one of a plurality of predetermined images (hereinafter referred to as “drawing images”) prepared in advance as images to be drawn at the time of image synthesis described later is performed on the operation unit 62. It is determined whether or not (step S106). As a result of the determination, if such a drawing image selection operation is not performed, the process proceeds to step S110 as it is, and if the selection operation is performed, the drawing image selected by the selection operation is selected as the selection image. Set (step S108), and then proceed to step S110.
[0118]
In step S110, based on the monitor image data, an area corresponding to the light source that is lit among the light sources of the background panel 300 in the monitor photographed image is determined based on the luminance value of each pixel of the monitor photographed image, for example. (Step S110). Next, based on the detection result, coordinates indicating the position of each specific area in the monitor photographic image are calculated (step S112). Then, the selected image is drawn at the position indicated by each calculated coordinate in the monitor photographic image (step S114). This drawing is an overwriting of the photographed image, which corresponds to rewriting a part of the monitor image data, and a monitor composite image is obtained by this drawing. Thereafter, the monitor composite image is displayed on the confirmation display unit 54 (preview monitor 22) based on the monitor image data after the drawing.
[0119]
For example, as shown in FIG. 5, when all the light sources 301 in the background panel 300 are turned on and a star-shaped drawing image is set as the selection image, each area corresponding to the point light source 301 in the monitor image is displayed. As shown in FIG. 6A, an image in which a star image is added (overwritten) at the position of the specific area is obtained as a monitor image (composite image), and this is previewed. It is displayed on the monitor 22. When a heart-shaped drawing image is set as the selected image, a heart-shaped image is added to the position of each specific area corresponding to the point light source 301 in the monitor image, as shown in FIG. 6B. The overwritten image is obtained as a monitor image (composite image) and displayed on the preview monitor 22. In the example shown in FIGS. 6A and 6B, the whole body of the user U as the subject and the entire front surface of the background panel 300 appear in the composite image, but the generated composite image (for monitoring) is generated. However, the image is not limited to this, and actually, a captured image (for monitoring) representing the upper body of the user U and the background corresponding thereto is often acquired, and thus the composite image displayed on the preview monitor 22 In many cases, the image is in a range corresponding to that. However, for convenience of explanation, it is assumed that the whole body of the user U and the entire front surface of the background panel 300 appear in the composite image. This also applies to the monitor or print composite image described below (including examples in other embodiments).
[0120]
When the monitor composite image is displayed as described above, it is next determined whether or not the shutter button has been pressed (step S118). If the result of this determination is that the shutter button has not been pressed, processing returns to step S104, and thereafter, the operations in steps S104 to S118 described above are repeated until the shutter button is pressed. During this repeated operation, when the selected image is changed by an operation on the operation unit 62 (liquid crystal touch panel 20) by the user U or the like, the image drawn in the specific area changes. Here, it is possible to change the selected image by realizing the main control unit 80 so that the time required for executing the above-described steps S104 to S118 is sufficiently shorter than the time required for human action (operation). Accordingly, the drawn image (additional image) can be changed in real time in the composite image displayed on the preview monitor 22. Although the present invention is not limited to such a configuration, in the present embodiment, the following description will be made assuming that the configuration is as described above. Therefore, for example, when the selected image is changed from a star-shaped image to a heart-shaped image, the composite image displayed on the preview monitor 22 changes from the image shown in FIG. 6A to the image shown in FIG. 6B in real time. And change.
[0121]
If the shutter button is pressed while the operations of steps S104 to S118 are repeated, the process proceeds to step S120, and the captured image acquired by the camera 10 at the time of pressing is used as a captured image for printing in the main control unit 80. And store it as image data for printing. Then, based on the coordinates of the specific area calculated at that time and the selected image, a part of the image data for printing is rewritten, whereby a composite image for printing which is an image in which the selected image is drawn on the photographed image for printing. Generate (step S120). This print composite image is substantially the same as the monitor composite image displayed on the preview monitor 22 immediately before the shutter button is pressed (except for the difference in resolution). The composite image for printing thus generated is output as a photo sticker from the output unit 64 (printer) (step S122).
[0122]
In the present embodiment, the creation of one play photo is completed as described above. However, in general, a plurality of print image data is stored in the main control unit 80 by repeating the above operations a plurality of times. After that, it is often output from the printer as a photo sticker based on the operation of the user U or the like. In this embodiment, when the shutter button is pressed, a print image is generated and then the print image (composite image) is printed out as a photo sticker (steps S118 to S122). In many cases, the photo creation apparatus is configured to accept handwritten input such as graffiti and other editing inputs on a photographed image with a touch pen or the like before print output. Also in the present embodiment, the touch pen 21 and the liquid crystal touch panel 20 may be used to realize functions similar to those. However, in this embodiment, for convenience of explanation, the operation is simplified as shown in FIG. 4, and this point is the same in other embodiments.
[0123]
By the way, in this embodiment, it is possible to change the lighting pattern of the light source 301 in the background panel 300 by operation with respect to the operation part 62 (liquid crystal touch panel 20) by the user U etc., and a specific area | region is changed by this lighting pattern change. By changing it, it is also possible to change the composite image (for monitoring or printing) in real time. For example, from a state where all the light sources of the background panel 300 are turned on as shown in FIG. 5 (lighting pattern), to a state where only a part of the light sources are turned on as shown in FIG. In this case, the composite image (for monitoring or printing) changes in real time from the image shown in FIG. 6 (a) to the image shown in FIG. 7 (b). In the background panel 300 shown in FIG. 7A, it is assumed that the light sources drawn with white circles are in the on state and the light sources drawn with black circles are in the off state (the same applies to the following figures). .
[0124]
<1.4 Effect>
As described above, according to the present embodiment, the selected image and the specific area can be changed by the operation of the user U or the like, and the background is configured in the composite image (for monitoring or printing) in accordance with the change. The image (additional image) changes. In addition, the additional image itself and the position of the additional image can be easily changed by an operation on the liquid crystal touch panel 20. Therefore, the background image can be easily changed with a high degree of freedom according to the preference of the user, and a composite image photographic sticker including a background image with a variety of features can be obtained.
[0125]
In addition, according to the present embodiment, a composite image (a composite image of a captured image and a selected image) displayed on the preview monitor 22 by realizing the main control unit 80 using a CPU or the like having an appropriate processing capability. Therefore, since the content of the background image can be changed in real time according to the operation of the user U or the like, it is possible to efficiently and easily generate a composite image that matches the user's preference.
[0126]
<1.5 Modification of First Embodiment>
In the first embodiment, coordinates indicating the position of the specific area detected as the area corresponding to the light source in the lighting state are calculated (step S112), and the selected image is added to the monitor photographic image based on the coordinates. However, the size and color of the selected image to be added are the same. However, in step S112, at least one of attribute information of each specific area other than coordinates, such as brightness (or intensity or intensity of the corresponding light source), size (or area), direction, shape, and color is acquired, and coordinates are obtained. The selected image to be added may be changed according to other attribute information other than. For example, the brightness of the specific area (or the intensity or intensity of the corresponding light source) may be acquired in step S112, and the size of the selected image to be added may be changed according to the brightness. In this case, a configuration in which the light source 301 of the background panel 300 can be dimmed by the I / O control unit 72 based on an instruction from the main control unit 80, that is, a configuration in which the intensity or intensity of the light source 301 can be changed. Thus, for example, a plurality of star images having different sizes according to the light intensity of the light source 301 can be added as background images of the captured image. Further, in this case, by adopting a configuration in which the color of the light source 301 of the background panel 300 can be changed by the I / O control unit 72 based on an instruction from the main control unit 80, for example, a plurality of different colors depending on the color of the light source 301 It is possible to add a star-shaped image which is the selected image as a background image of the captured image.
[0127]
Further, in place of or in addition to the light source 301 of the background panel 300, a light source that can be carried by the user U, for example, a light source 30 that can be held by hand, is provided in the main body unit 4. A photographed image (for monitoring or printing) may be acquired by the camera 10 while the user holds the light source 30 (referred to as “light source”). In this case, the area corresponding to the handheld light source 30 is also detected as the specific area, and the selected image is added to the position corresponding to the handheld light source 30 in the captured image. In this case, since the position of the hand-held light source 30 (the position of the light source body) can be easily changed by the user U, the change of the selected image added corresponding to the hand-held light source 30 in real time by the change. The position also changes. In this case, as described above, if the size of the selected image added to the specific area in the captured image is changed according to the brightness (intensity or luminous intensity of the corresponding light source) in the specific area, the background The size of the selection image drawn corresponding to the light source in the lighting state of the panel 300 can be different from the size of the selection image drawn corresponding to the handheld light source. That is, for example, when a user U as a subject has a handheld light source 30 as shown in FIG. 8A, a composite image (for monitoring or printing) as shown in FIG. 8B is obtained. It is done.
[0128]
Further, when the light source corresponding to the specific area to be detected is moved by the user U, a predetermined number of coordinates sequentially calculated in step S112 in the first embodiment are stored, and the locus of the movement is stored. You may make it draw in a picked-up image (for a monitor or for printing). According to this configuration, when the user U moves the handheld light source 30 so as to draw a character, for example, a composite image in which the character is drawn on the captured image is obtained. In order to realize such a configuration, for example, a movement trajectory coordinate sequence of a light source is acquired by the same processing as in steps S312 to S316 (FIG. 20) in a third embodiment described later, and the movement trajectory coordinate sequence is acquired. Based on the above, the movement trajectory of the light source may be drawn on the captured image (for monitoring or printing). In this case, the main control unit 80 that executes these processes is realized by using a CPU or the like having an appropriate processing capability, so that the movement trajectory is captured according to the movement of the light source corresponding to the specific area. In addition, the composite image on which the movement locus is drawn can be displayed on the preview monitor 22 in real time. In this case, the trajectory may be drawn on the captured image by drawing a selected image at predetermined intervals on the movement trajectory. With such a configuration, a more varied composite image is generated. can do. For example, as shown in FIG. 9A, when the user U shakes the hand-held light source 30 so that the light source body forms an arc, a composite image (for monitoring or printing) as shown in FIG. 9B is obtained. It is done.
[0129]
Furthermore, instead of drawing the selected image at the position indicated by the coordinates calculated in step S112 in the first embodiment, the selected image moves from that position in a predetermined direction over time. As described above, the drawing position may be sequentially changed. In this case, the movement trajectory may be drawn as described above, and at this time, the trajectory may be drawn on the photographed image by drawing a selected image at predetermined intervals on the trajectory. Good. In this way, it is possible to generate a composite image that is more varied. For example, when the user U stands with the background panel 300 of the lighting pattern as shown in FIG. A composite image (for monitoring or printing) as shown in FIG. 10B is obtained. In the modified example, the moving direction of the selected image is determined in advance, but instead, within a predetermined range centered on the position indicated by the calculated coordinates in step S112 (for example, a predetermined image centered on the calculated coordinates). The selected image may be moved randomly within the circle area). Further, instead of moving the selection image to be drawn on the photographed image, the selection image to be drawn may be deformed (for example, the size is changed) as time elapses. The selected image to be drawn may be randomly deformed within a predetermined range around the reference image (as the selected image).
[0130]
Furthermore, in the first embodiment, basically only one selected image is drawn for one specific area in the captured image. However, in step S114, the position of the detected specific area (calculation is calculated). Draw a predetermined image additionally (or in place of the selected image) at random positions within a predetermined range (for example, within a predetermined circular area centered on the position of the specific area) with respect to the position indicated by the coordinates) You may do it. For example, as shown in FIG. 11A, as a composite image based on a photographed image of the user U who has the handheld light source 30, for example, a random size around the light source body of the handheld light source 30 as shown in FIG. You may make it produce | generate the synthesized image on which the star-shaped pattern was scattered. In this case, the star-shaped pattern as a predetermined image drawn at a random position within the predetermined range changes its size and color with time, or moves (for example, a handheld light source body) It may be configured to rotate around the center), replace with another pattern (pattern), or be drawn as an animation (for example, an animal may be replaced with a star pattern and drawn as an animation).
[0131]
Furthermore, in the first embodiment, the selected image is drawn for each specific area corresponding to the light source in the captured image. However, the plurality of specific areas corresponding to the plurality of light sources in the captured image are set as one set. The selected image may be drawn on the photographed image according to attribute information such as the position of the specific areas for a plurality of specific areas constituting one set. For example, as shown in FIG. 12A, a handheld light source 31 including two light source bodies, a first light source 31 a and a second light source 31 b, is provided in the main body portion 4, and a user U holding the handheld light source 31 is provided. In the captured image obtained by capturing with the camera 10, the specific areas corresponding to the first and second light sources 31a and 31b in the handheld light source 31 are treated as one set. In this case, for example, as in the first embodiment, in the captured image, the first coordinates indicating the position of the specific area corresponding to the first light source 31a and the position of the specific area corresponding to the second light source 31b are indicated. The second coordinate is obtained, and a direction (for example, a direction connecting the first coordinate and the second coordinate) is calculated from the first and second coordinates, and the selected image is deformed according to the direction. The deformed selected image may be drawn on the captured image. In this way, as shown in FIG. 12A, for example, a selected image having a direction according to the inclination of the handheld light source is drawn, and a photographic sticker of a composite image rich in change is obtained. In this case, it is preferable to set the characteristics as the light source (for example, the color of the light source (more generally, the wavelength of the light source)) to be different between the first light source 31a and the second light source 31b. By doing so, the direction from the first coordinate to the second coordinate can be distinguished from the direction from the second coordinate to the first coordinate, so the calculated direction is within the range of 0 to 180 degrees. It will spread to the range of 0 to 360 degrees.
[0132]
When the interval between the first light source 31a and the second light source 31b in the handheld light source 31 (hereinafter referred to as “light source interval”) is set to a predetermined value in advance (when known), the light source interval and the first light source 31 The distance from the camera 10 (or the main body 4) to the handheld light source 31 is calculated from the second coordinates, and the selected image is deformed according to the distance (for example, the selected image becomes smaller as the distance becomes longer). The deformed selected image may be drawn on the captured image. In this way, the user U can move the handheld light source 31 so that the selected image drawn on the captured image can be easily changed. Therefore, it is easy to create a photo sticker of a composite image that is more varied. it can.
[0133]
In addition, you may make it provide the handheld light source which has a rod-shaped light source instead of the handheld light source 31 which has the 1st and 2nd light sources 31a and 31b as mentioned above. In this case, the specific area corresponding to the rod-shaped light source is detected in the captured image, the longitudinal direction of the specific area is detected, and the selected image is drawn on the captured image in accordance with the longitudinal direction. This makes it easy to create photo stickers with a variety of composite images.
[0134]
<2 Second Embodiment>
Next, a description will be given of an amusement photo creation device that is an automatic photo creation device according to a second embodiment of the present invention. In this play photo creating apparatus, instead of the background providing unit in the first embodiment, that is, the background panel 300 having a plurality of light sources 301, a background panel 320 having a fixed pattern is formed at the same position. Is provided. Since other hardware components in the present embodiment are substantially the same as those in the first embodiment, the same or corresponding components are denoted by the same reference numerals, and detailed description thereof is omitted (FIG. 1 to FIG. 3).
[0135]
FIG. 13 is a side view of such a play photo creation apparatus according to this embodiment, and FIG. 14 shows a user who uses the background panel 320 in the play photo creation apparatus according to this embodiment as a subject. It is a figure shown with U. In the background panel 320 in the present embodiment, a predetermined color region is formed on a surface (opposite surface) facing the user U as a subject by printing. Here, as shown in FIG. 14, the following description will be made assuming that a plurality of two kinds of large and small circular patterns 321 and 322 of a specific color are printed at different positions.
[0136]
<2.1 Operation>
FIG. 15 is a flowchart showing the operation of the main control unit 80 in the present embodiment. Since steps S202 to S208 in the present embodiment are the same as steps S102 to S108 in the first embodiment, description thereof will be omitted.
[0137]
In step S210 in the present embodiment, in order to select a region to be detected as a specific region among specific color regions in the monitor photographed image, based on an operation on the operation unit 62 (liquid crystal touch panel 20) by the user U or the like. Specifies the size or size range of a specific color area. In the example shown in FIG. 14, there are two types of areas of a specific color, a large circle area 321 and a small circle area 322, and a size or size range corresponding to one of these two types is designated. Become. Next, based on the monitor image data, a specific color region is detected in the monitor photographed image, and the size of each detected specific color region is calculated (step S212). Then, the calculated size is compared with the size or size range specified in step S210, and a region corresponding to the specified size or size range among the detected specific color regions is determined as the specific region (step S214). . Subsequent steps S216 to S220 are the same as steps S112 to S116 in the first embodiment, and thus the description thereof is omitted.
[0138]
In the present embodiment, when a star-shaped drawing image is set as the selection image and, for example, the size of the small circle region 322 or the size range corresponding to the small circle region 322 is specified in step S210, the monitor shooting is performed. Each area corresponding to the small circle area 322 in the specific color area is detected as a specific area in the image, and a star image is added to the position of the specific area as shown in FIG. An image is obtained as a monitor image (monitor composite image), which is displayed on the preview monitor 22. Further, when the size of the great circle area 321 in the specific color area or the size range corresponding thereto is designated in step S210, each of the areas corresponding to the great circle area 321 in the specific color area in the monitor image. An area is detected as a specific area, and as shown in FIG. 16B, an image with a star image added (overwritten) at the position of the specific area is obtained as a monitor image (monitor composite image). This is displayed on the preview monitor 22. In this case, when a specific color area corresponding to the designated size or size range exists in the body or clothes of the user U as the subject, the area 331 corresponding to the area is also detected as the specific area in the captured image. Then, the selected image is drawn in the specific area (see FIG. 16B).
[0139]
When the monitor composite image is displayed as described above, it is next determined whether or not the shutter button has been pressed (step S222). If the result of this determination is that the shutter button has not been pressed, processing returns to step S204, and thereafter, the operations of steps S204 to S222 described above are repeated until the shutter button is pressed. During this repeated operation, when the selected image is changed by an operation on the operation unit 62 (liquid crystal touch panel 20) by the user U or the like, the image drawn in the specific area changes. Here, by realizing the main control unit 80 using a CPU or the like having an appropriate capability, the drawing image (additional image) in the composite image displayed on the preview monitor 22 is changed in real time according to the change of the selected image. Can be made. In this case, the position where the selected image is drawn is changed in real time by changing the designated size or the size range by an operation on the operation unit 62 (the liquid crystal touch panel 20) by the user U or the like during the repetitive operation. Is also possible.
[0140]
If the shutter button is pressed while the operations in steps S204 to S222 are repeated, the process proceeds to step S224. Subsequent operations (steps S224 and S226) are substantially the same as those in the first embodiment, and a description thereof will be omitted.
[0141]
<2.2 Effect>
As described above, also in the present embodiment, the selected image and the specific area can be changed by the operation of the user U or the like, and the image constituting the background in the composite image (for monitoring or printing) according to the change. (Additional image) changes. In addition, the additional image itself and the position of the additional image can be easily changed by a predetermined operation. Therefore, as in the first embodiment, the background image can be easily changed with a high degree of freedom according to the user's preference, and a photographic sticker of a composite image including a background image with a variety of features can be obtained. .
[0142]
Also in the present embodiment, by implementing the main control unit 80 using a CPU or the like having appropriate processing capability, a composite image (captured image and image) displayed on the preview monitor 22 as in the first embodiment. In the composite image with the selected image), the content of the background image can be changed in real time according to the operation of the user U or the like, so that a composite image that matches the user's preference can be generated efficiently and easily. it can.
[0143]
<2.3 Modification of Second Embodiment>
In the second embodiment, the selected image is not drawn for a region that does not correspond to the specified size or size range among the specific color regions detected in step S212, that is, a specific color region that does not correspond to the specific region. As shown in FIGS. 16A and 16B, these specific color regions remain in the composite image (for monitoring or printing). For this reason, it is preferable that such a specific color region that does not correspond to the specific region is filled with the color of the region other than the specific color region on the opposite surface of the background panel 320, that is, the background color. For example, when the background color is black (in this case, the specific color is, for example, white other than black), it is preferable that the specific color region that does not correspond to the specific region is filled with black. If the background color fill process for the specific color region other than the specific region is also performed during the generation of the composite image (step S218), the composite image shown in FIG. Thus, a composite image (for monitoring or printing) shown in FIG. 17A is obtained, and instead of the composite image shown in FIG. 16B, the composite image shown in FIG. 17B (for monitoring or printing) is obtained. Is obtained. Note that, instead of adding such a background color filling process, the process in step S218 in the second embodiment is performed so that all the specific color areas in the captured image are filled with the background color and then the specific area is filled. On the other hand, the processing may be changed to drawing the selected image.
[0144]
In the second embodiment, the specific area to be detected is changed when the size of the specific color area or the specification of the size range is changed by an operation on the user U or the like. In addition, a plurality of colors are determined as specific colors, and a plurality of specific color areas are formed at different positions on the background panel 320, and any one of the specific colors is specified by the operation of the user U or the like. A color may be selected, and only a specific color region selected from a plurality of specific colors in the captured image may be detected as the specific region. According to such a configuration, the background image in the composite image can be changed by changing the specific color to be selected. In addition, it can be considered that such a configuration is more generally configured to be able to change the setting of the image characteristic that the specific region to be detected should have in accordance with a predetermined operation. Further, instead of such a configuration, all of the specific color areas in the background panel 320 may be detected as specific areas. In this case, the position of the specific area cannot be changed by the operation of the user U or the like, but the background image can be changed by changing the selected image.
[0145]
In the second embodiment, a specific color for detecting the specific area is determined in advance, and the specific color area in the captured image is detected as the specific area where the selected image is to be drawn. Alternatively or together, a specific pattern for detecting the specific area is determined in advance and a specific pattern is formed on the background panel 320, and the specific pattern area in the photographed image is set as the specific area where the selected image is to be drawn. You may make it detect. Also with such a configuration, the background image in the captured image can be easily changed by the operation of the user U or the like. In such a configuration, when a specific pattern area for detecting a specific area exists in the body or clothes of the user U as a subject, the area corresponding to that area in the captured image is also set as the specific area. Then, the selected image is drawn in the specific area (see FIG. 16B).
[0146]
Furthermore, in the second embodiment, the coordinates indicating the position of the specific area detected as the area corresponding to the specific color area of the background panel 320 in the monitor photographed image are calculated (step S216), and based on the coordinates. The selected image is added to the monitor photographic image, but the size of the added selected image is the same. However, in step S216, attribute information of each specific area other than the coordinates, for example, at least one of brightness (or intensity or intensity of the corresponding light source), size (or area), direction, shape, and color is acquired, and the coordinates are obtained. The selected image to be added may be changed according to other attribute information other than. That is, for example, as in method 1 shown in FIG. 18, the size of the selected image to be drawn may be changed according to the size (area) of the specific region to be detected, or, for example, method 2 shown in FIG. As described above, when the specific region and the selected image have directionality, the direction of the selected image to be drawn may be changed according to the direction of the detected specific region. In addition, when using a specific pattern instead of a specific color for detecting a specific area, a plurality of predetermined specific pattern areas are detected as specific areas, and depending on the type of the specific pattern in the specific area For example, as in method 3 shown in FIG. 18, a star-shaped selection image is drawn in a specific pattern area of a cross pattern, and a heart-shaped selection image is drawn in a specific pattern area of a spiral pattern. Also good.
[0147]
Furthermore, in the second embodiment, the arrangement of the specific color region formed on the background panel 320 is fixed, but by configuring the background panel 320 using, for example, an electric curtain, the user U For example, a specific color region on the background panel 320 may be moved by an operation, or the entire pattern formed on the background panel 320 may be replaced. According to such a configuration, the position and arrangement pattern of the specific area to be detected change in accordance with the operation of the user U or the like, and the position of the selected image to be drawn changes accordingly. A composite image including a rich background image is obtained.
[0148]
Furthermore, in the second embodiment, the selection image is drawn fixedly at the position of the coordinates calculated in step S216. Instead, as described above as a modification of the first embodiment. The drawing position may be sequentially changed so that the selected image moves in a predetermined direction from the position as time elapses. In this case, a selection image may be drawn at predetermined intervals on the locus so that the movement locus is drawn. Alternatively, the selected image may be moved randomly within a predetermined range around the position indicated by the calculated coordinates in step S216. Further, instead of moving the selection image to be drawn on the photographed image, the selection image to be drawn may be deformed (for example, the size is changed) as time elapses. The selected image to be drawn may be randomly deformed within a predetermined range around the reference image (as the selected image). Furthermore, the predetermined image may be additionally drawn (or replaced with the selected image) at a random position within a predetermined range based on the position of the specific region in the captured image. The predetermined image itself may change or the drawing position of the predetermined image may change.
[0149]
<3 Third Embodiment>
Next, a description will be given of an amusement photo creating apparatus that is an automatic photo creating apparatus according to a third embodiment of the present invention. This play photo creating apparatus has the same hardware configuration as that of the second embodiment, and also has the same light source as the handheld light source 30 in the modification of the first embodiment, that is, the user U holds it and its vicinity. Is provided with a portable light source (also referred to as “hand-held light source”, which is given the same reference numeral “30”). Since the hardware configuration other than the hand-held light source 30 in this embodiment is the same as that of the second embodiment, the same components are denoted by the same reference numerals and detailed description thereof is omitted (see FIGS. 13 and 14). ).
[0150]
In addition to the same functions as in the second embodiment, the game photo creation device according to the present embodiment instructs the game photo creation device by moving the handheld light source 30 in a predetermined pattern. (Command) can be given. Therefore, in the present embodiment, a plurality of commands cmd1 to cmdN are set in advance as commands that can be input according to the movement locus pattern of the hand-held light source 30 (hereinafter referred to as “pattern commands”), and the pattern commands cmd1 to cmdN A movement trajectory pattern serving as a reference is associated with each as a command pattern. As shown in FIG. 19, command pattern data pdat1 to pdatN, which are data indicating command patterns, are associated with the pattern commands cmd1 to cmdN and stored in advance in a memory or an auxiliary storage device in the main control unit 80. . Note that each of the command pattern data pdat1 to pdatN may be image data representing a corresponding command pattern, or may be a feature vector composed of a set of numerical values representing features of the corresponding command pattern.
[0151]
<3.1 Operation>
FIG. 20 is a flowchart showing the operation of the main control unit 80 in the present embodiment. Steps S302, S304, S324, and S326 in the present embodiment are the same as steps 202, S204, S224, and S226, respectively, in the second embodiment. Further, the processes in S306 to S310 in the present embodiment correspond to the processes in steps S206 to S220 in the second embodiment, and the processes in the second embodiment are one of the processes in S306 to S310 in the present embodiment. Corresponds to the embodiment.
[0152]
In step S306 in the present embodiment, a specific color area is detected in the monitor photographic image, and attribute information of each specific color area is calculated. Here, the attribute information is the coordinates, brightness, area, etc. of the specific color area. When such attribute information is obtained, a predetermined image is drawn based on the attribute information, thereby generating a composite image of the predetermined image and the photographed image (step S308). Then, the composite image is displayed on the preview monitor 22 (step S310). In the second embodiment, as one aspect of the image composition, coordinates of a specific area that is an area corresponding to a specified size or size range among areas of a specific color are calculated as attribute information. Based on this, a selected image selected from a plurality of predetermined images is drawn at the position of each specific region, thereby generating a composite image.
[0153]
In this embodiment, thereafter, a coordinate indicating the position of the handheld light source 30 (more precisely, the light source body) is detected in the monitor photographed image (step S312), and the detected coordinate is stored in a predetermined area of the memory. This is added to the movement trajectory coordinate string (step S314). Here, the movement trajectory coordinate sequence is time-series data composed of coordinates stored in a predetermined area of the memory every time step S314 is executed. The coordinates after a predetermined time since detection are the movement trajectory coordinates. It is going to be excluded from the column.
[0154]
Next, whether the movement trajectory pattern (hereinafter referred to as “movement pattern”) of the handheld light source 30 (its light source body) represented by the current movement trajectory coordinate sequence matches any of a plurality of predetermined command patterns. Processing for checking whether or not, that is, pattern recognition processing is performed (step S316). Various known methods can be used for this pattern recognition processing. For example, when the feature vector of each command pattern is stored in advance in the main control unit 80 as command pattern data pdat1 to pdatN, the feature vector The distance between the movement pattern and each command pattern in the space can be calculated, and the pattern recognition can be performed based on the distance. Based on the command pattern data pdat1 to pdatN stored in advance in the main control unit 80 using any one of these well-known methods, it is determined which of the command patterns matches the moving pattern within a predetermined error range. One command pattern that matches the movement pattern is obtained as a recognition result, or a recognition result that there is no matching command pattern is obtained.
[0155]
If the movement pattern matches one of the command patterns as a result of the pattern recognition, the process proceeds to step S320, and the command associated with the command pattern matching the movement pattern (see FIG. 19) is executed. That is, the process instructed by the command associated with the command pattern that matches the movement pattern among the commands set in advance as the pattern command instructing the process to be executed in the present photo creating apparatus. . Then, the process proceeds to step S322. On the other hand, if the movement pattern does not match any command pattern as a result of the pattern recognition, the process proceeds to step S322 without executing the command.
[0156]
In step S322, it is determined whether or not the shutter button has been pressed. If the result of this determination is that the shutter button has not been pressed, processing returns to step S304, and thereafter, the operations of steps S304 to S320 described above are repeated until the shutter button is pressed. During this repetitive operation, each time it is determined that the movement pattern matches any command pattern, the command corresponding to the matching command pattern is executed (steps S318 and S320). Here, for example, a command for changing a position at which a predetermined image should be drawn in a captured image (for monitor) or a command for changing a predetermined image to be drawn on a captured image (for monitor) is set as a pattern command. If so (see FIG. 19), the user U can change the background image obtained in the composite image (for monitoring) by moving the hand-held light source 30. For example, as shown in FIG. 21A, when the user U moves the hand-held light source 30 (more precisely, the light source body 30s) in the horizontal direction, the area of the specific color area to which a predetermined image is to be drawn. When a command for changing the size (area) is input and the user U moves the hand-held light source 30 (light source body 30s) in a V shape as shown in FIG. ) A command for changing a predetermined image to be drawn on the photographed image can be input (in FIG. 21, the specific color pattern on the background panel 320 is omitted in order to make the movement pattern easy to see. ) As a result, by moving the handheld light source 30, it is possible to change the background in the composite image without operating the liquid crystal touch panel 20. Note that the command to be input by the movement of the handheld light source 30 is not limited to the command related to the change of the background image. For example, a command for releasing the shutter may be set as a pattern command.
[0157]
If the shutter button is pressed while the operations in steps S304 to S322 are repeated, the process proceeds to step S324. Subsequent operations (steps S324 and S326) are substantially the same as those in the second embodiment, and a description thereof will be omitted.
[0158]
<3.2 Effects>
As described above, according to the present embodiment, the user U as the subject moves the handheld light source 30 so that a command can be input to the play photo creating apparatus, so that the operability at the time of shooting is improved. Depending on the setting of a command (pattern command) that can be input by such a movement pattern, the user U as a subject moves the hand-held light source 30 to change the position where a predetermined image should be drawn in the captured image. Or the predetermined image to be drawn on the photographed image can be changed or the shutter can be released, so that it is easy to create a composite image (a background image and a photographed image) rich in change according to the preference of the user U Can be created efficiently.
[0159]
<4th Embodiment>
Next, a description will be given of an amusement photo creating apparatus which is an automatic photo creating apparatus according to a fourth embodiment of the present invention. In this play photo creating apparatus, a panel that does not include a light source is provided instead of the background panel 300 in the first embodiment, and the main body 4b faces the user U as shown in FIG. Are provided with two photodetectors 12a and 12b disposed at a predetermined interval in the horizontal direction (hereinafter, these two photodetectors are indicated by reference numeral "12" when they are not distinguished from each other). Suppose). Since other hardware configurations in the present embodiment are the same as those in the first embodiment, the same parts are denoted by the same reference numerals, and detailed description thereof is omitted (see FIGS. 1 and 2).
[0160]
FIG. 23 shows a configuration example of the light detection device 12. In the case of this configuration example, the light detection device 12 has a housing with a slit formed on the front surface side of the main body portion 4b, that is, the side facing the user U as a subject, and an inner surface facing the slit in the housing. Are arranged with a plurality (three in this example) of light receiving elements (photosensors) 121 to 123 in a line in the vertical direction. Then, the detection signals S1 to S3 output from the light receiving elements 121 to 123 are input to the main controller in the main body. When a light source is present in front of the light detection device 12 and at a position indicated by a solid line in FIG. 23, the intensity of the detection signal S2 of the center light receiving element 122 among the three light receiving elements 121 to 123 is the largest, When a light source exists in front of the light detection device 12 and at a position indicated by a dotted line in FIG. 23, the intensity of the detection signal S1 of the upper light receiving element 121 among the three light receiving elements 121 to 123 becomes the highest. Therefore, from the three detection signals S1 to S3, the vertical position of the light source existing in front of the light detection device 12, that is, in front of the main body 4b can be calculated. In the present embodiment, two such light detection devices 12 are arranged at a predetermined interval in the horizontal direction (left-right direction), so the difference in the light detection signal between these light detection devices 12a and 12b. That is, the position in the horizontal direction (left-right direction) of the light source existing in front of the main body 4b can be calculated based on the detected difference in light intensity. For example, as shown in FIG. 25A, when a user U as a subject grips the handheld light source 30 in front of the main body 4b, the handheld light source 30 is based on the detection signals from the light detection devices 12a and 12b having the above configuration. The position of the (light source body) in the horizontal direction and the vertical direction can be calculated.
[0161]
In the configuration shown in FIG. 23, a plurality (three) of light receiving elements 121 to 123 are arranged in one line in the vertical direction. In addition, a plurality of light receiving elements are arranged in the horizontal direction. Based on the detection signals arranged in a row, the position of the light source in the horizontal direction (left-right direction) existing in front of the light detection device 12 (in front of the main body 4b) may be calculated. In this case, the structure provided with only one photodetection device 12 in a main-body part may be sufficient. Further, in place of the configuration shown in FIG. 23, three or more photodetectors that detect light from an arbitrary direction in front of the main body 4b are arranged at a predetermined interval from each other, and are detected by these photodetectors. The position of the light source in the horizontal direction and the vertical direction (left and right direction and up and down direction) of the light source existing in front of the light detection device 12 (in front of the main body portion 4b) is calculated based on the intensity of the emitted light or the difference in intensity between them. You may make it do. In this case, if the emission intensity (luminous intensity) of the light source is known, the distance from the detection device to the light source can be calculated from the detected intensity.
[0162]
FIG. 24 is a block diagram showing a configuration of the main part of the play photo creating apparatus according to the present embodiment as seen from the functional aspect. In this play photo creating apparatus, compared to the functional configuration shown in FIG. 3 for the first embodiment, a light detection unit 56 corresponding to the above-described light detection devices 12a and 12b is added, and the background providing unit 74 is omitted. It has been. Other functional components in the present embodiment are basically the same as those in the first embodiment, and therefore the same or corresponding components are denoted by the same reference numerals and detailed description thereof is omitted. However, the operation of the main control unit 80 has a part different from that of the first embodiment, which will be described below.
[0163]
<4.1 Operation>
FIG. 26 is a flowchart showing the operation of the main control unit 80 in the present embodiment. Since steps S402 to S408 in the present embodiment are the same as steps S102 to S108 in the first embodiment, description thereof will be omitted. In the following description, it is assumed that the user U who is the subject is holding the handheld light source 30 as shown in FIG. 25A in front of the main body 4b in the present embodiment (in the photographing room 2).
[0164]
In step S410 in the present embodiment, detection values (detection signal values) of the respective light detection devices 12a and 12b with respect to the handheld light source 30 held by the user U are acquired. Next, in step S412, the handheld light source 30 ( The position of the light source body) is calculated as the position of the specific light source. After that, in the monitor image, a selected image is drawn at a position corresponding to the calculated position, thereby generating a monitor composite image as shown in FIG. 25A, for example (step S414). Then, the monitor composite image that is the monitor captured image after the drawing is displayed on the confirmation display unit 54 (preview monitor 22) (step S416).
[0165]
When the monitor composite image is displayed as described above, it is next determined whether or not the shutter button has been pressed (step S418). If the result of this determination is that the shutter button has not been pressed, processing returns to step S404, and thereafter, the operations of steps S404 to S418 described above are repeated until the shutter button is pressed. When the user U moves the handheld light source 30 during this repetitive operation, the position of the handheld light source 30 after the movement is sequentially calculated, and the position of the monitor photographic image corresponding to the sequentially calculated position is obtained. The selected image is drawn. Therefore, the selected image overwritten on the handheld light source 30 moves on the monitor photographic image in accordance with the actual movement of the handheld light source 30. Here, by realizing the main control unit 80 using a CPU or the like having an appropriate capability, a drawing image (additional image) is displayed in real time in the composite image displayed on the preview monitor 22 in accordance with the movement of the handheld light source 30. Can be moved.
[0166]
If the shutter button is pressed while the operations in steps S404 to S418 are repeated, the process proceeds to step S420. Subsequent operations (steps S420 and S422) are the same as those in the first embodiment except that the drawing position of the selected image on the captured image is determined based on the position of the handheld light source 30 instead of the coordinates of the specific area. Since it is substantially the same, description is abbreviate | omitted.
[0167]
<4.2 Effects>
As described above, according to the present embodiment as well, it is possible to change the selected image as the additional image or the drawing position of the selected image on the captured image by the operation of the user U or the like (movement of the handheld light source 30). The additional image itself and the position of the additional image can be easily changed by a predetermined operation. Therefore, similar to the first embodiment, a photographic sticker of a composite image that is rich in change and meets the user's preference can be easily created.
[0168]
Also in the present embodiment, by realizing the main control unit 80 using a CPU or the like having an appropriate processing capability, in the composite image displayed on the preview monitor 22 as in the first embodiment, the user Since the position of the additional image in the composite image can be changed in real time according to the movement of the hand-held light source 30 or the like by U or the like, a composite image that matches the user's preference can be generated efficiently and easily.
[0169]
In the above description, the hand-held light source 30 has been described as an example. However, the light source is not limited to a light source that can be carried by the user U, such as a hand-held light source, as long as it can be detected by the light detection devices 12a and 12b. For example, as in the first embodiment, the light from the light source 301 provided on the background panel 300 is detected by the light detection devices 12a and 12b, the position of the light source 301 is calculated, and the selected image is taken based on the position. You may draw on an image.
[0170]
<4.3 Main Modification of Fourth Embodiment>
In the fourth embodiment, the selected image is drawn based on the position of one light source that emits light that can be detected by the light detection devices 12a and 12b. However, a plurality of light sources that can be identified by the light detection devices 12a and 12b are displayed. The positions of a plurality of light sources constituting one set may be calculated, and the selected image may be drawn on the captured image according to the plurality of positions. For example, a hand-held light source similar to the hand-held light source 31 used in the modification of the first embodiment (see FIG. 12), that is, two light sources, a first light source 31a and a second light source 31b as shown in FIG. The handheld light source 31 including the main body is provided in the main body portion 4b, and the first and second light sources 31a and 31b are handled as one set. In this case, when the light source interval A that is the interval between the first light source 31a and the second light source 31b in the handheld light source 31 is set to a predetermined value (when known), the first light source 31a and the second light source 31b. Is obtained from the detection point (light detection devices 12a and 12b) from the detection point (light detection device 12a, 12b), and the light source is detected from the detection point based on this θ and the light source interval A as shown in FIG. Can be obtained (provided that the hand-held light source 31 is kept parallel to a plane perpendicular to the imaging direction). Hereinafter, the operation of the main control unit 80 of the automatic photo creating apparatus including the handheld light source 31 in the main body 4b will be described with reference to the flowchart of FIG. Of the steps shown in this flowchart, the same steps as those in the flowchart of FIG. 26 (fourth embodiment) are denoted by the same step numbers and description thereof is omitted. In the following description, the color of the light source (more generally, the wavelength of the light source) is different between the first light source 31a and the second light source 31b in the handheld light source 31, and the light detection devices 12a and 12b show this difference. It is assumed that the light from the first light source 31a and the light from the second light source 31b are identified and detected. Note that the method of identifying and detecting the light from the first light source 31a and the light from the second light source 31b is not limited to those based on such a difference in wavelength. For example, the lighting periods of the two light sources overlap each other. You may use the technique of deciding beforehand so that it may not become.
[0171]
In steps S402 to S408 in the present modification, the same operation as in the fourth embodiment is performed, and in the next step S430, the detection values of the first and second light sources in the handheld light source 31 are detected by the light detection devices 12a and 12b. Obtain (step S430). Then, first coordinates indicating the position of the first light source 31a are calculated based on those detection values with respect to the first light source 31a, and second indicating the position of the second light source 31b based on those detection values with respect to the second light source 31b. Are calculated (step S432). Next, a direction (for example, a direction from the first coordinate to the second coordinate) Dir is calculated from the first and second coordinates, and the detection point (light detection devices 12a and 12b) is calculated as described above. The distance L from the handheld light source 31 is calculated (step S434). Thereafter, the selected image is deformed according to the direction Dir and the distance L, and the deformed selected image is drawn on the photographed image. In this modification, for example, the selected image is deformed so as to have directionality corresponding to the inclination of the handheld light source 31 corresponding to the direction Dir, and the selected image is enlarged or reduced according to the distance L (for example, The longer the distance, the smaller the selected image). By drawing the selected image transformed in this way at a position based on the first and second coordinates in the monitor photographed image, for example, a monitor composite image as shown in FIG. S436). Then, the monitor composite image that is the monitor captured image after the drawing is displayed on the confirmation display unit 54 (preview monitor 22) (step S416).
[0172]
When the monitor composite image is displayed as described above, it is next determined whether or not the shutter button has been pressed (step S418). If the result of this determination is that the shutter button has not been pressed, processing returns to step S404, and thereafter, the operations of steps S404 to S418 described above are repeated until the shutter button is pressed. If the user U moves or tilts the handheld light source 30 during this repeated operation, the positions of the first and second light sources 31a and 31b in the handheld light source 31 according to the behavior of the user U ( The first and second coordinates) are calculated, and the direction Dir and the distance L are sequentially calculated from these positions, and the selected image is converted into a monitor photographic image according to the sequentially calculated position, direction Dir and distance L. As a result of the synthesis, a monitor photographic image is generated. Here, by realizing the main control unit 80 using a CPU or the like having an appropriate ability, a drawn image (additional image) is displayed in the composite image displayed on the preview monitor 22 in accordance with the movement or inclination change of the handheld light source 31. ) Can be moved or deformed in real time.
[0173]
If the shutter button is pressed while the operations in steps S404 to S418 are repeated, the process proceeds to step S420. Subsequent operations (steps S420 and S422) are the same as those in the fourth embodiment, and a description thereof will be omitted.
[0174]
According to this modification, it is possible to easily change the selected image as the additional image or change the drawing position of the selected image on the captured image by the operation of the user U or the like (movement of the handheld light source 31 or change in tilt). Can do. Therefore, similar to the first embodiment, it is possible to easily create a photographic sticker of a composite image that is rich in change and meets the user's preference.
[0175]
Also in this modified example, by realizing the main control unit 80 using a CPU or the like having an appropriate processing capability, a composite image (captured image and image) displayed on the preview monitor 22 as in the first embodiment. In the composite image with the selected image), the additional image in the composite image can be deformed or the position of the additional image can be changed in real time according to the movement of the handheld light source 31 or the like by the user U or the like or the change in the tilt. Therefore, it is possible to efficiently and easily generate a composite image that matches the user's preference.
[0176]
In the above description, the hand-held light source 31 has been described as an example. However, the light source is not limited to a light source that can be carried by the user U, such as a hand-held light source, as long as it can be detected by the light detection devices 12a and 12b.
[0177]
<4.4 Other Modifications of Fourth Embodiment>
In the fourth embodiment, the light detection devices 12a and 12b are provided in the main body 4b of the automatic photo creation device, and the position of a specific light source such as a hand-held light source based on the detection values of the light detection devices 12a and 12b. However, instead of this, as shown in FIG. 30, the main body 4 c in the automatic photo creating apparatus includes the light source 13 and is carried by the user U and in an arbitrary space in the vicinity of the user U. You may make it provide the optical detection apparatus (henceforth "hand-held detection apparatus") 40 which can be arrange | positioned in a position. In this case, the detection value of the hand-held detection device 40 is input to the main control unit 80 of the main body 4c via a predetermined signal line, and the position of the hand-held detection device 40 is calculated based on these detection values. Based on the above, the selected image is drawn on the captured image to generate a composite image. Even with such a configuration, the same effect as in the fourth embodiment can be obtained.
[0178]
In the fourth embodiment and the modifications thereof, the position of the light source is calculated based on the detection results by the light detection devices 12a and 12b serving as light detection means, and the additional image is captured based on the position. However, the light here is not limited to visible light. For example, an infrared light detection means (infrared light sensor) is provided, the position of an infrared light source (handheld light source, etc.) is calculated based on the detection result, and a composite image as described above is obtained based on the position. You may make it produce | generate. Further, radio waves may be used instead of light, and radio wave detection means (radio wave sensor) may be provided instead of the light detection means to determine the position of the radio wave transmission source (handheld radio wave transmitter or the like). Also, sound waves (audible sound waves) or ultrasonic waves are used in place of light, and sound wave or ultrasonic wave detection means (microphone or ultrasonic sensor, etc.) are provided in place of light detection means to provide sound wave or ultrasonic sound sources (hand-held). The position of the sound source or the like may be calculated. Even in the case of using sound waves, ultrasonic waves, radio waves, or the like, there are two wave sources (main bodies) as sources that emit sound waves, ultrasonic waves, radio waves, or the like, like the hand-held light source 31 shown in FIG. The above-mentioned deformation is achieved by drawing a predetermined image based on the detection result of a detection means such as a sound wave, an ultrasonic wave or a radio wave on a photographed image of a user U holding a handheld wave source and holding the handheld wave source. Similar to the example, for example, a composite image as shown in FIG. 27B can be generated. When using sound waves or ultrasonic waves, a plurality of detection means (such as a microphone or an ultrasonic sensor) are arranged at a predetermined interval from each other, and a sound source is generated based on the phase difference of the sound waves or ultrasonic waves detected by them. A method of calculating the position of can be used.
[0179]
Furthermore, in the fourth embodiment and the modifications thereof, the position information (attribute information in a higher level concept) to be reflected in the image composition is a light source (not only visible light but also invisible light such as infrared light). Location information), radio wave source, or sound source (including not only audible sound but also non-audible sound such as ultrasound) (positionally, a wave source that emits a wave propagating in space) Yes, the type of the wave source from which the position information is to be obtained is fixedly determined. However, the type of the wave source may be configured to be changeable by a user operation or the like. For example, the wavelength or wavelength band of light to be detected by the light detection device may be switched by an operation of the user U on the main body portion 4b, and both the light detection device and the ultrasonic detection device may be switched to the main body portion. 4b may be provided so that the user U can switch between detecting light and detecting ultrasonic waves by operating the main body 4b. In this way, a richer composite image can be generated according to the user's preference.
[0180]
<5 Others>
The present invention is not limited to the above-described embodiments and modifications thereof, and various modifications can be made without departing from the scope of the present invention. Then, a region having specific image characteristics in the captured image is detected as a specific region, and a predetermined image prepared in advance corresponding to the specific region is drawn on the captured image to generate a composite image for monitoring or printing An automatic photo creation apparatus configured so that at least one of the specific area and the predetermined image to be drawn can be changed belongs to the scope of the present invention. Further, position information (higher level conceptual attribute information) of wave sources such as electromagnetic waves (visible light, infrared light, radio waves, etc.) and sound waves (audible sound waves, ultrasonic waves, etc.) is detected in the photographing room 2 and the position is detected. An automatic photo creation apparatus configured to generate a composite image by drawing a predetermined image on a captured image in accordance with information also belongs to the scope of the present invention. In each of the above-described embodiments and modifications thereof, the specific region (or the type of wave source whose position is to be detected) to be detected as a region having specific image characteristics and the predetermined image (selected image) to be drawn are Basically, it can be changed manually by the operation of the user U, but instead of this, or together with this, these specific areas (or types of wave sources) and predetermined The configuration may be such that at least one of the images can be automatically changed. Even when at least one of the specific area (or the type of wave source) and the predetermined image is automatically changed, the user U or the like can change the timing of pressing the shutter button in various ways to change the captured image. Based on the preference of the user U, it is possible to create a composite image for printing and its photo sticker that are rich in change.
[Brief description of the drawings]
FIG. 1 is a side view of an amusement photo creation apparatus according to a first embodiment of the present invention.
FIG. 2 is a front view showing a main body part of the game photo creating device according to the first embodiment.
FIG. 3 is a block diagram showing a configuration of the main part of the play photo creating apparatus according to the first embodiment as viewed from the functional side.
FIG. 4 is a flowchart for explaining an operation of a main control unit in the game photo creation device according to the first embodiment;
FIG. 5 is a view showing a background panel together with a subject in the play photo creating apparatus according to the first embodiment.
6A is a diagram illustrating an example of a composite image in the first embodiment, and FIG. 6B is a diagram illustrating another example. FIG.
FIG. 7A is a diagram illustrating an example of a lighting pattern of a background panel in the first embodiment, and FIG. 7B is a diagram illustrating a composite image corresponding to the lighting pattern.
FIG. 8 is a diagram for explaining a modification of the first embodiment.
FIG. 9 is a diagram for explaining another modification of the first embodiment.
FIG. 10 is a diagram for explaining still another modification of the first embodiment.
FIG. 11 is a diagram for explaining still another modification of the first embodiment.
FIG. 12 is a diagram for explaining still another modification of the first embodiment.
FIG. 13 is a side view of an amusement photo creation apparatus according to a second embodiment of the present invention.
FIG. 14 is a view showing a background panel together with a subject in a play photo creating apparatus according to a second embodiment.
FIG. 15 is a flowchart for explaining an operation of a main control unit in the game photo creation device according to the second embodiment;
FIG. 16A is a diagram illustrating an example of a composite image in the second embodiment, and FIG. 16B is another example.
FIG. 17 is a diagram illustrating a composite image generated in a modified example of the second embodiment.
FIG. 18 is a diagram for explaining another modification of the second embodiment.
FIG. 19 is a diagram for explaining command pattern data stored in advance in the play photo creation apparatus according to the third embodiment of the present invention;
FIG. 20 is a flowchart for explaining the operation of a main control unit in the third embodiment.
FIG. 21 is a diagram for explaining input of a pattern command in the third embodiment.
FIG. 22 is a front view showing a main body part of a photo creating apparatus for play according to a fourth embodiment of the present invention.
FIG. 23 is a diagram illustrating a configuration example of a light detection device according to a fourth embodiment.
FIG. 24 is a block diagram showing a configuration of a main part of a play photo creating apparatus according to a fourth embodiment as viewed from the functional side.
FIG. 25 is a diagram for explaining the operation of the play photo creating apparatus according to the fourth embodiment.
FIG. 26 is a flowchart for explaining the operation of the main control unit in the fourth embodiment;
FIG. 27 is a diagram for explaining the operation of a modification of the fourth embodiment.
FIG. 28 is a diagram for explaining a method for calculating a distance to a hand-held light source in a modification of the fourth embodiment.
FIG. 29 is a flowchart for explaining an operation of a main control unit in a modification of the fourth embodiment.
FIG. 30 is a side view of a play photo creating apparatus according to another modification of the fourth embodiment.
[Explanation of symbols]
2 ... Photography room
4 ... Body part
4b ... (in the fourth embodiment) main body
12a, 12b, 12 ... Photodetection device
10 ... Camera
13 ... Light source
20 ... LCD touch panel
21 ... Touch pen
22 ... Preview monitor
30 ... Handheld light source (portable light source)
31 ... Handheld light source (portable light source)
31a ... First light source (in hand-held light source)
31b ... Second light source (in hand-held light source)
40 ... Hand-held detection device
52 ... Imaging unit (camera)
54 ... Confirmation display (preview monitor)
56... Light detection unit (light detection device)
62 ... Operation unit (LCD touch panel)
64 ... Output unit (printer)
70: Illumination part
72 ... I / O control unit (I / O control device)
74… Background providing department (background panel)
80: Main control unit (main control device)
121-123 ... Light receiving element (optical sensor)
300 ... Background panel (background providing unit in the first embodiment)
301 ... Light source
320 ... Background panel (background providing unit in the second embodiment)
321, 322 ... specific color area

Claims (60)

所定の撮影領域における被写体である利用者を撮影する撮像手段と、当該撮像手段により得られる撮影画像または当該撮影画像を含む合成画像を表示する表示手段と、当該合成画像を写真として出力する出力手段とを備える自動写真作成装置であって、
前記撮像手段により得られる撮影画像において特定の画像的特徴を有する領域を特定領域として検出する領域検出手段と、
前記領域検出手段の検出結果に基づき前記特定領域の属性情報を取得する属性取得手段と、
前記属性情報に応じて前記撮影画像に所定画像を描画することにより前記合成画像を生成する画像合成手段とを備え、
前記特定領域と前記所定画像のうちの少なくとも一方は手動的または自動的に変更可能であることを特徴とする、自動写真作成装置。
Imaging means for photographing a user who is a subject in a predetermined photographing region, display means for displaying a photographed image obtained by the imaging means or a composite image including the photographed image, and output means for outputting the composite image as a photograph An automatic photo creation device comprising:
A region detecting unit for detecting a region having a specific image characteristic as a specific region in a captured image obtained by the imaging unit;
Attribute acquisition means for acquiring attribute information of the specific area based on a detection result of the area detection means;
Image combining means for generating the composite image by drawing a predetermined image on the captured image according to the attribute information;
An automatic photo creation apparatus, wherein at least one of the specific area and the predetermined image can be changed manually or automatically.
所定操作に基づき、前記特定領域が有すべき特定の画像的特徴の設定を変更する特徴設定変更手段を更に備え、
前記特徴設定変更手段によって前記特定の画像的特徴の設定を変更することにより、前記領域検出手段によって検出される特定領域を変更することを特徴とする、請求項1に記載の自動写真作成装置。
Based on a predetermined operation, further comprising a feature setting changing means for changing a setting of a specific image characteristic that the specific region should have,
2. The automatic photo creation apparatus according to claim 1, wherein the specific area detected by the area detecting unit is changed by changing the setting of the specific image characteristic by the feature setting changing unit.
前記属性取得手段は、前記特定領域の位置を示す座標を取得し、
前記画像合成手段は、前記撮影画像において前記座標により示される位置に前記所定画像を描画することを特徴とする、請求項1または2に記載の自動写真作成装置。
The attribute acquisition means acquires coordinates indicating the position of the specific area,
3. The automatic photo creation apparatus according to claim 1, wherein the image composition unit draws the predetermined image at a position indicated by the coordinates in the photographed image.
前記被写体の背景に相当する領域に配置された光源を含む背景提供手段と、
所定操作に応じて前記光源の点灯/消灯を制御する光源制御手段とを更に備え、
前記領域検出手段は、前記撮影画像において点灯状態の前記光源に相当する領域を前記特定領域として検出することを特徴とする、請求項1から3までのいずれか1項に記載の自動写真作成装置。
Background providing means including a light source disposed in a region corresponding to the background of the subject;
A light source control means for controlling turning on / off of the light source according to a predetermined operation,
4. The automatic photo creation apparatus according to claim 1, wherein the area detection unit detects an area corresponding to the light source in a lit state in the captured image as the specific area. 5. .
前記背景提供手段は、前記被写体の背景に相当する領域の異なる位置に配置された複数の光源を含み、
前記光源制御手段は、所定操作に応じて前記複数の光源のうち点灯状態の光源を変更することにより前記背景提供手段における点灯パターンを制御することを特徴とする、請求項4に記載の自動写真作成装置。
The background providing means includes a plurality of light sources arranged at different positions in a region corresponding to the background of the subject,
5. The automatic photograph according to claim 4, wherein the light source control unit controls a lighting pattern in the background providing unit by changing a light source in a lighting state among the plurality of light sources according to a predetermined operation. Creation device.
前記被写体の背景に相当する領域に配置された光源を含む背景提供手段と、
所定操作に応じて前記光源の光度および/または色を制御する光源制御手段とを更に備え、
前記領域検出手段は、前記撮影画像において前記光源に相当する領域を前記特定領域として検出することを特徴とする、請求項1から3までのいずれか1項に記載の自動写真作成装置。
Background providing means including a light source disposed in a region corresponding to the background of the subject;
A light source control means for controlling the light intensity and / or color of the light source according to a predetermined operation,
4. The automatic photo creation apparatus according to claim 1, wherein the area detection unit detects an area corresponding to the light source in the captured image as the specific area. 5.
前記被写体の背景に相当する領域に配置された特定色の領域を含む背景提供手段を更に備え、
前記領域検出手段は、前記撮影画像において前記特定色の領域に相当する領域を前記特定領域として検出することを特徴とする、請求項1から3までのいずれか1項に記載の自動写真作成装置。
A background providing means including an area of a specific color arranged in an area corresponding to the background of the subject;
4. The automatic photo creation apparatus according to claim 1, wherein the area detecting unit detects an area corresponding to the area of the specific color in the captured image as the specific area. 5. .
所定操作に応じて前記特定色の領域のサイズまたはサイズ範囲を指定するサイズ指定手段を更に備え、
前記背景提供手段は、前記特定色の領域としてサイズの異なる複数の領域を有しており、
前記領域検出手段は、前記撮影画像において前記複数の特定色の領域のうち前記指定されたサイズまたはサイズ範囲に該当する特定色の領域に相当する領域を前記特定領域として検出することを特徴とする、請求項7に記載の自動写真作成装置。
Size specifying means for specifying the size or size range of the specific color area according to a predetermined operation;
The background providing means has a plurality of regions of different sizes as the specific color region,
The area detecting unit detects, as the specific area, an area corresponding to a specific color area corresponding to the specified size or size range among the plurality of specific color areas in the captured image. The automatic photo production apparatus according to claim 7.
前記被写体の背景に相当する領域に配置された特定柄の領域を有する背景提供手段を更に備え、
前記領域検出手段は、前記撮影画像において前記特定柄の領域に相当する領域を前記特定領域として検出することを特徴とする、請求項1から3までのいずれか1項に記載の自動写真作成装置。
A background providing means having a specific pattern area arranged in an area corresponding to the background of the subject;
4. The automatic photo creation apparatus according to claim 1, wherein the area detection unit detects an area corresponding to the area of the specific pattern in the captured image as the specific area. 5. .
所定操作に応じて前記特定柄の領域のサイズまたはサイズ範囲を指定するサイズ指定手段を更に備え、
前記背景提供手段は、前記特定柄の領域としてサイズの異なる複数の領域を有しており、
前記領域検出手段は、前記撮影画像において前記複数の特定柄の領域のうち前記指定されたサイズまたはサイズ範囲に該当する特定柄の領域に相当する領域を前記特定領域として検出することを特徴とする、請求項9に記載の自動写真作成装置。
Size specifying means for specifying a size or a size range of the specific pattern region in accordance with a predetermined operation;
The background providing means has a plurality of regions of different sizes as the specific pattern region,
The area detecting means detects, as the specific area, an area corresponding to a specific pattern area corresponding to the specified size or size range among the plurality of specific pattern areas in the captured image. The automatic photo production apparatus according to claim 9.
前記利用者に携帯され、前記利用者近傍の所定空間における任意の位置に配置可能な携帯光源を更に備え、
前記領域検出手段は、前記撮影画像において前記携帯光源に相当する領域を前記特定領域として検出することを特徴とする、請求項1から3までのいずれか1項に記載の自動写真作成装置。
A portable light source that is carried by the user and can be arranged at an arbitrary position in a predetermined space near the user;
4. The automatic photo creation apparatus according to claim 1, wherein the area detection unit detects an area corresponding to the portable light source in the captured image as the specific area. 5.
前記携帯光源は、互いに所定間隔だけ離れて配置された第1および第2の光源を含み、
前記領域検出手段は、前記撮影画像において前記第1の光源に相当する第1の特定領域、および、前記撮影画像において前記第2の光源に相当する第2の特定領域とを検出すると共に、前記第1の特定領域と前記第2の特定領域とを結ぶ方向を検出し、
前記画像合成手段は、前記領域検出手段によって検出された前記方向に応じて前記所定画像を前記撮影画像に描画することにより前記合成画像を生成することを特徴とする、請求項11に記載の自動写真作成装置。
The portable light source includes first and second light sources disposed at a predetermined distance from each other,
The area detecting means detects a first specific area corresponding to the first light source in the captured image and a second specific area corresponding to the second light source in the captured image, and Detecting a direction connecting the first specific area and the second specific area;
12. The automatic image processing apparatus according to claim 11, wherein the image synthesizing unit generates the synthesized image by drawing the predetermined image on the photographed image according to the direction detected by the region detecting unit. Photo creation device.
前記第1および第2の光源は、互いに異なる波長を有し、
前記領域検出手段は、前記第1の特定領域から前記第2の特定領域へと向かう方向を検出することを特徴とする、請求項12に記載の自動写真作成装置。
The first and second light sources have different wavelengths;
13. The automatic photo creation apparatus according to claim 12, wherein the area detecting unit detects a direction from the first specific area to the second specific area.
前記携帯光源は、互いに所定間隔だけ離れて配置された第1および第2の光源を含み、
前記領域検出手段は、前記撮影画像において前記第1の光源に相当する第1の特定領域、および、前記撮影画像において前記第2の光源に相当する第2の特定領域とを検出すると共に、当該第1および第2の特定領域と前記所定間隔とに基づき前記携帯光源までの距離を検出し、
前記画像合成手段は、前記領域検出手段によって検出された前記距離に応じて前記所定画像を前記撮影画像に描画することにより前記合成画像を生成することを特徴とする、請求項11に記載の自動写真作成装置。
The portable light source includes first and second light sources disposed at a predetermined distance from each other,
The area detecting means detects a first specific area corresponding to the first light source in the captured image and a second specific area corresponding to the second light source in the captured image, and Detecting a distance to the portable light source based on the first and second specific regions and the predetermined interval;
12. The automatic image processing apparatus according to claim 11, wherein the image synthesizing unit generates the synthesized image by drawing the predetermined image on the photographed image according to the distance detected by the region detecting unit. Photo creation device.
前記携帯光源は、棒状光源を含み、
前記領域検出手段は、前記撮影画像において前記棒状光源に相当する特定領域を検出すると共に当該特定領域の長手方向を検出し、
前記画像合成手段は、前記長手方向に応じて前記所定画像を前記撮影画像に描画することにより前記合成画像を生成することを特徴とする、請求項11に記載の自動写真作成装置。
The portable light source includes a rod-shaped light source,
The area detecting means detects a specific area corresponding to the rod-shaped light source in the captured image and detects a longitudinal direction of the specific area,
12. The automatic photo creation apparatus according to claim 11, wherein the image synthesizing unit generates the synthesized image by drawing the predetermined image on the photographed image according to the longitudinal direction.
前記領域検出手段は、前記撮影画像において前記利用者の衣服または身体における特定色の領域を前記特定領域として検出することを特徴とする、請求項1から3までのいずれか1項に記載の自動写真作成装置。The automatic detection according to any one of claims 1 to 3, wherein the area detection unit detects an area of a specific color in the user's clothes or body in the captured image as the specific area. Photo creation device. 前記領域検出手段は、前記撮影画像において前記利用者の衣服または身体における特定柄の領域を前記特定領域として検出することを特徴とする、請求項1から3までのいずれか1項に記載の自動写真作成装置。4. The automatic according to claim 1, wherein the area detection unit detects a specific pattern area on the user's clothes or body as the specific area in the photographed image. 5. Photo creation device. 予め決められた複数種類の画像の中から所定操作に基づき画像を選択するための画像選択手段を更に備え、
前記画像合成手段は、前記画像選択手段によって選択された画像を前記所定画像として前記撮影画像に描画することを特徴とする、請求項1から17までのいずれか1項に記載の自動写真作成装置。
An image selection means for selecting an image based on a predetermined operation from a plurality of predetermined images;
18. The automatic photo creation apparatus according to claim 1, wherein the image composition unit draws the image selected by the image selection unit as the predetermined image on the captured image. .
前記画像合成手段は、前記撮影画像に描画すべき前記所定画像を時間の経過に従って変化させることを特徴とする、請求項1から18までのいずれか1項に記載の自動写真作成装置。The automatic photo creation device according to any one of claims 1 to 18, wherein the image composition unit changes the predetermined image to be drawn on the photographed image as time elapses. 前記画像合成手段は、前記撮影画像に描画すべき前記所定画像を所定の基準画像を中心にランダムに変化させることを特徴とする、請求項19に記載の自動写真作成装置。20. The automatic photo creation apparatus according to claim 19, wherein the image composition unit randomly changes the predetermined image to be drawn on the photographed image around a predetermined reference image. 前記画像合成手段は、前記撮影画像に描画すべき前記所定画像を時間の経過に従って移動させることを特徴とする、請求項1から18までのいずれか1項に記載の自動写真作成装置。The automatic photo creation apparatus according to any one of claims 1 to 18, wherein the image composition unit moves the predetermined image to be drawn on the photographed image as time elapses. 前記画像合成手段は、前記撮影画像において前記所定画像を描画すべき位置を、前記特定領域の位置を基準とする所定の範囲内でランダムに変化させることを特徴とする、請求項21に記載の自動写真作成装置。The said image composition means changes the position which should draw the said predetermined image in the said picked-up image at random within the predetermined range on the basis of the position of the said specific area | region. Automatic photo creation device. 前記画像合成手段は、前記特定領域の位置を基準とする所定の範囲内におけるランダムな位置に所定画像を描画することを特徴とする、請求項1から22までのいずれか1項に記載の自動写真作成装置。The automatic image processing apparatus according to any one of claims 1 to 22, wherein the image composition unit draws a predetermined image at a random position within a predetermined range with respect to the position of the specific region. Photo creation device. 前記属性取得手段は、前記特定領域のサイズ、面積、形状、明るさ、または色のうち少なくとも1つを前記属性情報として取得し、
前記画像合成手段は、前記属性情報として取得されるサイズ、面積、形状、明るさ、または色の少なくとも1つに応じて所定の基準画像を変形させた画像を前記所定画像として前記撮影画像に描画することを特徴とする、請求項1から18までのいずれか1項に記載の自動写真作成装置。
The attribute acquisition means acquires at least one of the size, area, shape, brightness, or color of the specific region as the attribute information,
The image composition means draws an image obtained by deforming a predetermined reference image according to at least one of size, area, shape, brightness, or color acquired as the attribute information as the predetermined image on the captured image. The automatic photo creating apparatus according to claim 1, wherein the automatic photo creating apparatus includes:
前記領域検出手段は、前記撮像手段により得られる撮影画像をリアルタイムで取得して、当該取得された撮影画像において前記特定の画像的特徴を有する特定領域をリアルタイムで検出し、
前記属性取得手段は、前記特定領域または前記所定画像の変更に応じて前記属性情報をリアルタイムで取得し、
前記画像合成手段は、前記特定領域または前記所定画像の変更に応じて前記合成画像をリアルタイムで生成し、
前記表示手段は、前記特定領域または前記所定画像の変更に応じて、前記生成される前記合成画像をリアルタイムで表示することを特徴とする、請求項1から24までのいずれか1項に記載の自動写真作成装置。
The region detection unit acquires a captured image obtained by the imaging unit in real time, detects a specific region having the specific image characteristic in the acquired captured image in real time,
The attribute acquisition means acquires the attribute information in real time according to the change of the specific area or the predetermined image,
The image synthesizing unit generates the synthesized image in real time according to the change of the specific region or the predetermined image,
The said display means displays the said synthetic | combination image produced | generated in real time according to the change of the said specific area or the said predetermined image, The any one of Claim 1 to 24 characterized by the above-mentioned. Automatic photo creation device.
前記画像合成手段は、前記属性取得手段によって前記属性情報として順次取得される前記特定領域の座標に基づき前記特定領域の移動軌跡を前記撮影画像にリアルタイムで描画し、
前記表示手段は、前記移動軌跡をリアルタイムで表示することを特徴とする、請求項1から25までのいずれか1項に記載の自動写真作成装置。
The image synthesizing unit draws the movement locus of the specific area on the captured image in real time based on the coordinates of the specific area sequentially acquired as the attribute information by the attribute acquisition unit,
The automatic photo creation device according to any one of claims 1 to 25, wherein the display means displays the movement locus in real time.
所定の撮影領域における被写体である利用者を撮影する撮影ステップと、当該撮影ステップにより得られる撮影画像または当該撮影画像を含む合成画像を表示する表示ステップと、当該合成画像を写真として印刷する出力ステップとを備える自動写真作成方法であって、
前記撮影ステップにより得られる撮影画像において特定の画像的特徴を有する領域を特定領域として検出する領域検出ステップと、
前記領域検出ステップでの検出結果に基づき、前記特定領域の属性情報を取得する属性取得ステップと、
前記取得された属性情報に応じて前記撮影画像に所定画像を描画することにより前記合成画像を生成する画像合成ステップとを備え、
前記特定領域と前記所定画像のうちの少なくとも一方は手動的または自動的に変更可能であることを特徴とする、自動写真作成方法。
A photographing step for photographing a user who is a subject in a predetermined photographing region, a display step for displaying a photographed image obtained by the photographing step or a composite image including the photographed image, and an output step for printing the composite image as a photograph. An automatic photo creation method comprising:
A region detecting step for detecting a region having a specific image characteristic as a specific region in a captured image obtained by the photographing step;
An attribute acquisition step for acquiring attribute information of the specific region based on the detection result in the region detection step;
An image synthesis step of generating the synthesized image by drawing a predetermined image on the captured image in accordance with the acquired attribute information,
An automatic photo creation method, wherein at least one of the specific area and the predetermined image can be changed manually or automatically.
所定操作に基づき、前記特定領域が有すべき特定の画像的特徴の設定を変更する特徴設定変更ステップを更に備え、
前記特徴設定変更ステップにて前記特定の画像的特徴の設定が変更されることにより、前記領域検出ステップにて検出される特定領域が変更されることを特徴とする、請求項27に記載の自動写真作成方法。
A feature setting changing step of changing a setting of a specific image feature that the specific region should have based on a predetermined operation;
28. The automatic according to claim 27, wherein the specific area detected in the area detecting step is changed by changing the setting of the specific image characteristic in the characteristic setting changing step. Photo creation method.
前記属性取得ステップでは、前記特定領域の位置を示す座標が取得され、
前記画像合成ステップでは、前記撮影画像において前記座標により示される位置に前記所定画像が描画されることを特徴とする、請求項27または28に記載の自動写真作成方法。
In the attribute acquisition step, coordinates indicating the position of the specific area are acquired,
29. The automatic photo creation method according to claim 27 or 28, wherein in the image composition step, the predetermined image is drawn at a position indicated by the coordinates in the photographed image.
所定操作に応じて、前記被写体の背景に相当する領域に配置された光源の点灯/消灯を制御する光源制御ステップを更に備え、
前記領域検出ステップでは、前記撮影画像において点灯状態の前記光源に相当する領域が前記特定領域として検出されることを特徴とする、請求項27から29までのいずれか1項に記載の自動写真作成方法。
A light source control step for controlling turning on / off of a light source arranged in a region corresponding to the background of the subject according to a predetermined operation;
30. The automatic photo creation according to any one of claims 27 to 29, wherein in the area detection step, an area corresponding to the light source in a lit state is detected as the specific area in the captured image. Method.
所定操作に応じて、前記被写体の背景に相当する領域に配置された光源の光度および/または色を制御する光源制御ステップを更に備え、
前記領域検出ステップでは、前記撮影画像において前記光源に相当する領域が前記特定領域として検出されることを特徴とする、請求項27から29までのいずれか1項に記載の自動写真作成方法。
A light source control step of controlling a light intensity and / or color of a light source arranged in a region corresponding to the background of the subject according to a predetermined operation;
30. The automatic photo creation method according to claim 27, wherein in the region detection step, a region corresponding to the light source in the photographed image is detected as the specific region.
前記領域検出ステップでは、前記撮影画像において、前記被写体の背景に相当する領域に配置された特定色の領域に相当する領域が前記特定領域として検出されることを特徴とする、請求項27から29までのいずれか1項に記載の自動写真作成方法。30. In the region detection step, a region corresponding to a region of a specific color arranged in a region corresponding to a background of the subject is detected as the specific region in the photographed image. The automatic photo creation method according to any one of the above. 前記領域検出ステップでは、前記撮影画像において、前記被写体の背景に相当する領域に配置された特定柄の領域に相当する領域が前記特定領域として検出されることを特徴とする、請求項27から29までのいずれか1項に記載の自動写真作成方法。30. In the region detection step, a region corresponding to a region of a specific pattern arranged in a region corresponding to the background of the subject is detected as the specific region in the photographed image. The automatic photo creation method according to any one of the above. 前記領域検出ステップでは、前記撮影画像において、前記利用者に携帯され前記利用者近傍の所定空間における任意の位置に配置可能な携帯光源に相当する領域が前記特定領域として検出されることを特徴とする、請求項27から29までのいずれか1項に記載の自動写真作成方法。In the area detection step, an area corresponding to a portable light source that is carried by the user and can be placed in an arbitrary position in a predetermined space near the user is detected as the specific area in the captured image. The automatic photo creation method according to any one of claims 27 to 29. 前記画像合成ステップでは、前記撮影画像に描画すべき前記所定画像が時間の経過に従って変化することを特徴とする、請求項27から34までのいずれか1項に記載の自動写真作成方法。35. The automatic photo creation method according to any one of claims 27 to 34, wherein in the image composition step, the predetermined image to be drawn on the photographed image changes as time passes. 前記領域検出ステップでは、前記撮像ステップにて得られる撮影画像がリアルタイムで取得されて、当該取得された撮影画像において前記特定の画像的特徴を有する特定領域がリアルタイムで検出され、
前記属性取得ステップでは、前記特定領域または前記所定画像の変更に応じて前記属性情報がリアルタイムで取得され、
前記画像合成ステップでは、前記特定領域または前記所定画像の変更に応じて前記合成画像がリアルタイムで生成され、
前記表示ステップでは、前記特定領域または前記所定画像の変更に応じて、前記生成される前記合成画像がリアルタイムで表示されることを特徴とする、請求項27から35までのいずれか1項に記載の自動写真作成方法。
In the region detection step, the captured image obtained in the imaging step is acquired in real time, and the specific region having the specific image characteristic is detected in real time in the acquired captured image,
In the attribute acquisition step, the attribute information is acquired in real time according to the change of the specific area or the predetermined image,
In the image synthesizing step, the synthesized image is generated in real time according to the change of the specific region or the predetermined image,
36. The display according to any one of claims 27 to 35, wherein, in the display step, the generated composite image is displayed in real time according to a change in the specific region or the predetermined image. Automatic photo creation method.
前記画像合成ステップでは、前記属性取得ステップにて前記属性情報として順次取得される前記特定領域の座標に基づき前記特定領域の移動軌跡が前記撮影画像にリアルタイムで描画され、
前記表示ステップでは、前記移動軌跡がリアルタイムで表示されることを特徴とする、請求項27から36までのいずれか1項に記載の自動写真作成方法。
In the image composition step, the movement locus of the specific area is drawn in real time on the captured image based on the coordinates of the specific area sequentially acquired as the attribute information in the attribute acquisition step,
37. The automatic photo creation method according to any one of claims 27 to 36, wherein in the display step, the movement trajectory is displayed in real time.
請求項27から37までのいずれか1項に記載の自動写真作成方法をコンピュータに実行させることを特徴とするプログラム。A program for causing a computer to execute the automatic photo creating method according to any one of claims 27 to 37. 請求項27から37までのいずれか1項に記載の自動写真作成方法により写真として印刷されたことを特徴とする印刷媒体。38. A print medium printed as a photograph by the automatic photo creating method according to any one of claims 27 to 37. 所定の撮影領域における被写体である利用者を撮影する撮像手段と、当該撮像手段により得られる撮影画像または当該撮影画像を含む合成画像を写真として出力する出力手段とを備える自動写真作成装置であって、
前記撮像手段により得られる撮影画像において特定の画像的特徴を有する領域である特定領域の位置を示す座標を特定座標として検出する位置検出手段と、
前記位置検出手段によって順次検出される特定座標からなる時系列データを、前記特定領域の移動軌跡を示す座標列データとして取得する座標列取得手段と、
前記座標列データによって示される移動軌跡のパターンである移動パターンが、当該自動写真作成装置において実行されるべき処理を指示する1つ以上の所定のコマンドにそれぞれ予め対応付けられた所定のコマンドパターンのいずれと一致するかを決定するパターン認識手段と、
前記パターン認識手段の認識結果に基づき、前記移動パターンに一致すると決定されたコマンドパターンに対応付けられたコマンドによって指示される処理を実行するコマンド実行手段と
を備えることを特徴とする自動写真作成装置。
An automatic photo creation apparatus comprising: an imaging unit that captures a user who is a subject in a predetermined imaging region; and an output unit that outputs a captured image obtained by the imaging unit or a composite image including the captured image as a photograph. ,
Position detection means for detecting, as specific coordinates, coordinates indicating the position of a specific area that is an area having specific image characteristics in a captured image obtained by the imaging means;
Coordinate sequence acquisition means for acquiring time-series data consisting of specific coordinates sequentially detected by the position detection means as coordinate sequence data indicating a movement trajectory of the specific area;
A movement pattern which is a pattern of a movement trajectory indicated by the coordinate sequence data is a predetermined command pattern associated in advance with one or more predetermined commands instructing processing to be executed in the automatic photo creating apparatus. Pattern recognition means for determining which matches,
An automatic photo creation apparatus comprising: a command execution unit that executes a process instructed by a command associated with a command pattern determined to match the movement pattern based on a recognition result of the pattern recognition unit .
前記利用者に携帯され、前記利用者近傍の所定空間における任意の位置に配置可能な携帯光源を更に備え、
前記位置検出手段は、前記撮像手段により得られる撮影画像において前記携帯光源に相当する領域の位置を示す座標を前記特定座標として検出することを特徴とする、請求項40に記載の自動写真作成装置。
A portable light source that is carried by the user and can be arranged at an arbitrary position in a predetermined space near the user;
41. The automatic photo creation apparatus according to claim 40, wherein the position detection unit detects coordinates indicating a position of an area corresponding to the portable light source in the captured image obtained by the imaging unit as the specific coordinates. .
所定の撮影領域における被写体である利用者を撮影する撮像ステップと、当該撮像ステップにより得られる撮影画像または当該撮影画像を含む合成画像を写真として印刷する出力ステップとを備える自動写真作成方法であって、
前記撮像ステップにより得られる撮影画像において特定の画像的特徴を有する領域である特定領域の位置を示す座標を特定座標として検出する位置検出ステップと、
前記位置検出ステップによって順次検出される特定座標からなる時系列データを、前記特定領域の移動軌跡を示す座標列データとして取得する座標列取得ステップと、
前記座標列データによって示される移動軌跡のパターンである移動パターンが、当該自動写真作成のために実行されるべき処理を指示する1つ以上の所定のコマンドにそれぞれ予め対応付けられた所定のコマンドパターンのいずれと一致するかを決定するパターン認識ステップと、
前記パターン認識ステップでの認識結果に基づき、前記移動パターンに一致すると決定されたコマンドパターンに対応付けられたコマンドによって指示される処理を実行するコマンド実行ステップと
を備えることを特徴とする自動写真作成方法。
An automatic photo creation method comprising: an imaging step of photographing a user who is a subject in a predetermined photographing region; and an output step of printing a photographed image obtained by the photographing step or a composite image including the photographed image as a photograph. ,
A position detecting step of detecting, as specific coordinates, coordinates indicating the position of a specific area, which is an area having specific image characteristics in a captured image obtained by the imaging step;
A coordinate sequence acquisition step for acquiring time series data consisting of specific coordinates sequentially detected by the position detection step as coordinate sequence data indicating a movement locus of the specific region;
A predetermined command pattern in which a movement pattern, which is a pattern of a movement trajectory indicated by the coordinate string data, is previously associated with one or more predetermined commands instructing processing to be executed for the automatic photo creation. A pattern recognition step that determines which one of
A command execution step for executing a process instructed by a command associated with a command pattern determined to match the movement pattern based on a recognition result in the pattern recognition step. Method.
請求項42に記載の自動写真作成方法をコンピュータに実行させることを特徴とするプログラム。43. A program causing a computer to execute the automatic photo creation method according to claim 42. 請求項42に記載の自動写真作成方法により写真として印刷されたことを特徴とする印刷媒体。43. A print medium printed as a photograph by the automatic photo creation method according to claim 42. 所定の撮影領域における被写体である利用者を撮影する撮像手段と、当該撮像手段により得られる撮影画像または当該撮影画像を含む合成画像を表示する表示手段と、当該合成画像を写真として出力する出力手段とを備える自動写真作成装置であって、
前記撮影領域における所定の波源が発する波を検出する検出手段と、
前記検出手段によって検出される波に基づき前記波源の属性情報を取得する属性取得手段と、
前記属性情報に基づき前記合成画像を生成する画像合成手段と
を備えることを特徴とする自動写真作成装置。
Imaging means for photographing a user who is a subject in a predetermined photographing region, display means for displaying a photographed image obtained by the imaging means or a composite image including the photographed image, and output means for outputting the composite image as a photograph An automatic photo creation device comprising:
Detecting means for detecting a wave emitted by a predetermined wave source in the imaging region;
Attribute acquisition means for acquiring attribute information of the wave source based on the waves detected by the detection means;
An automatic photo creation apparatus comprising: an image synthesis unit that generates the synthesized image based on the attribute information.
前記属性取得手段は、前記検出手段によって検出される波に基づき、前記波源の位置を示す位置情報を前記属性情報として取得する位置情報取得手段を含み、
前記画像合成手段は、前記位置情報に応じて所定画像を前記撮影画像に描画することにより前記合成画像を生成することを特徴とする、請求項45に記載の自動写真作成装置。
The attribute acquisition means includes position information acquisition means for acquiring position information indicating the position of the wave source as the attribute information based on the wave detected by the detection means,
46. The automatic photo creation apparatus according to claim 45, wherein the image synthesizing unit generates the synthesized image by drawing a predetermined image on the photographed image according to the position information.
前記所定の波源と前記所定画像のうちの少なくとも一方は手動的または自動的に変更可能であることを特徴とする、請求項46に記載の自動写真作成装置。47. The automatic photo creation apparatus according to claim 46, wherein at least one of the predetermined wave source and the predetermined image can be changed manually or automatically. 前記波源は、前記利用者に携帯され、前記利用者近傍の所定空間における任意の位置に配置可能な携帯波源であることを特徴とする、請求項45から47までのいずれか1項に記載の自動写真作成装置。48. The portable wave source according to any one of claims 45 to 47, wherein the wave source is a portable wave source that is carried by the user and can be arranged at an arbitrary position in a predetermined space near the user. Automatic photo creation device. 前記携帯波源は、互いに所定間隔だけ離れて配置され、互いに異なる波長の波を発する第1および第2の波源を含み、
前記検出手段は、前記第1の波源の位置を示す第1位置情報と、前記第2の波源の位置を示す第2位置情報とを取得し、当該第1および第2位置情報に基づき、前記第1の波源から前記第2の波源へ向かう方向を検出し、
前記画像合成手段は、前記検出手段によって検出された前記方向に応じて前記所定画像を前記撮影画像に描画することにより前記合成画像を生成することを特徴とする、請求項48に記載の自動写真作成装置。
The portable wave source includes first and second wave sources that are spaced apart from each other by a predetermined distance and emit waves having different wavelengths,
The detection means obtains first position information indicating the position of the first wave source and second position information indicating the position of the second wave source, and based on the first and second position information, Detecting a direction from the first wave source to the second wave source;
49. The automatic photograph according to claim 48, wherein the image composition unit generates the composite image by drawing the predetermined image on the photographed image according to the direction detected by the detection unit. Creation device.
前記携帯波源は、互いに所定間隔だけ離れて配置され、互いに異なる波長の波を発する第1および第2の波源を含み、
前記検出手段は、前記第1の波源の位置を示す第1位置情報および前記第2の波源の位置を示す第2位置情報を検出し、当該第1および第2位置情報と前記所定間隔とに基づき前記携帯波源までの距離を検出し、
前記画像合成手段は、前記検出手段によって検出された前記距離に応じて前記所定画像を前記撮影画像に描画することにより前記合成画像を生成することを特徴とする、請求項48に記載の自動写真作成装置。
The portable wave source includes first and second wave sources that are spaced apart from each other by a predetermined distance and emit waves having different wavelengths,
The detection means detects first position information indicating a position of the first wave source and second position information indicating a position of the second wave source, and detects the first and second position information and the predetermined interval. Detecting the distance to the portable wave source based on
49. The automatic photograph according to claim 48, wherein the image composition unit generates the composite image by drawing the predetermined image on the photographed image according to the distance detected by the detection unit. Creation device.
前記検出手段は、前記波源が発する波を検出する複数のセンサを含み、
前記位置情報取得手段は、前記複数のセンサによってそれぞれ検出される波の間での強度差または位相差に基づき前記波源の位置を算出し、当該算出された位置を示す情報を前記位置情報として生成することを特徴とする、請求項46から50までのいずれか1項に記載の自動写真作成装置。
The detection means includes a plurality of sensors that detect waves emitted by the wave source,
The position information acquisition unit calculates a position of the wave source based on an intensity difference or a phase difference between waves detected by the plurality of sensors, and generates information indicating the calculated position as the position information. 51. The automatic photo creation apparatus according to claim 46, wherein the automatic photo creation apparatus is any one of claims 46 to 50.
所定の撮影領域における被写体である利用者を撮影する撮像手段と、当該撮像手段により得られる撮影画像または当該撮影画像を含む合成画像を表示する表示手段と、当該合成画像を写真として出力する出力手段とを備える自動写真作成装置であって、
所定位置に配置され、前記撮影領域における空間を伝搬する所定の波を発する波源と、
前記波源が発する波を検出する検出手段と、
前記検出手段によって検出される波に基づき、前記検出手段の位置を示す位置情報を取得する位置情報取得手段と、
前記位置情報に応じて所定画像を前記撮影画像に描画することにより前記合成画像を生成する画像合成手段と
を備えることを特徴とする自動写真作成装置。
Imaging means for photographing a user who is a subject in a predetermined photographing region, display means for displaying a photographed image obtained by the imaging means or a composite image including the photographed image, and output means for outputting the composite image as a photograph An automatic photo creation device comprising:
A wave source arranged at a predetermined position and emitting a predetermined wave propagating through the space in the imaging region;
Detecting means for detecting a wave emitted by the wave source;
Position information acquisition means for acquiring position information indicating the position of the detection means based on the waves detected by the detection means;
An automatic photo creation apparatus, comprising: an image composition unit that generates the composite image by drawing a predetermined image on the captured image in accordance with the position information.
前記所定画像は手動的または自動的に変更可能であることを特徴とする、請求項52に記載の自動写真作成装置。53. The automatic photo creation apparatus according to claim 52, wherein the predetermined image can be changed manually or automatically. 前記検出手段は、前記利用者に携帯され、前記利用者近傍の所定空間における任意の位置に配置可能であることを特徴とする、請求項52または53に記載の自動写真作成装置。54. The automatic photo creation apparatus according to claim 52 or 53, wherein the detection means is carried by the user and can be arranged at an arbitrary position in a predetermined space near the user. 前記波源は、可視光もしくは赤外光の光源と、可聴音波もしくは超音波の音源と、電波の発信源とのうちのいずれかであることを特徴とする、請求項45から54までのいずれか1項に記載の自動写真作成装置。The wave source is any one of a visible light or infrared light source, an audible or ultrasonic sound source, and a radio wave source. The automatic photo creation apparatus according to item 1. 所定の撮影領域における被写体である利用者を撮影する撮像ステップと、当該撮像ステップにより得られる撮影画像または当該撮影画像を含む合成画像を写真として印刷する出力ステップとを備える自動写真作成方法であって、
前記撮影領域における所定の波源が発する波を検出する所定の検出手段による検出結果に基づき前記波源の属性情報を取得する属性取得ステップと、
前記属性情報に基づき前記合成画像を生成する画像合成ステップと
を備えることを特徴とする自動写真作成方法。
An automatic photo creation method comprising: an imaging step of photographing a user who is a subject in a predetermined photographing region; and an output step of printing a photographed image obtained by the photographing step or a composite image including the photographed image as a photograph. ,
An attribute acquisition step of acquiring attribute information of the wave source based on a detection result by a predetermined detection means for detecting a wave emitted from the predetermined wave source in the imaging region;
And an image composition step of generating the composite image based on the attribute information.
前記属性取得ステップは、前記検出結果に基づき、前記波源の位置を示す位置情報を前記属性情報として取得する位置情報取得ステップを含み、
前記画像合成ステップでは、前記位置情報に応じて所定画像を前記撮影画像に描画することにより前記合成画像が生成されることを特徴とする、請求項56に記載の自動写真作成方法。
The attribute acquisition step includes a position information acquisition step of acquiring position information indicating the position of the wave source as the attribute information based on the detection result,
57. The automatic photo creation method according to claim 56, wherein, in the image composition step, the composite image is generated by drawing a predetermined image on the captured image in accordance with the position information.
所定の撮影領域における被写体である利用者を撮影する撮像ステップと、当該撮像ステップにより得られる撮影画像または当該撮影画像を含む合成画像を写真として印刷する出力ステップとを備える自動写真作成方法であって、
所定位置に配置された所定の波源が発する波を検出する所定の検出手段の検出結果に基づき、当該検出手段の位置を示す位置情報を取得する位置情報取得ステップと、
前記位置情報に応じて所定画像を前記撮影画像に描画することにより前記合成画像を生成する画像合成ステップと
を備えることを特徴とする自動写真作成方法。
An automatic photo creation method comprising: an imaging step of photographing a user who is a subject in a predetermined photographing region; and an output step of printing a photographed image obtained by the photographing step or a composite image including the photographed image as a photograph. ,
A position information acquisition step for acquiring position information indicating a position of the detection means based on a detection result of a predetermined detection means for detecting a wave emitted from a predetermined wave source arranged at a predetermined position;
An automatic photo creation method comprising: an image synthesis step of generating the composite image by drawing a predetermined image on the captured image in accordance with the position information.
請求項56から58までのいずれか1項に記載の自動写真作成方法をコンピュータに実行させることを特徴とするプログラム。59. A program for causing a computer to execute the automatic photo creating method according to any one of claims 56 to 58. 請求項56から58までのいずれか1項に記載の自動写真作成方法により写真として印刷されたことを特徴とする印刷媒体。59. A print medium printed as a photograph by the automatic photo creation method according to any one of claims 56 to 58.
JP2003186285A 2003-02-03 2003-06-30 Automatic photo creation device Expired - Fee Related JP4214010B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003186285A JP4214010B2 (en) 2003-02-03 2003-06-30 Automatic photo creation device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2003025565 2003-02-03
JP2003186285A JP4214010B2 (en) 2003-02-03 2003-06-30 Automatic photo creation device

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2008200164A Division JP4746653B2 (en) 2003-02-03 2008-08-01 Automatic photo creation device

Publications (2)

Publication Number Publication Date
JP2004297754A true JP2004297754A (en) 2004-10-21
JP4214010B2 JP4214010B2 (en) 2009-01-28

Family

ID=33421285

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003186285A Expired - Fee Related JP4214010B2 (en) 2003-02-03 2003-06-30 Automatic photo creation device

Country Status (1)

Country Link
JP (1) JP4214010B2 (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006211321A (en) * 2005-01-28 2006-08-10 Casio Comput Co Ltd Image sensing device, image effect giving method, and image effect giving program
JP2008103873A (en) * 2006-10-18 2008-05-01 Tatsumi Denshi Kogyo Kk Automatic photograph generation device and automatic photographing method
JP2008228059A (en) * 2007-03-14 2008-09-25 Canon Inc Image pick-up device and control method of the image pick-up device
JP2008270965A (en) * 2007-04-17 2008-11-06 Canon Inc Imaging apparatus and method of controlling the same
WO2008149925A1 (en) * 2007-06-08 2008-12-11 Nikon Corporation Imaging device, image display device, and program
JP2009164904A (en) * 2008-01-07 2009-07-23 Furyu Kk Photographic sticker forming device and method, and program
JP2009164903A (en) * 2008-01-07 2009-07-23 Furyu Kk Photographic sticker forming device and method, and program
JP2012085255A (en) * 2010-10-13 2012-04-26 Ability Enterprise Co Ltd Video generation method
JP2012104932A (en) * 2010-11-08 2012-05-31 Olympus Imaging Corp Imaging device and imaging method
JP2012253779A (en) * 2012-06-25 2012-12-20 Tatsumi Denshi Kogyo Kk Game imaging device and game imaging method

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4683190B2 (en) * 2005-01-28 2011-05-11 カシオ計算機株式会社 Imaging apparatus, image effect applying method, and image effect applying program
JP2006211321A (en) * 2005-01-28 2006-08-10 Casio Comput Co Ltd Image sensing device, image effect giving method, and image effect giving program
JP2008103873A (en) * 2006-10-18 2008-05-01 Tatsumi Denshi Kogyo Kk Automatic photograph generation device and automatic photographing method
JP2008228059A (en) * 2007-03-14 2008-09-25 Canon Inc Image pick-up device and control method of the image pick-up device
JP2008270965A (en) * 2007-04-17 2008-11-06 Canon Inc Imaging apparatus and method of controlling the same
WO2008149925A1 (en) * 2007-06-08 2008-12-11 Nikon Corporation Imaging device, image display device, and program
US8587658B2 (en) 2007-06-08 2013-11-19 Nikon Corporation Imaging device, image display device, and program with intruding object detection
JP2009164903A (en) * 2008-01-07 2009-07-23 Furyu Kk Photographic sticker forming device and method, and program
JP2009164904A (en) * 2008-01-07 2009-07-23 Furyu Kk Photographic sticker forming device and method, and program
JP2012085255A (en) * 2010-10-13 2012-04-26 Ability Enterprise Co Ltd Video generation method
CN102447831A (en) * 2010-10-13 2012-05-09 佳能企业股份有限公司 Method of producing an image
US8687914B2 (en) 2010-10-13 2014-04-01 Ability Enterprise Co., Ltd. Method of producing an image
CN102447831B (en) * 2010-10-13 2014-08-06 佳能企业股份有限公司 Method of producing an image
JP2012104932A (en) * 2010-11-08 2012-05-31 Olympus Imaging Corp Imaging device and imaging method
JP2012253779A (en) * 2012-06-25 2012-12-20 Tatsumi Denshi Kogyo Kk Game imaging device and game imaging method

Also Published As

Publication number Publication date
JP4214010B2 (en) 2009-01-28

Similar Documents

Publication Publication Date Title
JP6395016B2 (en) Photo sticker creation device
JP5063930B2 (en) GAME PROGRAM, GAME DEVICE, GAME SYSTEM, AND GAME CONTROL METHOD
JP2009009266A (en) Image processing program and image processing unit
JP4214010B2 (en) Automatic photo creation device
JP4746653B2 (en) Automatic photo creation device
JP2013017127A (en) Automatic photograph creation device, automatic photograph creation method and program
JP5630675B2 (en) Photo sealing machine, photo sealing machine processing method and program
JP4247574B2 (en) PHOTO PRINT DEVICE, PHOTO PRINT DEVICE CONTROL METHOD, PHOTO PRINT DEVICE CONTROL PROGRAM, RECORDING MEDIUM CONTAINING PHOTO PRINT DEVICE CONTROL PROGRAM
US20160070959A1 (en) Display System With Imaging Unit, Display Apparatus And Display Method
JP2008079185A (en) Automatic photograph creating apparatus, and automatic photograph creating method
JP4452086B2 (en) Automatic photo creation device and automatic photo creation method
JP2008259085A (en) Automatic photograph creating apparatus and automatic photograph creation method
JP4336215B2 (en) Automatic photo creation device and automatic photo creation method
JP2018029343A (en) Image processing apparatus, image processing method, and program
JP5380770B2 (en) Automatic photo creation device and automatic photo creation method
JP2003241296A (en) Automatic vending method for photograph seal, equipment for the same, seal paper unit, and photographic seal sheet
JP4328182B2 (en) Automatic photo creation device and automatic photo creation method
JP6614386B2 (en) Image processing apparatus, image processing method, and program
JP4169201B2 (en) game machine
JP5895394B2 (en) Game shooting device, game shooting method, and game shooting program
JP2016006981A (en) Imaging apparatus for game, imaging method for game, and program
JP3328679B1 (en) Drawing method for photo sticker vending and photo sticker vending machine
JP2012253779A (en) Game imaging device and game imaging method
JP2008276438A (en) Automatic photograph creation device and automatic photograph creation method
JP2005142788A (en) Apparatus and method for automatic creating photograph

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060529

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080605

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080610

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080801

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20081028

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20081031

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111107

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 4214010

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111107

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111107

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121107

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121107

Year of fee payment: 4

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121107

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131107

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S802 Written request for registration of partial abandonment of right

Free format text: JAPANESE INTERMEDIATE CODE: R311802

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees