JP7472711B2 - 投影制御装置および投影制御方法 - Google Patents

投影制御装置および投影制御方法 Download PDF

Info

Publication number
JP7472711B2
JP7472711B2 JP2020133562A JP2020133562A JP7472711B2 JP 7472711 B2 JP7472711 B2 JP 7472711B2 JP 2020133562 A JP2020133562 A JP 2020133562A JP 2020133562 A JP2020133562 A JP 2020133562A JP 7472711 B2 JP7472711 B2 JP 7472711B2
Authority
JP
Japan
Prior art keywords
unit
image
soap bubble
projection
smoke
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020133562A
Other languages
English (en)
Other versions
JP2022029946A (ja
Inventor
礼子 近藤
真哉 三原
浩 竹下
友樹 杉山
直史 古川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JVCKenwood Corp
Original Assignee
JVCKenwood Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JVCKenwood Corp filed Critical JVCKenwood Corp
Priority to JP2020133562A priority Critical patent/JP7472711B2/ja
Publication of JP2022029946A publication Critical patent/JP2022029946A/ja
Application granted granted Critical
Publication of JP7472711B2 publication Critical patent/JP7472711B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Controls And Circuits For Display Device (AREA)
  • Overhead Projectors And Projection Screens (AREA)
  • Projection Apparatus (AREA)
  • Transforming Electric Information Into Light Information (AREA)

Description

本発明は、投影制御装置および投影制御方法に関する。
近年、例えばプロジェクションマッピングなどのように、様々な対象に映像を投影する技術が広がっている。例えば、縫製加工された球体状膜材の内面に画像を投影する技術が知られている(例えば、特許文献1参照)。泡体をスクリーンにして画像を投影する技術が知られている(例えば、特許文献2参照)。文献2に記載の技術では、視認者の手の上の泡体に画像を投影する技術である。
特開2003-066538号公報 特開2018-200393号公報
様々な対象の一例として、シャボン玉に対して映像を投影したいという要望がある。シャボン玉には、様々な大きさがあり、視認者との距離も変化する。そこで、シャボン玉の大きさ及び視認者とシャボン玉との距離に応じて映像を適切に投影することが望まれる。
本発明は、上記に鑑みてなされたものであって、シャボン玉に対して映像を適切に投影することを目的とする。
上述した課題を解決し、目的を達成するために、本発明に係る投影制御装置は、シャボン玉に煙を封入する煙封入装置を制御する煙封入制御部と、前記シャボン玉を撮影した撮影データを取得する撮影データ取得部と、前記煙が封入された前記シャボン玉を認識して追尾する認識部と、前記認識部によって認識された前記シャボン玉までの距離を算出する距離算出部と、前記認識部によって認識された前記シャボン玉と視認者との位置関係に基づいて、映像を投影する投影装置を選択する選択部と、投影する映像を生成する投影映像生成部と、前記認識部によって認識された前記シャボン玉に対して、前記投影映像生成部によって生成された前記映像を前記選択部によって選択された投影装置が投影するよう制御する投影制御部と、を備え、前記投影映像生成部は、前記認識部によって認識された前記シャボン玉の大きさと前記距離算出部によって算出された前記距離とに応じた表示態様の映像を生成する。
本発明に係る投影制御方法は、シャボン玉に煙を封入する煙封入装置を制御する煙封入制御ステップと、前記シャボン玉を撮影した撮影データを取得する撮影データ取得ステップと、前記煙が封入された前記シャボン玉を認識して追尾する認識ステップと、前記認識ステップによって認識された前記シャボン玉までの距離を算出する算出ステップと、前記認識ステップによって認識された前記シャボン玉と視認者との位置関係に基づいて、映像を投影する投影装置を選択する選択ステップと、投影する映像を生成する投影映像生成ステップと、前記認識ステップによって認識された前記シャボン玉に対して、前記投影映像生成ステップによって生成された前記映像を前記選択ステップによって選択された投影装置が投影するよう制御する投影制御ステップと、を含み、前記投影映像生成ステップは、前記認識ステップによって認識された前記シャボン玉の大きさと前記算出ステップによって算出された前記距離とに応じた表示態様の映像を生成する。
本発明によれば、シャボン玉に対して映像を適切に投影することができるという効果を奏する。
図1は、第一実施形態に係る投影制御装置を有する映像投影システムの構成例を示すブロック図である。 図2は、第一実施形態に係る投影制御装置を有する映像投影システムによってシャボン玉に投影される映像の一例を示す概略図である。 図3は、第一実施形態に係る投影制御装置を有する映像投影システムによってシャボン玉に投影される映像の他の例を示す概略図である。 図4は、第一実施形態に係る投影制御装置を有する映像投影システムにおける処理の流れを示すフローチャートである。 図5は、第二実施形態に係る投影制御装置を有する映像投影システムの構成例を示すブロック図である。 図6は、第二実施形態に係る投影制御装置を有する映像投影システムにおける処理の流れを示すフローチャートである。 図7は、第三実施形態に係る投影制御装置を有する映像投影システムの構成例を示すブロック図である。
以下に添付図面を参照して、本発明に係る投影制御装置および投影制御方法の実施形態を詳細に説明する。なお、以下の実施形態により本発明が限定されるものではない。
[第一実施形態]
図1は、第一実施形態に係る投影制御装置である制御部20を有する映像投影システム1の構成例を示すブロック図である。図2は、第一実施形態に係る投影制御装置である制御部20を有する映像投影システム1によってシャボン玉30に投影される映像50の一例を示す概略図である。図3は、第一実施形態に係る投影制御装置である制御部20を有する映像投影システム1によってシャボン玉30に投影される映像50の他の例を示す概略図である。映像投影システム1は、投影対象のシャボン玉30に映像50を投影する。
本実施形態では、シャボン玉30は、煙が封入されている。煙とは、気体に液体または固体の粒子が混ざっているものをいう。煙は、シャボン玉30の内部の空間に均等に拡散することが好ましい。煙は、シャボン玉30の外部の気体と異なる色を有する。煙は、液体または個体の粒子の種類によって色が変更可能である。シャボン玉30は、煙が封入されていることによって輪郭が認識しやすくなる。
シャボン玉30は、シャボン液の成分によって、割れるまでの時間を調整可能である。シャボン玉30は、割れにくい成分のシャボン液を使用してもよい。
本実施形態では、シャボン玉30は、発生装置100によって発生される。発生装置100は、煙封入装置11を有する。
映像投影システム1は、煙封入装置11と、カメラ12と、人感センサユニット13と、投影ユニット(投影装置)14と、制御部(投影制御装置)20とを有する。
煙封入装置11は、発生装置100によって発生されるシャボン玉30に煙を封入する。煙封入装置11は、制御部20の煙封入制御部21からの制御信号に基づいて煙を封入する。本実施形態では、煙封入装置11は、発生装置100によってシャボン玉30を発生させる際に煙を封入する。
カメラ12は、周辺を撮影して、煙が封入されたシャボン玉30を撮影する。カメラ12は、シャボン玉30に煙が封入されていることにより、シャボン玉30の輪郭を正確に撮影可能である。カメラ12は、シャボン玉30の周囲の人を撮影する。カメラ12は、撮影した撮影データを制御部20の撮影データ取得部22へ出力する。
人感センサユニット13は、人を検出するセンサである。人感センサユニット13は、シャボン玉30の周辺に位置する人を検出する。人感センサユニット13は、人の位置を検出する。人感センサユニット13は、360°の全天周を検出可能なセンサであっても、複数が配置されていてもよい。人感センサユニット13は、投影ユニット14の近傍に配置されている。本実施形態では、人感センサユニット13は、人感センサ13と、人感センサ13と、人感センサ13と、人感センサ13とを有するものとする。人感センサユニット13は、検出した人感センサデータを人感センサデータ取得部23に出力する。
投影ユニット14は、投影対象のシャボン玉30に対して映像50を投影可能に設置される。投影ユニット14は、シャボン玉30に煙が封入されていてシャボン玉30が光を透過しないので、シャボン玉30に映像50を適切に投影可能である。例えば、投影ユニット14は、液晶を使用したプロジェクタ、または、レーザ光源を使用したプロジェクタである。投影ユニット14は、制御部20の投影制御部28が出力した映像信号に基づいて画像コンテンツを投影する。投影ユニット14は、複数が配置されている。本実施形態では、投影ユニット14は、投影部(投影装置)14と、投影部(投影装置)14と、投影部(投影装置)14と、投影部(投影装置)14とを有するものとする。本実施形態では、投影ユニット14は、投影制御部28が出力した映像信号に基づいて、投影対象のシャボン玉30に映像50を投影する。
制御部20は、例えば、CPU(Central Processing Unit)などで構成された演算処理装置である。制御部20は、図示しない記憶部に記憶されているプログラムをメモリにロードして、プログラムに含まれる命令を実行する。制御部20は、煙封入制御部21と、撮影データ取得部22と、人感センサデータ取得部23と、認識部24と、距離算出部25と、選択部26と、投影映像生成部27と、投影制御部28とを有する。制御部20には図示しない内部メモリが含まれ、内部メモリは制御部20におけるデータの一時記憶などに用いられる。
煙封入制御部21は、シャボン玉30に対する煙の封入を制御する。煙封入制御部21は、シャボン玉30へ煙を封入する煙封入装置11を制御する。より詳しくは、煙封入制御部21は、煙封入装置11に対して制御信号を出力して、煙の封入と停止とを制御する。煙封入制御部21は、発生装置100によってシャボン玉30が発生される際に煙が封入されるように制御信号を出力する。
煙封入制御部21は、投影映像生成部27によって生成された映像50に応じた色の煙を封入してもよい。煙封入制御部21は、例えば生成された映像50の補色となる色の煙を封入してもよい。映像50の補色となる色の煙をシャボン玉30に封入することにより、映像50の視認性が高まる。
撮影データ取得部22は、カメラ12から撮影データを取得する。
人感センサデータ取得部23は、人感センサユニット13から人感センサデータを取得する。
認識部24は、撮影データ取得部22が取得した撮影データに画像処理を行って、シャボン玉30及び視認者Mを認識する。認識部24は、シャボン玉認識部241と、視認者認識部(視認者検出部)242とを有する。
シャボン玉認識部241は、煙封入制御部21によって煙が封入されたシャボン玉30を認識して追尾する。より詳しくは、シャボン玉認識部241は、撮影データ取得部22が取得した撮影データに画像処理を行って、煙が封入されたシャボン玉30を認識する。シャボン玉認識部241は、シャボン玉30に煙が封入されていることにより、シャボン玉30の輪郭を正確に認識可能である。シャボン玉認識部241は、シャボン玉30の輪郭、大きさ及び位置を認識する。シャボン玉認識部241は、認識したシャボン玉30を追尾する。シャボン玉認識部241は、追尾したシャボン玉30の位置の変化から、シャボン玉30の移動方向と移動速度とを含む動きを認識してもよい。本実施形態では、シャボン玉認識部241によって認識されたシャボン玉30が投影対象になる。シャボン玉認識部241は、1つ以上のシャボン玉30を認識して追尾可能である。
視認者認識部242は、撮影データ取得部22が取得した撮影データに画像処理を行って、視認者Mを認識する。視認者認識部242は、視認者Mの位置を認識する。視認者認識部242は、人感センサデータ取得部23が取得した人感センサデータが視認者を検出したことを示す場合、視認者Mの認識処理を行ってもよい。
距離算出部25は、シャボン玉認識部241によって認識されたシャボン玉30と、視認者認識部242によって検出された視認者Mとに基づいて、投影対象のシャボン玉30と視認者Mとの距離を算出する。
選択部26は、シャボン玉認識部241によって認識された投影対象のシャボン玉30と視認者認識部242によって検出された視認者Mとの位置関係と、記憶部に記憶された投影ユニット14の位置データとに基づいて、映像50を投影する投影ユニット14の投影部を選択する。選択部26は、シャボン玉認識部241によって認識された投影対象のシャボン玉30と人感センサデータ取得部23が認識した視認者Mとの位置関係と、記憶部に記憶された投影ユニット14の位置データとに基づいて、映像50を投影する投影ユニット14の投影部を選択してもよい。選択部26は、例えば、映像50の視認性が高くなるような投影部を投影ユニット14から選択する。選択部26は、例えば視認者Mから近い投影部を投影ユニット14から選択する。
投影映像生成部27は、シャボン玉認識部241によって認識された投影対象のシャボン玉30に投影する映像50を生成する。投影映像生成部27は、図示しない記憶部に記憶した映像データから投影する映像50を生成してもよい。映像50は、例えば、メッセージなどの映像、動画または静止画などの映像、色彩を投影するための映像などである。
投影映像生成部27は、シャボン玉認識部241によって認識されたシャボン玉30の大きさと、距離算出部25によって算出された距離とに応じた表示態様の映像50を生成する。
投影映像生成部27は、例えば、シャボン玉30が大きく、シャボン玉30と視認者Mとの距離が近い場合、1つのシャボン玉30に投影する表示態様の映像50を生成してもよい。投影映像生成部27は、例えばシャボン玉30が直径20cm程度以上であり、シャボン玉30と視認者Mとの距離が数m程度以下である場合、1つのシャボン玉30に投影する表示態様の映像50を生成する。
図2に示すように、投影映像生成部27は、投影対象の1つのシャボン玉30に投影する映像50を生成する。図2に示す映像50は、メッセージを示す文字の映像である。図2に示す映像50は、1つのシャボン玉30に投影される表示態様である。
投影映像生成部27は、例えば、シャボン玉30が小さく、シャボン玉30と視認者Mとの距離が遠い場合、複数のシャボン玉30を使用してドットマトリックス状に投影する表示態様の映像50を生成してもよい。投影映像生成部27は、例えばシャボン玉30が直径20cm程度より小さく、シャボン玉30と視認者Mとの距離が10m程度以上である場合、複数のシャボン玉30を使用してドットマトリックス状に投影する表示態様の映像50を生成する。
図3に示すように、投影映像生成部27は、投影対象の複数のシャボン玉30に投影する映像50を生成する。図3に示す映像50は、1文字の映像である。図3に示す映像50は、複数のシャボン玉30を使用してドットマトリックス状に投影される表示態様である。
投影映像生成部27は、投影対象のシャボン玉30の大きさに応じて投影する大きさを変更した映像50を生成してもよい。投影映像生成部27は、例えば、投影対象のシャボン玉30の大きさが大きくなるほど、大きい映像50を生成してもよい。
投影映像生成部27は、投影対象のシャボン玉30の形状に応じた映像50を生成してもよい。
投影映像生成部27は、煙封入制御部21によって封入された煙の色に応じた色の映像50を生成してもよい。投影映像生成部27は、例えば封入された煙の補色となる色の映像50を生成してもよい。封入された煙の補色となる色の映像50をシャボン玉30に投影することにより、映像50の視認性が高まる。
投影映像生成部27は、封入された煙の色に応じた色が塗られた図形などの映像50を生成してもよい。投影映像生成部27は、例えば、白煙が封入されたシャボン玉30に投影するために、ピンク色の花びらの映像50を生成する。白色の煙が封入されたシャボン玉30に対して、色が塗られた図形の映像50が投影されると、映像50は色の再現性が高い状態で投影される。
投影映像生成部27は、図形などの輪郭の映像50を生成してもよい。投影映像生成部27は、例えば、ピンク色の煙が封入されたシャボン玉30に投影するために、花びらの輪郭の映像50を生成する。煙が封入されたシャボン玉30に、図形などの輪郭の映像50が投影されると、輪郭の内側に煙の色が透けて見える。
投影制御部28は、シャボン玉認識部241によって認識された投影対象のシャボン玉30に対して、投影映像生成部27によって生成された映像50を選択部26によって選択された投影部が投影するよう制御する。言い換えると、投影制御部28は、選択部26が選択した投影部に対して投影映像生成部27が生成した映像50を投影対象のシャボン玉30に投影する映像信号を出力する。投影制御部28は、シャボン玉30を追尾して映像50を投影するように映像信号を出力する。
投影制御部28は、投影対象のシャボン玉30の大きさに応じて投影する映像50の大きさを変更して投影してもよい。
投影制御部28は、投影対象のシャボン玉30の形状に応じた映像50を投影してもよい。
投影制御部28は、煙封入制御部21によって封入された煙の色に応じた色の映像50を投影してもよい。
次に、図4を用いて、投影制御装置である制御部20における処理の流れについて説明する。図4は、第一実施形態に係る投影制御装置である制御部20を有する映像投影システム1における処理の流れを示すフローチャートである。発生装置100によって、煙が封入されたシャボン玉30が発生される。
映像投影システム1の起動中、カメラ12によって周辺が撮影されて、撮影された撮影データが制御部20の撮影データ取得部22に対して出力される。また、人感センサユニット13によって周辺の人物が検出されて、検出された人感センサデータが制御部20の人感センサデータ取得部23に対して出力される。映像投影システム1の起動中、制御部20によって、ステップS101ないしステップS103の処理が繰り返される。
制御部20は、シャボン玉認識部241によって、シャボン玉30を認識する(ステップS101)。より詳しくは、制御部20は、シャボン玉認識部241によって、撮影データ取得部22が取得した撮影データに画像処理を行って、煙が封入されたシャボン玉30の輪郭、大きさ、位置、及び動きを認識する。制御部20は、シャボン玉認識部241によって、認識したシャボン玉30を追尾する。制御部20は、ステップS102へ進む。
制御部20は、選択部26によって、投影ユニット14から投影部を選択する(ステップS102)。より詳しくは、制御部20は、選択部26によって、シャボン玉認識部241によって認識された投影対象のシャボン玉30と視認者認識部242によって検出された視認者Mとの位置関係と、記憶部に記憶された投影ユニット14の位置データとに基づいて、映像50を投影する投影ユニット14の投影部を選択する。または、制御部20は、選択部26によって、シャボン玉認識部241によって追尾されるシャボン玉30と人感センサデータ取得部23が認識した視認者Mとの位置関係と、記憶部に記憶された投影ユニット14の位置データとに基づいて、映像50を投影する投影ユニット14の投影部を選択してもよい。制御部20は、ステップS103へ進む。
制御部20は、投影制御部28によって、映像50を投影する(ステップS103)。より詳しくは、まず、制御部20は、投影映像生成部27によって、投影対象のシャボン玉30に投影する映像50を生成する。そして、制御部20は、投影制御部28によって、選択部26が選択した投影部に対して投影映像生成部27が生成した映像50を投影対象のシャボン玉30に投影する映像信号を出力する。
このようにして、シャボン玉30へ煙を封入することによって、シャボン玉30の輪郭などが正確に認識される。シャボン玉30と視認者Mとの位置関係と、投影ユニット14の投影部との位置関係に基づいて、選択された投影部から、煙が封入されたシャボン玉30に対して映像50が投影される。
上述したように、本実施形態は、シャボン玉30へ煙を封入することによって、シャボン玉30の輪郭などを正確に認識することができる。本実施形態は、シャボン玉30を適切に検出することができる。また、本実施形態は、シャボン玉30に煙が封入されていてシャボン玉30が光を透過しないので、シャボン玉30に映像50を適切に投影することができる。
本実施形態は、シャボン玉30の大きさと、シャボン玉30と視認者Mとの距離とに応じた表示態様の映像50を生成して投影することができる。本実施形態は、例えば、シャボン玉30が大きく、シャボン玉30と視認者Mとの距離が近い場合、1つのシャボン玉30に投影する表示態様の映像50を生成して投影することができる。本実施形態は、例えば、シャボン玉30が小さく、シャボン玉30と視認者Mとの距離が遠い場合、複数のシャボン玉30を使用してドットマトリックス状に投影する表示態様の映像50を生成して投影することができる。
このようにして、本実施形態は、シャボン玉30の輪郭を正確に検出して、シャボン玉30に対して映像50を適切に投影することができる。
本実施形態は、視認者Mと投影ユニット14の投影部との位置関係に基づいて、選択された投影部から、シャボン玉30に対して映像50を投影することができる。本実施形態によれば、投影ユニット14から、適切な投影部を選択して投影することができる。
本実施形態は、封入された煙に応じた色の映像50を生成して投影することができる。本実施形態は、例えば封入された煙の補色となる色の映像50を生成して投影することによって、映像50の視認性を高めることができる。
本実施形態は、シャボン玉30を使用して映像50を投影するので、例えばアドバルーンまたは気球などに映像50を投影する場合に比べて、ゴミの発生を抑制することができる。
本実施形態は、例えば風船に使用されるヘリウムガスなどのような特殊なガスを使用しないので、容易、かつ低コストで実現することができる。
本実施形態は、シャボン玉30を使用して映像50を投影するので、簡易な構成で実現することができる。
[第二実施形態]
図5、図6を参照しながら、本実施形態に係る映像投影システム1Aについて説明する。図5は、第二実施形態に係る投影制御装置である制御部20を有する映像投影システム1Aの構成例を示すブロック図である。図6は、第二実施形態に係る投影制御装置である制御部20を有する映像投影システム1Aにおける処理の流れを示すフローチャートである。本実施形態の映像投影システム1Aは、基本的な構成は第一実施形態の映像投影システム1と同様である。以下の説明においては、第一実施形態の映像投影システム1と同様の構成要素には、同一の符号または対応する符号を付し、その詳細な説明は省略する。本実施形態の映像投影システム1Aは、制御部20Aがシャボン玉選択部29Aを有する点と、投影制御部28Aにおける処理とが、第一実施形態と異なる。
シャボン玉選択部29Aは、シャボン玉認識部241によって認識されたシャボン玉30のうち、映像50を投影する投影対象のシャボン玉30を選択する。
シャボン玉選択部29Aは、シャボン玉認識部241によって認識されたシャボン玉30の移動速度に応じて、映像50を投影する投影対象のシャボン玉30を選択してもよい。シャボン玉選択部29Aは、例えばシャボン玉30の移動速度が閾値以上であるシャボン玉30を投影対象のシャボン玉30として選択する。シャボン玉選択部29Aは、例えばシャボン玉30の移動速度が閾値より遅いシャボン玉30を投影対象のシャボン玉30として選択する。
シャボン玉選択部29Aは、シャボン玉認識部241によって認識されたシャボン玉30の移動速度と、シャボン玉30に投影する映像50に応じて、投影対象のシャボン玉30を選択してもよい。シャボン玉選択部29Aは、図形または動体の映像50である場合、シャボン玉30の移動速度が閾値以上であるシャボン玉30を投影対象のシャボン玉30として選択してもよい。シャボン玉選択部29Aは、メッセージを示す文字の映像50である場合、シャボン玉30の移動速度が閾値より遅いシャボン玉30を投影対象のシャボン玉30として選択してもよい。
投影制御部28Aは、選択部26が選択した投影部に対して、投影映像生成部27が生成した映像50を、シャボン玉選択部29Aが選択した投影対象のシャボン玉30に投影する映像信号を出力する。
次に、図6を用いて、映像投影システム1Aの制御部20Aにおける処理の流れについて説明する。ステップS111、ステップS113、ステップS114の処理は、図4に示すフローチャートのステップS101、ステップS102、ステップS103の処理と同様の処理を行う。
制御部20Aは、シャボン玉選択部29Aによって、投影対象のシャボン玉30を選択する(ステップS112)。より詳しくは、制御部20Aは、シャボン玉選択部29Aによって、シャボン玉認識部241によって認識されたシャボン玉30の移動速度に応じて、投影対象のシャボン玉30を選択する。制御部20Aは、ステップS113へ進む。
このようにして、シャボン玉30の移動速度に応じて、投影対象のシャボン玉30を選択する。
上述したように、本実施形態は、シャボン玉30の移動速度に応じて、映像50を投影するシャボン玉30を適切に選択することができる。
[第三実施形態]
図7を参照しながら、本実施形態に係る投影制御装置である制御部20を有する映像投影システム1Bについて説明する。図7は、第三実施形態に係る映像投影システム1Bの構成例を示すブロック図である。本実施形態の映像投影システム1Bは、煙封入装置11Bが煙成分変更部111Bを有する点と、制御部20Bの煙封入制御部21Bにおける処理とが、第一実施形態と異なる。
煙成分変更部111Bは、シャボン玉30へ封入する煙の成分を変更する。より詳しくは、煙成分変更部111Bは、投影する映像50と関連する匂いがするように、封入する煙の成分を変更する。煙成分変更部111Bは、例えば映像50が食べ物に関するものである場合、食べ物のにおいがするように煙の成分を変更する。
煙封入制御部21Bは、シャボン玉30へ封入する煙の成分を変更する煙成分変更部111Bを制御して、煙の成分を、投影する映像50と関連する匂いを有する成分に変更してシャボン玉30に封入させる。
このようにして、シャボン玉30に投影する映像50に応じて、封入する煙の成分を変更する。
上述したように、本実施形態は、シャボン玉30に投影する映像50に応じて、封入する煙の成分を変更することができる。
さて、これまで本発明に係る映像投影システム1について説明したが、上述した実施形態以外にも種々の異なる形態にて実施されてよいものである。
図示した映像投影システム1の各構成要素は、機能概念的なものであり、必ずしも物理的に図示の如く構成されていなくてもよい。すなわち、各装置の具体的形態は、図示のものに限られず、各装置の処理負担や使用状況などに応じて、その全部または一部を任意の単位で機能的または物理的に分散または統合してもよい。
映像投影システム1の構成は、例えば、ソフトウェアとして、メモリにロードされたプログラムなどによって実現される。上記実施形態では、これらのハードウェアまたはソフトウェアの連携によって実現される機能ブロックとして説明した。すなわち、これらの機能ブロックについては、ハードウェアのみ、ソフトウェアのみ、または、それらの組み合わせによって種々の形で実現できる。
上記した構成要素には、当業者が容易に想定できるもの、実質的に同一のものを含む。さらに、上記した構成は適宜組み合わせが可能である。また、本発明の要旨を逸脱しない範囲において構成の種々の省略、置換または変更が可能である。
上記では、人感センサユニット13によって視認者Mを検出するものとして説明したが、これに限定されない。例えば、周辺を撮影するカメラが撮影した撮影データに人物認識処理を行って、視認者Mを検出してもよい。
映像投影システム1は、シャボン玉30を移動させるために送風する送風装置と、送風装置を動作させるか否かを判断する送風判断部とを有してもよい。送風判断部は、シャボン玉30に投影する映像50に応じて、送風するか否かを判断する。送風判断部は、例えば、蝶または花びらなど動きのある映像50をシャボン玉30に投影する場合、送風すると判断する。送風判断部が送風すると判断する場合、送風装置は送風を開始する。投影制御部28は、送風によって移動するシャボン玉30に対して、蝶の映像50を投影する。これにより、蝶が飛んでいるような映像50を視認者Mに視認させることができる。また、送風判断部は、例えば、メッセージを示す文字の映像50である場合、送風しないと判断する。
映像投影システム1は、発生装置100が使用するシャボン液の成分を変更する液成分変更部を制御する液成分制御部を有していてもよい。液成分制御部は、例えば、食べ物の映像50を投影する場合、液成分変更部を制御して、シャボン液の成分を食べ物の味覚を感じさせ、かつ食用の成分に変更させる。これにより、食べ物の映像50を視認者Mに視認させるとともに、食べ物の味覚を感じさせることができる。
発生装置100の煙封入装置11は、香り成分を有する煙をシャボン玉30に封入してもよい。映像投影システム1は、投影する映像50に応じて、煙につける香りの成分を変更するよう制御する。映像投影システム1は、例えば、夏の海に関連する映像50である場合、潮風の香り成分を有する煙をシャボン玉30に封入させる。これにより、シャボン玉30に投影される映像50とともに、潮風の香りを視認者Mに感じさせることができる。
発生装置100は、シャボン玉30の中に、突起部がない紙吹雪を封入する装置を有してもよい。映像投影システム1は、投影する映像50に応じて、紙吹雪の封入を制御する。映像投影システム1は、例えば、花びらの映像50である場合、花びら状の紙吹雪をシャボン玉30に封入させる。これにより、シャボン玉30が割れる際に、花びら状の紙吹雪を散らすことができる。
発生装置100は、シャボン玉30の中に小さいシャボン玉を封入する装置を有してもよい。映像投影システム1は、投影する映像50に応じて、小さいシャボン玉の封入を制御する。映像投影システム1は、例えば、シャボン玉30に花の映像50を投影する場合、シャボン玉30の中に小さいシャボン玉を封入させる。映像投影システム1は、シャボン玉30が割れた後、小さいシャボン玉に花びらの映像50を投影させる。これにより、花の映像50が投影されたシャボン玉30が割れると、花びらの映像50が投影された小さいシャボン玉を視認者Mに視認させることができる。
1 映像投影システム
11 煙封入装置
12 カメラ
13 人感センサユニット
14 投影ユニット(投影装置)
20 制御部(投影制御装置)
21 煙封入制御部
22 撮影データ取得部
23 人感センサデータ取得部
24 認識部
241 シャボン玉認識部
242 視認者認識部
25 距離算出部
26 選択部
27 投影映像生成部
28 投影制御部
30 シャボン玉
50 映像
100 発生装置
M 視認者

Claims (4)

  1. シャボン玉に煙を封入する煙封入装置を制御する煙封入制御部と、
    前記シャボン玉および視認者を撮影した撮影データを取得する撮影データ取得部と、
    前記撮影データから前記煙が封入された前記シャボン玉を認識して追尾するシャボン玉認識部と、
    前記撮影データから前記視認者を認識する視認者認識部と、
    前記シャボン玉認識部によって認識された前記シャボン玉と、前記視認者認識部によって認識された前記視認者との距離を算出する距離算出部と、
    前記シャボン玉認識部によって認識された前記シャボン玉と、前記視認者認識部によって認識された前記視認者との位置関係に基づいて、映像を投影する投影装置を選択する選択部と、
    投影する映像を生成する投影映像生成部と、
    前記シャボン玉認識部によって認識された前記シャボン玉に対して、前記投影映像生成部によって生成された前記映像を前記選択部によって選択された投影装置が投影するよう制御する投影制御部と、
    を備え、
    前記投影映像生成部は、前記シャボン玉認識部によって認識された前記シャボン玉の大きさと前記距離算出部によって算出された前記距離とに応じた表示態様の映像を生成する、
    投影制御装置。
  2. 前記煙封入制御部は、前記投影映像生成部によって生成された前記映像に応じた色の前記煙を封入するよう制御する、
    請求項に記載の投影制御装置。
  3. 前記シャボン玉認識部は、認識した前記シャボン玉の移動速度を算出し、
    前記シャボン玉認識部によって認識された前記シャボン玉の移動速度に基づいて、前記映像を投影する投影対象の前記シャボン玉を選択するシャボン玉選択部、
    を備える、請求項1または2に記載の投影制御装置。
  4. シャボン玉に煙を封入する煙封入装置を制御する煙封入制御ステップと、
    前記シャボン玉および視認者を撮影した撮影データを取得する撮影データ取得ステップと、
    前記撮影データから前記煙が封入された前記シャボン玉を認識して追尾するシャボン玉認識ステップと、
    前記撮影データから前記視認者を認識する視認者認識ステップと、
    前記シャボン玉認識ステップによって認識された前記シャボン玉と、前記視認者認識ステップによって認識された前記視認者との距離を算出する算出ステップと、
    前記シャボン玉認識ステップによって認識された前記シャボン玉と、前記視認者認識ステップによって認識された前記視認者との位置関係に基づいて、映像を投影する投影装置を選択する選択ステップと、
    投影する映像を生成する投影映像生成ステップと、
    前記シャボン玉認識ステップによって認識された前記シャボン玉に対して、前記投影映像生成ステップによって生成された前記映像を前記選択ステップによって選択された投影装置が投影するよう制御する投影制御ステップと、
    を含み、
    前記投影映像生成ステップは、前記シャボン玉認識ステップによって認識された前記シャボン玉の大きさと前記算出ステップによって算出された前記距離とに応じた表示態様の映像を生成する、
    投影制御方法。
JP2020133562A 2020-08-06 2020-08-06 投影制御装置および投影制御方法 Active JP7472711B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020133562A JP7472711B2 (ja) 2020-08-06 2020-08-06 投影制御装置および投影制御方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020133562A JP7472711B2 (ja) 2020-08-06 2020-08-06 投影制御装置および投影制御方法

Publications (2)

Publication Number Publication Date
JP2022029946A JP2022029946A (ja) 2022-02-18
JP7472711B2 true JP7472711B2 (ja) 2024-04-23

Family

ID=80323943

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020133562A Active JP7472711B2 (ja) 2020-08-06 2020-08-06 投影制御装置および投影制御方法

Country Status (1)

Country Link
JP (1) JP7472711B2 (ja)

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013195498A (ja) 2012-03-16 2013-09-30 Nikon Corp マルチプロジェクタシステム
US20130308064A1 (en) 2012-05-17 2013-11-21 Disney Enterprises, Inc. Infrared video tracking for use in projecting onto dynamic water features
KR101465497B1 (ko) 2013-07-09 2014-11-26 성균관대학교산학협력단 동적 프로젝션 매핑 장치 및 시스템과 그 방법
JP2015008421A (ja) 2013-06-25 2015-01-15 株式会社ニコン 投影装置及び搬送装置
WO2015033477A1 (ja) 2013-09-09 2015-03-12 株式会社Molcure シャボン玉生成システム
JP2015179131A (ja) 2014-03-18 2015-10-08 カシオ計算機株式会社 スクリーン形成装置、投影システム及びスクリーン制御方法
JP2016081497A (ja) 2014-10-14 2016-05-16 株式会社東通 画像投影方法及び画像投影システム
JP2017127594A (ja) 2016-01-22 2017-07-27 株式会社アイガッシュ シャボン玉生成装置及び同装置を用いたシャボン玉でディスプレイ方法
WO2018122211A2 (en) 2016-12-31 2018-07-05 Barco N.V. Vortex ring based display
JP2018200393A (ja) 2017-05-26 2018-12-20 花王株式会社 泡プロジェクションマッピング方法

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013195498A (ja) 2012-03-16 2013-09-30 Nikon Corp マルチプロジェクタシステム
US20130308064A1 (en) 2012-05-17 2013-11-21 Disney Enterprises, Inc. Infrared video tracking for use in projecting onto dynamic water features
JP2015008421A (ja) 2013-06-25 2015-01-15 株式会社ニコン 投影装置及び搬送装置
KR101465497B1 (ko) 2013-07-09 2014-11-26 성균관대학교산학협력단 동적 프로젝션 매핑 장치 및 시스템과 그 방법
WO2015033477A1 (ja) 2013-09-09 2015-03-12 株式会社Molcure シャボン玉生成システム
JP2015179131A (ja) 2014-03-18 2015-10-08 カシオ計算機株式会社 スクリーン形成装置、投影システム及びスクリーン制御方法
JP2016081497A (ja) 2014-10-14 2016-05-16 株式会社東通 画像投影方法及び画像投影システム
JP2017127594A (ja) 2016-01-22 2017-07-27 株式会社アイガッシュ シャボン玉生成装置及び同装置を用いたシャボン玉でディスプレイ方法
WO2018122211A2 (en) 2016-12-31 2018-07-05 Barco N.V. Vortex ring based display
JP2018200393A (ja) 2017-05-26 2018-12-20 花王株式会社 泡プロジェクションマッピング方法

Also Published As

Publication number Publication date
JP2022029946A (ja) 2022-02-18

Similar Documents

Publication Publication Date Title
US11335379B2 (en) Video processing method, device and electronic equipment
US10068369B2 (en) Method and apparatus for selectively integrating sensory content
KR102365730B1 (ko) 인터랙티브 콘텐츠 제어 장치 및 방법
US7874681B2 (en) Interactive projector system and method
US20130265333A1 (en) Augmented Reality Based on Imaged Object Characteristics
CN101183276A (zh) 基于摄像头投影仪技术的交互系统
ES2906311T3 (es) Manipulación gráfica basada en la mirada y en la sacudida ocular
WO2019006650A1 (zh) 虚拟现实内容的显示方法和装置
CN108124146B (zh) 用于控制电子设备投影的方法、电子设备和投影系统
CN111164544B (zh) 运动感测
US11589019B2 (en) Projection method and projection apparatus
KR20210029244A (ko) 동적 패널 마스킹
TW202121155A (zh) 互動對象的驅動方法、裝置、設備以及電腦可讀儲存介質
JP7472711B2 (ja) 投影制御装置および投影制御方法
CN103455968A (zh) 一种具有粒子元素的实时影像渲染方法
US9621819B2 (en) Electronic device and multimedia control method thereof
WO2019241712A1 (en) Augmented reality wall with combined viewer and camera tracking
Nakamura et al. Bubble cosmos
US10719977B2 (en) Augmented reality wall with combined viewer and camera tracking
US10593119B2 (en) Projected augmented reality to obscure physical objects
US8573786B2 (en) Projector apparatus and method for dynamically masking objects
JP2022505977A (ja) 特殊効果可視化手法
CN109031868A (zh) 一种带眼睛防护功能的超短焦桌面投影仪
KR102635477B1 (ko) 증강현실 기반의 공연 콘텐츠 제공장치 및 방법
US20240157264A1 (en) Systems and methods for projection mapping for amusement park attraction system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230331

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231205

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240131

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240312

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240325

R150 Certificate of patent or registration of utility model

Ref document number: 7472711

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150