JP6549764B1 - 画像投影システム、画像投影方法、及びプログラム - Google Patents

画像投影システム、画像投影方法、及びプログラム Download PDF

Info

Publication number
JP6549764B1
JP6549764B1 JP2018134003A JP2018134003A JP6549764B1 JP 6549764 B1 JP6549764 B1 JP 6549764B1 JP 2018134003 A JP2018134003 A JP 2018134003A JP 2018134003 A JP2018134003 A JP 2018134003A JP 6549764 B1 JP6549764 B1 JP 6549764B1
Authority
JP
Japan
Prior art keywords
image
area
background
data
projected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018134003A
Other languages
English (en)
Other versions
JP2020014075A (ja
Inventor
恵 志水
恵 志水
Original Assignee
恵 志水
恵 志水
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 恵 志水, 恵 志水 filed Critical 恵 志水
Priority to JP2018134003A priority Critical patent/JP6549764B1/ja
Application granted granted Critical
Publication of JP6549764B1 publication Critical patent/JP6549764B1/ja
Publication of JP2020014075A publication Critical patent/JP2020014075A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

【課題】 簡易な構成で、背景の手前に存在する物体の領域又は物体の領域外に、物体の動きに対応したリアルタイムな画像投影を行う。【解決手段】 画像投影システムに、画像が投影される背景の手前に存在する物体の領域を3次元で認識する深度カメラと、認識した領域又は領域外に所定のデータを出力するプロジェクターと、を備える。【選択図】 図1

Description

本発明は、深度カメラで背景の手前に存在する物体の領域を認識することで、該当の領域又は該当の領域外に、所定の画像を投影することが可能な、画像投影システム、画像投影方法、及びプログラムに関するものである。
立体的な対象物の造形に合わせた映像を投影する技術として、従来、プロジェクションマッピング(Projection Mapping)の方法が知られている。また、プロジェクションマッピングの応用として、背景のTシャツが動いても、追尾して投影する技術がある(非特許文献1)。
高速プロジェクタを用いた変形する非剛体曲面へのダイナミックプロジェクションマッピング[平成30年7月5日検索]、インターネット<http://www.k2.t.u-tokyo.ac.jp/vision/DPM/index-j.html>
上記の非特許文献1には、提案するマーカーを対象に印字することで、大きな変形や遮蔽が生じても高速かつロバストに変形を継続的に捉え、対象と投影画像との間の幾何学的不整合を人間が知覚することのないよう、高フレームレートかつ低遅延で投影を行う高速プロジェクタを用いて投影を行う技術が開示されている。しかしながら、実現するためには高機能高価格な高速プロジェクタが必要であり、更に、投影されている背景に対して、手前に人物等の物体が存在する場合に、背景と物体とを融合させた映像は提供できていないという課題がある。非特許文献1だけではなく、通常のプロジェクションマッピングでは、手前に物体等が存在すると、背景と物体等の両方に共通した画像が投影されてしまうという課題がある。また、手前の物体等が動く場合には、投影の際にその動きも考慮しなければならない。さらに、通常のプロジェクションマッピングでは、建物等の静止した立体物に映像を投影することを前提としているため、対象となる立体物にあわせたマッピング設計を行うことが必要であり、設計された対象物以外にはプロジェクションマッピングを行うことはできない。
そこで本発明は、これらの課題に鑑み、深度カメラで背景の手前に存在する物体の領域を認識し、該当の領域又は該当の領域外に所定の画像を投影することで、簡易な構成で三次元空間に動きを与え、新しい映像体験を提供することが可能な、画像投影システム、画像投影方法、及びプログラムを提供することを目的とする。
本発明では、以下のような解決手段を提供する。
物体に画像を投影する画像投影システムであって、
画像が投影される背景の手前に存在する物体の領域を3次元で認識する深度カメラと、
背景画像を投影する範囲の指示に合わせて、前記背景画像を投影する範囲が認識した前記物体の領域外である場合、当該領域には白塗りデータを、当該領域外には背景画像のデータを所定のデータとして其々割り当てて生成したイメージを出力し、前記背景画像を投影する範囲が認識した前記物体の領域内である場合、当該領域には背景画像のデータを、当該領域外には黒塗りデータを所定のデータとして其々割り当てて生成したイメージを出力するプロジェクターと、
を備える画像投影システムを提供する。
第1の特徴に係る発明によれば、物体に画像を投影する画像投影システムにおいて、画像が投影される背景の手前に存在する物体の領域を3次元で認識する深度カメラと、背景画像を投影する範囲の指示に合わせて、前記背景画像を投影する範囲が認識した前記物体の領域外である場合、当該領域には白塗りデータを、当該領域外には背景画像のデータを所定のデータとして其々割り当てて生成したイメージを出力し、前記背景画像を投影する範囲が認識した前記物体の領域内である場合、当該領域には背景画像のデータを、当該領域外には黒塗りデータを所定のデータとして其々割り当てて生成したイメージを出力するプロジェクターと、を備える。
第1の特徴に係る発明は、画像投影システムのカテゴリであるが、画像投影方法、およびプログラムであっても同様の作用、効果を奏する。
第2の特徴に係る発明は、第1の特徴に係る発明である画像投影システムであって、
前記物体の変形又は移動により前記領域が変化する場合においても、前記深度カメラが変化した領域をリアルタイムに認識し、前記プロジェクターが対応する前記所定のデータを出力する画像投影システムを提供する。
第2の特徴に係る発明によれば、第1の特徴に係る発明である画像投影システムにおいて、前記物体の変形又は移動により前記領域が変化する場合に
おいても、前記深度カメラが変化した領域をリアルタイムに認識し、前記プロジェクターが対応する前記所定のデータを出力する。
の特徴に係る発明は、第1の特徴から第の特徴のいずれかに係る発明である画像投影システムであって、
前記プロジェクターが描画する前記所定のデータが動画データである画像投影システムを提供する。
の特徴に係る発明によれば、第1の特徴から第の特徴のいずれかに係る発明である画像投影システムにおいて、前記プロジェクターが描画する前記所定のデータが動画データである。
第4の特徴に係る発明は、
物体に画像を投影する画像投影システムが実行する画像投影方法であって、
画像が投影される背景の手前に存在する物体の領域を3次元で認識するステップと、
背景画像を投影する範囲の指示に合わせて、前記背景画像を投影する範囲が認識した前記物体の領域外である場合、当該領域には白塗りデータを、当該領域外には背景画像のデータを所定のデータとして其々割り当てて生成したイメージを出力し、前記背景画像を投影する範囲が認識した前記物体の領域内である場合、当該領域には背景画像のデータを、当該領域外には黒塗りデータを所定のデータとして其々割り当てて生成したイメージを出力するステップと、
を備える画像投影方法を提供する。
第5の特徴に係る発明は、
物体に画像を投影する画像投影システムにおいて用いられるコンピュータに、
画像が投影される背景の手前に存在する物体の領域を3次元で認識するステップ、
背景画像を投影する範囲の指示に合わせて、前記背景画像を投影する範囲が認識した前記物体の領域外である場合、当該領域には白塗りデータを、当該領域外には背景画像のデータを所定のデータとして其々割り当てて生成したイメージを出力し、前記背景画像を投影する範囲が認識した前記物体の領域内である場合、当該領域には背景画像のデータを、当該領域外には黒塗りデータを所定のデータとして其々割り当てて生成したイメージを出力するステップ、
を実行させるためプログラムを提供する。
本発明によれば、深度カメラで背景の手前に存在する物体の領域を認識し、該当の領域又は該当の領域外に所定の画像を投影することで、簡易な構成で三次元空間に動きを与え、新しい映像体験を提供することが可能な、画像投影システム、画像投影方法、及びプログラムを提供することが可能となる。本発明によれば、コンパクトで低価格な画像投影システムを実現することができ、結婚式やスモールイベント等での演出効果をより高めることが可能となる。
図1は、本発明の好適な実施形態の概要図である。 図2は、画像投影処理のフローチャート図である。 図3は、キャリブレーション処理のフローチャート図である。 図4は、従来例の概要図である。 図5は、キャリブレーション処理における、ディスプレイ表示開始時の画面の一例である。 図6は、キャリブレーション処理における、キャリブレーション用画像投影時の画面の一例である。 図7は、キャリブレーション処理における、原点の座標取得時の画面の一例である。 図8は、キャリブレーション処理における、指定の4点の座標取得時の画面の一例である。 図9は、キャリブレーション処理完了後の画面の一例である。 図10は、人物領域には白塗りのデータ、それ以外には背景画像のデータを画像投影した場合の一例である。 図11は、人物領域には背景画像のデータ、それ以外には黒塗りのデータを画像投影した場合の一例である。 図12は、人物領域に背景画像のデータ、それ以外には黒塗りのデータを画像投影した場合の別の一例である。
以下、好適な実施の形態を用いて本発明をさらに具体的に説明する。但し、下記の実施の形態は本発明を具現化した例に過ぎず、本発明はこれに限定されるものではない。
[画像投影システムの概要]
図1は、本発明の好適な実施の形態の概要図である。この図1に基づいて、本発明の概要を説明する。物体に画像を投影する画像投影システムは、深度カメラ100、プロジェクター200、コンピュータ300、ディスプレイ400から構成される。また、図1で600は画像を投影する際に背景となる背景領域、500は背景領域600の手前に存在する人物等の物体を示す。
深度カメラ100は、RGBカメラ、深度センサを備える。RGBカメラ機能により、カラー画像を撮影することが可能であるとともに、深度センサにより物体500の領域と物体500までの距離を測定可能なデバイスである。深度カメラ100は、コンピュータ300と通信可能に接続されているものとする。
プロジェクター200は、画像や映像を背景領域600にあわせて投影可能なデバイスである。投影を行うだけでなく、映像にあわせた音声を出力可能としてもよい。プロジェクター200はコンピュータ300と通信可能に接続されているものとする。また、ディスプレイ400で表示している画像を背景領域600に投影可能であるものとする。
コンピュータ300は、制御部、通信部、記憶部、入力部等を備え、深度カメラ100、プロジェクター200、ディスプレイ400との通信や制御を行うものとする。ディスプレイ400が、コンピュータ300の出力部の一部であってもよい。また、ここでは、例としてデスクトップ型のコンピュータを図示しているが、携帯電話、携帯情報端末、タブレット端末、パーソナルコンピュータであってもよいし、電化製品やウェアラブル端末等であってもよい。
ディスプレイ400は、液晶画面等の表示部を備え、背景領域600に投影を行う画像を表示する。また、コンピュータ300の入力部を介してユーザが操作を行うことで、ディスプレイ400上の表示を利用して、キャリブレーション等の補正処理を可能とする。キャリブレーション処理については、後述する。ディスプレイ400は、コンピュータ300と一体のデバイスであってもよい。
画像投影システムの深度カメラ100は、物体500の領域を3次元で認識する。そして、コンピュータ300は、物体500に背景画像が投影されないよう、物体500の領域には白塗りのデータ、物体500の領域外には、背景として投影したいデータをイメージ生成して、プロジェクター200で投影する。イメージ生成の際には、深度カメラ100で認識した物体300の3次元領域にあわせて、透視変換で画像のマッピングを行うものとする。これにより、図1に示すように、物体500以外の背景領域600に、背景データを投影可能となる。深度カメラ100の深度センサによって、リアルタイムで物体500の領域を認識することで、物体500が動く場合にも対応して背景領域600のみに、画像の投影を行うことができる。ここでは、物体500以外の領域に背景画像を投影しているが、物体500の形状を認識して、認識した領域内に画像を投影してもよい。この場合、認識した物体にあわせた画像や、人物にあわせた洋服の柄などを投影しても良い。
図4は、深度カメラ100を使用せずに、背景画像の投影を行う従来例の概要図である。従来のシステムでは、プロジェクター200で背景領域600に対して画像の投影を行う際、背景の手前に存在する物体500の領域を認識することができないため、物体500にも画像が投影されてしまう。その場合、人物などの物体500が、背景に溶け込んでしまい、非常に認識しづらくなるという問題がある。
これに対して、本発明によれば、従来の構成に深度カメラ100を加えるという簡易な構成で、背景領域600のみに所定の画像を投影し、物体500の視認性を保ちながら、物体500が動く場合にもリアルタイムに対応して3次元空間に画像を投影することが可能となるという、効果を得ることが可能となる。
[画像投影処理]
図2は、画像投影処理のフローチャート図である。本発明の画像投影システムの詳細な処理について、本図を用いて説明する。
まず、画像投影システムのコンピュータ300は、深度カメラ100、プロジェクター200、ディスプレイ400を利用してキャリブレーションを行い、背景領域600に投影する平面画像の頂点を補正する(ステップS201)。このキャリブレーション処理を行うことにより、はじめは台形などの不適切な形状に画像が投影された場合にも、適切な長方形に補正して、画像を投影することが可能となる。キャリブレーション処理の詳細は後述する。
次に、コンピュータ300は、画像の投影を開始するかどうかの確認を行う(ステップS202)。ここで、画像の投影を開始する場合には、次のステップS203へと進み、未だ画像の投影を開始しない場合には、待機する。ステップS201でキャリブレーション済みであるので、投影開始のタイミングによらず、適切な長方形の画像を投影可能である。投影開始のタイミングは、ユーザが手動で指定してもよいし、タイマー等で投影開始の時間指定を行ってもよい。また、ステップS202では、あわせて投影する画像の選択を行ってもよい。投影する画像の種類は、静止画像に限らず、動画像であってもよい。
画像の投影を開始する場合、コンピュータ300の制御部から、深度カメラ100に対して指示を行い、深度センサによって背景領域600の手前に存在する物体500の領域を3次元で認識する(ステップS203)。
次に、コンピュータ300の制御部は、背景画像を投影する範囲が、認識した物体500の領域内であるのか、領域外であるのかを確認する(ステップS204)。背景画像を投影する範囲の指示は、投影する画像の選択時にあわせて行ってもよいし、物体500の認識後に行ってもよい。また、画像の投影を行っている間は、随時切り替え可能としてもよい。
背景画像を投影する範囲として、物体500の領域外が指定されている場合、物体500の領域には白塗りとなる透過のデータを割り当て、物体500の領域外には背景画像データを割り当て、イメージ生成して投影する(ステップS205)。この、イメージ生成の際に、透視変換でマッピングを行う。透視変換を行う際に使用する透視変換前の4点の座標と透視変換後の4点の座標には、ステップS201のキャリブレーション処理で算出した、背景領域600の4隅のキャリブレーション前の座標とキャリブレーション後の座標を使用する。
図10は、人物領域には白塗りのデータ、それ以外には背景画像のデータを画像投影した場合の一例である。物体500として認識された人物の部分は白塗りの透過データを利用することで、人物以外の背景領域600に、画像を投影することができるため、人物の衣装を邪魔せず、背景のみを適切に投影することが可能である。
図2に戻り、背景画像を投影する範囲として、物体500の領域内が指定されている場合、物体500の領域には背景画像のデータを割り当て、物体500の領域外には黒塗りのデータを割り当て、イメージ生成して投影する(ステップS206)。透視変換を行う際に使用する透視変換前の4点の座標と透視変換後の4点の座標には、ステップS201のキャリブレーション処理で算出した、背景領域600の4隅のキャリブレーション前の座標とキャリブレーション後の座標を使用する。
図11は、人物領域には背景画像のデータ、それ以外には黒塗りのデータを画像投影した場合の一例である。物体500として認識された人物の部分に背景画像のデータを利用することで、背景画像をまるで人物の衣装のように投影することが可能である。
また、図12は、人物領域に背景画像のデータ、それ以外には黒塗りのデータを画像投影した場合の別の一例である。図12のように、物体500として認識された人物の顔以外の部分に画像を投影することで、人物の顔の表情等は確認しやすいまま、より衣装らしい画像を投影することが可能となる。認識した物体500の領域に対して、上部の何パーセントには背景画像を投影しない、又は、上部何cmには画像を投影しない、又は、上部に向かって背景画像の透過度をあげていく、等の処理を行うことによって、実現可能である。物体500が人物である場合に限らず、認識した領域の一部分にのみ投影処理を行ってもよい。
図2に戻り、最後に、画像投影処理を終了するかどうかの確認を行う(ステップS207)。画像投影を終了する場合には処理を終了し、終了しない場合には、ステップS203に戻って、再度物体500の領域の3次元認識を行う。これにより、物体500が動く場合にも、リアルタイムに対応可能な画像投影システムが実現可能となる。
以上のように、本発明によれば、深度カメラで背景の手前に存在する物体の領域を認識し、該当の領域又は該当の領域外に所定の画像を投影することで、簡易な構成で三次元空間に動きを与え、新しい映像体験を提供することが可能な、画像投影システム、画像投影方法、及びプログラムを提供することが可能となる。
[キャリブレーション処理]
図3は、キャリブレーション処理のフローチャート図である。画像投影システムのコンピュータ300は、深度カメラ100、プロジェクター200、ディスプレイ400を利用してキャリブレーションを行い、背景領域600に投影された平面画像の頂点を補正するキャリブレーション処理を行う。キャリブレーション処理により、はじめは台形などの不適切な形状に画像が投影された場合にも、適切な長方形に補正して、画像を投影することが可能となる。本処理は、図2のステップS201の処理に該当する。
まず、コンピュータ300は、ディスプレイ400の表示部に、キャリブレーションを行うための画面を表示する(ステップS301)。
図5は、キャリブレーション処理における、ディスプレイ表示開始時の画面の一例である。ディスプレイ400の表示部に、画像を表示するイメージボックス410と、文字を表示するテキストボックス420を表示する。ここで、テキストボックス420は、イメージボックス410に重畳表示してもよい。また、イメージボックス410は、ディスプレイ400の表示部全域であってもよい。ここで、ディスプレイ400の左上の地点411を、ディスプレイ400における原点(0,0)とする。
図3に戻り、コンピュータ300は、キャリブレーション用の画像を、プロジェクター200で背景領域600に投影する(ステップS302)。キャリブレーション用の画像は、長方形の画像を投影した場合に、背景領域600がどのような形になるかがはっきりわかるものが望ましい。通常、背景として投影する画像と同じものであってもよいが、格子柄であったり、領域の4隅が分かりやすいマーク等が入っていたりしてもよい。
図6は、キャリブレーション処理における、キャリブレーション用画像投影時の画面の一例である。ディスプレイ400のイメージボックス410内に、物体500と背景領域600とを、深度カメラ100のRGBカメラ機能で撮影した画像を表示する。図6に示すように、プロジェクター200で投影した背景領域600が歪んで台形等になっている場合には、背景が正しい長方形に投影されるよう投影する画像を補正することが必要であり、本発明では、この補正処理をキャリブレーションと呼ぶ。また、プロジェクター200で投影を行うために、プロジェクター200の解像度や縦横比にあわせて表示を行う必要がある。そのため、ディスプレイ400とプロジェクター200の縦横比が合わない場合、イメージボックス410の両側に黒領域412を表示することで、縦横比を調整するものとする。ディスプレイ400の解像度をもとに、黒領域を除いた部分の出力解像度を求める。X方向の解像度、つまりX方向の幅430はディスプレイ400の横幅から両端の黒領域412の幅をひいたものである。Y方向の解像度、つまりY方向の幅440はディスプレイ400の縦幅である。
図3に戻り、コンピュータ300は、プロジェクター200が出力する画像の原点の座標を取得する(ステップS303)。原点の座標を取得するために、ユーザにディスプレイ400の表示部を見ながら、コンピュータ300の入力部を介して操作させることで、原点を指定させてよいものとする。また、ここでは、原点の相対座標と絶対座標との両方を取得してよい。
図7は、キャリブレーション処理における、原点の座標取得時の画面の一例である。ディスプレイ400における原点であるディスプレイ400の最も左上の点411に対して、プロジェクター200が出力する画像の原点となる黒領域412を除いた左上の点413を、ユーザがカーソル440で指定することで、点413を原点として取得する。この点413の座標を、テキストボックス420に原点として表示してもよい。
図3に戻り、コンピュータ300は、指定地点の座標を取得する(ステップS304)。ここで、指定地点とは、ディスプレイ400のイメージボックス410に表示した、背景領域600の4隅の4点である。指定地点について詳しくは、以下で図8を用いて説明する。指定地点の座標を取得するために、ユーザにディスプレイ400の表示部を見ながら、コンピュータ300の入力部を介して操作させることで、指定地点を入力させてよいものとする。
図8は、キャリブレーション処理における、指定の4点の座標取得時の画面の一例である。ここでは、背景領域600の左上の点601、右上の点602、右下の地点603、左下の点604、をユーザがカーソル440で指定することで、指定地点とする例を示している。システムは、指定地点である点601、点602、点603、点604について、ディスプレイ400の原点411を基準とする絶対座標と相対座標とを取得する。ここでは、左上の点601、右上の点602、右下の点603、左下の点604の順で指定を行うものとし、まずはステップS304で左上の点601が指定され、その座標を取得したものとする。
図3に戻り、コンピュータ300は、点601について、原点からの補正演算を行う(ステップS305)。補正後のX座標は、点601の絶対X座標から原点の絶対X座標をひいたものに、RGBカメラ機能のX方向の入力解像度をディスプレイ400の横幅で割ったものから原点の絶対X座標に2をかけたものをひいたものを掛け合わせたものに、最も近い整数値とする。また、補正後のY座標は、点601の絶対Y座標にRGBカメラ機能のY方向の入力解像度をディスプレイ400の縦幅で割ったものを掛け合わせたものに、最も近い整数値とする。
次に、コンピュータ300は、点601の補正後のX座標とY座標を取得する(ステップS306)。ここで、取得した点601の補正後の座標値を、図8のテキストボックス420に表示してもよい。
次に、コンピュータ300は、背景領域600の4隅の4点の指定地点の補正座標の取得が完了したかどうかを確認する(ステップS307)。この段階では、取得したのは点601の補正座標のみであるので、ステップS304に戻り、点602について同じようにステップ306までの処理を行う。次にステップS307からステップS304に戻って点603についての処理を、さらに次にステップS307からステップS304に戻って点604についての処理を行う。ステップS307で、点601、点602、点603、点604の補正座標の取得がすべて完了していることを確認した場合、次のステップS308へと進む。図8では、テキストボックス420に、点601、点602、点603、点604の補正後の座標値を表示している。
コンピュータ300は、記憶部に点601、点602、点603、点604の補正座標を記憶する(ステップS308)。この補正座標を基にして、深度カメラ100のRGBカメラ機能にあわせた画像を生成することで、台形に投影された背景領域600を、長方形に補正して投影するキャリブレーションが可能となる。
図9は、キャリブレーション処理完了後の画面の一例である。背景領域600は、深度カメラ100のRGBカメラ機能の解像度にあわせた長方形の領域として投影が可能となる。
以上のように、本発明のキャリブレーション処理によれば、深度カメラ100のRGBカメラ機能で入力される画像と、プロジェクター200で出力される画像とのギャップを調整して、美しい長方形で画像を投影することが可能となる。また、本発明のキャリブレーション処理は、あらゆるカメラとプロジェクターで使用することが可能な、汎用性の高い処理であるという利点がある。
以上、本発明の実施形態について説明したが、本発明は上述したこれらの実施形態に限るものではない。また、本発明の実施形態に記載された効果は、本発明から生じる最も好適な効果を列挙したに過ぎず、本発明による効果は、本発明の実施形態に記載されたものに限定されるものではない。
100 深度カメラ、200 プロジェクター、300 コンピュータ、400 ディスプレイ、500 物体、600 背景領域

Claims (5)

  1. 物体に画像を投影する画像投影システムであって、
    画像が投影される背景の手前に存在する物体の領域を3次元で認識する深度カメラと、
    背景画像を投影する範囲の指示に合わせて、前記背景画像を投影する範囲が認識した前記物体の領域外である場合、当該領域には白塗りデータを、当該領域外には背景画像のデータを所定のデータとして其々割り当てて生成したイメージを出力し、前記背景画像を投影する範囲が認識した前記物体の領域内である場合、当該領域には背景画像のデータを、当該領域外には黒塗りデータを所定のデータとして其々割り当てて生成したイメージを出力するプロジェクターと、
    を備える画像投影システム。
  2. 前記物体の変形又は移動により前記領域が変化する場合においても、前記深度カメラが変化した領域をリアルタイムに認識し、前記プロジェクターが対応する前記所定のデータを出力する請求項1に記載の画像投影システム。
  3. 前記プロジェクターが描画する前記所定のデータが動画データである請求項1から請求項2のいずれか一項に記載の画像投影システム。
  4. 物体に画像を投影する画像投影システムが実行する画像投影方法であって、
    画像が投影される背景の手前に存在する物体の領域を3次元で認識するステップと、
    背景画像を投影する範囲の指示に合わせて、前記背景画像を投影する範囲が認識した前記物体の領域外である場合、当該領域には白塗りデータを、当該領域外には背景画像のデータを所定のデータとして其々割り当てて生成したイメージを出力し、前記背景画像を投影する範囲が認識した前記物体の領域内である場合、当該領域には背景画像のデータを、当該領域外には黒塗りデータを所定のデータとして其々割り当てて生成したイメージを出力するステップと、
    を備える画像投影方法。
  5. 物体に画像を投影する画像投影システムにおいて用いられるコンピュータに、
    画像が投影される背景の手前に存在する物体の領域を3次元で認識するステップ、
    背景画像を投影する範囲の指示に合わせて、前記背景画像を投影する範囲が認識した前記物体の領域外である場合、当該領域には白塗りデータを、当該領域外には背景画像のデータを所定のデータとして其々割り当てて生成したイメージを出力し、前記背景画像を投影する範囲が認識した前記物体の領域内である場合、当該領域には背景画像のデータを、当該領域外には黒塗りデータを所定のデータとして其々割り当てて生成したイメージを出力するステップ、
    を実行させるためプログラム。
JP2018134003A 2018-07-17 2018-07-17 画像投影システム、画像投影方法、及びプログラム Active JP6549764B1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018134003A JP6549764B1 (ja) 2018-07-17 2018-07-17 画像投影システム、画像投影方法、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018134003A JP6549764B1 (ja) 2018-07-17 2018-07-17 画像投影システム、画像投影方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP6549764B1 true JP6549764B1 (ja) 2019-07-24
JP2020014075A JP2020014075A (ja) 2020-01-23

Family

ID=67390398

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018134003A Active JP6549764B1 (ja) 2018-07-17 2018-07-17 画像投影システム、画像投影方法、及びプログラム

Country Status (1)

Country Link
JP (1) JP6549764B1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022086580A (ja) 2020-11-30 2022-06-09 セイコーエプソン株式会社 投写方法、及びプロジェクター
JP2022173763A (ja) 2021-05-10 2022-11-22 セイコーエプソン株式会社 投写方法、及びプロジェクター

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011082798A (ja) * 2009-10-07 2011-04-21 Sanyo Electric Co Ltd 投写型映像表示装置
JP2011254411A (ja) * 2010-06-04 2011-12-15 Hokkaido Univ 映像投影システムおよび映像投影プログラム
JPWO2015008756A1 (ja) * 2013-07-19 2017-03-02 株式会社ニコン 投影装置、制御装置、制御プログラム、および投影制御方法
JP2015177383A (ja) * 2014-03-17 2015-10-05 カシオ計算機株式会社 投影装置及びプログラム
JP6459194B2 (ja) * 2014-03-20 2019-01-30 セイコーエプソン株式会社 プロジェクター、及び投写画像制御方法

Also Published As

Publication number Publication date
JP2020014075A (ja) 2020-01-23

Similar Documents

Publication Publication Date Title
US20220084279A1 (en) Methods for manipulating objects in an environment
WO2018188499A1 (zh) 图像、视频处理方法和装置、虚拟现实装置和存储介质
US9582142B2 (en) System and method for collaborative computing
US9286722B2 (en) Information processing apparatus, display control method, and program
JP2015153046A (ja) 画像処理装置、画像処理方法およびプログラム
JP2015187884A (ja) カメラとマーク出力とによるポインティング装置
JP2015114818A (ja) 情報処理装置、情報処理方法及びプログラム
CN110554770A (zh) 静态遮挡物
WO2019163129A1 (ja) 仮想物体表示制御装置、仮想物体表示システム、仮想物体表示制御方法、及び仮想物体表示制御プログラム
US20220172319A1 (en) Camera-based Transparent Display
JP6549764B1 (ja) 画像投影システム、画像投影方法、及びプログラム
JP2014029656A (ja) 画像処理装置および画像処理方法
JP2016200860A (ja) 情報処理装置、情報処理装置の制御方法、およびプログラム
JP2019146155A (ja) 画像処理装置、画像処理方法およびプログラム
US20210209347A1 (en) Texture map generation using multi-viewpoint color images
KR101426378B1 (ko) 깊이 정보를 이용한 프레젠테이션 이벤트 처리 장치 및 방법
JP2010272078A (ja) 電子情報ボードシステム、電子情報ボード制御装置およびカーソル制御方法
JP2013080266A (ja) 入力装置
CN111612916A (zh) 在环境内的移动
CN108628453B (zh) 虚拟现实图像显示方法及终端
EP4325344A1 (en) Multi-terminal collaborative display update method and apparatus
JP6371547B2 (ja) 画像処理装置、方法、および、プログラム
JP6103942B2 (ja) 画像データ処理装置及び画像データ処理プログラム
CN113434046A (zh) 三维交互系统、方法、计算机设备及可读存储介质
KR20120035322A (ko) 증강 현실 컨텐츠 재생 시스템 및 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180717

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20180717

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20181009

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181016

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181203

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190122

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190319

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190416

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190603

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190618

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190627

R150 Certificate of patent or registration of utility model

Ref document number: 6549764

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250