JP6007079B2 - 仮想のぞき穴画像生成システム - Google Patents

仮想のぞき穴画像生成システム Download PDF

Info

Publication number
JP6007079B2
JP6007079B2 JP2012256699A JP2012256699A JP6007079B2 JP 6007079 B2 JP6007079 B2 JP 6007079B2 JP 2012256699 A JP2012256699 A JP 2012256699A JP 2012256699 A JP2012256699 A JP 2012256699A JP 6007079 B2 JP6007079 B2 JP 6007079B2
Authority
JP
Japan
Prior art keywords
image
unit
peephole
marker
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012256699A
Other languages
English (en)
Other versions
JP2014106556A (ja
Inventor
壮史 周防
壮史 周防
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Systems Ltd
Original Assignee
Hitachi Systems Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Systems Ltd filed Critical Hitachi Systems Ltd
Priority to JP2012256699A priority Critical patent/JP6007079B2/ja
Publication of JP2014106556A publication Critical patent/JP2014106556A/ja
Application granted granted Critical
Publication of JP6007079B2 publication Critical patent/JP6007079B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Controls And Circuits For Display Device (AREA)

Description

本発明は、カメラ映像から、のぞき穴からのぞいたときと同様な仮想のぞき穴画像(動画、静止画等)を生成する仮想のぞき穴画像生成システムに関する。
本技術分野の背景技術として、特開2005−327204号公報(特許文献1)がある。
この公報には、「撮像部101によって撮影された現実世界の撮像画像内において、体験者が操作入力部104により追加マーカを指定すると、マーカ抽出・管理部106は該追加マーカの世界座標を、撮像画像内にある既知マーカ群情報を用いて算出し、既知マーカ群情報として登録、管理する。」と記載されている(要約参照)。
また、ARマーカをWEBカメラと言うリーダを通じ、あらかじめプログラム化されているソフト(専用ソフト)で特殊処理を施すことによって、パソコンや携帯端末の画面上にCGと合成されたような画像が映し出される仕組みのAR(拡張現実)機能を有する技術が存在する。
特開2005−327204号公報
前記特許文献1には、店撮像手段によって撮影された現実世界の撮像画像に対して仮想画像を重畳する際に、前記現実世界にあって世界座標が既知である既知指標情報を用いて位置合わせを行う画像合成方法であって、前記撮像画像内において追加指標を指定し、前記追加指標の世界座標を、前記撮像画像内にある前記既知指標情報を用いて算出し、前記追加指標の世界座標を、前記既知指標情報として登録する画像合成システム、方法、装置が記載されている。
しかし、特許文献1の画像合成システムは、現実空間と仮想空間との位置あわせに用いるマーカの追加登録を、HMDを装着したまま行うことについては、考慮されているも、会場内の様子をのぞき穴から見ているような仮想のぞき穴画像として生成することまでは記載されておらず、当該画像をもって広告・宣伝を行うと言う発想もない。
また、既存のAR技術は、画像を正方形の枠内に映し出し、当該画像を積極的に見せることを前提としたものであって、WEBカメラの位置、つまりARマーカとWEBカメラとの相対位置関係(WEBカメラの視角)に応じて、画像が見える範囲を変えることまでは記載されていない。
つまり、のぞき穴からのぞいた場合と同様な画像、例えば通常の目線でのぞいた場合と下から見上げるようにのぞいた場合や上から見下ろすようにのぞいた場合とでは、穴の厚みにより、画像の見える範囲が変わって見えるようにすることまでは考慮されていない。
換言すれば、WEBカメラの見る視角によって画像の見える範囲が変わって、あたかものぞき穴から見ているようなのぞき穴画像として見ることはできない。
そこで、本発明は、建物の会場内の様子をのぞき穴から見ているのと同じく、見る角度(視角)によって、会場内の様子を撮影した映像の視野範囲が異なる画像(以下、仮想のぞき穴画像と言う)として見ることができる仮想のぞき穴画像生成システムを提供する。
例えば、有料のライブ会場や展覧会、美術館、博物館等(以下、建物と言う)の屋内(以下、建物内と言う)の様子をのぞき穴から見ているのと同様に仮想のぞき穴画像として見ることができるにし、建物内の様子に興味を持たせることが可能な仮想のぞき穴画像を生成することができる仮想のぞき穴画像生成システムを提供する。
上記課題を解決するために、本発明は、建物外に取り付けられたARマーカを読み取るカメラを有する端末からの映像を受信し、当該映像にARマーカが存在する場合、当該ARマーカを分析し、当該分析結果を元に、端末投影用3Dオブジェクトを変更する手段を設け、当該端末投影用3Dオブジェクトを元に、マッピング用の画像を生成し、当該マッピング用の画像を当該端末に送信し、当該端末側に映し出される画像の見える範囲が変わるように構成した。
例えば、本発明の仮想のぞき穴画像生成システムは、
端末と、サーバを有し、
前記端末は、カメラ、表示部、画像処理部、情報送受信部を有し、
前記カメラは、ARマーカを読み取り、
前記画像処理部は、前記カメラの映像と前記サーバから送られてくる画像情報をマッピングし、前記表示部に出力し、
前記表示部は、マッピング画像をモニタし、
前記情報送受信部は、前記カメラにより撮影したARマーカを含む映像を前記サーバに送信し、また前記サーバからのマッピング用画像を受信し、
前記サーバは、ARマーカ分析部、3Dオブジェクト作成部、3Dオブジェクト変更部、マッピング用画像生成部、情報送受信部、を有し、
前記ARマーカ分析部は、前記ARマーカの大きさ、向き、角度を分析し、
前記3Dオブジェクト作成部は、建物内の様子を再現するオブジェクト及びのぞき穴オブジェクトを含む端末投影用3Dオブジェクトを生成し、
前記3Dオブジェクト変更部は、前記ARマーカ分析部による前記ARマーカの大きさ、向き、角度を元に、前記端末投影用3Dオブジェクトの建物内の様子を再現するオブジェクト及びのぞき穴オブジェクトの大きさ、向き、角度を設定し、
前記マッピング用画像生成部は、前記端末投影用3Dオブジェクトを元に、前記マッピング用画像を生成し、
前記情報送受信部は、前記端末からのARマーカを含むカメラ映像を受信し、また前記マッピング用画像を前記端末に送信し、
前記端末の表示部において、前記カメラ映像と前記マッピング用画像をマッピングして表示する
ことを特徴とする。
仮想のぞき穴画像生成システムにおいて、前記サーバは、さらにAR機能を有し、前記画像処理部は、前記建物内の様子を撮影するカメラの映像から一部を隠した映像を作成する処理部、を有し、
前記マッピング用画像生成部は、当該一部を隠した映像を前記端末投影用3Dオブジェクトにマッピングするように構成する。
仮想のぞき穴画像生成システムにおいて、前記サーバは、さらに建物内の奥行きを計測する奥行きセンサを有し、前記3Dオブジェクト作成部は、前記奥行きセンサにより計測した数値を元に、3D空間を作成し、
前記マッピング用画像生成部は、当該3D空間に前記端末のカメラで撮影した映像をマッピングできるように構成する。
本発明によれば、建物の壁に穴をあけることなく、のぞき穴と同様に建物内の様子をのぞき見することができる仮想のぞき穴画像を作成することができる。また、実際に壁に穴をあけるものではないので、短時間、低コストで、しかも形状の動的な変更が可能である。
また、来場者という人の集まりを、周囲の関心を集める手段として活用することにより、人件費を掛けずして、更なる宣伝効果が期待できる。また、仮想のぞき穴を見ている人達は、マーカの前でしゃがんだり、背伸びしたりと、いわば滑稽な格好をする場合があり、その様子は、周囲からの注目を得ることになる。そのような状況が、更なる宣伝効果をもたらすことが期待できる。
上記した以外の課題、構成及び効果は、以下の実施形態の説明により明らかにされる。
本発明の仮想のぞき穴画像生成システムの一構成例を示すブロック図である。 図1の仮想のぞき穴画像生成システムの処理手順および3Dオブジェクトを作成する例1、例3を説明するフローチャートである。 図2の仮想のぞき穴画像生成システムの処理手順および3Dオブジェクトを作成する例1、例3において、カメラ210から取得した映像にAR技術処理を施した場合のフローチャートである。 図1の構成と図3の処理との関係を示す図である。 図3のステップS305のAR技術処理により、隠したいところを隠した映像を作成する様子を模式的に示す図である。 3Dオブジェクトの作成処理における例1のマッピングを説明する図である。 3Dオブジェクトの変更処理における例1のオブジェクトの回転を説明する図である 例1において、マーカを映し出す角度によるマッピング結果の違いを説明する図であって、3Dオブジェクトとマッピングとの位置関係に対応して端末に表示される画像、カメラ100が撮影したARマーカ画像の様子を示す図である。 本発明の仮想のぞき穴画像生成システムの他の構成例を示すブロック図である。 図8の仮想のぞき穴画像生成システムの処理手順および3Dオブジェクトを作成する例2を説明するフローチャートである。 図9のステップS312およびステップS303における処理画像の様子を示す図である。 複数のカメラと奥行きセンサを使用し、屋内の様子を再現するオブジェクトを作成する例2における建物内の様子を再現するオブジェクト232を作成する原理を説明する図である。 屋内の様子を再現するオブジェクトを作成する例3において、360度レンズを使用した場合における3Dオブジェクトモデルを説明する図である。 のぞき穴オブジェクトの形状の例を説明する図である。 本発明の仮想のぞき穴画像生成システムの利用例を説明する図である。
以下、実施例を、図面を用いて説明する。
一般的に有料のライブや展示会などは、その会場の様子が外部に見えないように壁等により仕切られた空間で開催される。そのため、当然ながら壁向こうの非来場者には、来場者のリアクション、例えば爆笑、熱狂などの盛況な様子は伝わらない。この盛況な様子を効果的に非来場者にも伝える手段があれば、より有効な宣伝効果(集客アップ)にもなり得る。
その手段の一つとして、壁にのぞき穴をあける方法が考えられる。しかし、このように実際の壁等にのぞき穴をあける場合、その工事が必要である。
また穴の大きさや形状を工夫する必要があり、時間、コストがかかり、実用向きとは言えない。また、時間、コストは勿論のこと、穴をあけるに際しての制限などにより、状況に応じた柔軟の対応が難しく、現実的な方法とは言えない。
本発明は、係る点に鑑み、壁に穴をあけることなく、穴をあけた場合と同様に建物内の様子の一部が見ることができる、つまり必要以上に見せることなく、壁向こうの非来場者に対して建物内の様子を伝えることができる仮想的のぞき穴画像を作成するものである。
この画像(映像)は、動画であっても静止画であってもよい。
以下、宣伝効果を意図した実施例について説明する。
図1は、本発明の仮想のぞき穴画像生成システムの一実施例を示す構成図である。また、オブジェクトの作成方法として、カメラ1台を用意し、建物内の様子を再現するオブジェクトを半球の形状として、当該オブジェクトの半球の内側にテクスチャとしてカメラ映像をマッピングする例(例1)および当該カメラとして、360度レンズを使用し、建物内の様子を再現するオブジェクトの形状を球体とする例(例3)を実現する例である。
仮想のぞき穴画像生成システムは、端末100、サーバ200を有する。
端末100は、表示部120、情報の送受信部130、映像出力部140、画像処理部150、を有する。
情報の送受信部130は、カメラ110、例えばWEBカメラで読み取った映像(含ARマーカ300の情報)をサーバ200側に送信し、またサーバ200の仮想のぞき穴画像の情報を受信する。
カメラ110は、WEBカメラに特定する必要はないが、以下、WEBカメラを前提として説明する。
表示部120は、サーバ200からの仮想のぞき穴画像の情報をモニタする機能を有する。映像出力部140は、WEBカメラ110の映像を受け、画像処理部150に出力する。
画像処理部150は、必要に応じサーバ200の画像情報(端末投影用3Dオブジェクト)をカメラ110の映像とマッピングし、表示部120に出力する。
WEBカメラ110は、例えば建物の壁に貼り付けられたポスターのARマーカ300を読み取る。
サーバ200は、情報の送受信部220、3Dオブジェクト作成部230、映像−3Dオブジェクト画像マッピング部240、ARマーカ分析部250、端末投影用オブジェクト変更部260、画像処理部270、を有する。
情報の送受信部220は、端末100からの情報(含ARマーカ映像を含む情報;図7参照)を無線により受信し、また画像処理部270により生成されるマッピング用の画像を含む情報を端末100へ無線により送信する。
3Dオブジェクト作成部230は、のぞき穴オブジェクト231、建物内の様子を再現するオブジェクト232(図7参照)を作成する。建物内の様子を再現するオブジェクト232の形状は、例えば半球、球体、立方体、三角錐であり、またそれ以外の形状であってもよい。3Dオブジェクトの作成処理については後述する。
のぞき穴オブジェクト231および建物内の様子を再現するオブジェクト232は、それぞれ映像に映し出されたARマーカ300の角度に応じて回転する回転軸(図6参照)を有する。
映像−3Dオブジェクト画像マッピング部240は、端末100からの映像と3Dオブジェクト作成部230からのオブジェクトをマッピングする。
ARマーカ分析部250は、端末100からの映像に含まれるARマーカ(マーカの大きさ、向き、角度)を分析する。
端末投影用オブジェクト変更部260は、端末投影用3Dオブジェクトの変更を行う。つまり、ARマーカ分析部250のマーカの大きさを元に、3Dオブジェクト作成部230により作成される3Dオブジェクトの大きさを設定し、マーカの向きを元に、3Dオブジェクトの向きを設定し、マーカの角度を元に、3Dオブジェクトの角度を設定する。
画像処理部270は、端末投影用3Dオブジェクト変更部260からの端末投影用3Dオブジェクトを元に、マッピング用の画像を生成し(図4参照)、情報の送受信部220に出力する。
マッピングする例については後述する。
図2は、図1のシステム構成における端末100側の処理フローとサーバ200側の基本処理フローを示す図である。また、カメラ210を1台使用した場合(例1)と、カメラ210が360度レンズを使用した場合(例3)における3Dオブジェクトの作成処理手順を説明する図である。
端末100は、ステップS101において、WEBカメラ110のカメラ機能により、映像を取得する。
ステップS102において、当該映像をサーバ200に送信する。
サーバ200は、ステップS201において、端末100からの映像を受信する。
次いで、ステップS202において、映像の中にARマーカ(ARマーカ情報)が存在するか否かを判断する。その結果、マーカが存在しない場合(No)には、ステップS203において、処理を終了する。
マーカが存在する場合(YES)には、ステップS204において、ARマーカを分析する。すなわち、マーカの大きさ、マーカの向き、マーカの角度を分析する。これらの大きさ、向き、角度は、画像(又は映像)との比較により決まる。
次に、ステップS205において、後述する端末投影用3Dオブジェクトの変更処理を行う。すなわち、ARマーカの分析結果を受け、マーカの大きさを元に、別途作成される3Dオブジェクトの大きさを設定する。また、マーカの向きを元に、別途作成される3Dオブジェクトの向きを設定する。また、マーカの角度を元に、別途作成される3Dオブジェクトの角度を設定する。
次いで、ステップS206において、端末投影用3Dオブジェクトを元に、マッピング用の画像(端末投影用3Dオブジェクト画像)を生成する。
ステップS207において、ステップS206により、生成したマッピング用の画像(のぞき穴画像)を情報として端末100に送信する。
端末100は、ステップS103において、サーバ200からの情報を受信する。
次いで、ステップS104において、サーバ200から受信した画像情報(端末投影用3Dオブジェクト)を表示部120に出力する。この出力をもって、端末100のカメラ映像と画像をマッピングする。
ステップS105において、処理を終了するか否かを判断し、終了しない場合(No)には、ステップS101に戻り、上述したステップを繰り返し行う。
次に、上述した3Dオブジェクトおよびマッピングについて説明する。3Dオブジェクトの作成例としては、何通りかあるが、本例では、1つのカメラ映像を、建物内の様子を再現するオブジェクト(例えば、半球形状)の内側にテクチャ(texture)として、マッピングする例である。また、カメラ210が1台の場合の例1およびカメラ210に360度レンズを使用した場合の例3についての処理手順を説明するものである。
図2において、ステップS301において、まず3Dオブジェクト(のぞき穴オブジェクト231および建物内の様子を再現するオブジェクト232)を作成する。
ステップS302において、建物内に設置され、建物内の様子を撮影するカメラ210からの映像を取得する。ここで、後述するが、図3に示すように、当該映像で非来場者に見せたくない映像部分(?部分)を隠した映像を作成してもよい。
ステップS303において、カメラ210の映像を作成した3Dオブジェクトの建物内の様子を再現するオブジェクト232(図6A参照)にマッピングする。
ステップS304において、カメラ映像の取得、マッピングを終了するか否か判断し、終了しない場合(No)には、ステップS302に戻り、上述したステップを繰り返す。
ここで、カメラ210のレンズとして360度カメラを使用し、オブジェクト(建物内の様子を再現するオブジェクト232)の形状を球体とした例3の場合も同ステップで処理する。
この場合には、建物内の様子を再現するオブジェクトの形状が球体であることから、映像範囲が建物内の様子を再現するオブジェクトの形状が半球の場合よりも広く、上下左右(天井、床、壁)のどこからでも仮想のぞき穴で映像を見ることができる。
図3は、例1、例3において、カメラ210からの映像で隠したいところを隠した映像を作成する処理を施したものであって、図2との相違点は、ステップS305の有無である。
すなわち、図3では、ステップS305において、カメラ210からの映像で隠したいところを隠した映像は、画像処理部270により、例えば「?」マークなどのように画像処理を施す。
図4は、上述した図1の構成と図2の処理との対応関係および各処理部における処理画像を明示したものである。その内容は、上述したとおりであるので、同一部分には同一符号を付して、その説明は省略する。
図5は、サーバ200側のステップS305における処理の様子を映像にて示すものであって、図3のステップS305において、カメラ210により、建物内の様子を撮影し、当該撮影映像に見せたくない映像をAR技術により「?」印で隠した例を示す図である。
図6Aは3Dオブジェクトの作成処理における例1のマッピングを説明する図である。
図6Bは、3Dオブジェクトの変更処理における例1のオブジェクトの回転を説明する図である。
3Dオブジェクトは、のぞき穴オブジェクト231、建物内の様子を再現するオブジェクト232を有する。建物内の様子を再現するオブジェクト232は、本例では、半球形状であるが、この形状に限る必要はなく、例えば後述するような球体、立方体、三角錐等でもよく、また、必要に応じて変えてもよい。
そして、図6Aに示す如く、建物内の様子を再現するオブジェクト232の、球面の裏側に、画像処理部270で処理した映像をマッピングする。
また、のぞき穴オブジェクト231および建物内の様子を再現するオブジェクト232は、それぞれが回転軸を持っており、図6Bに示す如く、映像に映し出されたマーカの角度に合わせて回転する。この回転により、建物内の様子を再現するオブジェクト232に映し出される映像が如何にものぞき穴からのぞいて見えるような映像として見ることが可能となる。
図7は、例1において、マーカを映し出す角度によるマッピング結果の違いを説明する図であって、3Dオブジェクトとマッピングとの位置関係に対応して端末に表示される画像、カメラ100が撮影したARマーカ画像の様子を示す図である。
同図において、左側は、3Dオブジェクト(のぞき穴オブジェクト231、建物内の様子を再現するオブジェクト232)/マッピングの様子を示し、中央側に端末100のモニタ120に表示される画像を示し、右側にカメラ110が撮影したARマーカ画像を示している。また、上段は、カメラ110によるARマーカ300の撮影を正面から撮影した場合、中段は、ARマーカの上側から見下ろすようにして撮影した場合、下段は、ARマーカを下側から見上げるようにして撮影した場合である。
同図から、ARマーカ300を端末100のカメラ110で撮影することにより、仮想のぞき穴が表示され、3Dオブジェクトの角度を変更することにより、通常の拡張現実と同様にマーカ300の大きさや形状なども変わる様子が分かる。
すなわち、ARマーカ300の撮影位置、つまりARマーカを映し出す角度により、3Dオブジェクト、カメラ画像、ARマーカ画像が変化する様子が分かる。また、端末100に見上げる、見下げるなどの角度を付けるとのぞき穴オブジェクト231の穴部分の厚みにより見える範囲が狭くなって見える。このように、見上げる場合と、見下ろす場合は、通常の目線の場合に比べ、のぞき穴オブジェクト231から見える映像の範囲が狭くなって見えることから、如何にも物理的ののぞき穴からのぞいた映像(画像)と同じように見える。
なお、本例では、カメラ210で撮影した映像が全て見えるようにしているが、この映像に図3のステップS305によりAR技術処理を施すことにより、図5に示す如く、隠したい部分(例えば、絵画部分)には、「?」で見えないようにしてもよい。
図8は、本発明の仮想のぞき穴画像生成システムの他の実施例を示す構成図である。つまり、建物内の様子を再現するオブジェクト232を、建物内の様子をジオラマのように再現した形状を実現する例(例2)である。
図1の実施例との相違点は、サーバ200側に複数のカメラ210、奥行きセンサ280、情報取得部290を設けた点にある。
奥行きセンサ280は、建物内の奥行きを計測する。3Dオブジェクト作成部230は、奥行センサ280により計測した数値を元に、3D空間を作成する。
情報取得部290は、複数のカメラ210から映像を取得し、また奥行きセンサ280からも情報を取得する。
図9は、カメラ210が複数の場合であって、奥行きセンサ280がある場合における3Dオブジェクト(建物内の様子を再現するオブジェクト232)の作成例を示す処理フローである。
ステップS311において、建物内に設置の複数台のカメラ210から映像を取得する。また、奥行きセンサ280からも奥行き情報を取得する。
ステップS312において、奥行きセンサ280の情報を元に3Dオブジェクト(のぞき穴オブジェクト231、建物内の様子を再現するオブジェクト232)を作成する。
ステップS303において、カメラ210の映像を、ステップS311により、作成した3Dオブジェクトにマッピングする。
ステップS304において、3Dオブジェクトの作成を終了するか否か判断し、終了しない場合(No)には、ステップ311に戻り、上述したステップを繰り返す。
図10は、図9におけるステップS312およびステップS303における処理画像を示す図である。
図11Aは、複数のカメラと奥行きセンサを使用し、屋内の様子を再現するオブジェクトを作成する例2における建物内の様子を再現するオブジェクト232を作成する原理を説明する図である。本例は、奥行きセンサ280で得た3D空間情報に、カメラ210の映像をマッピングすることにより、建物内の様子を再現するオブジェクト232を作成する様子を示している。
図11Bは、屋内の様子を再現するオブジェクトを作成する例3において、360度レンズを使用した場合における3Dオブジェクトモデルを説明する図である。本例は、カメラ210に360度レンズを設定した場合であって、当該360度レンズからの映像は、適切に処理され、球体内側にマッピングされる。すなわち、屋内の様子を再現するオブジェクト232の形状が球体であって、その内部に、のぞき穴プロジェクトがある様子を示している。
図12A〜図12Dは、のぞき穴オブジェクト231の形状の例を示す図である。同図において、のぞき穴オブジェクト231は、3Dデータであることから、任意の形状に変更することが可能であること、また動的に変更することも可能であることを示している。
つまり、建物内の状況により、のぞき穴オブジェクト231の形状を変更することができる。その結果、建物内の盛り上がりに比例して、のぞき穴オブジェクト231の直径を小さくしていき、映像がより見え難くするなどが可能となる。盛り上がり状況を判断する方法としては、例えば建物内の音量を測定し、音量の大きさで盛り上げ具合を判定する仕組みを採り入れればよい。また、のぞき穴オブジェクト231には、例えば、図12Dの如く、穴部分にレンズがあるかのような3Dオブジェクトを追加することや、図12Cの如く、セロファンのような透過性のある着色された膜のような3Dオブジェクトを付加することも可能である。
図13は、本発明の仮想のぞき穴画像生成システムを利用した場合における効果の例を模式的に示した図である。
本例によれば、仮想のぞき穴を見ている人は、仮想のぞき穴で見える範囲は、限られている(建物内の様子は見えるが、見える範囲が狭い)。従って、人の心理として、何とか見たいところを見ようとする(何とか見ようと、しゃがんだり、背伸びしたりする)。しかし、見ることができない。このことから入場してでも見たくなる(次第に我慢できなくなって、入場料を払ってでも見たくなる)、と言った行動を誘発することが期待できる。
また、仮想のぞき穴を見ている人に気付いた人は、仮想のぞき穴を覗いている人達の様子が気になる(ポスターの前で、端末片手に立ったり、座ったりしている人達がいる)。その人達の様子やポスターなどに注目する(一体何をしているのだろうと思う)。これにより、入場したくなる、又は仮想のぞき穴を覗きたくなる(見ている人達に近づいていきたくなる)。つまり、のぞき穴利用者によって、更なる宣伝効果を生み出す。
なお、本発明は上記した実施例限定されるものではなく、様々な変形例が含まれる。例えば、上記した実施例は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。
また、ある実施例の構成の一部を他の実施例の構成に置き換えることが可能であり、また、ある実施例の構成に他の実施例の構成を加えることも可能である。
また、上記の各構成、機能等は、それらの一部又は全部を、例えば集積回路で設計する等によりハードウェアで実現してもよい。
また、上記の各構成、機能等は、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウェアで実現してもよい。各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリや、ハードディスク、Ssd(Solid State Drive)等の記録装置、または、ICカード、SDカード、DVD等の記録媒体に置くことができる。
また、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。実際には殆ど全ての構成が相互に接続されていると考えてもよい。
本発明は、宣伝効果を意図しているが、仮想のぞき画像を生成するシステムであれば、如何なるシステムにも適用可能である。
100 端末
110 WEBカメラ
120 表示部
130 情報の送受信部
140 映像出力部
150 画像処理部
200 サーバ
210 カメラ
220 情報の送受信部
230 3Dオブジェクト作成部
240 マッピング部
250 ARマーカ分析部
260 端末投影用オブジェクト変更部
270 画像処理部
280 奥行きセンサ
290 情報取得部
300 ARマーカ

Claims (3)

  1. 端末と、サーバを有し、
    前記端末は、カメラ、表示部、画像処理部、情報送受信部を有し、
    前記カメラは、ARマーカを読み取り、
    前記画像処理部は、前記カメラの映像と前記サーバから送られてくる画像情報をマッピングし、前記表示部に出力し、
    前記表示部は、マッピング画像をモニタし、
    前記情報送受信部は、前記カメラにより撮影したARマーカを含む映像を前記サーバに送信し、また前記サーバからのマッピング用画像を受信し、
    前記サーバは、ARマーカ分析部、3Dオブジェクト作成部、3Dオブジェクト変更部、マッピング用画像生成部、情報送受信部、を有し、
    前記ARマーカ分析部は、前記ARマーカの大きさ、向き、角度を分析し、
    前記3Dオブジェクト作成部は、建物内の様子を再現するオブジェクト及びのぞき穴オブジェクトを含む端末投影用3Dオブジェクトを生成し、
    前記3Dオブジェクト変更部は、前記ARマーカ分析部による前記ARマーカの大きさ、向き、角度を元に、前記端末投影用3Dオブジェクトの建物内の様子を再現するオブジェクト及びのぞき穴オブジェクトの大きさ、向き、角度を設定し、
    前記マッピング用画像生成部は、前記端末投影用3Dオブジェクトを元に、前記マッピング用画像を生成し、
    前記情報送受信部は、前記端末からのARマーカを含むカメラ映像を受信し、また前記マッピング用画像を前記端末に送信し、
    前記端末の表示部において、前記カメラ映像と前記マッピング用画像をマッピングして表示する
    ことを特徴とする仮想のぞき穴画像生成システム。
  2. 請求項1記載の仮想のぞき穴画像生成システムにおいて、前記サーバは、さらにAR機能を有し、前記画像処理部は、前記建物内の様子を撮影するカメラの映像から一部を隠した映像を作成する処理部、を有し、
    前記マッピング用画像生成部は、当該一部を隠した映像を前記端末投影用3Dオブジェクトにマッピングするように構成する仮想のぞき穴画像生成システム。
  3. 請求項1記載の仮想のぞき穴画像生成システムにおいて、前記サーバは、さらに建物内の奥行きを計測する奥行きセンサを有し、前記3Dオブジェクト作成部は、前記奥行きセンサにより計測した数値を元に、3D空間を作成し、
    前記マッピング用画像生成部は、当該3D空間に前記端末のカメラで撮影した映像をマッピングできるように構成する仮想のぞき穴画像生成システム。
JP2012256699A 2012-11-22 2012-11-22 仮想のぞき穴画像生成システム Active JP6007079B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012256699A JP6007079B2 (ja) 2012-11-22 2012-11-22 仮想のぞき穴画像生成システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012256699A JP6007079B2 (ja) 2012-11-22 2012-11-22 仮想のぞき穴画像生成システム

Publications (2)

Publication Number Publication Date
JP2014106556A JP2014106556A (ja) 2014-06-09
JP6007079B2 true JP6007079B2 (ja) 2016-10-12

Family

ID=51028028

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012256699A Active JP6007079B2 (ja) 2012-11-22 2012-11-22 仮想のぞき穴画像生成システム

Country Status (1)

Country Link
JP (1) JP6007079B2 (ja)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4298407B2 (ja) * 2002-09-30 2009-07-22 キヤノン株式会社 映像合成装置及び映像合成方法
JP5646263B2 (ja) * 2010-09-27 2014-12-24 任天堂株式会社 画像処理プログラム、画像処理装置、画像処理システム、および、画像処理方法
JP5939733B2 (ja) * 2010-10-15 2016-06-22 任天堂株式会社 画像処理プログラム、画像処理装置、画像処理システム、及び、画像処理方法

Also Published As

Publication number Publication date
JP2014106556A (ja) 2014-06-09

Similar Documents

Publication Publication Date Title
US10572000B2 (en) Mixed reality viewer system and method
US9613463B2 (en) Augmented reality extrapolation techniques
KR102214827B1 (ko) 증강 현실 제공 장치 및 방법
EP2887322B1 (en) Mixed reality holographic object development
JP4848339B2 (ja) 模擬視差および視野変化を伴う仮想ウィンドウの方法、システム、およびコンピュータ・プログラムが記録された記録媒体(模擬視差および視野変化を伴う仮想ウィンドウ)
US9429912B2 (en) Mixed reality holographic object development
Ebert et al. The forensic holodeck: an immersive display for forensic crime scene reconstructions
US20110084983A1 (en) Systems and Methods for Interaction With a Virtual Environment
US20120188279A1 (en) Multi-Sensor Proximity-Based Immersion System and Method
JP7073481B2 (ja) 画像表示システム
US20120120071A1 (en) Shading graphical objects based on face images
FR2998080A1 (fr) Procede d'augmentation de la realite
Bradley et al. Image-based navigation in real environments using panoramas
Sandnes et al. Head-mounted augmented reality displays on the cheap: a DIY approach to sketching and prototyping low-vision assistive technologies
US20190295324A1 (en) Optimized content sharing interaction using a mixed reality environment
JP2019509540A (ja) マルチメディア情報を処理する方法及び装置
AU2018205168A1 (en) Method and system for providing position or movement information for controlling at least one function of a vehicle
Saggio et al. Augmented reality for restoration/reconstruction of artefacts with artistic or historical value
US20230343041A1 (en) Multi-Person Mixed Reality Experience, Method and Apparatus
IJsselsteijn et al. A room with a cue: The efficacy of movement parallax, occlusion, and blur in creating a virtual window
ES2300204B1 (es) Sistema y metodo para la visualizacion de una imagen aumentada aplicando tecnicas de realidad aumentada.
JP6007079B2 (ja) 仮想のぞき穴画像生成システム
CN105894581B (zh) 一种呈现多媒体信息的方法及装置
Zhu et al. Synthesizing 360-degree live streaming for an erased background to study renovation using mixed reality
Hieda et al. Digital facial augmentation for interactive entertainment

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151023

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160825

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160906

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160912

R150 Certificate of patent or registration of utility model

Ref document number: 6007079

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250