JP2009211251A - 拡張現実感表示装置 - Google Patents
拡張現実感表示装置 Download PDFInfo
- Publication number
- JP2009211251A JP2009211251A JP2008051753A JP2008051753A JP2009211251A JP 2009211251 A JP2009211251 A JP 2009211251A JP 2008051753 A JP2008051753 A JP 2008051753A JP 2008051753 A JP2008051753 A JP 2008051753A JP 2009211251 A JP2009211251 A JP 2009211251A
- Authority
- JP
- Japan
- Prior art keywords
- display device
- augmented reality
- 3dcg
- marker
- reality display
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
Abstract
【課題】実際の店舗に配置した場合であっても、マーカーのトラッキング精度が低下することのない拡張現実感表示装置を提供する。
【解決手段】拡張現実感表示装置1は、マーカー2のトラッキング精度が低下することを防止するために、カメラ11への外光を防ぐように設計された外光遮蔽部材15と、LED光源13と、パネル光源14を備えている。更に、拡張現実感表示装置1には、外光遮蔽部材15を備えた場合であっても操作性が悪化しないように、様々な処理に対応した複数の操作ボタン160が設けられた操作パネル16が備えられている。
【選択図】図1
【解決手段】拡張現実感表示装置1は、マーカー2のトラッキング精度が低下することを防止するために、カメラ11への外光を防ぐように設計された外光遮蔽部材15と、LED光源13と、パネル光源14を備えている。更に、拡張現実感表示装置1には、外光遮蔽部材15を備えた場合であっても操作性が悪化しないように、様々な処理に対応した複数の操作ボタン160が設けられた操作パネル16が備えられている。
【選択図】図1
Description
本発明は、マーカーを利用した拡張現実感表示装置に関し、更に詳しくは、マーカーのトラッキング精度を向上させるための技術に関する。
コンピュータ技術の発展に伴い、3次元コンピュータグラフィックス(3DCG)を実写映像にリアルタイムで合成して表示する拡張現実(AR: Augmented Reality)は、汎用的なコンピュータで実現可能となり、時計、装飾品、洋服、靴、バックなどをユーザが身に付けた状態をシミュレーションする拡張現実感表示装置を、比較的安価な価格で開発することができるようになった。
実写映像に3DCGを合成する位置を検出する手法としては、特許文献1の背景技術に記載されているように、3DCGを合成する位置の目印となるマーカーを含む実写映像を撮影し、マーカーの位置をトラッキングすることで、実写映像に3DCGを合成する位置を検出する手法や、実写映像に含まれる任意の画像の特徴点の位置をマーカーの代用としてトラッキングするマーカーレスの手法があるが、時計や装飾品などを実際に身に付けたときの状態をシミュレーションするときは、トラッキング精度の高い、マーカーを用いた手法の方が用いられる。
特開2005−250950号公報
しかし、時計や装飾品などを実際に身に着けたときの状態をシミュレーションする拡張現実感表示装置を実際の店舗に配置した場合、店舗の照明光などが外乱になり、マーカーのトラッキングにミスが生じ、正確な実写映像上の位置に3DCGを合成できないケースがあった。
そこで、本発明は、時計や装飾品などを実際に身に着けたときの状態をシミュレーションする拡張現実感表示装置を、実際の店舗に配置した場合であっても、マーカーのトラッキング精度が低下することのない拡張現実感表示装置を提供することを目的とする。
上述した課題を解決する第1の発明は、3次元コンピュータグラフィックス(3DCG)を合成する位置の目印となるマーカーを含む実写映像を撮影するカメラと、前記実写映像を解析し、前記マーカーの位置をトラッキングするマーカートラッキング手段と、前記マーカーの位置や方向に整合させるように、前記マーカーに対応する前記3DGCを前記実写映像に合成するグラフィック描写手段と、前記3DCGが合成された前記実写映像を表示するディスプレイと、前記カメラへの外光を防ぐように設計された外光遮蔽部材と、前記外光遮蔽部材で覆われた空間内を照射する光源を備えたことを特徴とする拡張現実感表示装置である。
第1の発明によれば、前記拡張現実感表示装置に設けられた前記外光遮蔽部材が前記カメラへの外光を遮蔽することで、前記カメラの焦点合わせが容易になり、前記マーカーがぼやけることなく撮影されるため、前記マーカーのトラッキング精度が低下することを防止できる。また、前記光源を前記拡張現実感表示装置に設けることで、前記外光遮蔽部材によって生じる光量不足を補うことができる。なお、ここで、前記拡張現実感表示装置とは、前記マーカーを利用して、時計、装飾品、洋服、靴、バックなどをユーザが身に付けた状態をシミュレーションする装置を意味している。
更に、第2の発明は、第1の発明に記載の拡張現実感表示装置であって、前記光源として、前記外光遮蔽部材で覆われた空間を上から照射する第1の光源と、前記外光遮蔽部材で覆われた空間を下から照射し、平面状である第2の光源を備えていることを特徴とする。
第2の発明によれば、前記拡張現実感表示装置が前記第2の光源を備えることで、被写体の影が前記実写映像に映らなくなるため、被写体の影の影響によって生じる前記マーカーのトラッキングミスを減少させることができる。
更に、第3の発明は、第1の発明または第2の発明に記載の拡張現実感表示装置であって、複数の操作ボタンを有する操作パネルを備え、前記グラフィック描写手段は、前記操作ボタンが押されたことを検知すると、押された前記操作ボタンに対応する処理を実行し、前記ディスプレイの表示内容を変更することを特徴とする。
更に、第4の発明は、第3の発明に記載の拡張現実感表示装置であって、前記操作パネルは、前記実写映像に合成する前記3DCGのサイズを変更する複数の第1の操作ボタンを有し、前記グラフィック描写手段は、前記第1の操作ボタンが押されたことを検知すると、押された前記第1の操作ボタンに関連付けられているサイズに、前記実写映像に合成する前記3DCGのサイズを変更する処理を実行することを特徴とする。
更に、第5の発明は、第3の発明または第4の発明に記載の拡張現実感表示装置であって、前記操作パネルは、前記実写映像に合成する前記3DCGを変更する第2の操作ボタンを有し、前記グラフィック描写手段は、前記第2の操作ボタンが押されたことを検知すると、押された前記第2の操作ボタンに従い、前記実写映像に合成する前記3DCGを変更する処理を実行することを特徴とする。
更に、第6の発明は、第3の発明から第5の発明のいずれか一つに記載の拡張現実感表示装置であって、前記操作パネルは、前記実写映像に合成する前記3DCGの説明文を表示する前記第3の操作ボタンを有し、前記グラフィック描写手段は、前記第3の操作ボタンが押されたことを検知すると、前記3DCGの説明文を前記ディスプレイに表示する処理を実行することを特徴とする。
更に、第7の発明は、第3の発明から第6の発明のいずれか一つに記載の拡張現実感表示装置であって、前記操作パネルは、カラーテクスチャーを前記3DCGの下に轢くように表示する複数の第4の操作ボタンを有し、前記グラフィック描写手段は、前記第4の操作ボタンが押されたことを検知すると、押された前記第4の操作ボタンに対応した前記カラーテクスチャーを、前記3DCGの下に轢くように合成して表示する処理を実行することを特徴とする。
第3の発明によれば、前記拡張現実感表示装置が前記外光遮蔽部材を備えた場合であっても、前記拡張現実感表示装置が前記操作パネルを備えることで、前記拡張現実感表示装置の操作性が悪化することを防止できる。なお、前記操作パネルに設ける前記操作ボタンは、第4の発明から第7の発明に記載の前記操作ボタンとすることが好適である。
上述した発明によれば、拡張現実感表示装置に外光遮蔽部材を設けることで、マーカーを含む実写映像を撮影するときに外光の影響を軽減させることができ、カメラの焦点合わせが容易になり、マーカーのトラッキング精度を向上させることができるようになる。拡張現実感表示装置に外光遮蔽部材で覆われた空間内に光源を設けることで、カメラの光量不足を補うことができるようになる。
上述した発明によれば、外光遮蔽部材で覆われた空間内に操作パネルを設けることで、例えば、マーカーに対応する物が時計であったとしても、マーカーを付けた腕で操作パネルを操作できるため、ユーザの操作性を損なうことはなくなる。
ここから、本発明に係わる拡張現実感表示装置1について、図を参照しながら詳細に説明する。本実施形態は、時計を装着したときの状態をシミュレーションする装置に、本発明を適用した実施形態で、図1は、拡張現実(AR: Augmented Reality)を利用し、実際に時計を身に付けたときの状態をシミュレーションする拡張現実感表示装置1の外観図である。
図1に図示した拡張現実感表示装置1には、時計の3次元コンピュータグラフィックス(3DCG)を合成する位置の目印となるマーカー2を含む実写映像を撮影するカメラ11と、マーカー2の位置や方向に整合するように、マーカー2に対応した時計の3DCGを実写映像に合成するコンピュータ10と、時計の3DCGが合成された実写映像を表示するディスプレイ12に加え、カメラ11への外光を遮断するように、カメラ11の周辺部を覆うように設けられた外光遮蔽部材15と、外光遮蔽部材15で覆われた空間を上から照射するLED光源13と、外光遮蔽部材15で覆われた空間を下から照射するパネル光源14と、ユーザが片手で操作できる操作パネル16と、が設けられている。
図2は、時計の3DCGを合成する位置の目印となり、ユーザが腕に付けるマーカー部材20およびマーカー2を説明する図である。マーカー2は、一般的なビニール素材で作られたマーカー部材20上に印刷され、マーカー部材20は、マジックテープ(登録商標)20aを利用することで、時計バンドのようにユーザの腕に付けることができる構造になっている。
更に、マーカー2はマーカー部材20毎に異なように印刷され、すでに公知であるARToolKitに従い、マーカー2の絵柄は、マーカー2の外枠となる正方形枠2aと、マーカー2を識別するためのマーカー識別IDがエンコードされた識別コード2bから構成されている。
ここから、マーカー2の位置をトラッキングする拡張現実感表示装置1について詳細に説明する。図3は、図1で図示した拡張現実感表示装置1にハードウェアブロック図で、図4は、図1で図示した拡張現実感表示装置1の機能ブロック図である。
上述しているように、拡張現実感表示装置1は、カメラ11、外光遮蔽部材15、LED光源13、パネル光源14、ディスプレイ12、操作パネル16およびコンピュータ10を備え、コンピュータ10は、中央演算処理装置(CPU)10a、メインメモリであるRAM10c、BIOSなどが実装されているROM10b、画像処理ボード10d、および、大容量のデータ記憶装置10eを備えている。
また、図4に図示したように拡張現実感表示装置1は、カメラ11、外光遮蔽部材15、LED光源13、パネル光源14、ディスプレイ12および操作パネル16に加え、コンピュータプログラムによって実現される手段として、実写映像に撮影されているマーカー2の位置をトラッキングするマーカートラッキング手段100と、マーカー2の位置や方向に整合させるように、マーカー2に対応する時計の3DCGを実写映像に合成するグラフィック描写手段101と、マーカー2に対応する時計の3DCGなどを記憶する3DCGデータベース102を備えている。
拡張現実感表示装置1に備えられたマーカートラッキング手段100およびグラフィック描写手段101は、拡張現実感表示装置1に備えられたコンピュータ10をそれぞれの手段として機能させるためのコンピュータプログラムで実現され、このコンピュータプログラムは、拡張現実感表示装置1にデータ記憶装置10eに実装されている。また、3DCGデータベース102は、拡張現実感表示装置1のデータ記憶装置10eに構築されている。
まず、拡張現実感表示装置1で実行されるシミュレーションの内容を説明しながら、拡張現実感表示装置1に備えられたマーカートラッキング手段100およびグラフィック描写手段101の基本的な動作について説明する。
図5は、拡張現実感表示装置1で実行されるシミュレーションの内容を説明する図である。時計を腕に付けたシミュレーションを実行していない時、拡張現実感表示装置1のマーカートラッキング手段100は、拡張現実感表示装置1のディスプレイ12に表示されている枠内の映像を常に監視し、マーカー2の検出動作を実行している。
拡張現実感表示装置1を利用するユーザが、シミュレーションしたい時計に対応するマーカー部材20を腕に付け(図5(a))、拡張現実感表示装置1のディスプレイ12に表示されている枠内にマーカー2が入るように、ユーザの腕を移動させると(図5(b))、拡張現実感表示装置1のマーカートラッキング手段100は、枠内の映像を解析することで、マーカー部材20に印刷されたマーカー2を識別し、マーカー2の識別コード2bにエンコードされたマーカー識別IDを読み取り、マーカー識別IDをグラフィック描写手段101に引き渡す。
更に、マーカートラッキング手段100は、マーカー2を識別すると、マーカー2の位置のトラッキングを開始し、一定間隔毎(例えば、実写映像のフレーム毎)に、実写映像に含まれるマーカー2の正方形枠2aの重心を求めるなどして、実写映像上のマーカー2の位置を算出すると共に、正方形枠2aの変形度合いから、マーカー2の方向などを算出し、算出したこれらの情報をグラフィック描写手段101に引き渡す。
グラフィック描写手段101は、マーカートラッキング手段100から引き渡されたマーカー識別IDに対応する時計の3DCGを、3DCGデータベース102から取得し、更に、マーカートラッキング手段100から引き渡されたマーカー2の位置や方向と整合させるように、時計の3DCGを実写映像に合成させ、時計の3DCGを合成した実写映像をディスプレイ12に表示させる(図5(c))。
このように、拡張現実感表示装置1のマーカートラッキング手段100は、実写映像を解析することでマーカー2の位置をトラッキングするが、拡張現実感表示装置1が家電量販店に設置された場合、家電量販店の照明は非常に明るく、カメラ11への外光が強いため、マーカートラッキング手段100が正確にマーカー2を認識することができなくなり、時計の3DGCを正確な位置に表示させることができないケースがあった。
そこで、本発明に係わる拡張現実感表示装置1には、拡張現実感表示装置1が家電量販店に設置された場合であっても、マーカー2のトラッキング精度が低下することを防止すべく、カメラ11への外光の影響が少なくなるよう、カメラ11の周辺部を覆うように外光遮蔽部材15を設け、かつ、外光遮蔽部材15で覆われた空間内にLED光源13とパネル光源14を設けている。
本実施形態においては、拡張現実感表示装置1を家電量販店に設置した場合を想定し、家電量販店の天井に設けられた照明外光と、床面からの反射光を遮蔽すべく、外光遮蔽部材15は、カメラ11の上方から入射する外光と、カメラ11の下方から入射する外光を遮蔽する形状に設計されている。
また、カメラ11への外光を減らすべく、拡張現実感表示装置1の光源の向きとカメラ11の視線方向は垂直になるように設計され、更に、外光遮蔽部材で覆われた空間内を一様に照らすために、複数のLEDがS字状に配列されたLED光源と、パネル光源を拡張現実感表示装置1に設けている。
外光を遮蔽できれば、外光遮蔽部材15の材質・形状は如何なる材質・形状でもよいが、外光遮蔽部材15の表面をミラーにした材質を用いることで、拡張現実感表示装置1の外観を良くすることができる。また、外光遮蔽部材15の形状は、拡張現実感表示装置1が設置される場所に合わせたデザインにするとよい。
拡張現実感表示装置1に設けられた外光遮蔽部材15がカメラ11への外光を遮蔽することで、カメラ11の焦点合わせが容易になり、ユーザの腕に付けられたマーカー2がぼやけることなく撮影されるため、マーカー2のトラッキング精度が低下することを防止できる。
また、外光遮蔽部材15でカメラ11の周辺部を覆うと、カメラ11の光量が少なくなり、カメラ11で撮影される実写映像が薄暗くなってしまうため、外光遮蔽部材15の内側に、S字上にLEDが配列されたLED光源13やパネル光源14を設けることで、カメラ11の光量不足を補うことができると同時に、拡張現実感表示装置1が設置される場所に関わらず、拡張現実感表示装置1を開発したときと同じ環境をフィールドにおいても実現できるメリットがある。
なお、拡張現実感表示装置1にパネル光源14を備えさせるのは、ユーザの腕の影を実写映像に映らなくさせるためである。ユーザの腕の影が実写映像に映っていると、ユーザの腕の影の影響によって、マーカー2のトラッキングミスが生じるケースがあるため、拡張現実感表示装置1にパネル光源14を設けることで、ユーザの腕の影が実写映像に撮影されなくなり、マーカー2のトラッキングミスを減少させることができる。
このように、拡張現実感表示装置1に外光遮蔽部材15やLED光源13などを設けることで、マーカー2のトラッキング精度が低下することを防止できるが、ユーザが拡張現実感表示装置1を利用するためには、外光遮蔽部材15で覆われた空間内に、マーカー部材20を付けた片腕を入れなければならないため、拡張現実感表示装置1の操作性が問題になってしまう。
そこで、本実施形態に係わる拡張現実感表示装置1には、ユーザが片手で操作するための操作パネル16がカメラ11の近傍に設けられ、マーカー部材20を付けた片腕で、ユーザが拡張現実感表示装置1を操作できるようにしている。
図6は、拡張現実感表示装置1に設けられた操作パネル16の一例を説明する図である。図6に図示したように、操作パネル16には複数の操作ボタン160が備えられ、拡張現実感表示装置1のグラフィック描写手段101は、ユーザが押した操作ボタン160の内容に応じた処理を実行し、ディスプレイ12の表示内容を変更する。なお、それぞれの操作ボタン160を区別するとき、操作ボタン160に記載されている文字を括弧で括って表記する。
図6においては、時計の3DCGの表示サイズを変更する操作ボタン160として、時計の3DCGの表示サイズをSサイズにする操作ボタン160(S)と、時計の3DCGの表示サイズをMサイズにする操作ボタン160(M)、時計の3DCGの表示サイズをLサイズにする操作ボタン160(L)とが、操作パネル16に設けられている。例えば、Mサイズを100%としたとき、Sサイズは、Mサイズよりも小さい95%のサイズで、Lサイズは、Mサイズよりも大きい105%のサイズである。
時計の3DCGの表示サイズを変更する操作ボタン160は、何らかの影響で、実際の時計のサイズよりも、大幅に大きく(または、小さく)、時計の3DCGが表示されてしまったときに、時計の3DCGのサイズを修正するために利用することができる。
更に、ディスプレイ12に表示する時計の3DCGを変更する操作ボタン160として、マーク識別IDをデクリメントする操作ボタン160(Down)と、マーク識別IDをインクリメントする操作ボタン160(Up)が操作パネル16に設けられている。
更に、ディスプレイ12に3DCGを表示している時計の説明文をテロップで表示する操作ボタン160として、説明文のテロップの表示をONにする操作ボタン160(On)と、説明文のテロップをOFFにする操作ボタン160(Off)が、操作パネル16に設けられている。
ディスプレイ12に表示する時計の3DCGを変更する操作ボタン160を利用することで、ユーザは、腕に付けたマーカー部材20を変更することなく、シミュレーションする時計の型番を他の型番に変更することができる。更に、時計の説明文をテロップで表示する操作ボタン160を利用することで、時計のカタログを開かなくても、時計の説明文を読むことができるようになる。
加えて、時計の3DCGの下に轢くようにカラーテクスチャを合成して表示する操作ボタン160として、カラー1のカラーテクスチャを表示する操作ボタン160(C1)と、カラー2のカラーテクスチャを表示する操作ボタン160(C2)と、カラー3のカラーテクスチャを表示する操作ボタン160(C3)とが、操作パネル16に設けられている。
時計の3DCGの下に轢くようにカラーテクスチャを合成して表示する操作ボタン160は、マーカー2のサイズよりも小さい時計を表示するときや、洋服の色とのカラーコーディネイトを確かめたいときに利用される。
なお、図6の操作パネル16には、拡張現実感表示装置1のディスプレイ12の表示内容を初期状態に戻す操作ボタン160(Reset)が設けられている。
拡張現実感表示装置1のグラフィック描写手段101は、操作パネル16に設けられた操作ボタン160のいずれかが、ユーザによって押されたことを検知すると、処理に必要なデータを3DCGデータベース102から取得して、押された操作ボタン160に対応する処理を実行し、ディスプレイ12の表示内容を変更する。
図7は、3DCGデータベース102のデータ構造の一例を説明する図である。図7に図示したように、3DCGデータベース102には、作成されたマーカー2部材に印刷されたマーカー2の識別コード2bにエンコードされたマーカー識別ID102a毎に、マーカー識別ID102aに関連付けて、Sサイズの時計の3DCGデータ102bと、Mサイズの時計の3DCGデータ102cと、Lサイズの時計の3DCGデータ102dと、カラー1のカラーテクスチャデータ102eと、カラー2のカラーテクスチャデータ102fと、カラー3のカラーテクスチャデータ102gと、時計の説明文が記述されたテキスト102hが記憶されている。
それぞれの3DCGデータ102b〜102dは、アニメーション効果(例えば、長針・短針の動きや、デジタル表示の数字の動き)を有し、更に、カラーテクスチャの色は、時計の文字盤のなど、時計の色にカラーコーディネイトされて決定されている。
操作パネル16の操作ボタン160(S)、操作ボタン160(M)および操作ボタン160(L)は、それぞれ、3DCGデータベース102に記憶された時計の3DCG102b、時計の3DCG102cおよび時計の3DCG102dに関連付けられている。
拡張現実感表示装置1のグラフィック描写手段101は、操作ボタン160(S)が押されるとSサイズの時計の3DCGデータ102bを読み出し、操作ボタン160(M)が押されるとMサイズの時計の3DCGデータ102cを読み出し、操作ボタン160(L)が押されるとLサイズの時計の3DCGデータ102dを読み出し、実写映像に合成して表示する。
図8は、時計の3DCGのサイズを変更する内容を説明する図で、図8(a)は、ユーザが操作パネル16を操作する前のディスプレイ12の表示内容で、拡張現実感表示装置1のグラフィック描写手段101は、操作パネル16が操作されるまでは、Mサイズの時計の3DCGデータ102cを3DCGデータベース102から読み出して合成する。
図8(b)は、操作ボタン160(L)が押された後のディスプレイ12の表示内容で、拡張現実感表示装置1のグラフィック描写手段101は、操作パネル16の操作ボタン160(L)が押されると、Lサイズの時計の3DCGデータ102dを3DCGデータベース102から読み出して合成し、図8(b)に図示したように、時計の3DCGはサイズが大きくなって表示される。
操作パネル16の操作ボタン160(Up)、(Down)のいずれかが押されると、拡張現実感表示装置1のグラフィック描写手段101は、押された操作ボタン160に従い、マーカー識別IDを他のマーカー識別IDに変更し、変更したマーカー識別IDに関連付けられているMサイズの時計の3DCGデータ102cを読み出し、実写映像に合成することで、ディスプレイに表示する時計の型番を変更する。
図9は、時計の型番を変更する内容を説明する図で、図9(a)は、ユーザが操作パネル16を操作する前のディスプレイ12の表示内容で、図9(a)では、文字盤が丸い時計の3DCGが合成されている。
図9(b)は、操作ボタン160(Up)が押された後のディスプレイ12の表示内容で、操作ボタン160(Up)が押されることで、マーク識別IDはインクリメントされ、3DCGを表示する時計の型番は変更される。図9(b)では、文字盤が四角い時計の3DCGが合成されている。
操作パネル16の操作ボタン160(C1)、操作ボタン160(C2)および操作ボタン160(C3)は、それぞれ、カラーテクスチャデータ102e、カラーテクスチャデータ102dおよびカラーテクスチャデータ102eに関連付けられている。
拡張現実感表示装置1のグラフィック描写手段101は、操作ボタン160(C1)が押されるとカラー1のカラーテクスチャデータ102eを読み出し、操作ボタン160(C2)が押されるとカラー2のカラーテクスチャデータ102fを読み出し、操作ボタン160(C3)が押されるとカラー3のカラーテクスチャデータ102gを読み出し、時計の3DCGの下に轢くようにカラーテクスチャを合成して表示する。
図10は、カラーテクスチャを表示する内容を説明する図で、図10(a)は、ユーザが操作パネル16を操作する前のディスプレイ12の表示内容で、拡張現実感表示装置1のグラフィック描写手段101は、操作パネル16が操作されるまでは、カラーテクスチャは表示しない。
図10(b)は、操作ボタン160(C1)が押された後のディスプレイ12の表示内容で、拡張現実感表示装置1のグラフィック描写手段101は、操作パネル16の操作ボタン160(C1)が押されると、カラーがカラー1であるカラーテクスチャデータ102eを3DCGデータベース102から読み出し、図10(b)に図示したように、時計の3DCGの下に轢くように、カラーテクスチャを合成して表示する。
操作パネル16の操作ボタン160(On)が押されると、拡張現実感表示装置1のグラフィック描写手段101は、使用している時計の3DCGの説明文が記述されたテキスト102hを3DCGデータベース102から読み出し、読み出したテキスト102hをテロップでディスプレイ12に表示させ、操作パネル16の操作ボタン160(Off)が押されると、テロップを非表示にする。
図11は、テロップを表示する内容を説明する図で、図11(a)は、ユーザが操作パネル16を操作する前のディスプレイ12の表示内容で、図11(a)では、ディスプレイ12にテロップが表示されていない。
図11(b)は、操作ボタン160(On)が押された後のディスプレイ12の表示内容で、操作ボタン160が押されることで、3DCGが表示されている時計の説明文がテロップでディスプレイ12に表示される。
なお、本発明は、これまで説明した実施形態に限定されることなく、種々の変形や変更が可能である。例えば、本発明に係わる拡張現実感表示装置が実写映像に合成する物は、何ら時計に限定されず、装飾品、洋服、靴、バックなどをユーザが身に付ける物であればよい。更に、拡張現実感表示装置に備えられた外光遮蔽部材の形状は、図1で図示した形状に限定されるものではく、具体的には、実写映像に合成する物と拡張現実感表示装置が設置される環境によって決定される。例えば、実写映像に合成する物を洋服とした場合、拡張現実感表示装置は試着室のような構成になり、外光遮蔽部材は、試着室のカーテンのような形状になる。加えて、拡張現実感表示装置1に備えられた操作パネル16に設けられた操作ボタン160も、図6で図示した内容に限定するものではない。
図12は、外光遮蔽部材の変形例を説明する図である。図12で図示した拡張現実感表示装置3は、図1で図示した様な一体型の装置ではなく、実写を撮影するカメラ34と、ディスプレイ32、コンピュータ30などは個別に配置される。
図12においては、ショーケース36上には、マーカー部材37を置くスタンド33、カメラ34、ディスプレイ32が設置され、ショーケース36の下には、コンピュータ30が設置されている。また、カメラ周辺部に設けられる外光遮蔽部材31の形状はボックス型で、操作パネル35は、この外光遮蔽部材31で覆われた空間内に設置されている。
1 拡張現実感表示装置
10 コンピュータ
11 カメラ
12 ディスプレイ
13 LED光源
14 パネル光源
15 外光遮蔽部材
16 操作パネル
100 マーカートラッキング手段
101 グラフィック描写手段
102 3DCGデータベース
2 マーカー
2a 正方形枠
2b 識別コード
20 マーカー部材
10 コンピュータ
11 カメラ
12 ディスプレイ
13 LED光源
14 パネル光源
15 外光遮蔽部材
16 操作パネル
100 マーカートラッキング手段
101 グラフィック描写手段
102 3DCGデータベース
2 マーカー
2a 正方形枠
2b 識別コード
20 マーカー部材
Claims (7)
- 3次元コンピュータグラフィックス(3DCG)を合成する位置の目印となるマーカーを含む実写映像を撮影するカメラと、前記実写映像を解析し、前記マーカーの位置をトラッキングするマーカートラッキング手段と、前記マーカーの位置や方向に整合させるように、前記マーカーに対応する前記3DGCを前記実写映像に合成するグラフィック描写手段と、前記3DCGが合成された前記実写映像を表示するディスプレイと、前記カメラへの外光を防ぐように設計された外光遮蔽部材と、前記外光遮蔽部材で覆われた空間内を照射する光源を備えたことを特徴とする拡張現実感表示装置。
- 請求項1に記載の拡張現実感表示装置であって、前記光源として、前記外光遮蔽部材で覆われた空間を上から照射する第1の光源と、前記外光遮蔽部材で覆われた空間を下から照射し、平面状である第2の光源を備えていることを特徴とする拡張現実感表示装置。
- 請求項1または請求項2に記載の拡張現実感表示装置であって、複数の操作ボタンを有する操作パネルを備え、前記グラフィック描写手段は、前記操作ボタンが押されたことを検知すると、押された前記操作ボタンに対応する処理を実行し、前記ディスプレイの表示内容を変更することを特徴とする拡張現実感表示装置。
- 請求項3に記載の拡張現実感表示装置であって、前記操作パネルは、前記実写映像に合成する前記3DCGのサイズを変更する複数の第1の操作ボタンを有し、前記グラフィック描写手段は、前記第1の操作ボタンが押されたことを検知すると、押された前記第1の操作ボタンに関連付けられているサイズに、前記実写映像に合成する前記3DCGのサイズを変更する処理を実行することを特徴とする拡張現実感表示装置。
- 請求項3または請求項4に記載の拡張現実感表示装置であって、前記操作パネルは、前記実写映像に合成する前記3DCGを変更する第2の操作ボタンを有し、前記グラフィック描写手段は、前記第2の操作ボタンが押されたことを検知すると、押された前記第2の操作ボタンに従い、前記実写映像に合成する前記3DCGを変更する処理を実行することを特徴とする拡張現実感表示装置。
- 請求項3から請求項5のいずれか一つに記載の拡張現実感表示装置であって、前記操作パネルは、前記実写映像に合成する前記3DCGの説明文を表示する前記第3の操作ボタンを有し、前記グラフィック描写手段は、前記第3の操作ボタンが押されたことを検知すると、前記3DCGの説明文を前記ディスプレイに表示する処理を実行することを特徴とする拡張現実感表示装置。
- 請求項3から請求項6のいずれか一つに記載の拡張現実感表示装置であって、前記操作パネルは、カラーテクスチャーを前記3DCGの下に轢くように表示する複数の第4の操作ボタンを有し、前記グラフィック描写手段は、前記第4の操作ボタンが押されたことを検知すると、押された前記第4の操作ボタンに対応した前記カラーテクスチャーを、前記3DCGの下に轢くように合成して表示する処理を実行することを特徴とする拡張現実感表示装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008051753A JP2009211251A (ja) | 2008-03-03 | 2008-03-03 | 拡張現実感表示装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008051753A JP2009211251A (ja) | 2008-03-03 | 2008-03-03 | 拡張現実感表示装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2009211251A true JP2009211251A (ja) | 2009-09-17 |
Family
ID=41184342
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008051753A Pending JP2009211251A (ja) | 2008-03-03 | 2008-03-03 | 拡張現実感表示装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2009211251A (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012033073A (ja) * | 2010-07-30 | 2012-02-16 | Dainippon Printing Co Ltd | 付加情報提供システム及び撮像装置 |
JP5842199B1 (ja) * | 2015-07-23 | 2016-01-13 | 株式会社コシナ | 交換レンズの情報提供方法及び販売方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08239988A (ja) * | 1995-03-02 | 1996-09-17 | Meitaku Syst:Kk | 床面照明表示装置 |
JP2000353248A (ja) * | 1999-06-11 | 2000-12-19 | Mr System Kenkyusho:Kk | 複合現実感装置及び複合現実感提示方法 |
JP2003264740A (ja) * | 2002-03-08 | 2003-09-19 | Cad Center:Kk | 展望鏡 |
JP2006107437A (ja) * | 2004-09-07 | 2006-04-20 | Canon Inc | 情報処理方法及び装置 |
JP2007206807A (ja) * | 2006-01-31 | 2007-08-16 | Nippon Hoso Kyokai <Nhk> | 映像合成装置及び映像合成プログラム |
-
2008
- 2008-03-03 JP JP2008051753A patent/JP2009211251A/ja active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08239988A (ja) * | 1995-03-02 | 1996-09-17 | Meitaku Syst:Kk | 床面照明表示装置 |
JP2000353248A (ja) * | 1999-06-11 | 2000-12-19 | Mr System Kenkyusho:Kk | 複合現実感装置及び複合現実感提示方法 |
JP2003264740A (ja) * | 2002-03-08 | 2003-09-19 | Cad Center:Kk | 展望鏡 |
JP2006107437A (ja) * | 2004-09-07 | 2006-04-20 | Canon Inc | 情報処理方法及び装置 |
JP2007206807A (ja) * | 2006-01-31 | 2007-08-16 | Nippon Hoso Kyokai <Nhk> | 映像合成装置及び映像合成プログラム |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012033073A (ja) * | 2010-07-30 | 2012-02-16 | Dainippon Printing Co Ltd | 付加情報提供システム及び撮像装置 |
JP5842199B1 (ja) * | 2015-07-23 | 2016-01-13 | 株式会社コシナ | 交換レンズの情報提供方法及び販売方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11640672B2 (en) | Method and system for wireless ultra-low footprint body scanning | |
US12026806B2 (en) | Systems and methods for utilizing a living entity as a marker for augmented reality content | |
US10628666B2 (en) | Cloud server body scan data system | |
US20200380333A1 (en) | System and method for body scanning and avatar creation | |
US20200364533A1 (en) | Online garment design and collaboration system and method | |
CN106255943B (zh) | 身体锁定增强现实与世界锁定增强现实之间的转换 | |
EP3121793B1 (en) | Method and apparatus for generating an artificial picture | |
EP1796021A1 (en) | Presentation system | |
JP2018500647A (ja) | 画像の品目へのマッピング | |
JP2006313549A (ja) | 実マーカオブジェクトを識別する拡張現実システム | |
JP2016540267A (ja) | 画像キャプチャ入力および投影出力 | |
CN108027654A (zh) | 输入设备、输入方法和程序 | |
CN106683193B (zh) | 一种三维模型的设计方法和设计装置 | |
US20140253591A1 (en) | Information processing system, information processing apparatus, information processing method, and computer-readable recording medium recording information processing program | |
AU2017260525B2 (en) | Method and system for body scanning and display of biometric data | |
US11948057B2 (en) | Online garment design and collaboration system and method | |
JP4871200B2 (ja) | 映像合成装置および映像合成プログラム | |
JP2009211251A (ja) | 拡張現実感表示装置 | |
CN112241198A (zh) | 增强现实场景的实现方法、装置及存储介质 | |
JP2024023273A (ja) | アクターの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画を配信する動画配信システム、動画配信方法及び動画配信プログラム | |
CN109144598A (zh) | 基于手势的电子面罩人机交互方法与系统 | |
US10553011B2 (en) | Image processing system, method, and program | |
JP2005346469A (ja) | 画像処理方法、画像処理装置 | |
JP6693069B2 (ja) | 画像表示装置、方法、およびプログラム | |
VERLINDEN | PIXELS WANT TO BE FREED! INTRODUCING AUGMENTED REALITY |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20101215 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120315 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120330 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20120725 |