JP2012146305A - ウィンドウ状の拡張現実を提供する装置および方法 - Google Patents

ウィンドウ状の拡張現実を提供する装置および方法 Download PDF

Info

Publication number
JP2012146305A
JP2012146305A JP2012003488A JP2012003488A JP2012146305A JP 2012146305 A JP2012146305 A JP 2012146305A JP 2012003488 A JP2012003488 A JP 2012003488A JP 2012003488 A JP2012003488 A JP 2012003488A JP 2012146305 A JP2012146305 A JP 2012146305A
Authority
JP
Japan
Prior art keywords
augmented reality
marker
area
image layer
viewing direction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2012003488A
Other languages
English (en)
Inventor
Gie-Hyeok Ahn
啓 赫 安
Hyung Il Park
炯 一 朴
Jong-Kwon Lee
鍾 權 李
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pantech Co Ltd
Original Assignee
Pantech Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pantech Co Ltd filed Critical Pantech Co Ltd
Publication of JP2012146305A publication Critical patent/JP2012146305A/ja
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality

Abstract

【課題】
拡張現実のオブジェクトをウィンドウを通して見せるような形態で表示する拡張現実サービスを、提供する。
【解決手段】
拡張現実提供装置は、第1視認方向に基づいて第1領域内に表示されるべき仮想世界イメージ層の第1部分を特定する情報処理部と、前記第1部分を第1領域内に表示するとともに、現実世界イメージ層を第2領域内に表示する映像処理部とを、含んでいる。拡張現実提供方法は、第1領域及び第2領域を決定し、第1視認方向に基づいて第1領域内に表示されるべき仮想世界イメージ層の第1部分を特定し、前記第1部分を前記第1領域内に表示し、現実世界イメージ層を前記第2領域内に表示する。
【選択図】 図2

Description

本発明は拡張現実サービスを提供する装置および方法に関する。特に、拡張現実のオブジェクトをウィンドウを通して介して見せるように表示する拡張現実装置および方法に関する。
拡張現実(AR:Augmented Reality)はユーザが目で見ることのできる現実世界と付加情報を含む仮想世界とを組合わせて1つの映像として見せるバーチャルリアリティの1つである。現実世界の映像に仮想世界の映像を追加するAR技術は、仮想世界の環境を満たすためにコンピュータグラフィックを用いるものの、ARの主たる要素は現実世界の環境である。コンピュータグラフィックは、現実世界の環境に、付加的な情報を提供する。例えば、ユーザが見ている実写映像上に、相互の区別が困難となるように3次元仮想映像をオーバーラップさせることができる。バーチャルリアリティ技術は、仮想環境にユーザを没頭させることができる。このようなARを実現する方法として、特定のマーカー(marker)をコンピュータが認識し、そのマーカーに接続された3次元グラフィックモデルをモニタに描写する方法がある。このマーカーは、実際に2次元の平面上に存在しながら、自身と結び付けられた3次元グラフィックモデルが描かれる大きさ、方向、および位置に関する情報を提供する。このマーカーと3次元グラフィックモデルはユーザの選択に応じて様々な形状に表し得る。
本発明の目的は、拡張現実のオブジェクトをウィンドウを通して見せるような形態で表示する拡張現実サービスを提供する装置および方法を、提供することにある。
本発明の一実施形態に係る拡張現実提供装置は、キャプチャされたオブジェクトの映像に基づいて第1領域及び第2領域を決定するウィンドウ検出部と、前記第1領域に対応するオブジェクトに向かう第1視認方向に基づいて、前記第1領域に表示されるべき仮想世界イメージ層の第1部分を決定する情報処理部と、前記第1領域に前記第1部分を表示するとともに、前記第2領域に現実世界イメージ層を表示する映像処理部とを、含む。
本発明の一実施形態に係る拡張現実提供装置は、映像をキャプチャする映像キャプチャ装置と、前記映像からマーカーを認識するマーカー認識部と、前記マーカーに対応する第1領域を決定するウィンドウ検出部と、前記マーカーに関する視認方向に基づいて、一つ以上の拡張現実オブジェクトを含む前記第1領域に表示されるべき仮想世界イメージ層の第1部分を決定する情報処理部と、前記第1領域に前記第1部分を表示する映像処理部とを、含む。
本発明の一実施形態に係る拡張現実提供方法は、キャプチャされたオブジェクトの映像に基づいて第1領域を決定し、前記第1領域に対応するオブジェクトに向かう第1視認方向に基づいて、前記第1領域に表示される仮想世界イメージ層の第1部分を決定し、前記第1領域に前記第1部分を表示するとともに、前記第2領域に現実世界イメージ層を表示することを、含む。
本発明の一実施形態に係る拡張現実提供方法は、映像キャプチャ装置を用いて映像をキャプチャし、前記映像からマーカーを認識し、前記マーカーに対応する第1領域を決定し、前記マーカーに関する視認方向に基づいて、一つ以上の拡張現実オブジェクトを含む前記第1領域に表示されるべき仮想世界イメージ層の第1部分を決定し、前記第1領域に前記第1部分を表示することを、含む。
本発明によると、拡張現実のオブジェクトを、ウィンドウを通して見せるような形態で、表示することができる。
本発明の実施形態によってウィンドウ状に提供される拡張現実サービスを示す図である。 本発明の実施形態によって拡張現実サービスを提供する装置の構成を示す図である。 本発明の実施形態によってウィンドウ状の拡張現実サービスを提供する方法を示すフローチャートである。
以下、本発明の実施形態を、実施形態が示された添付図面を参照しながら詳説する。しかし、本発明は、いくつかの異なる形態での具現が可能であり、ここで説明する実施例に限定されない。むしろ、これらの実施形態は、本発明の開示が完全になるように完全に提供されたものであって、本発明の属する技術分野における通常の知識を有する者に本発明の開示範囲を十分に示すであろう。本願明細書において、周知の特徴及び技術は、示された実施形態を不必要に不明確にすることを避けるために省略されることがある。ここで使用される技術用語は、特定の実施形態を説明する目的のみであって、本願の発明の開示を限定するものでは無い。本願明細書に記載されるように、個々の名詞は、文脈の前後関係から明らかに単数であることが示されていない限り、複数のものを表すことも意図されている。更に、「第1」、「第2」等の用語の使用は、何らかの順番や重要性を示すのではなく、むしろ、1つの要素を他の要素から区別するために使用されているに過ぎない。また、本明細書で用いるところでは、用語「含む」,「備える」,「有する」は、言及された特徴、領域、整数、ステップ、操作、要素、及び/又は成分の存在を表す。しかし、これらの用語は、一つ以上の他の特徴、領域、整数、ステップ、操作、要素、成分及び又はその群の存在,若しくはその追加を、排除しない。本開示の目的のためには、「少なくとも一つ」との記述は、それに続いて列挙された要素群の任意の組み合わせを意味するように、解釈される。例えば、「X,Y,Zのうちの少なくとも一つ」との記述は、Xのみ,Yのみ,Zのみ,又は、X,Y,Zのうちの何れか二つ以上の組み合わせを意味するように、解釈される。
上述した概括的な記載と後述する詳細な説明の双方は、例示及び説明のためのものであり、請求項に記載された発明の更なる説明の提供が意図されている。他の特徴及び態様は、後述する詳細な説明,図面及び特許請求の範囲から明らかにされるだろう。
本発明は、拡張現実のオブジェクトをウィンドウの形態で表示する拡張現実サービス装置および方法に関する。
図1は、本発明の実施形態によってウィンドウの形態で提供される拡張現実サービスを説明する図である。
図1を参照すると、ユーザ110は、拡張現実サービス装置200から拡張現実サービスを受けるために、マーカーをキャプチャ(撮影)する。マーカーは、例えばQRコード(登録商標)のように、特定情報を表示するためのイメージであってもよい。さらに、マーカーは、カメラのような映像キャプチャ装置によって認識可能な一つ以上の特徴点を含むイメージであっても良い。例えば、拡張現実サービス装置200によってキャプチャされた矩形オブジェクトがマーカーとして認識され、その矩形オブジェクトの領域がウィンドウ領域120として決定される。さらに、その矩形オブジェクトが或る視認方向310からキャプチャされた場合、そのウィンドウ領域120の平面と視認方向310とがなす角度が得られ、その角度が、視認角度θとして格納される。さらに、そのウィンドウ領域120の面積が、視認角度θに基づいて決定される。例えば、ウィンドウ領域120の面積は、式1に示されるように規定される。
(式1)
=kAsinθ
ここに、Aはウィンドウ領域120の面積を示し、kは係数を示し、Aはマーカーの面積を示し、θは視認角度を示す。さらに、kは、拡張現実装置200とマーカーとの間の距離に基づいて得られる。例えば、kは、拡張現実装置200とマーカーとの間の距離に逆比例する。
拡張現実サービス装置200は、マーカーに対応するウィンドウ領域120を介して、後方の拡張現実オブジェクト130、140、150を見せる。
拡張現実サービス装置200は、後方の拡張現実オブジェクト130、140、150を、ウィンドウ領域120を通して見せる形態でディスプレイ画面上に表示するので、マーカーに対応したウィンドウ領域120に対する拡張現実サービス装置200の位置又は投影方向に依っては、後方の拡張現実オブジェクト130、140、150のうち一部のみが表示されることもある。以下の説明では、拡張現実オブジェクト130、140、150のうちウィンドウ領域120を通して表示される部分のことが、「拡張現実情報領域」と称される。
マーカーによって決定されたウィンドウ領域120が存在する平面を基準にして、前方が「現実世界空間160」と称され、後方が「仮想世界空間170」と称される。現実世界空間160は、キャプチャされた現実世界の映像に付加される前側の拡張現実オブジェクトを、一つ以上含んでも良い。仮想世界空間170は、後側の拡張現実オブジェクトを一つ以上含む仮想映像であっても良い。拡張現オブジェクトは、拡張現実サービス装置200の表示画面上に表示される2次元又は3次元の映像であっても良い。
ウィンドウ領域120が存在する平面を基準にして、当該平面の後方に位置する拡張現実オブジェクトは「後側拡張現実オブジェクト」と称され、当該平面の前方に位置する拡張現実オブジェクトは「前側拡張現実オブジェクト」と称される。拡張現実サービス装置200内において、現実世界空間160は、第1層(現実世界イメージ層)として生成され、仮想世界空間170は、第2層(仮想世界イメージ層)として生成される。拡張現実サービス装置200の表示画面上において、第1層が表示され、対応する第2層が得られて前記第1層と揃えられる。ウィンドウ領域120が表示画面上に表示されると、前記第2層の一部がウィンドウ領域120を通じて表示される。拡張現実装置200がウィンドウ領域120に関して中央に位置していると、後側拡張現実オブジェクト140がウィンドウ領域120を通して表示されるが、後側拡張現実オブジェクト130及び150は、陰になる場所に位置しているので、表示されない。さらに、第1層の透明度は、約1から約0の範囲で、ダイナミックに調整される。例えば、第1層の透明度が1から0.7に変化すると、第2層の透明度は0から0.3に変化する。このようにして、後側のオブジェクト130及び150は、第1層の現実世界空間160と一緒に表示されても良い。
図2は、本発明の実施形態に係る拡張現実サービスをウィンドウの形態で提供する装置の構成を示す図である。
図2を参照すると、拡張現実サービス装置200は、制御部210、マーカー格納部220、オブジェクト格納部230、カメラ部240、ディスプレイ部250、マーカー認識部211、ウィンドウ検出部212、位置推定部213、情報処理部214、映像処理部215及び拡張現実実行部216を、備える。
マーカー格納部220は、マーカーの情報とウィンドウ領域の情報とを格納する。マーカーの情報は、マーカー映像、マーカーを識別できるマーカー識別情報(ID)、マーカーの位置及び角度を追跡する為に用いられる特徴点のうち少なくとも1つを含む。ウィンドウ領域の情報は、ウィンドウ領域の大きさ,位置,形状,角度などの情報を含んでもよい。
オブジェクト格納部230は、マーカーに対応する拡張現実オブジェクトの情報を格納する。
オブジェクト格納部230に格納された拡張現実オブジェクトの情報は、3次元(3D)拡張現実映像を生成するための3Dモデル情報であってもよい。さらに、拡張現実オブジェクトは、2次元(2D)映像又は3D映像を含んでいても良い。
格納された拡張現実オブジェクトの情報は、対応する拡張現実オブジェクトの動きに関連するモーション情報及び3Dモデル情報であっても良い。その拡張現実オブジェクト情報は、対応する拡張現実オブジェクトと一緒に拡張現実ゲームに用いられてもよい。
格納された拡張現実オブジェクトの情報は、様々な用途で用いられる3次元モデル情報に関連するデータ,例えば、ファイルデータ、音楽データ、サウンドデータ等であってもよい。さらに、格納された拡張現実オブジェクトの情報は、該当のデータにアクセス可能な権能を有する伝達媒体の情報を、含んでもよい。その伝達媒体は、ネットワーク接続を通じて接続されていても良い。例えば、ユーザは、格納された拡張現実オブジェクトの情報を利用して、様々な方式によって、ゲームを楽しんだりデータを共有することができる。サウンドに関する拡張現実オブジェクトがユーザに近づくように表示されると、その拡張現実オブジェクトに関連付けられたサウンドは大きくなる。その拡張現実オブジェクトがユーザから遠のくように表示されると、サウンドは小さくなる。その拡張現実オブジェクトが選択されると、選択された拡張現実オブジェクトの特徴に応じて、サウンドファイルが受信されたり、あるいはリアルタイムで共有され得る。
拡張現実オブジェクトの情報は、ウィンドウ領域が存在する平面を基準にして、後側拡張現実オブジェクトの情報と前側拡張現実オブジェクトの情報とに、分類される。後側拡張現実オブジェクトは、ウィンドウ領域120が存在する平面を基準にして平面の後方に位置する拡張現実オブジェクトである。そして、前側拡張現実オブジェクトは、ウィンドウ領域120が存在する平面を基準にして平面の前方に位置する拡張現実オブジェクトである。前側拡張現実オブジェクトは、ウィンドウ領域120のウィンドウ枠に対応した拡張現実オブジェクトを含む。特に、ウィンドウ枠型の拡張現実オブジェクトは、拡張現実サービス装置200のカメラ部240によってキャプチャされたウィンドウ領域120に対応するマーカーの位置に従って、表示及び配置される。
カメラ部240は、静止映像又はプレビュー映像をマーカー認識部211及び/又はディスプレイ部250に提供する。カメラ部240の位置及び視認角度が変化すると、リアルタイムでプレビュー映像が変化する。カメラ部240によってキャプチャされた映像は、マーカー認識部211およびディスプレイ部250に提供される前に、映像補正処理またはカメラ補正処理を通して補正され得る。
ディスプレイ部250は、拡張現実サービス装置200の状態に関する情報,インジケータ,数,文字,動画像(moving picture),静画像(still picture)などを、表示する。また、ディスプレイ部250は、カメラ部240によって得られたマーカーを表示しても良く、映像処理部215によって生成される前側拡張現実オブジェクト及び/又は拡張現実情報領域の一部又は全部を表示する。
マーカー認識部211は、カメラ部240によってキャプチャされた静止映像又はプレビュー映像に含まれるマーカーを認識する。
ウィンドウ検出部212は、マーカーに対応するウィンドウ領域120を決定する。ここで、ウィンドウ領域120のサイズは、マーカーの大きさと関係なく設定されても良いし、ウィンドウ領域120とマーカーとが同一の大きさ又は対応ないし関連する大きさに設定されても良い。さらに、ウィンドウ領域120のサイズは、マーカーのサイズ及び/又はマーカーと拡張現実サービス装置200との間の距離に基づいて、決定されても良い。
位置推定部213は、マーカーと拡張現実サービス装置200との間の位置関係を測定する。さらに、位置推測部213は、ウィンドウ領域120と拡張現実サービス装置200との間の位置関係を測定する。
情報処理部214は、マーカーに対応してウィンドウ領域120の後側に表示されるべき拡張現実情報及び拡張現実オブジェクトを決定する。さらに、情報処理部214は、位置関係に基づいて前記ウィンドウ領域120を介して表示されるべき拡張現実情報領域を決定する。
後側拡張現実オブジェクトを、ウィンドウ領域120を通じて見せるかのように表示すべく、仮想世界空間170の陰になる箇所に位置する後側拡張現実オブジェクトは、ディスプレイ部250上に表示されない。さらに、情報処理部214は、ウィンドウ領域120を通じて仮想世界空間170から見せる拡張現実情報領域を決定する。特に、情報処理部214は、拡張現実サービス装置200の視認方向から見た場合にウィンドウ領域120を通して後側拡張現実オブジェクトが見える範囲に対応した拡張現実情報領域を、決定する。
映像処理部215は、決定された拡張現実情報領域を、ウィンドウ領域120中に表示する。ここで、拡張現実情報領域は、拡張現実サービス装置200の視認方向から見た場合にウィンドウ領域120を通して見える後側拡張現実オブジェクトの範囲に、相当する。例えば、図1において、ウィンドウ領域120を当該ウィンドウ領域120の左側から見た場合、花型の拡張現実オブジェクト150が、ウィンドウ領域120を通して見える。ウィンドウ領域120を当該ウィンドウ領域120の右側から見た場合、蝶型の拡張現実オブジェクト130が、ウィンドウ領域120を通して見える。ウィンドウ領域120が当該ウィンドウ領域120の正面から見た場合、木型の拡張現実オブジェクト140が、ウィンドウ領域120を通して見える。これら後側拡張現実オブジェクト130,140,150の位置情報は、オブジェクト格納部230内に格納される。これら後側拡張現実オブジェクト130,140,150は、ディスプレイ部250の周りを移動するように、表示される。これら後側拡張現実オブジェクト130,140,150は、3Dイメージであってもよいし、ウィンドウ領域120を通って移動するように表示されてもよいし、前側拡張現実オブジェクトに変化しても良い。
そして、映像処理部215は、マーカーに対応する前側拡張現実オブジェクトを決定し、ウィンドウ領域120と拡張現実サービス装置200の位置とを考慮して、当該前側拡張現実オブジェクトを表示する。
拡張現実実行部216は、拡張現実の実行によって、後側拡張現実オブジェクトまたは前側拡張現実オブジェクトの動作を処理する。
制御部210は、拡張現実サービス装置200の全般的な動作を制御する。そして、制御部210は、マーカー認識部211、ウィンドウ検出部212、位置推定部213、情報処理部214、映像処理部215、および拡張現実実行部216の機能の一部又は全部を行う。制御部210、マーカー認識部211、ウィンドウ検出部212、位置推定部213、情報処理部214、映像処理部215、および拡張現実実行部216を区分して表すことは、各機能を区別して説明するためである。したがって、制御部210は、マーカー認識部211、ウィンドウ検出部212、位置推定部213、情報処理部214、映像処理部215、および拡張現実実行部216それぞれの機能を行うように構成された少なくとも1つのプロセッサを含んでもよい。また、制御部210は、マーカー認識部211、ウィンドウ検出部212、位置推定部213、情報処理部214、映像処理部215、および拡張現実実行部216のそれぞれの機能の一部又は全部を行うように構成された1個以上のプロセッサを含んでもよい。
以下、上記のように構成された本発明の実施形態によって拡張現実サービスをウィンドウの形態で提供する方法を、図3を参照して説明する。
図3は、本発明の実施形態によって拡張現実サービスをウィンドウの形態で提供する方法を説明するフローチャートである。図3は、図2に示される拡張現実サービス装置200によって実行されるかのように記載されているが、そのように限定されるわけではない。
図3を参照すると、拡張現実サービス装置200は、ステップS310において、プレビューモードで映像をキャプチャ(撮影)する。この映像は、拡張現実サービス装置200がカメラ部240を作動させている間にリアルタイムでキャプチャされたプレビュー映像である。そして、拡張現実サービス装置200は、ステップS312において、キャプチャされたプレビュー映像からマーカーが認識されたかどうかを判断する。ステップS312においてマーカーが認識されていないと判断した場合には、拡張現実サービス装置200の処理はステップS310に戻る。
ステップS312においてマーカーが認識されたと判断した場合には、拡張現実サービス装置200は、ステップS314において、マーカーに対応するウィンドウ領域120を検出し追跡する。図1に示されるように、ウィンドウ領域120のサイズはマーカーの大きさに関係なく設定され得る。
そして、拡張現実サービス装置200は、ステップS316において、マーカーの特徴点を用いて、マーカーと拡張現実サービス装置200との間の位置関係を判断する。さらに、拡張現実サービス装置200は、マーカーの特徴点を用いて、ウィンドウ領域120と拡張現実サービス装置200との間の位置関係を判断する。
そして、拡張現実サービス装置200は、ステップS318において、マーカーに対応する後側拡張現実オブジェクトに関する情報を表す拡張現実情報を、判断する。
そして、拡張現実サービス装置200は、ステップS320において、上記位置関係に基づいて、ウィンドウ領域120を通して表示する拡張現実情報領域を決定する。
そして、拡張現実サービス装置200は、ステップS322において、前側拡張現実オブジェクトを表示するかどうかを、決定する。拡張現実サービス装置200は、前側拡張現実オブジェクトに関する情報を決定する。
ステップS322にて前側拡張現実オブジェクトを表示すると決定した場合、拡張現実サービス装置200は、ステップS324において、拡張現実情報領域をウィンドウ領域120内に表示するとともに、現実世界空間160の前側拡張現実オブジェクトを表示する。ここで、拡張現実情報領域は、ウィンドウ領域120内にのみ表示され、そのため、拡張現実情報領域内の後側拡張現オブジェクトは、当該拡張現実情報領域がウィンドウ領域120を通して見えるように表示される。
ステップS322にて前側拡張現実オブジェクトを表示しないと決定した場合、拡張現実サービス装置200は、ステップS326において、拡張現実情報領域をウィンドウ領域120内に表示する。
そして、拡張現実サービス装置200は、ステップS328において、拡張現実の実行によって、後側拡張現実オブジェクトまたは前側拡張現実オブジェクトの動作を処理する。
本発明の実施形態に係る方法は、コンピュータを用いて様々な処理を実行することができるプログラム命令の形態で実現され、コンピュータ読取可能な記録媒体に記録されてもよい。コンピュータ読取可能な媒体は、プログラム命令、データファイル、データ構造などのうちの1つまたはその組合せを含んでもよい。媒体に記録されるプログラム命令は、本発明の目的のために特別に設計されて構成されたものでもよく、コンピュータソフトウェア分野の技術を有する当業者にとって公知のものであり、使用可能なものであってもよい。コンピュータ読取可能な媒体例には、ハードディスク,フロッピー(登録商標)ディスクや磁気テープのような磁気媒体や、CD−ROMディスクのような光学媒体や、DVDやフロプティカルディスクのような光磁気媒体や、リードオンリーメモリー(ROM),ランダムアクセスメモリー(RAM),フラッシュメモリー等のような、プログラム命令を格納して実行するために特別に設計されたハードウェア装置が、含まれる。上述されたハードウェア装置は、上述された本発明の実施形態の動作を実行するために、一つ以上のソフトウェアモジュールとして動作するように、設計されていても良い。
本発明の実施形態によると、拡張現実サービスを提供する装置及び方法は、拡張現実サービス装置の位置やマーカーに基づいて決定されるウィンドウのサイズに従って、マーカーに対応したウィンドウ形態の中に、拡張現実オブジェクトを表示するとともに、ウィンドウ形態を提供するために、ウィンドウ領域の後側に位置する拡張現実オブジェクトを表示する。
上述したように、本発明を限定された実施形態と図面によって説明したが、本発明は、上記の実施形態に限定されることなく、本発明が属する分野における通常の知識を有する者であれば、このような実施形態から多様な修正及び変形が可能である。
したがって、本発明の範囲は、開示された実施形態に限定されるものではなく、特許請求の範囲だけではなく特許請求の範囲と均等なものなどによって定められるものである。

Claims (20)

  1. キャプチャされたオブジェクトの映像に基づいて第1領域及び第2領域を決定するウィンドウ検出部と、
    前記第1領域に対応するオブジェクトに向かう第1視認方向に基づいて、前記第1領域に表示されるべき仮想世界イメージ層の第1部分を決定する情報処理部と、
    前記第1領域に前記第1部分を表示するとともに、前記第2領域に現実世界イメージ層を表示する映像処理部とを
    備える拡張現実提供装置。
  2. 特徴点を有し、映像キャプチャ装置によってキャプチャされたマーカーを認識する認識部と、
    前記特徴点に基づいてマーカーの位置情報を取得する位置推定部とを更に備え、
    前記第1領域は、前記マーカーの位置情報に基づいて決定される
    請求項1記載の拡張現実提供装置。
  3. 前記第1領域は、前記オブジェクトが前記第1視認方向から見られた場合に、前記仮想世界イメージ層の前記第1部分を表示するように形成され、
    前記第1領域は、前記オブジェクトが第2視認方向から見られた場合に、前記仮想世界イメージ層の第2部分を表示するように形成される
    請求項1記載の拡張現実提供装置。
  4. 映像キャプチャ装置によってキャプチャされたマーカーを認識する認識部と、
    前記映像キャプチャ装置から前記マーカーに向かう前記第1視認方向を取得する位置推定部とを更に備え、
    前記情報処理部は、前記第1部分に対応する前記第1視認方向に基づいて、前記第1領域に表示されるべき前記第1部分内に配列される第1拡張現実オブジェクトを、決定する
    請求項1記載の拡張現実提供装置。
  5. 前記位置推定部は、前記映像キャプチャ装置から前記マーカーに向かう第2視認方向を取得し、
    前記情報処理部は、前記第2部分に対応する前記第2視認方向に基づいて、前記第1領域に表示されるべき前記仮想世界イメージ層の第2部分内に配列される第2拡張現実オブジェクトを決定し、
    前記映像処理部は、前記第2拡張現実オブジェクトを前記第1領域に表示する
    請求項4記載の拡張現実提供装置。
  6. 前記仮想世界イメージ層の第1部分は、第1拡張現実オブジェクトを含み、前記第1拡張現実オブジェクトが前記現実世界イメージ層の方へ移動するように表示されている場合には、前記第1拡張現実オブジェクトは、前記現実世界イメージ層の一部に変化する
    請求項1記載の拡張現実提供装置。
  7. 映像をキャプチャする映像キャプチャ装置と、
    前記映像からマーカーを認識するマーカー認識部と、
    前記マーカーに対応する第1領域を決定するウィンドウ検出部と、
    前記マーカーに関する視認方向に基づいて、一つ以上の拡張現実オブジェクトを含む前記第1領域に表示されるべき仮想世界イメージ層の第1部分を決定する情報処理部と、
    前記第1領域に前記第1部分を表示する映像処理部とを備える拡張現実提供装置。
  8. 前記マーカーの位置に基づいて前記第1領域の位置を決定する位置推定部を
    更に備える請求項7記載の拡張現実提供装置。
  9. 前記映像キャプチャ装置と前記マーカーとの間の距離を計算し、前記視認方向を取得する位置推定部を更に備え、
    前記ウィンドウ検出部は、前記距離及び視認方向に基づいて、前記第1領域のサイズを決定する
    請求項7記載の拡張現実提供装置。
  10. 前記映像処理部は、前記仮想世界イメージ層の前記第1部分に配列された第1拡張現実オブジェクトを表示する
    請求項7記載の拡張現実提供装置。
  11. キャプチャされたオブジェクトの映像に基づいて第1領域及び第2領域を決定し、
    前記第1領域に対応するオブジェクトに向かう第1視認方向に基づいて、前記第1領域に表示されるべき仮想世界イメージ層の第1部分を決定し、
    前記第1領域に前記第1部分を表示するとともに、前記第2領域に現実世界イメージ層を表示する
    ことを含む拡張現実提供方法。
  12. 特徴点を有し、映像キャプチャ装置によってキャプチャされたマーカーを認識し、
    前記特徴点に基づいてマーカーの位置情報を取得することを更に備え、
    前記第1領域は、前記マーカーの位置情報に基づいて決定される
    請求項11記載の拡張現実提供方法。
  13. 前記第1領域は、前記オブジェクトが前記第1視認方向から見られた場合に、前記仮想世界イメージ層の前記第1部分を表示するように形成され、
    前記第1領域は、前記オブジェクトが第2視認方向から見られた場合に、前記仮想世界イメージ層の第2部分を表示するように形成される
    請求項11記載の拡張現実提供方法。
  14. 映像キャプチャ装置によってキャプチャされたマーカーを認識し、
    前記映像キャプチャ装置から前記マーカーに向かう前記第1視認方向を取得し、
    前記第1部分に対応する前記第1視認方向に基づいて、前記第1領域に表示されるべき前記第1部分内に配列される第1拡張現実オブジェクトを、決定する
    ことを更に備える請求項11記載の拡張現実提供方法。
  15. 前記映像キャプチャ装置から前記マーカーに向かう第2視認方向を取得し、
    前記仮想世界イメージ層における前記第2視認方向に対応した前記第2部分を前記第1領域内に表示する
    ことを更に備える請求項14記載の拡張現実提供方法。
  16. 前記仮想世界イメージ層の第1部分は、第1拡張現実オブジェクトを含み、前記第1拡張現実オブジェクトが前記現実世界イメージ層の方へ移動するように表示されている場合には、前記第1拡張現実オブジェクトは、前記現実世界イメージ層の一部に変化する
    請求項14記載の拡張現実提供方法。
  17. 映像キャプチャ装置を用いて映像をキャプチャし、
    前記映像からマーカーを認識し、
    前記マーカーに対応する第1領域を決定し、
    前記マーカーに関する視認方向に基づいて、一つ以上の拡張現実オブジェクトを含む前記第1領域に表示されるべき仮想世界イメージ層の第1部分を決定し、
    前記第1部分を前記第1領域中に表示する
    拡張現実提供方法。
  18. 前記マーカーの位置に基づいて前記第1領域の位置を決定する
    ことを更に備える請求項17記載の拡張現実提供方法。
  19. 前記映像キャプチャ装置と前記マーカーとの間の距離を計算し、前記視認方向を取得し、
    前記距離及び視認方向に基づいて、前記第1領域のサイズを決定する
    ことを更に備える請求項17記載の拡張現実提供方法。
  20. 前記仮想世界イメージ層の前記第1部分に配列された第1拡張現実オブジェクトを表示する
    ことを更に備える請求項17記載の拡張現実提供方法。
JP2012003488A 2011-01-13 2012-01-11 ウィンドウ状の拡張現実を提供する装置および方法 Withdrawn JP2012146305A (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR10-2011-0003691 2011-01-13
KR20110003691 2011-01-13
KR10-2011-0055515 2011-06-09
KR1020110055515A KR101308184B1 (ko) 2011-01-13 2011-06-09 윈도우 형태의 증강현실을 제공하는 장치 및 방법

Publications (1)

Publication Number Publication Date
JP2012146305A true JP2012146305A (ja) 2012-08-02

Family

ID=46714163

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012003488A Withdrawn JP2012146305A (ja) 2011-01-13 2012-01-11 ウィンドウ状の拡張現実を提供する装置および方法

Country Status (3)

Country Link
JP (1) JP2012146305A (ja)
KR (1) KR101308184B1 (ja)
CN (1) CN102693125A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014182597A (ja) * 2013-03-19 2014-09-29 Yasuaki Iwai 仮想現実提示システム、仮想現実提示装置、仮想現実提示方法

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160163063A1 (en) * 2014-12-04 2016-06-09 Matthew Ashman Mixed-reality visualization and method
CN109871674A (zh) * 2017-12-04 2019-06-11 上海聚虹光电科技有限公司 Vr或ar设备分区域操作权限管理方法
JP6368421B1 (ja) * 2017-12-21 2018-08-01 株式会社Cygames 立体を認識するためのプログラム、システム、電子装置、及び方法
CN113190120B (zh) * 2021-05-11 2022-06-24 浙江商汤科技开发有限公司 位姿获取方法、装置、电子设备及存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004537082A (ja) * 2001-01-26 2004-12-09 ザクセル システムズ インコーポレイテッド 仮想現実環境における実時間バーチャル・ビューポイント
JP2008040913A (ja) * 2006-08-08 2008-02-21 Canon Inc 情報処理方法、情報処理装置
JP2008046806A (ja) * 2006-08-14 2008-02-28 Nippon Telegr & Teleph Corp <Ntt> 画像処理方法、画像処理装置およびプログラム
JP2008108246A (ja) * 2006-10-23 2008-05-08 Internatl Business Mach Corp <Ibm> 閲覧者の位置に従って仮想画像を生成するための方法、システム、およびコンピュータ・プログラム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008004237A2 (en) * 2006-07-06 2008-01-10 Sundaysky Ltd. Automatic generation of video from structured content
CN100470452C (zh) * 2006-07-07 2009-03-18 华为技术有限公司 一种实现三维增强现实的方法及系统
KR101465668B1 (ko) * 2008-06-24 2014-11-26 삼성전자주식회사 단말 및 그의 블로깅 방법
US8606657B2 (en) * 2009-01-21 2013-12-10 Edgenet, Inc. Augmented reality method and system for designing environments and buying/selling goods

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004537082A (ja) * 2001-01-26 2004-12-09 ザクセル システムズ インコーポレイテッド 仮想現実環境における実時間バーチャル・ビューポイント
JP2008040913A (ja) * 2006-08-08 2008-02-21 Canon Inc 情報処理方法、情報処理装置
JP2008046806A (ja) * 2006-08-14 2008-02-28 Nippon Telegr & Teleph Corp <Ntt> 画像処理方法、画像処理装置およびプログラム
JP2008108246A (ja) * 2006-10-23 2008-05-08 Internatl Business Mach Corp <Ibm> 閲覧者の位置に従って仮想画像を生成するための方法、システム、およびコンピュータ・プログラム

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
JPN6013040815; '"dFusion virtual 3D window."' [online] , 20100927 *
JPN7013003093; Adrian David Cheok et al.: '"Touch-Space: Mixed Reality Game Space Based on Ubiquitous, Tangible, and Social Computing"' Personal and Ubiquitous Computing Vol.6, No.5-6, 200212, pp.430-442, Springer-Verlag London *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014182597A (ja) * 2013-03-19 2014-09-29 Yasuaki Iwai 仮想現実提示システム、仮想現実提示装置、仮想現実提示方法

Also Published As

Publication number Publication date
KR20120082319A (ko) 2012-07-23
CN102693125A (zh) 2012-09-26
KR101308184B1 (ko) 2013-09-12

Similar Documents

Publication Publication Date Title
JP5260705B2 (ja) 3次元拡張現実提供装置
JP5791433B2 (ja) 情報処理プログラム、情報処理システム、情報処理装置および情報処理方法
EP2396767B1 (en) Methods and systems for determining the pose of a camera with respect to at least one object of a real environment
US20120182313A1 (en) Apparatus and method for providing augmented reality in window form
JP6491517B2 (ja) 画像認識ar装置並びにその姿勢推定装置及び姿勢追跡装置
US9361731B2 (en) Method and apparatus for displaying video on 3D map
KR101410273B1 (ko) 증강현실 응용을 위한 환경 모델링 방법 및 장치
WO2015048906A1 (en) Augmented reality system and method for positioning and mapping
CN107646109B (zh) 管理电子设备上的环境映射的特征数据
JP2019083402A (ja) 画像処理装置、画像処理システム、画像処理方法、及びプログラム
JP2015079444A5 (ja)
JP5791434B2 (ja) 情報処理プログラム、情報処理システム、情報処理装置および情報処理方法
US11244145B2 (en) Information processing apparatus, information processing method, and recording medium
KR20130039522A (ko) 입체 파노라마 영상을 생성하는 장치 및 방법
JP6420605B2 (ja) 画像処理装置
JP2012146305A (ja) ウィンドウ状の拡張現実を提供する装置および方法
US20220180564A1 (en) Method and system for re-projecting and combining sensor data for visualization
US9478068B2 (en) Computer-readable medium, image processing device, image processing system, and image processing method
KR101148508B1 (ko) 모바일 기기 디스플레이의 표시 장치 및 그 방법, 이를 이용하는 모바일 기기
JP2016122392A (ja) 情報処理装置、情報処理システム、その制御方法及びプログラム
KR20180120456A (ko) 파노라마 영상을 기반으로 가상현실 콘텐츠를 제공하는 장치 및 그 방법
JP2012155678A (ja) 表示システム、表示処理装置、表示方法、および表示プログラム
KR101522842B1 (ko) 이미지 및 문자를 인식하는 심플 프레임 마커를 구비하는 증강현실 시스템과 그 장치, 및 상기 시스템 또는 상기 장치를 이용한 증강현실 구현방법
JP2017184136A (ja) 情報処理装置、情報処理方法、情報処理システム及びプログラム
KR20200117685A (ko) 가상 객체 인식 방법, 상기 가상 객체를 이용한 증강 현실 콘텐츠 제공 방법 및 이를 위한 증강 방송 시스템

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130108

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20130408

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20130411

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20130508

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20130513

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130606

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130820

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20131121