JP2012014690A - 3次元拡張現実提供装置及び方法 - Google Patents

3次元拡張現実提供装置及び方法 Download PDF

Info

Publication number
JP2012014690A
JP2012014690A JP2011139514A JP2011139514A JP2012014690A JP 2012014690 A JP2012014690 A JP 2012014690A JP 2011139514 A JP2011139514 A JP 2011139514A JP 2011139514 A JP2011139514 A JP 2011139514A JP 2012014690 A JP2012014690 A JP 2012014690A
Authority
JP
Japan
Prior art keywords
augmented reality
image
video
dimensional
position information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011139514A
Other languages
English (en)
Other versions
JP5260705B2 (ja
Inventor
Seon-Dong Park
宣 ▲洞▼ 朴
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pantech Co Ltd
Original Assignee
Pantech Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pantech Co Ltd filed Critical Pantech Co Ltd
Publication of JP2012014690A publication Critical patent/JP2012014690A/ja
Application granted granted Critical
Publication of JP5260705B2 publication Critical patent/JP5260705B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/156Mixing image signals

Abstract

【課題】映像内の客体に対応される拡張現実データを、3次元映像に変換する3次元拡張現実提供装置および方法を提供する。
【解決手段】3次元拡張提供装置は、客体を含む映像を獲得する映像獲得部と、前記客体の3次元位置情報を算出し、前記客体に対応する拡張現実データを前記3次元位置情報に応じて変換し、前記拡張現実データと前記映像とを用いて3次元拡張現実イメージを生成する映像処理部と、を含み、前記映像獲得部は、前記客体に関する第1映像を獲得する第1カメラと、前記客体に関する前記第1映像と相違する第2映像を獲得する第2カメラと、を含むことを特徴とする。
【選択図】図1

Description

本発明は、拡張現実(augmented reality、AR)を実現する拡張現実データ処理及び3次元拡張現実を提供する映像処理技術を用いる3次元拡張現実提供装置及び方法に関する。
関する。
拡張現実(augmented reality、AR)とは、実際の環境で仮想事物や情報を合成して、元の環境に存在する事物のように見えるようにするコンピュータグラフィックの技法をいう。
拡張現実は、仮想の空間と事物のみを対象とする従来の仮想現実とは異なり、現実世界の基盤の上に仮想の事物を合成して、現実世界だけでは得ることが難しい付加的な情報等を補強して提供することに特徴がある。拡張現実は、単純にゲームのような分野だけに限定された適用が可能な既存の仮想現実とは異なり、様々な現実環境での応用が可能で、特に、ユビキタス環境に適合した次世代ディスプレイ技術として脚光を浴びている。
通常、拡張現実は一台のカメラから入力された映像にタグ(tag)やマーカ(marker)を利用した仮想の客体(オブジェクト)を合成して、2次元上で遠近や映像の深さとは関係がない映像を提供している。しかし、最近の3次元ディスプレイに多くの関心が集まり、この拡張現実も3次元的に提供するための方法に関する研究が多数行われている。
本発明は、映像内の客体に対応される拡張現実データを、3次元映像に変換する3次元拡張現実提供装置および方法を提供する。
本発明の一実施形態に係る3次元拡張現実提供装置は、客体を含む映像を獲得する映像獲得部、および客体の3次元位置情報を算出して、客体に対応する拡張現実データを算出した3次元位置情報に応じて変換して、変換した拡張現実データと獲得した映像を用いて3次元拡張現実イメージを生成する映像処理部を含む。
本発明の他の実施形態に係る3次元拡張現実提供装置は、獲得する映像に含まれる客体の3次元位置情報を算出する3次元位置情報算出部、客体に対応する拡張現実データを、算出した3次元位置情報に応じて変換する拡張現実データ変換部、および変換した拡張現実のデータと獲得した映像を用いて3次元拡張現実イメージを生成する拡張現実イメージ生成部を含む。
本発明の一実施形態に係る3次元拡張現実の提供方法は、客体を含む映像を獲得し、客体の3次元位置情報を算出し、客体に対応する拡張現実データを、算出した3次元位置情報に応じて変換し、変換した拡張現実データと獲得した映像を用いて3次元拡張現実イメージを生成し、生成した3次元拡張現実イメージを表示ことを含む。
本発明の3次元拡張現実提供装置および方法によれば、拡張現実データが映像と合成される時に、拡張現実データに対応する客体の3次元位置情報に応じて、拡張現実データが変換された後合成することで、3次元的に拡張現実イメージがユーザに提供することができる。
本発明の一実施形態に係る3次元拡張現実提供装置を示すブロック図である。 本発明の一実施形態に係る映像処理部を示すブロック図である。 本発明の一実施形態に係る3次元位置情報の獲得方法を示す図である。 本発明の一実施形態に係る3次元拡張現実イメージの生成処理を示す図である。 本発明の一実施形態に係る3次元拡張現実提供方法を示すフローチャートである。 本発明の一実施形態によって客体までの距離を獲得する原理を示す図である。
以下、添付された図面を参照して本発明の実施形態の具体例を詳細に説明する。
図1は、本発明の一実施形態に係る3次元拡張現実提供装置100を示すブロック図である。
図1を参照すると、本実施形態に係る3次元拡張現実提供装置100は3次元映像を表示することが可能な様々な機器に適用することができる。たとえば、カメラモジュールおよびディスプレイモジュールを具備したスマートフォンに、本実施形態に係る3次元拡張現実提供装置100を適用する場合、カメラモジュールを使って撮影した映像をディスプレイモジュールに3次元的に表示することが可能になる。また、本実施形態に係る3次元拡張現実提供装置100は、映像を3次元的に表示する時に、その映像内の特定の客体(オブジェクト)とその客体に関する拡張現実データをまとめて表示することが可能である。たとえば、3次元拡張現実提供装置100によってある木が撮影されてその木が表示されるとき、その木の名前、主な生息地、生態学的特徴などを表す拡張現実データがその木のイメージとともに3次元的に表示することが可能である。3次元映像の表示方法においてはメガネ方式と無メガネ方式とを用いてもよく、無メガネ方式においてはパララックスバリア方式やレンチキュラースクリーン方式を用いてもよい。
図1に示すように、本実施形態に係る次元拡張現実提供装置100は映像獲得部101、映像処理部102、および映像表示部103を含み、さらにセンサ部104、および拡張現実データ記憶部105を含む。
映像獲得部101は、少なくとも一つ以上の客体を含み、映像を獲得するカメラまたはイメージセンサである。例えば、映像獲得部101は3次元映像を生成するための左映像を撮影する第1カメラと、3次元映像を生成するための右映像を撮影する第2カメラと、で構成される。第1カメラによって得られた左映像と第2カメラによって得られた右映像を映像処理部102が合成して、映像表示部103に表示すると、ユーザは立体的に映像を鑑賞することができる。
映像処理部102は映像獲得部101から受信された映像を処理して、映像表示部103に表示される3次元拡張現実イメージを生成する映像処理プロセッサ(ISP)、またはこの映像処理プロセッサで実行されるソフトウェアモジュールであってもよい。
本実施形態に係る映像処理部102は映像から客体を検出する。客体は映像内に存在する様々な人、事物、またはマーカ(marker)である。映像処理部102はさまざまな客体検出のアルゴリズムに基づいて客体を検出することが可能である。また選択に応じて、センサ部104によって測定された現在位置、現在時刻、映像の方位角などを活用して、映像で客体を検出することが可能である。
センサ部104はGPSセンサ、加速度センサ、および地磁気センサのうち少なくとも一つを含む。
また、映像処理部102は映像に含まれた客体の3次元位置情報を計算する。3次元位置情報は3次元拡張現実提供装置100から客体までの距離に対する情報を含む。そのため、映像内に二つの客体があり、各客体がお互いに別の位置に存在している場合、各客体は固有の3次元位置情報を持っている。そのため、3次元位置情報、例えば、客体までの距離はさまざまな方法で得ることができる。
一例として、映像獲得部101が3次元映像獲得のために第1カメラおよび第2カメラが一定の間隔で離隔設置されて構成された場合、映像処理部102は第1カメラと第2カメラとの離隔距離と、その客体を撮影したときの第1カメラと第2カメラとの角度を獲得して、獲得した離隔距離および角度を基にした三角法を適用することによって客体までの距離を計算することが可能である。
別の例として、図6は本実施形態に応じて客体までの距離を獲得するための方法を説明するための図である。図6を参照すると、人の目のように左カメラと右カメラが結合されたステレオカメラを用いて客体までの距離を計算することがわかる。図6においては、たとえば、C点に左側のカメラが位置して、C’点に右側のカメラが位置する。すなわち、符号601は左側のカメラから得られた第1映像になり、符号602は右側のカメラから得られた第2映像になる。このとき、第1映像601または第2映像602から特定の地点Mまでの距離は、次のような式(1)によって求められることができる。
z=(B/d)×F・・・(1)
上記の式(1)において、zはM点までの距離を示す。そして、BはC点とC’点の間の距離を示し、dは第1映像601及び第2映像602でのM点の位置座標の差異、すなわち、XとXの差異を示し、Fはカメラのレンズの焦点距離を示す。Bの値は定数(constant)で与えられるか、測定が可能な値であり、dの値はSSD(sum of squared difference)技法によって求めることができ、Fはカメラのレンズに応じて決定される値であり、二つの映像から各客体までの距離zの値を求めることが可能である。
客体までの距離を計算する例として、映像獲得部101が3次元映像獲得のために第1カメラおよび第2カメラが一定の間隔で離隔設置されて構成され、第1カメラおよび第2カメラに自動焦点調整機能(auto−focusing)が備わっている場合、映像処理部102は第1カメラおよび第2カメラが自動で焦点を合わせたときの距離、および第1カメラと第2カメラとの間の離隔距離を利用して客体までの距離を計算することが可能である。
再び図1を参照すると、映像処理部102は客体に対応する3次元位置情報の拡張現実データを獲得する。拡張現実データとは、客体に関連する様々な情報になり、たとえば、客体がある木である場合、その木の名前、主な生息地、生態学的特徴などを所定のタグイメージ(tag image)で表す。映像処理部102は拡張現実データ記憶部105に記憶された拡張現実のデータの中から、客体に対応する拡張現実データを抽出することが可能である。拡張現実データ記憶部105は3次元拡張現実提供装置100内部に構成され、内部に形成された後ネットワークを介して、3次元拡張現実提供装置100と接続される。
また、映像処理部102は客体とその客体の拡張現実データが共に表示されるように、獲得された映像と獲得された拡張現実データを合成して、映像表示部103に表示される3次元拡張現実イメージを生成する。ところが、拡張現実データ記憶部105に記憶された第1客体の拡張現実データと、第2客体の拡張現実データは、距離の情報や空間情報をもたないので、映像処理部102が拡張現実データをそのまま合成する場合、第1客体と第2客体が立体的に表示されても、すなわち、第1客体が第2客体よりも近くに表示されても、第1客体の拡張現実データと第2客体の拡張現実データは3次元的に表示がされない場合がある。従って、映像処理部102は、拡張現実データも対応する客体と共に3次元的に表示されるように、拡張現実データをその客体の3次元位置情報に基づいて変換して、変換された拡張現実データと獲得された映像を合成して、3次元拡張現実イメージを生成することが可能である。
このように本実施形態に係る3次元拡張現実提供装置100は、拡張現実データを映像に合成するときに対応する客体の3次元位置情報に応じて拡張現実データを変換した後合成するので、3次元的に拡張現実イメージをユーザに提供することは可能である。
図2は、本発明の一実施形態に係る映像処理部102を示すブロック図である。
図2を参照すると、本実施形態に係る映像処理部102は3次元位置情報検出部201、拡張現実データ変換部202、および拡張現実イメージ生成部203を含み、さらに客体検出部204を含む。
客体検出部204は獲得された映像でユーザの関心の対象、またはユーザが関心を持つことだろうと予測される対象を検出する。客体検出部204が映像で客体を検出する方法は様々な方法を用いることができる。たとえば、客体検出部204は映像で個別のセンシング情報、例えば、現在時刻、現在位置、撮影方向などを用いて映像で特定の領域を指定して、指定された特定の領域で客体の検出ができる。図2では、得られた映像に第1客体と、第1客体よりも遠く離れた第2客体が存在すると仮定する。
3次元位置情報検出部201は検出された客体の3次元位置情報を算出する。一例として、3次元位置情報検出部201は、客体に関する左映像を獲得する第1カメラと客体に関する右映像を獲得する第2カメラとの間の離隔距離と、第1カメラと第2カメラとの方向を利用して、客体までの距離を求めることが可能である。別の例として、3次元位置情報検出部201は、第1カメラと第2カメラの離隔距離と各カメラの自動焦点調整機能を基にして、客体までの距離を求めることが可能である。たとえば、3次元位置情報検出部201は、第1客体と第2客体までの距離を獲得して、第2客体が第1客体に比べて相対的に遠くのところにあることを認識することが可能である。
拡張現実データ変換部202は、第1客体に対応する第1客体の拡張現実データと、第2客体に対応する第2客体の拡張現実データとを獲得する。たとえば、拡張現実データ変換部202は拡張現実データ記憶部105からの関連情報を抽出することが可能である。また、拡張現実データ変換部202は、第1客体の拡張現実データと第2客体の拡張現実データを、各客体の3次元位置情報に応じて変換する。したがって、最終的な3次元映像が生成されるときに拡張現実データも3次元的に表示されるようにすることが可能である。例えば、第1客体が第2客体よりも相対的に近くに位置している場合、拡張現実データ変換部202は第1客体の拡張現実データが第2客体の拡張現実データよりも相対的に前方に位置するようにイメージを変換することが可能である。第1客体に対してだけ見ると、3次元拡張現実イメージの生成のため、第1カメラの左映像と合成される第1客体の第1拡張現実データと、第2カメラの右映像と合成される第1客体の第2拡張現実データがそれぞれ生成される。
拡張現実イメージ生成部203は変換された拡張現実のデータと得られた映像を合成して、3次元拡張現実イメージを生成する。たとえば、拡張現実イメージ生成部203は、第1カメラの左映像と第1客体の第1拡張現実データを合成して、第2カメラの右映像と第1客体の第2拡張現実データをそれぞれ合成した後、合成された左映像と右映像をまた合成して、最終的な3次元拡張現実イメージを生成することができる。
図3は、本発明の一実施形態に係る3次元位置情報の獲得方法を示す図である。
図3を参照すると、本実施形態に係る映像獲得部101は、第1カメラ301と第2カメラ302を含む。そして、第1カメラ301と第2カメラ302の間の距離は固定された距離dを示す。映像獲得部101は3次元映像を生成するために、第1カメラ301で、第1客体303及び第2客体304の左眼映像を撮影して、第2カメラ302で、同一の第1客体303及び第2客体304の右眼映像を撮影する。本実施形態では、第1客体303およびこれらの第1客体303とは異なる位置にある第2客体304が含まれた空間を撮影した場合において、第1客体303と第2客体304の3次元位置情報を獲得する方法を説明する。
一例として、3次元位置情報は、第1カメラ301と第2カメラ302は同一な対象物、例えば、第1客体303を同時に撮影して、それぞれの第1カメラ301及び第2カメラ302はその撮影方向を調節できるように構成する。すなわち、第1客体303を撮影したときの第1カメラ301の撮影角度θと第2カメラ302の撮影角度θを求めることができる。第1カメラ301と第2カメラ302間の距離dは固定された値を持つので、第1カメラ301の撮影角度θ、第2カメラ302の撮影角度θ、および距離dを介して第1客体303までの距離Lmを求めることができる。
別の例として、3次元位置情報は、第1カメラ301と第2カメラ302が自動焦点調節機能を持つ場合、自動焦点調節機能を通じて同じ対象物、例えば、第1客体303を撮影したときの第1カメラ301の撮影距離fと第2カメラ302の撮影距離fを求めることもできる。同様に、第1カメラ301と第2カメラ302間の距離dが固定された値を持つので、第1カメラ301の撮影距離f、第2カメラ302の撮影距離f、および距離dを介して第1客体303までの距離Lmを求めることができる。
この方法では、第1客体303までの距離Lmが求められると、同じ方法で第2客体304までの距離Lnを求めることができる。また、選択的に第2客体304においては、距離Lnを求めることなく、第1客体303との相対的距離の関係、すなわち、第1客体303に比べて近いのか、または遠いのかのみを求めることができる。
図3においては、二つの第1客体303及び第2客体304に対してだけ説明したが、これは単純に説明の便宜のためのもので、他にも複数の客体が存在する場合にも同様の方法が適用できることは当業者に自明である。また、得られた映像からどのような客体を抽出して関心の対象とするかは、センサ部104のセンシング情報を活用することもできる。
図4は、本発明の一実施形態に係る3次元拡張現実イメージの生成処理を示す図である。
図4を参照すると、3次元映像を生成するためには、左眼映像401と右眼映像402が必要である。たとえば、左眼映像401は映像獲得部101の第1カメラ301によって撮影して、右眼映像402は映像獲得部101の第2カメラ302によって撮影することが可能である。
図4に示すように、左眼映像401および右眼映像402には、第1客体403と第2客体404が存在する。たとえば、第1客体403は相対的に近くに位置した松の木であり、第2客体404は相対的に遠くに位置した教会である。左眼映像401と右眼映像402が獲得されると、映像処理部102は第1客体403と第2客体404の3次元位置情報、例えば、距離または位置座標を上述した図3のように獲得することができる。この時、第1客体403と第2客体404すべての距離を計算することもでき、一つの第1客体403を基準物体に決めておいて、残りの第2客体404はその基準物体との相対的な距離だけを計算することも可能である。
第1客体403と第2客体404の3次元位置情報が得られると、映像処理部102は拡張現実データ記憶部105から関連情報を抽出する。たとえば、第1客体403に関連付けられた松の木の拡張現実データ405と、第2客体404に関連付けされた教会の拡張現実データ406とが抽出される。
拡張現実データ405及び406が抽出されると、映像処理部102はそれぞれの拡張現実データ405及び406が対応する第1客体403及び第2客体404の3次元位置情報に応じて変換する。たとえば、第1客体403が第2客体404に比べて相対的に前側に位置するので、第1客体403の拡張現実データ405が第2客体404の拡張現実データ406よりも前側に位置するように、拡張現実データ405及び406に変換することが可能である。第1客体403の拡張現実データ405では、左眼映像401に合成される第1拡張現実データ405−1と、右眼映像402に合成される第2拡張現実データ405−2がそれぞれ生成される。
拡張現実データ405及び406が変換されると、映像処理部102は変換された拡張現実データ405−1、405−2、406−1、406−2をそれぞれの左眼映像401及び右目映像402に合成して、合成された映像407、408を再合成して、最終的な3次元映像409を生成する。
生成された3次元映像409では、第1客体403が第2客体404よりも前側に表示され、第1客体403の拡張現実データ405も第2客体404の拡張現実データ406よりも前側に表示される。3次元映像409において、第1客体403、第2客体404、拡張現実データ405及び406はすべて左眼映像401および右眼映像402に基づいて生成されているので、ここで言及される前または後ろとは、2次元的に表現される遠近技法を言うのではなく、3次元映像での前または後ろを意味する。
図5は本発明の一実施形態に係る3次元拡張現実提供方法を示すフローチャートである。図5に示す3次元拡張現実提供方法は、図1の3次元拡張現実提供装置100によって実行される。図1および図5を参照して本実施形態に係る方法を以下に説明する。
最初に、客体を含む映像を獲得する(オペレーション501)。たとえば、映像獲得部101が3次元映像のための客体の左映像および右映像をそれぞれ撮影する。
映像を撮影すると、映像に含まれた客体の3次元位置情報を算出する(オペレーション502)。たとえば、映像処理部102が図3に示すように、各客体までの距離を測定することが可能である。
3次元位置情報が算出されると、客体に対応する拡張現実データを抽出して、抽出された拡張現実データを算出した3次元位置情報に応じて変換する(オペレーション503)。たとえば、映像処理部102が3次元位置情報に基づいて、左映像と合成される第1拡張現実データと、右映像と合成される第2拡張現実データをそれぞれ生成することが可能である。
拡張現実データが変換されると、変換された拡張現実データと獲得された映像を用いて、3次元拡張現実イメージを生成する(オペレーション504)。たとえば、映像処理部102が第1拡張現実データと左映像を合成して、第2拡張現実データと右映像を合成して、合成された左映像と右映像を用いて3次元拡張現実イメージを生成することが可能である。
3次元拡張現実イメージが生成されると、生成された3次元拡張現実イメージを表示する(オペレーション505)。たとえば、生成された拡張現実イメージが第1客体に関する第1客体のイメージおよび第1客体よりも遠くに位置する第2客体に関する第2客体のイメージを含む場合、第1客体に対応する拡張現実データが第2客体に対応する拡張現実データよりも相対的に近くに感じられるように映像表示部103が3次元拡張現実イメージを表示することが可能である。
以上、説明したように、開示された装置及び方法によれば、拡張現実データが客体の3次元位置情報に応じて提供されるので、より現実感がある3次元拡張現実を具現することができる。
一方、本発明の実施形態は、コンピュータで読める記憶媒体にコンピュータが読めるコードとして具現することが可能である。コンピュータが読める記憶媒体は、コンピュータのシステムによって読むことができるデータが記憶されるすべての種類の記憶装置を含む。
コンピュータが読める記憶媒体の例としては、ROM、RAM、CD−ROM、磁気テープ、フレキシブルディスク、光データ記憶装置などがあり、また、キャリアウェーブ(たとえば、インターネットを通じた伝送)の形態で具現することを含む。また、コンピュータが読める記憶媒体は、ネットワークに接続されたコンピュータのシステムに分散されて、分散方式でコンピュータが読めるコードが記憶されて実行されることができる。そして、本発明を具現するための機能的な(functional)プログラム、コードおよびコードセグメント等は、本発明の属する技術分野のプログラマたちによって容易に推論される。
以上から、本発明の実施のための具体的な例を調べてみた。前述した実施例たちは本発明を例示的に説明するためのもので、本発明の権利範囲が特定の実施例に限定されないのである。
本発明は、拡張現実の具現のための拡張現実データ処理および映像処理技術に適用可能である。

Claims (21)

  1. 客体を含む映像を獲得する映像獲得部と、
    前記客体の3次元位置情報を算出し、前記客体に対応する拡張現実データを前記3次元位置情報に応じて変換し、前記拡張現実データと前記映像とを用いて3次元拡張現実イメージを生成する映像処理部と、
    を含むことを特徴とする3次元拡張現実提供装置。
  2. 前記映像獲得部は、
    前記客体に関する第1映像を獲得する第1カメラと、
    前記客体に関する前記第1映像と相違する第2映像を獲得する第2カメラと、
    を含むことを特徴とする請求項1に記載の3次元拡張現実提供装置。
  3. 前記映像処理部は、
    前記第1映像および前記第2映像を用いて前記客体までの距離情報を獲得し、獲得した前記距離情報を用いて前記3次元位置情報を算出することを特徴とする請求項2に記載の3次元拡張現実提供装置。
  4. 前記映像処理部は、
    前記第1カメラまたは前記第2カメラの自動焦点調整機能を用いて、前記客体までの距離情報を獲得し、獲得した前記距離情報を用いて、前記3次元位置情報を算出することを特徴とする請求項2に記載の3次元拡張現実提供装置。
  5. 前記映像処理部は、
    前記3次元位置情報に基づいて、前記第1映像と合成される第1拡張現実データと前記第2映像と合成される第2拡張現実データとをそれぞれ生成して、生成された前記第1拡張現実データと前記第1映像を合成して、生成された前記第2拡張現実データと前記第2映像を合成した後、前記3次元拡張現実イメージを生成することを特徴とする請求項2に記載の3次元拡張現実提供装置。
  6. 前記映像処理部は、
    前記生成された拡張現実イメージが第1客体に関する前記第1客体のイメージおよび前記第1客体よりも遠くに位置する第2客体に関する前記第2客体のイメージを含む場合、前記第1客体に対応する拡張現実データが前記第2客体に対応する拡張現実データより相対的に近くに感じられるように、前記3次元拡張現実イメージを生成することを特徴とする請求項5に記載の3次元拡張現実提供装置。
  7. GPSセンサ、加速度センサおよび地磁気センサのうち少なくとも一つを含むセンサ部と、
    を含むことを特徴とする請求項1に記載の3次元拡張現実提供装置。
  8. 前記映像処理部は、
    前記センサ部のセンシング情報を用いて、前記獲得された映像の中から関心領域を指定して、前記関心領域により前記客体を検出することを特徴とする請求項7に記載の3次元拡張現実提供装置。
  9. 前記拡張現実イメージを3次元的に表示する映像表示部と、
    を含むことを特徴とする請求項1に記載の3次元拡張現実提供装置。
  10. 獲得する映像に含まれる客体の3次元位置情報を算出する3次元位置情報算出部と、
    前記客体に対応する拡張現実データを、前記3次元位置情報に応じて変換する拡張現実データ変換部と、
    前記拡張現実データと前記映像とを用いて、3次拡張現実イメージを生成する拡張現実イメージ生成部と、
    を含むことを特徴とする3次元拡張現実提供装置。
  11. 前記3次元位置情報算出部は、
    前記客体に関する第1映像、および前記第1映像と相違する第2映像を用いて、前記客体までの距離情報を獲得して、獲得した前記距離情報を用いて、前記3次元位置情報を算出することを特徴とする請求項10に記載の3次元拡張現実提供装置。
  12. 前記3次元位置情報算出部は、
    前記映像を獲得するためのカメラの自動焦点調整機能を用いて前記客体までの距離情報を獲得して、獲得した前記距離情報を用いて前記3次元位置情報を算出することを特徴とする請求項10に記載の3次元拡張現実提供装置。
  13. 前記拡張現実のデータ変換部は、
    前記3次元位置情報に基づいて、前記3次元拡張現実イメージの前記第1映像と合成される第1拡張現実データと、前記3次元拡張現実イメージの前記第2映像と合成される第2拡張現実データと、をそれぞれ生成することを特徴とする請求項10に記載の3次元拡張現実提供装置。
  14. 前記拡張現実イメージ生成部は、
    前記第1拡張現実データと前記第1映像を合成して、前記第2拡張現実データと前記第2映像を合成して、合成された前記第1映像と前記第2映像を用いて、前記3次元拡張現実イメージを生成することを特徴とする請求項13に記載の3次元拡張現実提供装置。
  15. 客体を含む映像を獲得し、
    前記客体の3次元位置情報を算出し、
    前記客体に対応する拡張現実データを、前記算出された3次元位置情報に応じて変換し、
    前記変換された拡張現実データと、前記獲得した映像を用いて3次元拡張現実イメージを生成し、
    前記3次元拡張現実イメージを表示することを特徴とする3次元拡張現実提供方法。
  16. 前記映像を獲得することは、
    前記3次元拡張現実イメージの第1映像および第2映像をそれぞれ獲得することを特徴とする請求項15に記載の3次元拡張現実提供方法。
  17. 前記3次元位置情報を算出することは、
    前記第1映像および前記第2映像を用いて前記客体までの距離情報を獲得して、獲得した前記距離情報を用いて、前記3次元位置情報を算出することを特徴とする請求項16に記載の3次元拡張現実提供方法。
  18. 前記3次元位置情報を算出することは、
    前記第1映像および前記第2映像を獲得するためのカメラの自動焦点調整機能を用いて、前記客体までの距離情報を獲得して、獲得した前記距離情報を用いて前記3次元位置情報を算出することを特徴とする請求項16に記載の3次元拡張現実提供方法。
  19. 前記拡張現実のデータを変換することは、
    前記3次元位置情報に基づいて、前記第1映像と合成される第1拡張現実データと、前記第2映像と合成される第2拡張現実データと、をそれぞれ生成することを特徴とする請求項16に記載の3次元拡張現実提供方法。
  20. 前記3次元拡張現実イメージを生成することは、
    前記第1拡張現実データと前記第1映像を合成して、前記第2拡張現実のデータと前記第2映像を合成して、合成された前記第1映像と前記第2映像を用いて、前記3次元拡張現実イメージを生成することを特徴とする請求項19に記載の3次元拡張現実提供方法。
  21. 前記拡張現実イメージを表示することは、
    前記拡張現実イメージが第1客体に関する前記第1客体のイメージおよび、前記第1客体よりも遠くに位置する第2客体に関する前記第2客体のイメージを含む場合、前記第1客体に対応する拡張現実のデータが前記第2客体に対応する拡張現実データよりも相対的に近くに感じられるように、前記3次元拡張現実イメージを表示することを特徴とする請求項15に記載の3次元拡張現実提供方法。
JP2011139514A 2010-06-30 2011-06-23 3次元拡張現実提供装置 Active JP5260705B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2010-0063053 2010-06-30
KR1020100063053A KR101295714B1 (ko) 2010-06-30 2010-06-30 3차원 증강 현실 제공 장치 및 방법

Publications (2)

Publication Number Publication Date
JP2012014690A true JP2012014690A (ja) 2012-01-19
JP5260705B2 JP5260705B2 (ja) 2013-08-14

Family

ID=44799575

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011139514A Active JP5260705B2 (ja) 2010-06-30 2011-06-23 3次元拡張現実提供装置

Country Status (5)

Country Link
US (1) US20120001901A1 (ja)
EP (1) EP2402906A3 (ja)
JP (1) JP5260705B2 (ja)
KR (1) KR101295714B1 (ja)
CN (1) CN102395036A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101837474B1 (ko) 2016-09-23 2018-04-19 주식회사 코젠 터널 자동제어시스템에 적용되는 3d 영상시스템

Families Citing this family (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9122053B2 (en) 2010-10-15 2015-09-01 Microsoft Technology Licensing, Llc Realistic occlusion for a head mounted augmented reality display
US9606992B2 (en) * 2011-09-30 2017-03-28 Microsoft Technology Licensing, Llc Personal audio/visual apparatus providing resource management
KR101874895B1 (ko) * 2012-01-12 2018-07-06 삼성전자 주식회사 증강 현실 제공 방법 및 이를 지원하는 단말기
US9093012B2 (en) 2012-02-29 2015-07-28 Lenovo (Beijing) Co., Ltd. Operation mode switching method and electronic device
CN103472909B (zh) * 2012-04-10 2017-04-12 微软技术许可有限责任公司 用于头戴式、增强现实显示器的逼真遮挡
US9501831B2 (en) 2012-10-02 2016-11-22 Google Inc. Identification of relative distance of objects in images
TWI571827B (zh) * 2012-11-13 2017-02-21 財團法人資訊工業策進會 決定3d物件影像在3d環境影像中深度的電子裝置及其方法
CN103873840B (zh) 2012-12-12 2018-08-31 联想(北京)有限公司 显示方法及显示设备
US9342929B2 (en) * 2013-01-22 2016-05-17 Microsoft Technology Licensing, Llc Mixed reality experience sharing
CN104062758B (zh) * 2013-03-19 2017-02-08 联想(北京)有限公司 图像显示的方法和显示设备
KR102197964B1 (ko) * 2014-01-29 2021-01-04 엘지전자 주식회사 포터블 디바이스 및 그 제어 방법
CN103914869B (zh) * 2014-02-26 2017-02-22 浙江工业大学 支持骨架个性化编辑的轻量化三维树木模型构建方法
CN107079139A (zh) * 2014-04-30 2017-08-18 图片动态有限公司 没有物理触发的增强现实
KR101646503B1 (ko) * 2014-12-17 2016-08-09 경북대학교 산학협력단 시각장애인을 위한 3차원 장애물 안내장치와 이를 이용한 주위 정보 안내시스템 및 그 방법
CN105872526B (zh) * 2015-01-21 2017-10-31 成都理想境界科技有限公司 双目ar头戴显示设备及其信息显示方法
KR101649163B1 (ko) * 2015-06-29 2016-08-18 한국원자력연구원 핵연료교환기 비상구동 이동로봇 영상 가이드 시스템
CN105491365A (zh) * 2015-11-25 2016-04-13 罗军 基于移动终端的图像处理方法、装置及系统
CN105812680A (zh) * 2016-03-31 2016-07-27 联想(北京)有限公司 图像处理方法及电子设备
GB2607199B (en) * 2017-02-07 2023-06-14 Flir Detection Inc Systems and methods for identifying threats and locations,systems and method for augmenting real-time displays demonstrating the threat location and systems
US11488369B2 (en) 2017-02-07 2022-11-01 Teledyne Flir Detection, Inc. Systems and methods for identifying threats and locations, systems and method for augmenting real-time displays demonstrating the threat location, and systems and methods for responding to threats
WO2018200993A1 (en) 2017-04-28 2018-11-01 Zermatt Technologies Llc Video pipeline
US10979685B1 (en) 2017-04-28 2021-04-13 Apple Inc. Focusing for virtual and augmented reality systems
US10861142B2 (en) 2017-07-21 2020-12-08 Apple Inc. Gaze direction-based adaptive pre-filtering of video data
US11009949B1 (en) 2017-08-08 2021-05-18 Apple Inc. Segmented force sensors for wearable devices
KR102031870B1 (ko) * 2017-08-30 2019-10-16 주식회사 카이비전 가상 이미지 영상동기화를 위한 증강현실글래스
CN109688399A (zh) * 2017-10-18 2019-04-26 深圳市掌网科技股份有限公司 一种基于增强现实的立体图像显示方法和系统
US11087527B2 (en) * 2017-12-01 2021-08-10 Koninklijke Kpn N.V. Selecting an omnidirectional image for display
US11527044B2 (en) 2018-06-27 2022-12-13 Samsung Electronics Co., Ltd. System and method for augmented reality
KR102103991B1 (ko) * 2018-08-23 2020-04-23 주식회사 버넥트 혼합현실 기반의 접이식 표시 시스템
US10733800B2 (en) * 2018-09-17 2020-08-04 Facebook Technologies, Llc Reconstruction of essential visual cues in mixed reality applications
KR101985711B1 (ko) * 2019-03-13 2019-06-04 (주)정도기술 증강현실 cctv 시스템 및 그 제어방법
KR102288528B1 (ko) * 2019-11-14 2021-08-10 한국광기술원 증강현실 영상 생성장치 및 방법
KR102338984B1 (ko) * 2020-04-20 2021-12-14 주식회사 스쿱 인공지능을 활용한 3d 모형 증강현실 서비스 제공 시스템 및 그 방법
KR102539838B1 (ko) * 2021-10-18 2023-06-08 서울과학기술대학교 산학협력단 증강 현실 기반의 건설 현장 안전 점검 장치

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000102036A (ja) * 1998-09-22 2000-04-07 Mr System Kenkyusho:Kk 複合現実感提示システム、複合現実感提示方法、マン・マシーンインタフェース装置、およびマン・マシーンインタフェース方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6064749A (en) * 1996-08-02 2000-05-16 Hirota; Gentaro Hybrid tracking for augmented reality using both camera motion detection and landmark tracking
JP4364002B2 (ja) * 2004-02-06 2009-11-11 オリンパス株式会社 頭部装着型カメラ及び頭部装着型カメラによる撮影方法
KR101309176B1 (ko) * 2006-01-18 2013-09-23 삼성전자주식회사 증강 현실 장치 및 방법
KR101532804B1 (ko) 2007-08-09 2015-06-30 롯데제과주식회사 리퀴드 센터 검 조성물
KR100922544B1 (ko) 2007-12-17 2009-10-21 한국전자통신연구원 실시간 카메라 트래킹을 이용한 실사 영상 합성 시스템 및 그 방법
US8314832B2 (en) * 2009-04-01 2012-11-20 Microsoft Corporation Systems and methods for generating stereoscopic images

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000102036A (ja) * 1998-09-22 2000-04-07 Mr System Kenkyusho:Kk 複合現実感提示システム、複合現実感提示方法、マン・マシーンインタフェース装置、およびマン・マシーンインタフェース方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101837474B1 (ko) 2016-09-23 2018-04-19 주식회사 코젠 터널 자동제어시스템에 적용되는 3d 영상시스템

Also Published As

Publication number Publication date
EP2402906A3 (en) 2015-04-22
KR101295714B1 (ko) 2013-08-16
CN102395036A (zh) 2012-03-28
US20120001901A1 (en) 2012-01-05
KR20120002261A (ko) 2012-01-05
JP5260705B2 (ja) 2013-08-14
EP2402906A2 (en) 2012-01-04

Similar Documents

Publication Publication Date Title
JP5260705B2 (ja) 3次元拡張現実提供装置
CN109615703B (zh) 增强现实的图像展示方法、装置及设备
CN104641633B (zh) 用于组合来自多个深度相机的数据的系统和方法
KR102214827B1 (ko) 증강 현실 제공 장치 및 방법
JP2017022694A (ja) ユーザのデバイスに明視野ベースの画像を表示するための方法および装置ならびに対応するコンピュータプログラム製品
JP2020516090A (ja) ヘッドマウントディスプレイのための光照射野キャプチャおよびレンダリング
JP6406853B2 (ja) 光フィールド映像を生成する方法及び装置
JP2013171523A (ja) Ar画像処理装置及び方法
JP6680207B2 (ja) 視線計測システム、視線計測方法、及びプログラム
JP5338228B2 (ja) 画像生成装置、及びプログラム
CN111108742A (zh) 信息处理装置、信息处理方法、程序以及可互换透镜
US20120127302A1 (en) Mixed reality display
KR20180120456A (ko) 파노라마 영상을 기반으로 가상현실 콘텐츠를 제공하는 장치 및 그 방법
JP2016048467A (ja) 運動視差再現方法、装置およびプログラム
JP6388532B2 (ja) 画像提供システムおよび画像提供方法
JP2012146305A (ja) ウィンドウ状の拡張現実を提供する装置および方法
CN104463958A (zh) 基于视差图融合的三维超分辨率方法
KR20150040194A (ko) 하이브리드 카메라에 기초한 동공 추적을 이용한 홀로그램 표시 장치 및 방법
KR102298047B1 (ko) 디지털 콘텐츠를 녹화하여 3d 영상을 생성하는 방법 및 장치
JP2011205385A (ja) 立体映像制御装置および立体映像制御方法
JP5689693B2 (ja) 描画処理装置
JP6292785B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP7336871B2 (ja) 全天周映像処理装置及びプログラム
KR102151250B1 (ko) 객체 좌표를 도출하는 장치 및 방법
JP2011048545A (ja) 画像合成装置及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111027

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121011

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121023

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20130123

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20130128

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130221

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130326

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130425

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160502

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 5260705

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250