JP2017505933A - 実在の物体上に固定された仮想画像を生成する方法及びシステム - Google Patents

実在の物体上に固定された仮想画像を生成する方法及びシステム Download PDF

Info

Publication number
JP2017505933A
JP2017505933A JP2016535039A JP2016535039A JP2017505933A JP 2017505933 A JP2017505933 A JP 2017505933A JP 2016535039 A JP2016535039 A JP 2016535039A JP 2016535039 A JP2016535039 A JP 2016535039A JP 2017505933 A JP2017505933 A JP 2017505933A
Authority
JP
Japan
Prior art keywords
virtual
real
world
real world
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016535039A
Other languages
English (en)
Inventor
シェフィ,ヨァヴ
Original Assignee
シェフィ,ヨァヴ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by シェフィ,ヨァヴ filed Critical シェフィ,ヨァヴ
Publication of JP2017505933A publication Critical patent/JP2017505933A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2004Aligning objects, relative positioning of parts

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Computer Graphics (AREA)
  • Optics & Photonics (AREA)
  • Architecture (AREA)
  • Human Computer Interaction (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Generation (AREA)
  • Position Input By Displaying (AREA)

Abstract

【課題】画像が実在する物体に固定された様に見える様に、仮想画像を生成し、該仮想画像を表示するシステム及び方法を提供する。【解決手段】システム及び方法は、実在する物体に固定された様に見える仮想画像を生成及び表示する。1つ以上のセンサにより取得される空間データのデータフレームは、1つ以上の検出可能な実在の物体が上記データフレーム内に位置するか否かを判定するために分析される。上記実在の物体が位置する場合には、実在の物体に関連付けられた現実世界の基準点の座標が、決定される。現実世界の表示錐体、現実世界の表示錐台、現実世界の表示画面、及び実在する物体の基準点は、上記データフレームから決定される。仮想3D空間が生成され、仮想物体の基準点を通過する基平面が生成される。1つ以上の平面状コンテンツ要素は、上記基平面上に、または、上記基平面に平行して配置される。これらの平面状コンテンツ要素は、視覚装置または表示装置により表示され、かつ、これらの平面状コンテンツ要素が、上記検出された物体の上記現実世界の基準点を通って平面内に存在する様に見える画像が生成される。【選択図】図5

Description

本願発明は、表示装置上に映像コンテンツを表示するための方法に関する。
以下の先行技術文献は、本願発明の背景技術を理解するのに役立つと考えられるものである。
https://developer.vuforia.com/resources/dev-guide/vuforia-ar-architecture
https://developer.vuforia.com/resources/dev-guide/distance-target
http://docs.opencv.org/trunk/modules/tracking/doc/tracking.html
http://docs.opencv.org/trunk/modules/imgproc/doc/feature detection.html
http://www2.imm.dtu.dk/~aam/
http://ils.intel-research.net/everydav-obiect-recognition
https://software.intel.com/en-us/node/504462
https://software.intelom/en-us/node/504442
http://docs.opencv.org/modules/contrib/doc/facerec/facerec tutorial.html
http://www.ri.cmu.edu/research project detail.html?project id=448&menu id=261
http://www2.imm.dtu.dk/~aam/faces/
http://kishordgupta.wordpress.com/2011/07/04/recognize-face-orientation-using-a-new-approach-based-on-eve-position-and-size-by-c/
http://www.codeproiect.com/Articles/26897/TrackEye-Real-Time-Tracking-Of- Human-Eyes-Using-a
http://www.ncbi.nlm.nih.gov/pubmed/23239074
http://gazeparser.sourceforge.net/
http://thume.ca/projects/2012/l1/04/simple-accurate-eye-center-tracking-in-opencv/
コンピュータ画面及び他の二次元(2D)の面は、一般的に、例えば、テキストページ、図表、またはウェブサイトページ等の2Dの映像コンテンツを表示するために使用される。映像コンテンツの幾つかの形式は、例えば、テキスト及び図表から成るページ、または、サイトに関する情報及び関連の無い広告を含むウェブサイトページといった2つ以上の形式のコンテンツを含む。通常、画面上に一度に表示されるのは、1つのページのみであり、該ページは、上記画面の境界線の範囲内に限定される。このため、ページ内の異なる要素は、たとえこれらが相互に関連し合うものであっても、表示スペース及び閲覧者の注意を求めて、互いに競合し合うこととなる。従って、現存するウェブサイトのページは、一般的に、広告により過密状態となっており、このことが、ウェブ広告が現在効果的でないと考えられている主な理由である。
(ブラウジングやナビゲーティングとして知られる様な)表示ページの変更は、最初に表示されたページが画面から削除され、2つ目のページが続いて表示されるという非連続的な処理である。1つのページのみを一度に閲覧する形態では、閲覧者は、ウェブサイト上での自己の位置を把握するのが困難となり、また、サイト検索が不正確なものとなる。また、各ページのサイズ変更は、個別のステップにおいて実行されるため、変更を行う度に、ブラウザに戻る必要がある。
また、仮想三次元(3D)空間において幾つかのページを配置し、3D空間の一部を2D画面上に投影することが知られている。閲覧者は、ページからページへ連続的に検索することができる。
Shefiの米国特許第8035635号明細書には、仮想3D空間において、コンテンツ(内容)要素を配置するためのシステムが開示されている。上記3D空間において、2Dの基平面が指定され、上記3D空間において、映像コンテンツが、上記基平面に平行な少なくとも1つのページと共に、配置される。視点及び視線は、上記基平面に対して平行でも垂直でもない視線により閲覧する上記3D空間において、選択される。その後、2D面は、該2D面が、上記視点及び上記基平面間の視線と交わる様に、上記3D空間内に配置される。その後、上記3D空間の少なくとも1部分が、上記視線により決定される透視投影により、上記2D面上に投影される。この一連の処理は、新たな視点を任意に選択する度、及び/または、新たな視線を選択する度、及び/または、1つ以上のコンテンツ要素の属性を変更する度に、必要に応じて、繰り返し実行されるものとしてもよい。上記画面上への投影画像は、例えば、コンピュータ用モニタ等の表示装置上に表示されるものとしてもよい。
米国特許第8035635号明細書
本願発明は、画像(イメージ)が実在する物体に固定された様に見える様に、仮想画像を生成し、該仮想画像を表示するシステム及び方法を提供する。1つ以上のセンサにより取得される空間データのデータフレームは、検出すべき1つ以上の実在の物体が上記データフレーム内に位置するか否かを判定するために分析される。上記実在の物体の1つの少なくとも一部が、上記データフレーム内に存在する場合、上記実在の物体に関連付けられた現実世界(実在)の基準点の座標が、上記データフレーム内のデータから、決定される。現実世界の表示錐体(ピラミッド)、現実世界の表示錐台(フラスタム)、現実世界の表示画面、及び実在する物体の基準点は、上記データフレームから決定される。
上記データフレームは、仮想表示錐体、仮想表示錐台、仮想表示画面、及び仮想物体の基準点が上記3D仮想空間内に配置される仮想3D空間を生成するために使用される。その後、基平面は、上記仮想物体の基準点を通って生成される。1つ以上の平面状コンテンツ要素は、上記基平面上に配置されるか、または、上記基平面と平行である。その後、上記3D仮想空間内に配置される上記コンテンツ要素は、上記仮想表示画面上に投影され、投影された画像を生成する。その後、最終画像は、上記投影された画像、及び、場合により上記データフレームの少なくとも一部を有して生成される。上記最終画像は、視覚装置または表示装置により表示される。上記最終画像においては、上記コンテンツ要素は、検出された物体の現実世界の基準点を通過する平面内に存在する様に見える。
上述した様に、本願発明は、その1つの側面において、映像コンテンツを生成及び表示するためのシステムを提供し、該システムは以下の構成を有する:
・3D現実世界の空間の空間データを有する1つ以上のデータフレームを取得する様に構成されたセンサセットであり、該センサセットは、上記3D現実世界の空間内の関連するセンシング領域及びセンサ視線を有する1つ以上のセンサを上記センサセット内に有し、上記センサ視線は、3D現実世界の座標系内の上記3D現実世界の空間内へ上記センサから延在するベクトルであり、上記センサセット内の少なくとも1つのセンサは、上記センサに対して固定された関連上向きベクトル(アップベクトル)を有し、 1つ以上のセンサ上向きベクトルは、データフレームの上向きベクトルを定義する;
・視覚装置または表示装置;
・プロセッサ及びメモリを有するコンピュータ処理部:
・上記メモリは、データフレーム内において検出すべき1つ以上の物体を示すデータを格納し、上記物体に対して固定された、所定の現実世界の基準点を、検出すべき物体毎に更に格納する;
・上記プロセッサは、以下の処理を実行する様に構成される:
1つ以上のデータフレームを分析し、かつ、検出すべき1つ以上の実在の物体が、現在の現実世界の表示錐台内に有るか否かを判定する処理;
上記現在の錐台内において、上記実在の物体の1つの少なくとも一部が検出された場合、上記現実世界の表示錐台に関連付けられた現実世界の座標系内において検出された実在の物体に関連付けられた現実世界の基準点の現実世界内の座標を、上記現在のデータフレームから特定する処理;
上記現実世界の表示錐台内の所定の点から生じる実在の物体ベクトルを、検出された実在の物体の上記現実世界の基準点に決定する処理;
上記現実世界の表示錐台に関する上記データフレームに関連付けられた重力ベクトルの位置を特定する処理;
3D仮想空間座標系、及び3D仮想空間内の位置を有する仮想3D空間を生成し、仮想表示錐体は、関連する仮想世界の視点を有し、関連する仮想表示錐台は、上記仮想の視点から生じる仮想視線の周囲に対称的に配置され、関連する仮想表示画面は、上記仮想上向きベクトルの仮想座標系内のx軸及びy軸が上記仮想表示画面に対して平行であり、かつ、z軸が上記仮想視線に対して平行である、上記仮想表示錐台の面及び関連する仮想上向きベクトルを生成する処理;
上記仮想物体の基準点を通過する基平面を、上記3D仮想空間内に生成し、上記基平面は、関連する2D座標系(x’,z’)を有する処理;
上記基平面上の、または、上記基平面に平行な1つ以上の平面状コンテンツ要素を、上記基平面上の1つ以上の所定の許容位置内に配置する処理;
上記3D仮想空間内に配置された上記コンテンツ要素を、投影された画像を生成するための上記仮想表示画面上に、投影する処理;
上記投影された画像を有する最終画像を生成する処理;及び
上記最終画像を、視覚装置または表示装置に表示させる処理。
本願発明は、その他の側面において、映像コンテンツを生成及び表示するための方法を提供し、該方法は以下の工程を含む:
1つ以上のデータフレームを分析し、かつ、検出すべき1つ以上の実在の物体が、現在の現実世界の表示錐台内に有るか否かを判定する工程;
上記現在の錐台内において、上記実在の物体の1つの少なくとも一部が検出された場合、上記現実世界の表示錐台に関連付けられた現実世界の座標系内において検出された実在の物体に関連付けられた現実世界の基準点の現実世界内の座標を、上記現在のデータフレームから特定する工程;
上記現実世界の表示錐台内の所定の点から生じる実在の物体ベクトルを、検出された実在の物体の上記現実世界の基準点に決定する工程;
上記現実世界の表示錐台に関する上記データフレームに関連付けられた重力ベクトルの位置を特定する工程;
3D仮想空間座標系、及び3D仮想空間内の位置を有する仮想3D空間を生成し、仮想表示錐体は、関連する仮想世界の視点を有し、関連する仮想表示錐台は、上記仮想の視点から生じる仮想視線の周囲に対称的に配置され、関連する仮想表示画面は、上記仮想上向きベクトルの仮想座標系内のx軸及びy軸が上記仮想表示画面に対して平行であり、かつ、z軸が上記仮想視線に対して平行である、上記仮想表示錐台の面及び関連する仮想上向きベクトルを生成する工程;
上記仮想物体の基準点を通過する基平面を、上記3D仮想空間内に生成し、上記基平面は、関連する2D座標系(x’,z’)を有する工程;
上記基平面上の、または、上記基平面に平行な1つ以上の平面状コンテンツ要素を、上記基平面上の1つ以上の所定の許容位置内に配置する工程。
ここで、本願発明を理解し、本願発明が実際にどの様に実行可能であるかを把握するための実施形態について、限定されない実施例のみを用いて、以下の添付図面を参照しながら説明する:
図1は、本願発明の一実施形態に従って映像コンテンツを表示するためのシステムを概略的に示す図である; 図2は、上記実在の物体に対して固定された位置を有する、関連する現実世界の基準点を有する実在の物体を示す図である; 図3は、本願発明の一実施形態に従ってデータフレームを分析し、画像を生成し、該画像を表示する方法を示すフローチャートである; 図4は、関連する2D座標系(x’,z’)を有する基平面を示す図である; 図5は、投影された画像、及び実在の物体の画像を含む最終画像を示す図である; 図6は、カメラがユーザの携帯機器に関連付けられ、かつ、上記現実世界の基準点が上記ユーザの携帯機器上に固定されている本願発明の実施形態を示す図である; 図7は、図6に示した上記実施形態におけるユーザの現実世界の表示錐体を示す図である。
図1は、本願発明の一実施形態に従って映像コンテンツを表示するためのシステム2を概略的に示す図である。システム2は、3D現実世界の空間の空間データを取得するセンサセット7を有する。センサセット7は、1つ以上のセンサ4を有する。センサ4は、例えば、2Dカメラ、3Dカメラ、GPS位置送受信機、音波探知器、レーザ測距装置、赤外線探知器、近距離無線通信(NFC:Near Field Communication)、及びLIDAR装置の何れか1つ以上であってもよい。各センサ4は、上記3D現実世界の空間内の関連するセンシング領域、及び上記センサから3D現実世界の座標系内の上記3D現実世界の空間内へ延在するベクトルであるセンサ視線を有する。上記3D現実世界の座標系は、例えば、1つ以上の上記センサに対してまたはユーザの位置及び視野角に対して、固定されるものとしてもよい。あるいは、上記3D現実世界の座標系は、例えば、GPS(Global Positioning System)により提供される様な絶対座標系であってもよい。物体は、携帯型センサの場合には該センサの移動の結果として、または、上記3D現実世界の空間内における物体の移動の結果として、センサのセンシング領域内へ移動し、かつ、該領域から外へ移動するものとしてもよい。センサは、該センサの上記センシング領域が、周知の分析的な変換の下で着用者の視野に近似する様に、例えば、ゴーグルまたは他の頭部装着型装置内において、ユーザが身に着けられる様に構成することができる。センシングユニット(センサ部)は、指向性または無指向性の何れでもよい。無指向性のセンシングの場合には、上記センサの視線に沿ってかつ周囲に延在する該センサの視野の小区分(サブセクション)が、上記着用者の視野に対応する視野として、指定されるものとしてもよい。如何なる時点において上記センサセット7により取得される上記空間データも、本明細書では、“データフレーム”として参照される。センサセット7により取得されたデータフレームは、コンピュータ処理部(CPU:Computer Processing Unit)6へ入力される。CPU6は、メモリ8及びプロセッサ10を有する。センサセット7により取得されたデータフレームは、CPU6へ入力され、メモリ8内に格納される。
センサセット7内の少なくとも1つのセンサ4は、該センサに対して固定された関連上向きベクトルを有する。上記センサの1つ以上の上向きベクトルは、センサセット7の上向きベクトルを定義するために用いられる。センサセット7の上向きベクトルは、各データフレームの上向きベクトルを決定する。
また、メモリ8内には、データフレーム内において検出すべき1つ以上の物体を示すデータが格納される。データフレーム内において検出すべき1つ以上の物体を示す上記データは、例えば、物体の所定のリスト内の1つ以上の物体の描写であってもよいし、または、データフレーム内において検出すべき物体種別の基準を特定するデータであってもよい。また、メモリ8は、上記物体に対して固定された、所定の現実世界の基準点を、検出すべき物体または物体種別毎に、格納する。
プロセッサ10は、現実世界の重力ベクトルを特定する様に構成される。一実施形態では、システム2は、CPU6に入力されてメモリ8内に格納される重力場の現在の方向を示す時間依存性の信号を生成する重力センサ5を有する。重力信号は、データフレームが取得された時間から、上記データフレームの重力ベクトルを特定するために使用される。他の実施形態では、上記プロセッサは、データフレームを分析し、該データフレームの分析結果からデータフレームの上記重力ベクトルを特定するソフトウェアを実行する様に構成される。
以下に説明する様に、プロセッサ10は、現実世界の位置に固定された様に見える異種の(データフレーム内に含まれない)映像コンテンツ要素を有する最終画像を生成するために使用される1つ以上の上記データフレームを分析する様に構成される。一連のデータフレームにおいて連続するデータフレームを分析すること、及び連続する最終の異種の映像コンテンツを生成することにより、現実世界の位置が上記ユーザの視野内において移動する際に該現実世界の位置に固定されたままであるコンテンツ要素の外観が生成される。また、上記最終画像は、上記データフレームからのデータまたは画像を有するものとしてもよい。上記最終画像は、視覚装置または表示装置12により表示される。該表示装置は、例えば、何らかの種類の画面またはアイプロジェクタ(眼球投射機)であってもよい。
システム2は、分散システムであってもよく、該システムの1つ以上の構成要素は、例えば、有線または無線の電話回線網、あるいはインターネット等のコンピュータ通信ネットワーク等の、有線または無線のネットワークを介して、相互に通信を行うものとしてもよい。
図2は、上記実在の物体60に対して固定された位置を有する、関連する現実世界の基準点62を有する実在の物体60を、一例として示す。焦点69を有するレンズ64を有する(図2にその全体が示されていない)カメラを有するセンサセットは、上記実在の物体60を含む空間領域のデータフレームを取得するために使用される。上記焦点69及び上記レンズ64は、本明細書では、上記カメラに対して固定された上記“現実世界の表示錐体”として参照される、現実世界の表示体積を決定する。上記現実世界の表示錐体は、焦点69から生じ、かつ、レンズ64の端部を通過する光線により、その境界が決定される。その様な4つの光線は、図2において、幻像線65により示される。図2において、上記現実世界の表示錐体の内、レンズ64の左側の部分は、本明細書では、上記“現実世界の表示錐台”として参照される。上記現実世界の表示錐体は、レンズ64に、関連する現実世界の表示画面を有すると共に、上記カメラに固定された該カメラの焦点69に、関連する現実世界の視点を有する。また、上記カメラは、該カメラに固定された関連する現実世界の上向きベクトル72を有する。上記カメラは、焦点69から生じ、かつ、レンズ64に位置する上記画面の中央を通過する現実世界の視線68を有する。視点69から生じ、かつ、現実世界の基準点62を通過する幾何学的光線68は、本明細書では、実在の物体60の“物体ベクトル”として参照される。上記カメラは、レンズ64における上記現実世界の表示画面上への上記現実世界の錐台の二次元(2D)投影として、上記現在のデータフレームを取得する。上記現実世界の錐台の少なくとも一部は、上記カメラの(上記レンズの形状とは異なる形状を有してもよい)2Dセンサアレイ(配列)67上へ投影される。例えば、カメラ等のセンサの上向きベクトル72は、上記データフレームの上向きベクトルを決定する。上記データフレームの上向きベクトルは、該データフレームが取得された時点では、上記カメラの上向きベクトルの方向にある。また、図2は、本実施例において上記カメラに固定された現実世界の座標系71を示す。現実世界の座標系71は、x軸、y軸、及びz軸を有する。上記x軸及びy軸は、レンズ64の画面に対して平行であり、上記z軸は、視線69に対して平行である。また、図2に示す様に、現実世界の重力ベクトル70は、上述した様に決定される。カメラのセンサアレイ67上に生成された上記画像、及び上記データフレームの上向きベクトルは、CPU6へ入力され、メモリ8内に格納される。
図3は、本願発明の一実施形態に従ってデータフレームを分析し、画像を生成し、該画像を表示する方法を示すフローチャートである。ステップ14では、現在のデータフレームは、メモリ8から検索され、プロセッサ10へ入力される。ステップ16では、プロセッサ10は、上記現在のデータフレームを分析し、ステップ18では、検出すべき1つ以上の実在の物体が上記現在のデータフレーム内に位置するか否かを判定する。検出対象の物体が上記現在のデータフレーム内に検出されない場合には、その後、上記処理は、新たな現在のデータフレームの検索を行うステップ14に戻る。ステップ18において、上記実在の物体(例えば、図2の実在の物体60)の1つの少なくとも一部が、上記現在のデータフレーム内に有る場合、その後、ステップ20において、プロセッサ10は、上記現実世界の表示錐台に関連付けられた現実世界の座標系において、上記実在の物体(例えば、図2の現実世界の基準点62)に関連付けられた、上記現実世界の基準点の座標を、上記現在のデータフレームから、特定する。上記実在の物体ベクトル(図2の68)は、例えば、上記現実世界の基準点に向かう上記視点(図2の69)等の、上記現実世界の表示錐台内の所定の点から生じる。ステップ22では、上記プロセッサは、上記現実世界の視線及びユーザの視線間における幾つかの所定の関係を考慮に入れた所定の変換により、上記実在の物体ベクトルを任意に変換するものとしてもよい。この処理は、上記センサの現実世界の視線が、上記ユーザの視線に対して固定される様に、例えば、センサが帽子(ヘッドギア)に搭載されている場合等に、有益となるであろう。この場合、上記ユーザの視線は、上記現実世界の視線として用いることができる。
ステップ24では、上記現実世界の表示錐台に対する上記データフレームに関連付けられた上記重力ベクトルの位置を特定する。その後、上記プロセッサは、3D仮想空間の座標系(x,y,z)を有する仮想3D空間を生成する(ステップ26)。ステップ28では、上記プロセッサは、上記3D仮想空間内に仮想表示錐体を配置する。該仮想表示錐体は、関連する仮想世界の視点、上記仮想視点から生じる仮想視線の周囲に対称的に配置された関連する仮想表示錐台、該仮想表示錐台の面を生成する関連する仮想表示画面、及び、上記上向きベクトルの上記x軸及びy軸が上記仮想表示画面に対して平行であり、かつ、上記z軸が上記仮想視線に対して平行である、関連する仮想上向きベクトルを有する。上記3D仮想空間は、所定の連続写像Gを用いて生成される。該連続写像Gは、上記現実世界の表示錐体を上記仮想表示錐体内に描き、上記現実世界の視点を上記仮想世界の視点上に描き、上記現実世界の視線を上記仮想世界の視線上に描き、上記現実世界の表示錐台を上記仮想表示錐台内に描き、上記現実世界の表示画面を上記仮想表示画面上に描く。これにより、上記仮想世界の表示画面は、上記仮想世界のx軸及びy軸に対して平行となり、かつ、上記仮想世界の視線は、上記仮想世界のz軸、上記仮想重力ベクトルに向かう現実世界の重力ベクトル、及び上記仮想上向きベクトル上の現実世界の上向きベクトルに対して平行となる。上記写像Gは、好適には、上記実在の物体ベクトル及び上記現実世界の視線(図2参照)間の角度θが、上記仮想世界の物体ベクトル及び上記仮想視線間の角度と等しくなる様に、選択される。更に、上記写像Gは、上記現実世界の上向きベクトル及び上記現実世界の重力ベクトル(図2参照)間の角度φが、上記仮想世界の上向きベクトル及び上記仮想世界の重力ベクトル間の角度と等しくなる様に、選択される。
その後、ステップ38では、上記プロセッサは、上記3D仮想空間内に、上記仮想物体の基準点を通過する基平面を生成する。図4に示す様に、上記基平面106は、関連する2D座標系(x’,z’)を有する。上記基平面は、上記3D仮想空間内に配置されるものとしてもよい。該3D仮想空間は、次の要件(1)〜(3)を満たす:(1)上記基平面のx’軸は、上記仮想空間のx軸に平行である。(2)上記基平面のx’軸及び上記仮想空間の座標系のy軸間の角度は、所定の角度、例えば90度であってもよいし、または、所定の角度(好適には90度)並びに上記xy平面上の重力ベクトルの投影及び正のy軸間の角度の合計値と同一であってもよい。(3)z’軸及びz軸間の角度は、上記仮想視線及び上記仮想重力ベクトル間の角度β’から決定される。βが所定の定数閾値(例えば、20度)であり、かつ、αがβ’の連続の狭義単調増加関数である場合には、β’≦βが成立する。β’が下方からβに接近している時にαがαの限界値と常に同一である場合には、β’≧βが成立する。
あるいは、上記基平面は、上記仮想空間内に“横向きに”配置されるものとしてもよい。これにより、(1)上記基平面のz’軸は、上記y平面のy軸に平行となる。(2)上記基平面のz’軸及び上記仮想空間の座標系のy軸間の角度は、所定の角度、例えば90度となり得る、または、所定の角度、並びに上記xy平面上の重力ベクトルの投影及び正のy軸間の角度の合計値と同一となり得る。(3)x’軸及びz軸間の角度が、上記仮想視線及び上記仮想重力ベクトル間の角度β’から決定される。βが所定の定数閾値(例えば、20度)であり、かつ、αがβ’の連続の狭義単調増加関数である場合には、β’≦βが成立する。β’が下方からβに接近している時にαがαの限界値と常に同一である場合には、β’≧βが成立する。
上記基平面は、1つ以上の平面状のコンテンツ(内容)物体が上記基平面上に配置され得る、図4の極めて細い線により示される、1つ以上の関連する許容位置を有する。上記許容位置の少なくとも1つは、上記基平面座標系のx’軸及びz’軸に平行な辺を有する矩形である。上記許容位置は、平行な行と列の格子内に配置されるものとしてもよい。コンテンツ要素が固有の上端及び下端を有する場合、例えば、上記コンテンツ要素が画像または文字を含む場合には、上記コンテンツ要素の上下方向は、上記基平面のz’軸に合わせられた上下方向を有する上記基平面内において、最適に配置される。その後、ステップ40では、上記プロセッサは、何れか1つ以上の上記許容位置内において、上記基平面106の上に、または、上記基平面106に対して平行に、1つ以上の平面状コンテンツ要素110を配置する。また、上記プロセッサは、上記基平面の上部または近傍に、1つ以上の3Dコンテンツ要素を配置するものとしてもよい(ステップ42)。該3Dコンテンツ要素は、回転された2Dコンテンツ要素、または、例えば、3Dモデル若しくは体積地図等の体積コンテンツ要素であってもよい。
その後、上記プロセッサは、上記3D仮想空間内に配置される上記コンテンツ要素を、上記仮想表示画面64上に投影し、投影された画像114を生成する(ステップ44)。上記3D仮想表示画面上への上記コンテンツ要素の投影は、例えば、透視投影によるものであってもよい。その後、最終画像が生成される(ステップ46)。該最終画像は、上記投影された画像114、及び、場合により上記データフレームの少なくとも一部を有する。図5は、投影された画像114、及び実在の物体60の画像を含む最終画像116を示す。該最終画像は、視覚装置または表示装置を介して表示され(ステップ48)、上記処理は終了する。
図6は、カメラ80がユーザの携帯機器82に関連付けられ、かつ、上記現実世界の基準点84が上記ユーザの携帯機器82上に固定されている他の実施形態を示す。カメラ80は、図6において幻像線により示される表示錐体を有する。カメラ80は、上記ユーザの顔を含む現在のデータフレームを取得する様に操作される。ユーザ90は、アイプロジェクタまたは表示画面であってもよい表示装置83を有する頭部装着型装置81を着用している。図6に示す実施形態では、携帯機器82内または頭部装着型装置81内に位置することのできる上記プロセッサは、カメラ80により取得されるデータフレーム内の人の顔を特定する様に構成される。また、プロセッサ10は、ユーザの顔がデータフレーム内に検出されると、該ユーザの現実世界の表示錐体を決定する様に構成される。図7は、境界幻像線92の示す、ユーザの現実世界の表示錐体を示す。また、プロセッサ10は、上記ユーザの現実世界の視点、上記ユーザの現実世界の上向きベクトル95、上記ユーザの現実世界の表示画面、及び、上記ユーザの現実世界の視点から生じ、かつ、上記ユーザの現実世界の表示画面の中心を通る上記ユーザの現実世界の視線94を決定する様に構成される。上記ユーザの見る現実世界の視点から生じ、かつ、上記現実世界の基準点84を通る光線は、実在の物体82の上記物体ベクトルである。また、図6及び図7は、本実施例では上記ユーザの頭部に固定される現実世界の座標系91を示す。現実世界の座標系91は、x軸、y軸、及びz軸を有する。該x軸及びy軸は、上記ユーザの画面に平行であり、該z軸は、ユーザの視線94に平行である。また、図6及び図7に示す現実世界の重力ベクトル93は、上述した様に決定される。
上記ユーザの現実世界の表示錐体、現実世界の表示錐台、現実世界の視点、現実世界の上向きベクトル、現実世界の表示画面、及び現実世界の視線、並びに実在の物体ベクトルは、図3を参照して上述した処理において用いられる。該処理の結果として、仮想コンテンツ要素85は、頭部装着型装置81の表示装置83により、上記ユーザに提供される。上記仮想コンテンツ要素の少なくとも幾つかは、基準点84を通って基平面上に存在する様に見える平面状コンテンツ要素である。
図7を再び参照すると、プロセッサ10は、データフレーム内におけるユーザの手106及び/または108の空間位置を検出する様に構成されるものとしてもよい。かかる態様では、上記プロセッサは、更に、上記手の一部分が、本願発明に従って配置される上記仮想表示画面及び幾つかのコンテンツ要素間の上記仮想表示錐台内に含まれる時を決定する様に構成される。上記プロセッサは、上記手の一部分により覆い隠される領域を、投影された上記コンテンツから除外する様に構成されるものとしてもよい。このため、例えば、手106により覆い隠されるコンテンツ要素85の部分は、上記コンテンツ要素から除外されることとなる。プロセッサ10は、手106、108の一方または双方により行われる所定の手または指による身ぶり(ジェスチャ)を識別し、該識別された身ぶりに関連付けられた所定の命令(コマンド)を実行する様に構成されるものとしてもよい。例えば、上記所定の実在の物体が画面を有する電子装置である場合には、上記命令は、1つ以上のコンテンツ要素を上記画面から基平面上へ移動させるための命令であってもよい。更に別の例において、上記プロセッサが、クリック動作により相互作用的なコンテンツに触れる身ぶりを識別する場合には、該コンテンツの動作が開始され、基平面のコンテンツ内に変化を与える。
図7を再び参照すると、例えば物体100等の検出すべき第2の実在の物体は、上記ユーザの表示錐台内に存在するものとしてもよい。物体100は、関連付けられた現実世界の基準点102を有する。物体100を含む1つ以上のデータフレームは、センサにより取得されるものとしてもよい。該センサは、携帯機器82内に位置し、かつ、物体102、または、頭部装着型装置81上に搭載されたセンサに面するものとしてもよい。物体100を含む上記データフレームは、図3を参照して上述した様に、分析することができる。図7に示す様に、基平面上に配置されたコンテンツ要素104は、頭部装着型表示装置83、または携帯機器82の画面により、上記ユーザに提供されるものとしてもよい。ここで、上記基平面は、上記ユーザには、基準点102を通過する様に見える。このため、上記ユーザに対しては2つの基平面が提供され、コンテンツ要素は、必要に応じて、1つの基平面から他の基平面へ移動するものとしてもよい。また、プロセッサ10は、一方の基平面のコンテンツの一部が1つの物体から他の物体へ移動することにより、直ちに、上記他の物体の基平面の一部分として現れる結果をもたらす、ユーザの身ぶりまたは命令を更に認識する構成であってもよい。更に加えて、上記物体が‘スマート物体’である場合、すなわち、ネットワーク通信が可能であり、コンテンツを、ユーザの装置自体の基平面から物体100へ上述の様に移動させる物体である場合には、基平面が存続し続けるものとしてもよい。これにより、本願発明に従い、物体100が上記ネットワーク経由でアクセスされるか、または、物体100が類似の装置を有する新たなユーザにより視認される時に、移動させられるコンテンツは、可視状態を維持する。
2 システム
4 センサ
5 重力センサ
6 CPU
7 センサセット
8 メモリ
10 プロセッサ
12 表示装置
60 実在の物体
62 現実世界の基準点
64 レンズ
65 幻像線
67 カメラの2Dセンサアレイ
68 現実世界の視線
69 焦点
71 現実世界の座標系
72 現実世界の上向きベクトル
80 カメラ
81 頭部装着型装置
82 携帯機器
83 頭部装着型表示装置
84 現実世界の基準点
90 ユーザ
91 現実世界の座標系
92 境界幻像線
93 現実世界の重力ベクトル
94 ユーザの現実世界の視線
95 ユーザの現実世界の上向きベクトル
106 基平面
110 平面状コンテンツ要素
114 投影された画像
116 最終画像

Claims (28)

  1. 映像コンテンツを生成及び表示するためのシステムであって、
    3D現実世界の空間の空間データを有する1つ以上のデータフレームを取得する様に構成されたセンサセットを有し、該センサセットは、前記3D現実世界の空間内の関連するセンシング領域及びセンサ視線を有する1つ以上のセンサを前記センサセット内に有し、前記センサ視線は、3D現実世界の座標系内の前記3D現実世界の空間内へ前記センサから延在するベクトルであり、前記センサセット内の少なくとも1つのセンサは、前記センサに対して固定された関連上向きベクトル(アップベクトル)を有し、 1つ以上のセンサ上向きベクトルは、データフレームの上向きベクトルを定義する、
    視覚装置または表示装置、
    プロセッサ及びメモリを有するコンピュータ処理部を有し、
    前記メモリは、データフレーム内において検出すべき1つ以上の物体を示すデータを格納し、前記物体に対して固定された、所定の現実世界の基準点を、検出すべき物体毎に更に格納し、
    前記プロセッサは、
    a.1つ以上のデータフレームを分析し、かつ、検出すべき1つ以上の実在の物体が、現在の現実世界の表示錐台内に有るか否かを判定する処理、
    b.前記現在の錐台内において、前記実在の物体の1つの少なくとも一部が検出された場合、前記現実世界の表示錐台に関連付けられた現実世界の座標系内において検出された実在の物体に関連付けられた現実世界の基準点の現実世界内の座標を、現在のデータフレームから特定する処理、
    c.前記現実世界の表示錐台内の所定の点から生じる実在の物体ベクトルを、検出された実在の物体の前記現実世界の基準点に決定する処理、
    d.前記現実世界の表示錐台に関する前記データフレームに関連付けられた重力ベクトルの位置を特定する処理、
    e.3D仮想空間座標系、及び3D仮想空間内の位置を有する仮想3D空間を生成し、仮想表示錐体は、関連する仮想世界の視点を有し、関連する仮想表示錐台は、前記仮想の視点から生じる仮想視線の周囲に対称的に配置され、関連する仮想表示画面は、前記仮想上向きベクトルの仮想座標系内のx軸及びy軸が前記仮想表示画面に対して平行であり、かつ、z軸が前記仮想視線に対して平行である、前記仮想表示錐台の面及び関連する仮想上向きベクトルを生成する処理、
    f.前記仮想物体の基準点を通過する基平面を、前記3D仮想空間内に生成し、前記基平面は、関連する2D座標系(x’,z’)を有する処理、
    g.前記基平面上の、または、前記基平面に平行な1つ以上の平面状コンテンツ要素を、前記基平面上の1つ以上の所定の許容位置内に配置する処理、
    h.前記3D仮想空間内に配置された前記コンテンツ要素を、投影された画像を生成するための前記仮想表示画面上に、投影する処理、
    i.前記投影された画像を有する最終画像を生成する処理、及び
    j.前記最終画像を、前記視覚装置または前記表示装置に表示させる処理
    を実行する様に構成されたシステム。
  2. 前記3D仮想空間は、前記現実世界の表示錐体を前記仮想表示錐体内に描き、現実世界の視点を前記仮想世界の視点上に描き、現実世界の視線を前記仮想世界の視線上に描き、前記現実世界の表示錐台を前記仮想表示錐台内に描き、前記現実世界の重力ベクトルを前記仮想重力ベクトルに描き、現実世界の上向きベクトルを前記仮想上向きベクトル上に描き、前記実在の画面を前記仮想表示画面上に描く所定の連続写像Gを用いて生成される、請求項1に記載のシステム。
  3. 前記写像Gは、前記実在の物体ベクトル及び前記現実世界の視線間の角度θが、前記仮想世界の物体ベクトル及び前記仮想視線間の角度と等しくなる様に、更には、前記現実世界の上向きベクトル及び前記現実世界の重力ベクトル間の角度φが、前記仮想世界の上向きベクトル及び前記仮想世界の重力ベクトル間の角度と等しくなる様に、選択される、請求項2に記載のシステム。
  4. 前記プロセッサは、更に、前記現実世界の視線及びユーザの視線間の所定の関係を考慮に入れた所定の変換により、前記実在の物体ベクトルを変換する様に構成される、請求項1〜3の内、何れか一項に記載のシステム。
  5. 前記基平面は、(1)前記基平面のx’軸が、前記仮想空間のx軸に平行であり、かつ、(2)前記基平面のx’軸及び前記仮想空間の座標系のy軸間の角度が、所定の角度であるか、または、所定の角度並びに前記xy平面上の重力ベクトルの投影及び正のy軸間の角度の合計値と同一であり、かつ、(3)z’軸及びz軸間の角度が、前記仮想視線及び前記仮想重力ベクトル間の角度β’から決定される様に、前記3D仮想空間内に配置される、請求項1〜4の内、何れか一項に記載のシステム。
  6. 前記基平面は、(1)前記基平面のz’軸が、前記y平面のy軸に平行であり、かつ、(2)前記基平面のz’軸及び前記仮想空間の座標系のy軸間の角度が、所定の角度であるか、または、所定の角度並びに前記xy平面上の重力ベクトルの投影及び正のy軸間の角度の合計値と同一であり、かつ、(3)x’軸及びz軸間の角度が、前記仮想視線及び前記仮想重力ベクトル間の角度β’から決定される様に、前記仮想空間内に配置される、請求項1〜4の内、何れか一項に記載のシステム。
  7. βが所定の定数閾値であり、かつ、αがβ’の連続の狭義単調増加関数である場合には、β’≦βが成立すると共に、β’が下方からβに接近している時にαがαの限界値と常に同一である場合には、β’≧βが成立する、請求項5または6に記載のシステム。
  8. 前記基平面上の許容位置は、平行な行と列の格子内に配置される、請求項1〜7の内、何れか一項に記載のシステム。
  9. 前記プロセッサは、更に、前記基平面の上部または近傍に、1つ以上の3Dコンテンツ要素を配置する様に構成される、請求項1〜8の内、何れか一項に記載のシステム。
  10. 前記3D仮想表示画面上への前記コンテンツ要素の投影は、透視投影によるものである、請求項1〜9の内、何れか一項に記載のシステム。
  11. 前記最終画像は、前記現在のデータフレームの少なくとも一部を含む、請求項1〜10の内、何れか一項に記載のシステム。
  12. 1つ以上の前記センサは、2Dカメラ、3Dカメラ、GPS位置送受信機、音波探知器、レーザ測距装置、赤外線探知器、近距離無線通信(NFC:Near Field Communication)信号、及びLIDAR装置を含むグループから、選択される、請求項1〜11の内、何れか一項に記載のシステム。
  13. データフレーム内において検出すべき前記1つ以上の物体を示す前記データは、物体の所定のリスト内の1つ以上の物体の描写、または、データフレーム内において検出すべき物体種別の基準を特定するデータである、請求項1〜12の内、何れか一項に記載のシステム。
  14. 前記データフレームが取得された時間から、データフレームの重力ベクトルを特定するために使用される重力場の現在の方向を示す時間依存性の信号を生成する様に構成された重力センサを更に有する、請求項1〜13の内、何れか一項に記載のシステム。
  15. 前記プロセッサは、更に、データフレームを分析し、該データフレームの分析結果からデータフレームの前記重力ベクトルを特定するソフトウェアを実行する様に構成される、請求項1〜14の内、何れか一項に記載のシステム。
  16. 前記システムは分散システムであり、かつ、前記システムの2つ以上の構成要素は、有線または無線のネットワークを介して、相互に通信を行う、請求項1〜15の内、何れか一項に記載のシステム。
  17. 少なくとも1つのセンサは、携帯型通信装置に関連付けられ、かつ、現実世界の基準点は、携帯機器上に固定されている、請求項1〜16の内、何れか一項に記載のシステム。
  18. 前記表示装置を有する、頭部に搭載可能な装置を更に有する、請求項17に記載のシステム。
  19. 前記プロセッサは、更に、前記携帯型通信装置に関連付けられた前記センサにより取得されたデータフレーム内の人の顔を特定する様に構成され、かつ、前記プロセッサは、更に、ユーザの顔がデータフレーム内に検出されると、該ユーザの現実世界の表示錐体を決定する様に構成される、請求項18に記載のシステム。
  20. 前記プロセッサは、更に、前記ユーザの現実世界の視点から生じ、かつ、前記ユーザの現実世界の表示画面の中心を通る、前記ユーザの現実世界の視点、前記ユーザの現実世界の上向きベクトル、前記ユーザの現実世界の表示画面、及び、前記ユーザの現実世界の視線、並びに、前記ユーザの現実世界の表示錐体内における所定の点から生じ、かつ、前記携帯型通信装置上に固定された前記現実世界の基準点を通る光線を決定する様に構成される、請求項19に記載のシステム。
  21. 前記ユーザの現実世界の表示錐体は、前記現実世界の表示錐体であり、
    前記ユーザの現実世界の表示錐台は、前記現実世界の表示錐台であり、
    前記ユーザの現実世界の視点は、前記現実世界の視点であり、
    前記ユーザの現実世界の上向きベクトルは、前記現実世界の上向きベクトルであり、
    前記ユーザの現実世界の表示画面は、前記現実世界の表示画面であり、
    前記ユーザの現実世界の視線は、前記現実世界の視線であり、
    前記ユーザの実在の物体ベクトルは、前記実在の物体ベクトルである、請求項20に記載のシステム。
  22. 前記プロセッサは、更に、データフレーム内における、ユーザの手及び該ユーザの手の輪郭の一方または双方の空間位置を検出する様に構成される、請求項1〜21の内、何れか一項に記載のシステム。
  23. 前記プロセッサは、更に、前記ユーザの手の一部分が、前記基平面内に配置される前記仮想表示画面及び幾つかのコンテンツ要素間の前記仮想表示錐台内に含まれる時を決定する様に構成される、請求項22に記載のシステム。
  24. 前記プロセッサは、更に、手の一部分により覆い隠される幾つかの領域を、投影されたコンテンツから除外する様に構成される、請求項23に記載のシステム。
  25. 前記プロセッサは、更に、1つ以上の手により行われる所定の手または指による身ぶりを識別し、該識別された身ぶりに関連付けられた所定の命令を実行する様に構成される、請求項23または24に記載のシステム。
  26. 前記プロセッサは、更に、
    現在の現実世界の表示錐台内において検出すべき追加の実在の物体を検出し、
    前記追加の実在の物体の現実世界の基準点から変換された仮想の基準点を通過する仮想空間内に追加の基平面を生成し、
    前記追加の基平面上に追加のコンテンツ要素を配置し、
    前記追加のコンテンツ要素を前記画面上に投影して、追加の投影された画像を生成し、
    前記投影された画像を前記表示装置上に表示させる様に構成される、請求項17〜25の内、何れか一項に記載のシステム。
  27. 前記プロセッサは、コンテンツ要素を第1基平面及び第2基平面から移動させる命令を受信する様に構成される、請求項26に記載のシステム。
  28. 映像コンテンツを生成及び表示するための方法であって、
    a.1つ以上のデータフレームを分析し、かつ、検出すべき1つ以上の実在の物体が、現在の現実世界の表示錐台内に有るか否かを判定する工程、
    b.前記現在の錐台内において、前記実在の物体の1つの少なくとも一部が検出された場合、前記現実世界の表示錐台に関連付けられた現実世界の座標系内において検出された実在の物体に関連付けられた現実世界の基準点の現実世界内の座標を、前記現在のデータフレームから特定する工程、
    c.前記現実世界の表示錐台内の所定の点から生じる実在の物体ベクトルを、検出された実在の物体の前記現実世界の基準点に決定する工程、
    d.前記現実世界の表示錐台に関する前記データフレームに関連付けられた重力ベクトルの位置を特定する工程、
    e.3D仮想空間座標系、及び3D仮想空間内の位置を有する仮想3D空間を生成し、仮想表示錐体は、関連する仮想世界の視点を有し、関連する仮想表示錐台は、前記仮想の視点から生じる仮想視線の周囲に対称的に配置され、関連する仮想表示画面は、前記仮想上向きベクトルの仮想座標系内のx軸及びy軸が前記仮想表示画面に対して平行であり、かつ、z軸が前記仮想視線に対して平行である、前記仮想表示錐台の面及び関連する仮想上向きベクトルを生成する工程、
    前記仮想物体の基準点を通過する基平面を、前記3D仮想空間内に生成し、前記基平面は、関連する2D座標系(x’,z’)を有する工程、
    f.前記基平面上の、または、前記基平面に平行な1つ以上の平面状コンテンツ要素を、前記基平面上の1つ以上の所定の許容位置内に配置する工程、
    g.前記3D仮想空間内に配置された前記コンテンツ要素を、投影された画像を生成するための前記仮想表示画面上に、投影する工程、
    h.前記投影された画像を有する最終画像を生成する工程、及び
    i.前記最終画像を、視覚装置または表示装置に表示させる工程
    を含む方法。
JP2016535039A 2013-11-26 2014-11-26 実在の物体上に固定された仮想画像を生成する方法及びシステム Pending JP2017505933A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201361908986P 2013-11-26 2013-11-26
US61/908,986 2013-11-26
PCT/IL2014/051028 WO2015079441A1 (en) 2013-11-26 2014-11-26 Method and system for constructing a virtual image anchored onto a real-world object

Publications (1)

Publication Number Publication Date
JP2017505933A true JP2017505933A (ja) 2017-02-23

Family

ID=53198457

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016535039A Pending JP2017505933A (ja) 2013-11-26 2014-11-26 実在の物体上に固定された仮想画像を生成する方法及びシステム

Country Status (6)

Country Link
US (1) US9805509B2 (ja)
EP (1) EP3074954A4 (ja)
JP (1) JP2017505933A (ja)
CN (1) CN105934775B (ja)
IL (1) IL245863B (ja)
WO (1) WO2015079441A1 (ja)

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3417307A4 (en) * 2016-02-18 2019-09-11 Edx Technologies, Inc. SYSTEMS AND METHODS FOR AUGMENTED REALITY DISPLAYS OF NETWORKS
CN106803988B (zh) * 2017-01-03 2019-12-17 苏州佳世达电通有限公司 信息传送系统以及信息传送方法
US10591730B2 (en) 2017-08-25 2020-03-17 II Jonathan M. Rodriguez Wristwatch based interface for augmented reality eyewear
CN109559370A (zh) * 2017-09-26 2019-04-02 华为技术有限公司 一种三维建模方法及装置
EP3495771A1 (en) * 2017-12-11 2019-06-12 Hexagon Technology Center GmbH Automated surveying of real world objects
US11232636B2 (en) * 2018-02-08 2022-01-25 Edx Technologies, Inc. Methods, devices, and systems for producing augmented reality
KR102122600B1 (ko) * 2018-03-07 2020-06-12 매직 립, 인코포레이티드 주변 디바이스들의 시각적 추적
US11550095B2 (en) 2018-10-26 2023-01-10 Google Llc Curved optical see-through thin freeform lightguide with large field of view in eyewear formfactor
US11263615B2 (en) 2019-03-01 2022-03-01 Visa International Service Association System, method, and computer program product for authentication by augmented reality for fraud prevention
US11115468B2 (en) * 2019-05-23 2021-09-07 The Calany Holding S. À R.L. Live management of real world via a persistent virtual world system
CN110164440B (zh) * 2019-06-03 2022-08-09 交互未来(北京)科技有限公司 基于捂嘴动作识别的语音交互唤醒电子设备、方法和介质
US10897564B1 (en) 2019-06-17 2021-01-19 Snap Inc. Shared control of camera device by multiple devices
CN111028342B (zh) * 2019-12-16 2023-11-21 国网北京市电力公司 一种基于ar技术的物资堆叠方式的预估方法及装置
US11985175B2 (en) 2020-03-25 2024-05-14 Snap Inc. Virtual interaction session to facilitate time limited augmented reality based communication between multiple users
US11593997B2 (en) * 2020-03-31 2023-02-28 Snap Inc. Context based augmented reality communication
US11574447B2 (en) * 2020-08-19 2023-02-07 Htc Corporation Method for capturing real-world information into virtual environment and related head-mounted device
CN114485620B (zh) * 2022-01-29 2023-07-28 中国科学院国家空间科学中心 融合轨道动力学的小行星探测器自主视觉定位系统及方法

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002366976A (ja) * 2001-06-08 2002-12-20 Fujitsu Ltd オブジェクト表示プログラムおよびオブジェクト表示装置
JP2004527060A (ja) * 2001-05-22 2004-09-02 シエフイ,ヨアブ 仮想3次元空間内の可視的コンテントを表示する方法とシステム
US20090293012A1 (en) * 2005-06-09 2009-11-26 Nav3D Corporation Handheld synthetic vision device
WO2012127605A1 (ja) * 2011-03-22 2012-09-27 株式会社うぶすな 情報処理装置、及び情報処理方法
JP2012216077A (ja) * 2011-03-31 2012-11-08 Fujifilm Corp 拡張現実感提供装置及び仮想物体の重畳方法
JP2013008257A (ja) * 2011-06-27 2013-01-10 Celsys:Kk 画像合成プログラム
JP2013077307A (ja) * 2007-10-30 2013-04-25 Canon Inc 画像処理装置、画像処理方法
JP2013114491A (ja) * 2011-11-29 2013-06-10 Buffalo Inc 情報表示装置及びプログラム
JP2013208227A (ja) * 2012-03-30 2013-10-10 Konami Digital Entertainment Co Ltd ゲーム装置、ゲーム装置の制御方法、及びプログラム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050275915A1 (en) * 2004-06-01 2005-12-15 Vesely Michael A Multi-plane horizontal perspective display
JP2010033367A (ja) * 2008-07-29 2010-02-12 Canon Inc 情報処理装置及び情報処理方法
JP2012510676A (ja) * 2008-12-01 2012-05-10 ビジュアル ドメインズ リミテッド 仮想3次元空間に表示されたビジュアルコンテンツをブラウズするための方法およびシステム
WO2012071463A2 (en) * 2010-11-24 2012-05-31 Aria Glassworks, Inc. System and method for presenting virtual and augmented reality scenes to a user

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004527060A (ja) * 2001-05-22 2004-09-02 シエフイ,ヨアブ 仮想3次元空間内の可視的コンテントを表示する方法とシステム
JP2002366976A (ja) * 2001-06-08 2002-12-20 Fujitsu Ltd オブジェクト表示プログラムおよびオブジェクト表示装置
US20090293012A1 (en) * 2005-06-09 2009-11-26 Nav3D Corporation Handheld synthetic vision device
JP2013077307A (ja) * 2007-10-30 2013-04-25 Canon Inc 画像処理装置、画像処理方法
WO2012127605A1 (ja) * 2011-03-22 2012-09-27 株式会社うぶすな 情報処理装置、及び情報処理方法
JP2012216077A (ja) * 2011-03-31 2012-11-08 Fujifilm Corp 拡張現実感提供装置及び仮想物体の重畳方法
JP2013008257A (ja) * 2011-06-27 2013-01-10 Celsys:Kk 画像合成プログラム
JP2013114491A (ja) * 2011-11-29 2013-06-10 Buffalo Inc 情報表示装置及びプログラム
JP2013208227A (ja) * 2012-03-30 2013-10-10 Konami Digital Entertainment Co Ltd ゲーム装置、ゲーム装置の制御方法、及びプログラム

Also Published As

Publication number Publication date
EP3074954A4 (en) 2017-06-14
IL245863B (en) 2021-02-28
EP3074954A1 (en) 2016-10-05
CN105934775B (zh) 2020-06-05
WO2015079441A1 (en) 2015-06-04
US20160260256A1 (en) 2016-09-08
CN105934775A (zh) 2016-09-07
IL245863A0 (en) 2016-07-31
US9805509B2 (en) 2017-10-31

Similar Documents

Publication Publication Date Title
US9805509B2 (en) Method and system for constructing a virtual image anchored onto a real-world object
KR102222974B1 (ko) 홀로그램 스냅 그리드
CN112926428B (zh) 使用合成图像训练对象检测算法的方法和系统和存储介质
US10095030B2 (en) Shape recognition device, shape recognition program, and shape recognition method
JP5762892B2 (ja) 情報表示システム、情報表示方法、及び情報表示用プログラム
US20210019036A1 (en) On-the-fly adjustment of orientation of virtual objects
US9437038B1 (en) Simulating three-dimensional views using depth relationships among planes of content
US9224237B2 (en) Simulating three-dimensional views using planes of content
US11887246B2 (en) Generating ground truth datasets for virtual reality experiences
US20180053352A1 (en) Occluding augmented reality content or thermal imagery for simultaneous display
US10769437B2 (en) Adaptive sampling of training views
US20180053055A1 (en) Integrating augmented reality content and thermal imagery
US10948994B2 (en) Gesture control method for wearable system and wearable system
KR102337209B1 (ko) 주변 상황 정보를 통지하기 위한 방법, 전자 장치 및 저장 매체
KR20160096392A (ko) 직관적인 상호작용 장치 및 방법
US9672588B1 (en) Approaches for customizing map views
Cassinelli et al. Smart laser-scanner for 3D human-machine interface
CN116097316A (zh) 用于非模态中心预测的对象识别神经网络
US20200234477A1 (en) Conversion of 2d diagrams to 3d rich immersive content
KR100975128B1 (ko) 뷰잉 프러스텀을 이용하여 객체에 대한 정보를 제공하기 위한 방법, 시스템 및 컴퓨터 판독 가능한 기록 매체
CN115191006B (zh) 用于所显示的2d元素的3d模型
Afif et al. Orientation control for indoor virtual landmarks based on hybrid-based markerless augmented reality
US10296098B2 (en) Input/output device, input/output program, and input/output method
JP2020509505A (ja) 拡張現実を提供するための方法、装置及びコンピュータプログラム
WO2020185115A1 (ru) Способ и система сбора информации для устройства совмещенной реальности в режиме реального времени

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180314

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180912

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181002

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20181228

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20190301

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190402

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20190716