JP2016526222A - Hudオブジェクト設計および表示方法。 - Google Patents

Hudオブジェクト設計および表示方法。 Download PDF

Info

Publication number
JP2016526222A
JP2016526222A JP2016515147A JP2016515147A JP2016526222A JP 2016526222 A JP2016526222 A JP 2016526222A JP 2016515147 A JP2016515147 A JP 2016515147A JP 2016515147 A JP2016515147 A JP 2016515147A JP 2016526222 A JP2016526222 A JP 2016526222A
Authority
JP
Japan
Prior art keywords
program code
readable program
computer
computer readable
program product
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016515147A
Other languages
English (en)
Other versions
JP6625523B2 (ja
Inventor
チャールズ, アンソニー スミス,
チャールズ, アンソニー スミス,
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Smith Charles Anthony
Original Assignee
Smith Charles Anthony
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Smith Charles Anthony filed Critical Smith Charles Anthony
Publication of JP2016526222A publication Critical patent/JP2016526222A/ja
Application granted granted Critical
Publication of JP6625523B2 publication Critical patent/JP6625523B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0132Head-up displays characterised by optical features comprising binocular systems
    • G02B2027/0134Head-up displays characterised by optical features comprising binocular systems of stereoscopic type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/024Multi-user, collaborative environment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2016Rotation, translation, scaling

Abstract

【課題】従来技術の欠点を克服した、高品質でリアリティのある3Dモデルの拡張現実表現が可能なコンピュータプログラム製品を提供すること。【解決手段】コンピュータにより3次元オブジェクトの一人称拡張現実視野を生成できるようにするための制御論理が格納されたコンピュータ使用可能媒体を有するコンピュータプログラム製品であって、前記コンピュータ使用可能媒体は、表示装置と少なくとも1つのセンサとの通信を開始するためのコンピュータ可読プログラムコードと、前記センサからのセンサデータを受信するためのコンピュータ可読プログラムコードと、前記センサデータを用いて拡張現実環境を生成するためのコンピュータ可読プログラムコードと、前記拡張現実環境内に3次元対象オブジェクトを組み込むためのコンピュータ可読プログラムコードと、前記拡張現実環境に直交座標グリッドを適用するためのコンピュータ可読プログラムコードと、一人称拡張現実視野における前記拡張現実環境に前記対象オブジェクトを表示するためのコンピュータ可読プログラムコードとを含むことを特徴とするコンピュータプログラム製品。

Description

関連出願
本出願は、2013年5月30日に出願された「HUDオブジェクト設計および方法」(HUD OBJECT DESIGN AND METHOD)と題する米国仮特許出願第61/828,745号に基づく優先権を主張する。
本発明は、3次元オブジェクトを設計し、上記オブジェクトに特性を追加し、HUD装置の動きおよび/またはこれと位置センサ間の相互関係に基づき上記オブジェクトの視野を表示することができるヘッドアップディスプレイ(HUD)拡張現実(AR)表示環境に関する。
3次元(3D)レンダリングは、ワイヤフレーム3DモデルをX、YおよびZグリッド線にプロットし、3D効果を有する2D画像に変換する。3Dレンダリングされたオブジェクトは一般的に見られるが、これらを生成および描画するためには3Dモデリングソフトウェアが必要である。しかし、上記ソフトウェアは、オブジェクトを一人称拡張現実(AR)視野に提示しない。拡張現実(AR)とは、コンピュータ生成ソフトウェアによって要素がシミュレート(または変更)された物理的な実世界環境のリアルタイム視野である。現在の拡張現実の表示方法は、3Dモデルを表示するために画像認識用のカメラを必要とする。
上記方法は、大規模3Dモデルを表示するためには限界がある。センサではなくカメラを用いることで、ユーザにレンダリング待ち時間および視点の範囲の限界をもたらす可能性がある。また、例えば、特異な性質のオブジェクトは、物理的または視覚的特性をシミュレートすることが困難である。さらに、現在のモデリングソフトウェアは複雑であり、高品質でリアリティのある画像を作成することができない。
本発明は、カスタマイズされた3Dモデルの拡張現実表現を生成することができるヘッドアップディスプレイを提供する。
本発明の実施形態の一態様は、手持ち式またはウェアラブル装置のソフトウェアによりレンダリングされた視点を有するヘッドアップディスプレイを特徴とする。
本発明の実施形態の一態様は、高品質な3Dモデルを生成することができるユーザフレンドリーなシステムを提供する。
本発明の実施形態の一態様は、静止センサの配置に基づいてX、Y、Z軸を決定する直交グリッドを特徴とする。
本発明の実施形態の一態様は、モーションセンサにより検知されたHUDの物理的運動と、HUDから同期した静止センサまでの距離とを組み合わせることで移動するユーザインターフェースを含むソフトウェアを特徴とする。
本発明の実施形態の一態様は、HUDの運動に基づいて、レンダリングされた3Dオブジェクトのユーザ視野を計算することができるHUD上のモーションセンサを特徴とする。
本発明の態様、目的、特徴および利点は、以下の実施形態に関する記載および添付の図面により明らかとなる。
図1は、直交座標グリッドの一例を示す。 図2は、本発明の実施形態の一態様に係る、1つの位置センサの付近に位置するユーザを示す。 図3は、本発明の実施形態の一態様に係る、複数の位置センサの付近に位置するユーザを示す。 図4は、本発明の実施形態の一態様に係るセンサ同期プロセスの一例を示す。 図5は、本発明の実施形態の一態様に係る、表示環境が配置された様子を示す。 図6は、本発明の実施形態の一態様に係る、計算に基づいて複数センサの原点を特定するユーザを示す。 図7は、本発明の実施形態の一態様に係る、計算に基づいて単一センサの原点を特定するユーザを示す。 図8は、本発明の実施形態の一態様に係る、大規模環境が配置された様子を示す。 図9は、本発明の実施形態の一態様に係る表示装置位置同期プロセスを示す。 図10は、3Dレンダリングおよび投影の例を示す。 図11は、本発明の実施形態の一態様に係る、焦点および表示装置の一人称視野からの視線を含む表示装置視点(POV)を示す。 図12は、本発明の実施形態の一態様に係る、焦点および表示装置の三人称視野からの視線を含む表示装置視点(POV)を示す。 図13は、本発明の実施形態の一態様に係る、距離が変化する表示環境を視認するユーザの表示装置視点(POV)を示す。 図14は、本発明の実施形態の一態様に係るモーションキャプチャおよび画像変化を、一人称視野からの視線とともに示す。 図15は、本発明の実施形態の一態様に係るモーションキャプチャおよび画像変化を、三称視野からの視線とともに示す。 図16は、本発明の実施形態の一態様に係る、三人称視野からの表示環境3D方向移動を示す。 図17は、本発明の実施形態の一態様に係る、一人称視点ヘッドチルトモーションキャプチャ視野効果を示す。 図18は、本発明の実施形態の一態様に係る、三人称視点ヘッドチルトモーションキャプチャ視野効果を示す。 図19は、本発明の実施形態の一態様に係る、一人称および三人称視野からの内部位置視点の例を示す。 図20は、本発明の実施形態の一態様に係る、一人称および三人称視野からの外部位置視点の例を示す。 図21は、本発明の実施形態の一態様に係る、相互作用装置同期プロセスの一例を示す。 図22は、本発明の実施形態の一態様に係る、オブジェクトと相互作用するための相互作用装置を使用するユーザの手のHUD一人称視野を示す。 図23は、本発明の実施形態の一態様に係る、グリッド線を含まない三人称視点視野からの設計ユーザインターフェースを示す。 図24は、本発明の実施形態の一態様に係る、トグルされたグリッド線を含む三人称視点視野からの設計ユーザインターフェースを示す。 図25は、本発明の実施形態の一態様に係る、グリッド線を含まない設計ユーザインターフェースの代替表示環境視野を示す。 図26は、本発明の実施形態の一態様に係る、グリッド線を含む設計ユーザインターフェースの代替表示環境視野を示す。 図27は、本発明の実施形態の一態様に係る、ユーザが1Dから3Dへとオブジェクトを段階的に設計し、傾斜やサイズ変更を加えている様子を示す。 図28は、本発明の実施形態の一態様に係る、一人称視点から見たオブジェクトの方向を回転する様子を示す。 図29は、本発明の実施形態の一態様に係る、三人称視点から見たオブジェクトの方向を回転する様子を示す。 図30は、本発明の実施形態の一態様に係る、一人称視点から見たスナップ点を示す。 図31は、本発明の実施形態の一態様に係る、三人称視点から見たスナップ点を示す。 図32は、本発明の実施形態の一態様に係る、一人称視点から見たスナップ点を変更するための視野の移動/変化の様子を示す。 図33は、本発明の実施形態の一態様に係る、三人称視点から見たスナップ点を変更するための視野の移動/変化の様子を示す。 図34は、本発明の実施形態の一態様に係る、メニューを用いて物理的特性を追加する様子を示す。 図35は、本発明の実施形態の一態様に係る、オブジェクトにテクスチャおよび重力の物理的属性を付与した結果を示す。 図36は、本発明の実施形態の一態様に係る、物理エンジンによって重力を付与したオブジェクトをユーザの三人称視野から見た様子を示す。 図37は、本発明の実施形態の一態様に係る、一人称視点から見た段階的なオブジェクト思考アニメーションキャプチャの様子を示す。 図38は、本発明の実施形態の一態様に係る、衝突の物理エンジンシミュレーションおよびオブジェクトへの衝突検知効果をユーザの三人称視野から見た様子を示す。 図39は、本発明の実施形態の一態様に係る、三人称視点から見た段階的なオブジェクト思考アニメーションキャプチャの様子を示す。 図40は、本発明の実施形態の一態様に係る、ソフトウェアイベントトリガのための物理反応条件文の例を示す。 図41は、本発明の実施形態の一態様に係る、相互作用装置イベントトリガのための物理反応条件文の例を示す。 図42は、本発明の実施形態の一態様に係る、一人称視点から見た複数のユーザが共同設計を行う様子を示す。 図43は、本発明の実施形態の一態様に係る、三人称視点から見た複数のユーザが共同設計を行う様子を示す。 図44は、本発明の実施形態の一態様に係る、タイヤが回転/反跳するように相互作用する音声付き画像を示す。 図45は、本発明の実施形態の一態様に係る、表示環境において視認/相互作用される人間の3D動画を示す。
本発明の態様は、3次元オブジェクトの一人称拡張現実視野、設計および生成を可能とするシステム、方法およびコンピュータプログラム製品に関する。本発明の実施形態の一態様は、コンピュータにより3次元オブジェクトの一人称拡張現実視野を可能とするコンピュータプログラム製品である。本態様におけるコンピュータプログラム製品には、コンピュータにより3次元オブジェクトの一人称拡張現実視野を生成できるようにするための制御論理が格納されたコンピュータ使用可能媒体が含まれる。制御論理には、表示装置と1つまたは複数のセンサとの通信の初期化、1つまたは複数のセンサからのセンサデータの受信、1つまたは複数のセンサからのデータを用いた拡張現実環境の生成、拡張現実環境への3次元対象オブジェクトの組み込み、拡張現実環境への直交座標グリッドの適用、および一人称拡張現実視野における拡張現実環境への対象オブジェクトの表示等の様々な動作を行うコンピュータ可読プログラムコードが含まれる。
本発明の実施形態の一態様において、制御論理には、対象オブジェクトの操作を可能とするコンピュータ可読プログラムコードが含まれる。
本発明の実施形態の一態様において、制御論理には、対象オブジェクトの表示を変更して表示装置の位置および/または方向の変化を反映させるためのコンピュータ可読プログラムコードが含まれる。
また、他の態様では、全地球測位システム(GPS)を用いて表示装置の位置および/または方向の変化を反映できるようにするためのコンピュータ可読プログラムコードが含まれる。
本発明の実施形態の一態様において、センサデータには、対象オブジェクトの物理的特性、スケール、位置および/または方向に関する情報またはデータが含まれる。
本発明の実施形態の一態様において、制御論理には、拡張現実環境に3次元画像を重ね合わせることを可能とするコンピュータ可読プログラムコードが含まれる。
本発明の実施形態の一態様において、拡張現実環境は、1つまたは複数のセンサの配置により生成される。
本発明の実施形態の一態様において、制御論理には、直交座標グリッドの仮想表現を行うためのコンピュータ可読プログラムコードが含まれる。
本発明の実施形態の一態様において、直交座標グリッドの仮想表現は、表示装置と1つまたは複数のセンサとの同期によって行われる。
本発明の実施形態の一態様において、制御論理には、1つまたは複数のセンサのリアルタイムおよび/または実際の位置を用いて表示原点を決定するためのコンピュータ可読プログラムコードが含まれる。
本発明の実施形態の一態様において、制御論理には、リアルタイム効果をレンダリングして写実的ユーザインターフェスをシミュレートするためのコンピュータ可読プログラムコードが含まれる。
本発明の実施形態の一態様において、制御論理には、拡張現実環境のユーザ視点を生成し、ユーザが拡張現実環境内を視認および移動できるようにするためのコンピュータ可読プログラムコードが含まれる。例えば、ユーザは、表示装置に投影された拡張現実環境において歩き回ったり、相互作用することができる。
本発明の実施形態の一態様において、制御論理には、対象オブジェクトに物理的属性を適用できるようにするためのコンピュータ可読プログラムコードが含まれる。他の態様として、拡張現実環境自体に物理的属性を適用できるようにするためのコンピュータ可読プログラムコードが含まれる。
本発明の実施形態の一態様において、制御論理には、対象オブジェクトに物理的属性を適用した効果をシミュレートするためのコンピュータ可読プログラムコード、および、対象オブジェクトに物理的属性をシミュレートした結果を表示するためのコンピュータ可読プログラムコードが含まれる。
本発明の実施形態の一態様において、対象オブジェクトは、表示装置によって取得された実際のオブジェクトの画像である。他の態様では、対象オブジェクトの画像は、表示装置のカメラによって取得される。さらに他の態様では、対象オブジェクトの画像は表示装置にアップロードされる。
本発明の実施形態の一態様において、対象オブジェクトは、ユーザにより拡張現実環境内に生成された3次元デザインである。
本発明の実施形態の一態様において、本発明に係るシステムは、外部ソースから3次元モデルをアップロードすることができる。
本発明の実施形態の一態様において、制御論理には、表示装置によるモーションキャプチャおよび距離検知を可能とするためのコンピュータ可読プログラムコードが含まれる。
本発明の実施形態の一態様において、制御論理には、拡張現実環境に複数のユーザが参加できるようにするためのコンピュータ可読プログラムコードが含まれる。また、他の態様では、複数のユーザによる共同設計を可能とするためのコンピュータ可読プログラムコードが含まれる。
本発明の実施形態の一態様において、制御論理には、表示装置による対象オブジェクトの拡大または縮小のシミュレーションを可能とするためのコンピュータ可読プログラムコードが含まれる。
本発明の実施形態の一態様において、制御論理には、拡張現実環境におけるユーザの視野視線をシミュレートするためのコンピュータ可読プログラムコードが含まれる。他の態様では、コンピュータ可読プログラムコードには、表示装置の位置および拡張現実環境におけるオブジェクトと表示装置の焦点を結ぶためのコンピュータ可読プログラムコードが含まれる。
本発明の実施形態の一態様において、制御論理には、拡張現実環境の移動を可能にするためのコンピュータ可読プログラムコードが含まれる。また、他の態様では、コンピュータ可読プログラムコードには、表示装置の動きを検知するためのコンピュータ可読プログラムコード、および、表示装置と1つまたは複数のセンサとの距離を判定するためのコンピュータ可読プログラムコードが含まれる。
本発明の実施形態の一態様において、制御論理には、ユーザが決定した物理的特性を適用して対象オブジェクトを生成および表示するためのコンピュータ可読プログラムコードが含まれる。
本発明の実施形態の一態様において、制御論理には、表示装置の拡張現実環境に対する距離の変化に基づいて音声を再生するためのコンピュータ可読プログラムコードが含まれる。
本発明の実施形態の一態様において、制御論理には、表示原点を決定するためのコンピュータ可読プログラムコードが含まれる。他の態様では、コンピュータ可読プログラムコードには、1つまたは複数のセンサによって形成された配置レイアウトの幅および長さの変数を決定するためのコンピュータ可読プログラムコードが含まれる。配置レイアウトは、例えば矩形形状であり、この場合の表示原点は長さおよび幅をそれぞれ2で割ることにより決定される。
ヘッドアップディスプレイ(HUD)は、ユーザが通常の視点から視線を逸らすことなく視認可能なデータを表示することができる透明ディスプレイである。本発明は、ヘッドアップディプレイと、ユーザが拡張現実環境に3次元(3D)モデルを表示することができるように構成されたコンピュータ支援設計(CAD)ソフトウェアとを組み合わせたものである。また、HUDは、モーションキャプチャと距離検知機能を備える。本発明に必要なソフトウェアは、内部または外部に格納される。内部に格納される場合、CADソフトウェアは局部的(ローカル)に格納され、HUD装置の内蔵CPUにおいて処理される。他方で、外部装置(携帯電話、PC、ウェブサーバー)からのコンテンツを表示するGoogle Glass(登録商標)などのHUD装置の場合、使用されるCADソフトウェアはHUD装置の外部に格納され、処理される。なお、本発明に係るHUD装置は、ヘッドアップディスプレイのみに限定されず、透明の、および/またはシミュレートされた拡張現実一人称視野を表示することができるウェアラブル装置などのモバイル装置も含む。透明な拡張現実視野を表示するHUD装置では、透明LEDディスプレイ技術を用いることで、3D画像が重畳された現実を視認することができる。HUDの一人称3D視点をシミュレートする装置は、その内部または外部のカメラによって取得された現実視野の上に重ねて、画像をレンダリングすることができる。その一つの例は、内部カメラによって取得された(または内部カメラによって視認された)現実のユーザの視点を拡張する3D環境の一人称視野を表示可能なタブレットがある。以下、上記装置および本発明に係るHUD装置は、表示装置および/またはHUDと呼ぶ。
図1は、直交座標グリッドの一例を示す。3次元空間のための直交座標系は、図1に示すように、互いに直交する3つの線(軸)を配置し、3つの軸の単位長さおよび方向を定めたものである。2次元の例のように、各軸は数値線となる。点Pの座標は、図1に示すように、点Pから各座標軸に向かって垂直に線を引き、上記線が各座標軸との交わる点の数値線における数値を読み取ることにより得られる。これらの座標系は、主にコンピュータ支援設計(CAD)または3Dモデリングソフトウェアを用いた3Dモデルの設計において使用される。本発明において、拡張現実環境は、カメラの視線を利用した画像認識ではなく、センサ配置を用いて生成される。上記座標系は、位置センサによって現実の位置を正確に決定できるように表示される。
図2は、本発明の実施形態の一態様におけるセンサ204の付近に位置するユーザ202を示す。ユーザ202は、センサ204とともに示されている。後述のように、1つまたは複数のセンサ204が配置される。位置センサ204は、表示装置がその認識ソフトウェアの機能によって物理的存在を認識または検知することができる距離検知センサである。位置センサ204は、主にユーザが拡張現実環境の物理的特性、スケール、位置および/または方向を決定できるようにするために用いられる。
図3、4および5は、本発明の実施形態の一態様におけるユーザ202と複数の位置センサ204、センサ同期プロセス、および配置された表示環境の例を示す。位置センサ204は、ユーザ202がセンサ204を平面上に設置でき、かつ、表示装置がセンサ204を検知できる程度に間隔を開けて配置されている。位置センサ204は、図示されるように、現実環境のサイズおよび寸法の正確な複製をシミュレートできるように配置される。これにより、図5に示されるように、高層ビルのように大きな、あるいは硬貨のように小さな3Dモデルまたは対象オブジェクト502を正確なスケールでレンダリングすることが可能な拡張現実環境を生成することができる。位置センサ204は、ユーザのワークスペースの境界または周長寸法を決定するために平面上に配置される。センサ204は、表示装置と同期して直交デカルトグリッドの物理的位置の基点を仮想的に表現する。表示装置のソフトウェアは、表示装置の内部または外部に設けられたセンサを用いて、位置センサ204を検知し、これらと同期する。同期プロセスにおいて、上記ソフトウェアは各センサ間の距離を計算して、拡張現実環境の寸法容量/限界を、現実環境の寸法容量/限界に一致するように取得する。
図4に示されるように、各センサ間の距離計算のセンサ同期プロセスでは、1つのセンサから他のセンサまでコンピュータ生成仮想水平線を引き、目盛りを付ける。目盛りは、センサ間のすべての測定可能な仮想単位(センチメートル、インチ、フィート等)を測定することができる。同期プロセスにおいて生成された線および目盛りは、デフォルトでは表示装置ユーザインターフェースから隠されているが、ユーザは自由に表示させることができる。ユーザは、各センサ間の長さおよび幅を特定することで、ワークスペースが適切なサイズ容量を有すること、および、センサがユーザの意図する投影を行うために正確な平行配置を有することを確認することができる。図6は、同期によって生成された、拡張現実環境または表示環境600と呼ばれるコンピュータ生成3軸、3D直交グリッドである。1つまたは複数の静止センサ204によって表示環境600が形成されることで、拡張現実表示エリアまたはワークスペースが生成される。表示環境600は、主に拡張現実オブジェクト、アプリケーションまたはオペレーティングシステムを表示および/または設計するために用いられる。
図7は、本発明の実施形態の一態様における、数式を用いて単一センサ原点(SSO)702を特定するユーザ202を示す。図8は、本発明の実施形態の一態様における、大規模環境の配置を示す。
表示環境600を配置するには、表示原点を決定するための単一センサ原点(SSO)702または複数センサ原点(MSO)802が必要である。表示原点は、SSOまたは表示環境の物理的境界を定める直交点のセットとして配置された複数のセンサの位置により定められた現実の単一点である。単一センサ原点(SSO)702は、表示環境600の原点値(0,0,0)および表示環境600のソフトウェア配置点を自動的に特定するために、ユーザ202の所望の物理的位置に配置されたセンサに基づく。SSO702は、表示環境600の長さおよび幅の設定のための中心点として用いられる。また、SSO702は、表示環境600の高さまたは深さの起点として用いられる。長さ、上記幅および高さ(または深さ)の値は、ユーザ202が手動で設定してもよい。これにより、図7および図8に示すように、ソフトウェアはSSO702またはMSO802を表示環境600の原点として計算し、これにユーザ202が設定した長さ、幅および高さ(または深さ)の値を用いて自動的に3D直交境界を生成することができる。MSO802を用いて表示環境600を配置するためには、ソフトウェアが、1つのセンサを仮の原点として、2つの隣接するセンサから上記原点までの距離を計算して長さおよび幅の値を生成することが必要である。上記計算により、ソフトウェアがMSO802を生成できるようにするための現実の物理点が提供される。MSO802は、複数の(主に直交構造に結合された4つの)センサ204の中点の値である。図8に示すように、上記4つのセンサの長さおよび幅の値を2で割り、xとyをMSO802の変数値とする。例えば、x=幅/2、y=長さ/2であれば、MSO802の点は座標(X,Y,Z)に等しくなる。MSOの計算において、ユーザが表示環境の高さ値を設定していない場合、z変数の初期値は0となる。
(MSO)プロセスの例
1.4つのセンサを配置して、表示環境直交形状の四隅を決定する
2.上記直交する四隅の長さおよび幅の変数を計算する
例:L=12、W=6
3.長さおよび幅を2で割り、xおよびy変数を計算する
例:X=12/6、Y=6/2
X=6、Y=3、Z=0
MSO=(6,3,0)
4.ソフトウェアが上記計算したMSO点を表示環境特性に格納する
表示環境600の表示原点が設定されると、ユーザ202は表示環境特性と呼ばれる環境特性のリストを決定する。表示環境特性は、ユーザ202が表示環境600に適用される属性値のリストを管理できるようにするためのソフトウェア生成メニューである。格納される属性は、表示環境600の物理的および相互作用的特性に関するメタデータなどである。格納される特性の非限定的な例としては、MSO、SSO、環境長さ、環境幅、環境高さ、x軸の最大値、y軸の最大値、z軸の最大値などがあり、表示環境600の視覚的特性も上記特性によって設定された属性により決定される。
図9は、本発明の実施形態の一態様に係る表示装置902の位置同期プロセスの一例を示す。表示装置902の位置は、表示装置902から表示環境600のセンサ204までの距離および高さの値の組み合わせにより決定される。図9に示すように、上記計算の結果はHUDセンサ同期プロセスと呼ばれる。HUDセンサ同期プロセスは、それが位置センサ204から表示装置902まで引かれた目盛線を測定に用いる点以外は、前述のセンサ同期プロセスと同一である。HUDセンサ同期プロセスにより表示装置902の距離および高さが測定され、表示装置902から、SSO702またはMSO802からの垂直線と交差する水平線が生成される。表示装置902の距離は、表示装置902からSSO702またはMSO802の垂直交差点までの水平目盛りをカウントすることで測定される。一方、表示装置902の高さは、SSO702またはMSO802の水平交差点から表示装置902までの垂直目盛りをカウントすることで測定される。ユーザ202(表示装置902の使用者)が表示装置902の物理的位置および方向を変化させるにしたがい、表示装置902の位置の値も変化するため、その特定は動的計算による。表示装置902の位置の再計算は、表示装置902のモーションキャプチャ検知機能によって受信された信号により開始される。
図10〜図12は、本発明の実施形態の一態様における、3Dレンダリングおよび投影、焦点および視線を含む表示装置902の一人称視点(POV)、および、焦点および視線を含む表示装置902の三人称視点(POV)の例を示す。
視点(POV)として参照された表示装置ユーザインターフェース(UI)1102は、3Dレンダリングのコンピュータグラフィックスプロセスを用いて、自動的に3Dワイヤフレームモデルを2D画像に変換することができる。図10に示すように、3Dワイヤモデル上の点を表示環境にプロットした後、表示装置902のソフトウェアが3Dレンダリングを適用して写実的ユーザインターフェースをシミュレートする。視点(POV)1102は、3Dレンダリングされたオブジェクトを含むユーザ202の現実の一人称視点をシミュレートする。また、図11および図12に示すように、視点(POV)1102は、3D投影および正射投影を用いて投影面としての2D画像を表示することにより、表示環境600の態様を表示する。上記投影面は、表示装置902の焦点および表示環境600からの視線に垂直な平面である。透視投影の焦点は、ユーザ202の視野の中心または原点である。図11および図12に示すように、表示装置902の位置および表示環境600の特性を上記焦点と組み合わせることで、ユーザ202からの視線をシミュレートすることができる。
図13〜図15は、それぞれ、本発明の実施形態の一態様において、距離が変化する表示環境を表示視点(POV)から見た様子を示した図、ディスプレイにおけるモーションキャプチャおよび画像変化の様子を一人称視野からの視線とともに示した図、および、ディスプレイにおけるモーションキャプチャおよび画像変化の様子を、三人称視野からの視線とともに示した図である。
モーションキャプチャ技術は、表示装置902から表示環境600までの距離が変化した場合の表示装置902の視線の再計算のために用いられる。図13〜図15に示すように、ユーザ202が表示装置902と表示環境600との距離を変化させると、その動きが取得され、ソフトウェアが表示装置902により投影された画像を再レンダリングする。図14および図15に示すように、再レンダリングでは、表示装置902の視点(POV)の視線1102が表示環境600と交わる点を再計算することにより、表示環境600の移動をシミュレートする。
図16〜図18は、本発明の実施形態の一態様における、三人称視野からの表示環境600の3D方向移動、および一人称/三人称視点(POV)ヘッドチルトモーションキャプチャ視野効果を示す。図16に示すように、表示環境の移動は、現実世界の3次元運動の効果および上下左右前後の視野を生成する。また、図17および図18に示すように、ユーザは傾斜した角度で視野を見ることができる。
図19および図20は、一人称および三人称視点からの内部および外部位置視点(POV)の例を示す。位置視点は、ユーザ202が表示環境600の境界の内部または外部に存在しているようにシミュレートする。大規模表示環境が配置され、表示装置902の位置が表示環境600の境界の内部にことが測定できる場合、表示された画像から内部次元視点(POV)を生成する。内部次元視点(POV)は、ユーザの視線を調節して表示環境600を内部から360度の水平および垂直視野範囲で表示する。例えば、図19および図20に示すように、大きな建物の3Dモデル生成するために十分な間隔を有する複数のセンサを備える表示環境600において、ユーザ202は自由に移動し、上記モデルを内部および外部のあらゆる角度から眺めることができる。ユーザの表示装置の水平視線が表示環境の座標と交わらない場合、画像は表示されず、ユーザが表示環境またはオブジェクトを見ていないかのようにシミュレートする。
図21および図22は、本発明の実施形態の一態様における、相互作用装置同期プロセス、および、ユーザ202が相互作用装置2102を使用している様子の一例を示す。相互作用装置2102には、ユーザ202によって入力されたソフトウェアコマンドを取得するための表示装置902のソフトウェアと同期する周辺装置が含まれる。また、相互作用2102は、ユーザが相互作用装置同期プロセスを用いて、ユーザ視点(POV)1102から視認することができるソフトウェアコマンドを生成するための相互作用装置の位置座標を取得することにより、表示環境インターフェースおよび3Dモデルを操作することを可能とする。図21に示すように、相互作用装置同期プロセスは、表示装置ではなく周辺装置を用いる点を除けば、HUDセンサ同期プロセスと同様である。上記装置には、例えば、スタイラスワンド、キーボード、マウス、リモコン、手、目または体の動きを取得するための装置、および脳コンピュータインターフェース(BCI)装置が含まれるが、これらに限定されない。図22に示すように、相互作用装置ソフトウェアコマンド入力機能は、前述の表示環境におけるユーザ視点(POV)の表示方法と同様に処理され、相互作用装置と表示環境の距離が取得された後、画像がレンダリングされるのではなく、上記ソフトウェアが装置の位置におけるコマンドを処理する。
図23〜図27は、本発明の実施形態の一態様における、グリッド線を含まない三人称視点視野からの設計ユーザインターフェース、トグルされたグリッド線を含む三人称視点視野からの設計ユーザインターフェース、グリッド線を含まない設計ユーザインターフェースの代替表示環境視野、グリッド線を含む設計ユーザインターフェースの代替表示環境視野、およびユーザが1Dから3Dへオブジェクトを段階的に設計したり、傾斜やサイズ変更を加えている様子を示す。
オブジェクトは、現実世界の物理的寸法、テクスチャなどの構成をシミュレートするための特定の属性を備えるように設計され、表示環境600に表示される。ユーザは、オブジェクトを設計する際、複数の表示環境視点およびオブジェクトの方向を視認したり操作することができる。設計インターフェース2504は、相互作用装置を用いて生成されたソフトウェアコマンドからのオブジェクトを設計するために使用される複数のオブジェクト生成ツールを提供する。表示装置を表示環境600と同期させることで、ユーザは表示環境600上の特定の点に基づいて3Dオブジェクトを設計および操作することができる。本発明において参照される3Dオブジェクトは、表示環境600として表示されたソフトウェア生成直交座標系にプロットされた3Dモデルである。図23〜図26に示すように、オブジェクト設計プロセスにおいて、ユーザはオブジェクトの設計精度を高めるための透明グリッドの代替表示環境視野をトグルオン/オフすることができる。従来のCADソフトウェアの態様は、3Dオブジェクト設計プロセスにおいて、ユーザに一人称視野をもたらす設計インターフェースにより提供される。上記プロセスでは、長さ、幅、高さ、および半径などの物理的特性を特定することにより、1次元形状を決定する。例えば、一般的な1D形状には、円、四角形および三角形がある。これらの1D形状を修正して、円錐、直方体および球などの3Dモデルが生成される。その後、3Dモデルは、図27に示すように、サイズおよび特殊な形状などの物理的特性を取得するためにカスタマイズされる。また、1D形状は、ベーシックフリーハンドまたはユーザが形状の物理的特性を決定するために用いる直線描画ツールにより設計される。ユーザの設計視野は、表示環境600との距離が変化する表示装置視点に基づく。
図28〜図31は、本発明の実施形態の一態様において、表示装置902の一人称および三人称視点から見たオブジェクトの方向を回転させる様子、および、ユーザの距離に基づく一人称および三人称視点から見たスナップ点3002を示す。スナップ点は、Autodesk社のAuto CAD Object Snaps(Osnaps)に類似し、オブジェクトを正確に描画および操作するために、他のCADソフトウェアコマンドとともに用いられる。スナップ点により、特定のオブジェクト位置をスナップして、これを相互作用点として特定することができる。図28および図29に示すように、ユーザは表示装置に表示されたオブジェクトを距離に基づいて視認するため、ユーザは、より良好な視点を得るために表示環境の周りを移動するか、スナップ点を備える相互作用装置を用いて所望のオブジェクトを移動または回転させることにより、3Dオブジェクトの方向を調整する必要がある。
また、図30および図31に示すように、スナップ点は線の終点または円の中心まで正確にスナップすることができるため、3Dオブジェクトの特殊な形状の一部となる他の線の一部分を引くことができる。
図32および図33は、本発明の実施形態の一態様における、一人称および三人称視点から見た、スナップ点を変更するための視野の移動/変化の様子を示す。表示装置の距離が変化するにつれ、スナップ点3002は視認できたり、できなくなったりする。これにより、図32および図33に示すように、ユーザは、ユーザ視点またはオブジェクト方向に基づく相互作用を制限することができる。
図34は、本発明の実施形態の一態様における、メニューを用いて物理的特性を追加している様子を、図35は、本発明の実施形態の一態様における、オブジェクトにテクスチャおよび重力の物理的特性を付与している様子をそれぞれ示す。物理特性ユーザインターフェース(UI)3402を用いて、あらかじめ設計された3Dオブジェクトに物理的特性を付与することができる。上記ユーザインターフェースは、図34に示すように、ユーザによって付与された属性のメニューを表示して、オブジェクトの物理的または視覚的特性をシミュレートする。オブジェクトの属性としては、下記の表1に列挙する属性が含まれるが、これらに限定されない。
Figure 2016526222
ソフトウェアが物理的特性を認識することで、表示装置902のソフトウェアまたは相互作用装置による様々なオブジェクト反応および相互作用がもたらされる。上記3Dオブジェクト反応は、現実世界における反応または異なるタイプの物理系の概略シミュレーションを提供できるようにソフトウェアによって処理された選択可能かつカスタマイズ可能な物理エンジンによりあらかじめ決められている。本発明の実施形態の一態様において、物理エンジンは、現実世界の物理反応をシミュレートするための計算結果を生成する。物理エンジンは、ソフトウェアの一部、あるいは装置の内部または外部に存在するソフトウェアである。
表示装置902のソフトウェアにより、ユーザ202は、異なるシミュレート環境でのオブジェクトの一人称視野からそれらの反応の様子を視認することができる。図36に示すように、シミュレート環境は、温度や環境的効果などの現実正解の設定におけるオブジェクト効果を含むことができる。
本発明の実施形態の一態様において、ユーザから見たオブジェクトおよび反応/応答の様子を選択および整理するために、表示レイヤ指数が用いられる。各レイヤは、0を最下層として順に積層される特定の指数によって整列される。レイヤは、不可視化、記録、削除または上書き制限をすることができる。
図36は、本発明の実施形態の一態様における物理エンジンにより重力が適用されたオブジェクト2502をユーザの3人称視野から視認した様子を、図37は、本発明の実施形態の一態様における衝突の物理エンジンシミュレーションおよびオブジェクトへの衝突検知効果をユーザの三人称視野から視認した様子をそれぞれ示す。
図38および図39は、本発明の実施形態の一態様における三人称視点から見たオブジェクトの段階的なアニメーションキャプチャを示す。図40および図41は、本発明の実施形態の一態様におけるソフトウェアイベントトリガのための物理反応条件文の例、および相互作用装置イベントのための物理反応条件文の例を示す。前述の物理エンジンは、ユーザが決定した物理的特性に基づくオブジェクトの運動の効果を計算する。ユーザは、あらかじめ設定された物理エンジンまたは外部から取り込んだ物理エンジンを用いて、シミュレーションの結果を修正することができる。カスタム物理エンジンの適用例としては、地球の大気特性とは異なる月の大気特性をシミュレートした環境などがある。ユーザは、オブジェクトの物理的特性値を調整することで物理計算を修正することができる。表示環境600を用いることで、ユーザ202は、現実世界における反応と同等のリアルタイムな動的反応を得ることができる。
オブジェクト思考は、オブジェクトのために人工知能をシミュレートする。オブジェクト思考ユーザインターフェースにより、ユーザは、相互作用装置、またはソフトウェアにより提供された自動イベントトリガによりトリガされたユーザの行動に基づいて再生されるフレーム単位のオブジェクトアニメーションを取得することができる。図38および図39に示すように、オブジェクトの運動の取得においては、ユーザがオブジェクトを動かし、ソフトウェアを用いてオブジェクト3702のスナップ点3802の位置の変化の段階的な計算結果を取得する。サイズや形状などのオブジェクトの物理的特性の変化も、段階的操作により取得することができる。フレーム単位のオブジェクトアニメーションを取得した後、ユーザは、オブジェクトの論理的運動、反応および一般的な運動性をシミュレートするための物理反応論理を構成することができる。物理反応論理は、上記取得されたオブジェクト思考アニメーションを用い、条件文計算論理を適用して、ソフトウェアおよび/またはユーザ202により開始されたイベントトリガに対するオブジェクトの反応を判定する。条件文計算は、イニシエータのコマンド(開始イベント)および動作からなる段階的プロセスを生成する。条件文は、一般的に、開始イベント、応答、複数の論理的結果を生成する節、パラメータおよび変数を有する。例えば、図40および図41に示すように、ユーザがタイヤ4002を支えるオブジェクト4004を動かすと(開始イベント)、タイヤ4002が転がる(オブジェクト思考回転動作(運動))。上記人工知能(物理反応論理)に基づく条件文により、オブジェクトは動的状況におけるスクリプト化された動作および応答を行うことができる。
本発明の実施形態の一態様では、オブジェクトソリューション環境(OSE)ユーザインターフェースが、ユーザがカスタム動作計算、先端科学数式、メニュー、コンテンツおよびメディアタイプ(画像、動画、音声等)を組み込むプロセスソリューション(HUDアプリケーションまたはメディアコンテンツ)を生成できるようにするためのツールを提供する。オブジェクトソリューションは、モバイルアプリケーションおよび/またはコンピュータプログラムのコンセプトと同様に、他のHUDユーザによる再利用および相互作用のために包括されてもよい。
音声再生は、表示装置902の物理的位置による影響も受ける。オブジェクトにより生成された音声は、ユーザ202が表示環境600を移動しつつ3D音声を聞くことができるように、ソフトウェアによりシミュレートされる。ソフトウェアは、表示装置902と表示環境600の距離の変化に応じて再生音声を変化させる。頭部伝達関数および反響を用いて、音源(壁や床からの反射を含む)から聴取者の耳に到達するまでの間における音声の変化がシミュレートされる。上記効果には、聴取者の後方、上方および下方の音源の定位が含まれる。3D技術により、バイノーラル録音をステレオ録音に変換することもできる。Morrow Sound True 3D(登録商標)は、バイノーラル、ステレオ、5.1ch等のフォーマットをリアルタイムに8.1ch単一/複数ゾーン3D音声に変換する。
図42および図43は、本発明の実施形態の一態様における、1人称および3人称視野から見た複数のユーザによる共同設計の様子を示す。本発明の態様は、表示環境の相互作用、移動および視野を同時に実現する複数ユーザ4302間の連携を可能とする。一態様において、上記連携には、ユーザが3D環境データに一度にアクセスできるようにするためのインターネットまたはローカルサーバ接続が必要である。複数のユーザ4302によるアクセスは共同設計を実現する。共同設計は、複数のユーザが同時にオブジェクトを設計するとともに、オブジェクトおよび/または環境についてのコメント、編集等のリアルタイムのマークアップを付することができるオブジェクト設計および表示におけるプロセスである。また、共同設計機能は、複数のユーザが表示環境を眺め、または表示するためのキーツールとして用いられる。本発明の実施形態の一態様において、ユーザは、メモや経過の変更を保存するために、環境にコメントや図を付加することができる。また、CAD等の適用可能なソフトウェアを用いることで、複数のユーザが1つの環境で共同設計を行うことができる。CADソフトウェアをウェブサーバを通じて外的に処理する場合でも、複数のユーザは連携してオブジェクトを設計することができる。図42および図43に示すように、表示環境のユーザ視点(POV)は、それぞれ表示されるオブジェクトおよび角度の異なる固有の視野を有する。
図44は、本発明の実施形態の一態様における、タイヤが回転/反跳するように相互作用する音声付き画像4402を、図45は、本発明の実施形態の一態様における、表示環境600において視認/相互作用される人間の3D動画4502をそれぞれ示す。
ソリューション設計プロセスは、設計されたオブジェクトの包括化、物理法則、メニューおよびメディアコンテンツを備える人工知能(AI)、からなる。上記プロセスにより、ユーザは、表示環境、または表示装置にアプリケーションとして表示するために設計されたオブジェクトを眺め、生成し、保存し、共有および相互作用することができる。インタラクティブメニューおよび動作は、保存されたソフトウェアコマンドを開始するためにユーザにより適用される種々のオプションを提供する。本例のソフトウェアコマンドは、あらかじめ設計された動作/イベントトリガまたはユーザが決定したオブジェクト物理反応論理模倣イベントである。相互作用装置は、ユーザ相互作用のソースを生成する上記ソフトウェアコマンドを開始することができる。また、画像、音声および動画などのメディアコンテンツを用いて、ユーザの相互作用および体験をより一層高めることができる。一つの例として、図44に示すような、タイヤの3Dモデルが音声効果を伴って回転動作をするイベントをトリガするユーザ決定画像がある。また、別の図例として、図45に示すような、本発明の3Dオブジェクト特性と同様に、ユーザが相互作用でき、その周囲を表示装置とともに移動することができる3Dキャプチャされた人間の動画がある。
本発明の実施形態の一態様の適用例を以下に示す。まず、ユーザは、位置センサを用いて表示環境のOSEワークスペースの輪郭/境界を決定することで、ワークスペースを特定する。次に、ユーザは、設計ツールを用いてオブジェクトの形状を操作し、所望の物理的寸法を有するオブジェクトを生成する。次に、ユーザは、オブジェクトごとに物理的特性を選択、適用して、OSE物理現象との関係性を生成する。次に、ユーザは、シミュレートするOSEに物理現象を設定する。次に、ユーザは、オブジェクトのための人工知能をシミュレートするためのオブジェト思考を設計する。「思考」ユーザインターフェースにより、ユーザは、相互作用装置によりトリガされた(またはユーザにより割り当てられた)ユーザの動作、またはソフトウェアによりトリガ/提供された自動イベントに基づいて再生されるフレーム単位のアニメーションによりオブジェクトの運動を取得することができる。次に、ユーザは、特定のオブジェクトに論理および/またはアニメーションを適用して、運動を生じさせる。ユーザは、選択的にロジスティクスや他の統計的手法を取り入れることができる。ユーザは、包括的なプロジェクトを保存し、他のユーザと共有することができる。
以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明はかかる例に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範囲内において、種々の変更または修正を行うことが可能であるものと理解される。

Claims (28)

  1. コンピュータにより3次元オブジェクトの一人称拡張現実視野を生成できるようにするための制御論理が格納されたコンピュータ使用可能媒体を有するコンピュータプログラム製品であって、
    前記コンピュータ使用可能媒体は、
    表示装置と少なくとも1つのセンサとの通信を開始するためのコンピュータ可読プログラムコードと、
    前記センサからのセンサデータを受信するためのコンピュータ可読プログラムコードと、
    前記センサデータを用いて拡張現実環境を生成するためのコンピュータ可読プログラムコードと、
    前記拡張現実環境内に3次元対象オブジェクトを組み込むためのコンピュータ可読プログラムコードと、
    前記拡張現実環境に直交座標グリッドを適用するためのコンピュータ可読プログラムコードと、
    一人称拡張現実視野における前記拡張現実環境に前記対象オブジェクトを表示するためのコンピュータ可読プログラムコードとを含むことを特徴とするコンピュータプログラム製品。
  2. 前記対象オブジェクトの操作を可能とするコンピュータ可読プログラムコードをさらに含むことを特徴とする請求項1に記載のコンピュータプログラム製品。
  3. 前記表示装置の位置または方向の変化を反映させるために、前記対象オブジェクトの表示を変更するためのコンピュータ可読プログラムコードをさらに含むことを特徴とする請求項1に記載のコンピュータプログラム製品。
  4. 前記センサデータは、前記拡張現実環境の物理的特性、スケール、位置および方向に関するデータを含むことを特徴とする請求項1に記載のコンピュータプログラム製品。
  5. 前記拡張現実環境に3次元画像を重ね合わせることを可能とするコンピュータ可読プログラムコードをさらに含むことを特徴とする請求項1に記載のコンピュータプログラム製品。
  6. 前記拡張現実環境は、前記少なくとも1つのセンサの配置により生成されることを特徴とする請求項1に記載のコンピュータプログラム製品。
  7. 前記直交座標グリッドの仮想表現を行うためのコンピュータ可読プログラムコードをさらに含むことを特徴とする請求項1に記載のコンピュータプログラム製品。
  8. 前記仮想表現は、前記表示装置と前記少なくとも1つのセンサとの同期により行われることを特徴とする請求項7に記載のコンピュータプログラム製品。
  9. 前記少なくとも1つのセンサの実際の位置を用いて表示原点を決定するためのコンピュータ可読プログラムコードをさらに含むことを特徴とする請求項1に記載のコンピュータプログラム製品。
  10. 写実的ユーザインターフェスをシミュレートするために、リアルタイム効果をレンダリングするためのコンピュータ可読プログラムコードをさらに含むことを特徴とする請求項1に記載のコンピュータプログラム製品。
  11. 前記拡張現実環境におけるユーザの存在をシミュレートするためのコンピュータ可読プログラムコードをさらに含むことを特徴とする請求項1に記載のコンピュータプログラム製品。
  12. 前記対象オブジェクトに物理的属性を適用することを可能とするコンピュータ可読プログラムコードをさらに含むことを特徴とする請求項1に記載のコンピュータプログラム製品。
  13. 前記対象オブジェクトに物理的属性を適用した効果をシミュレートするためのコンピュータ可読プログラムコードをさらに含むことを特徴とする請求項12に記載のコンピュータプログラム製品。
  14. 前記対象オブジェクトに物理的属性を適用した効果をシミュレートした結果を表示するためのコンピュータ可読プログラムコードをさらに含むことを特徴とする請求項13に記載のコンピュータプログラム製品。
  15. 前記対象オブジェクトは、前記表示装置によって取得された実際のオブジェクトの画像であることを特徴とする請求項1に記載のコンピュータプログラム製品。
  16. 前記対象オブジェクトは、ユーザにより前記拡張現実環境内に生成された3次元デザインであることを特徴とする請求項1に記載のコンピュータプログラム製品。
  17. 前記表示装置によるモーションキャプチャおよび距離検知を可能とするコンピュータ可読プログラムコードをさらに含むことを特徴とする請求項1に記載のコンピュータプログラム製品。
  18. 前記拡張現実環境に複数のユーザが参加することを可能とするコンピュータ可読プログラムコードをさらに含むことを特徴とする請求項1に記載のコンピュータプログラム製品。
  19. 前記複数のユーザによる共同設計を可能とするコンピュータ可読プログラムコードをさらに含むことを特徴とする請求項18に記載のコンピュータプログラム製品。
  20. 前記拡張現実環境のユーザ視点を生成し、前記ユーザが前記拡張現実環境内を視認および移動することを可能とするコンピュータ可読プログラムコードをさらに含むことを特徴とする請求項1に記載のコンピュータプログラム製品。
  21. 前記コンピュータ可読プログラムコードは、前記表示装置の位置および前記拡張現実環境におけるオブジェクトと表示装置の焦点を結ぶためのコンピュータ可読プログラムコードを含むことを特徴とする請求項20に記載のコンピュータプログラム製品。
  22. 前記表示装置による前記対象オブジェクトの拡大または縮小のシミュレーションを可能とするコンピュータ可読プログラムコードをさらに含むことを特徴とする請求項1に記載のコンピュータプログラム製品。
  23. 前記拡張現実環境の移動を可能とするコンピュータ可読プログラムコードをさらに含むことを特徴とする請求項1に記載のコンピュータプログラム製品。
  24. 前記コンピュータ可読プログラムコードは、
    前記表示装置の動きを検知するためのコンピュータ可読プログラムコードと、
    前記表示装置と前記少なくとも1つのセンサとの距離を判定するためのコンピュータ可読プログラムコードとを含むことを特徴とする請求項23に記載のコンピュータプログラム製品。
  25. 物理的特性を適用した対象オブジェクトを生成および表示するためのコンピュータ可読プログラムコードをさらに含むことを特徴とする請求項1に記載のコンピュータプログラム製品。
  26. 前記表示装置の前記拡張現実環境に対する距離の変化に基づいて音声を再生するためのコンピュータ可読プログラムコードをさらに含むことを特徴とする請求項1に記載のコンピュータプログラム製品。
  27. 表示原点を決定するためのコンピュータ可読プログラムコードをさらに含むことを特徴とする請求項1に記載のコンピュータプログラム製品。
  28. 前記コンピュータ可読プログラムコードは、
    前記少なくとも1つのセンサによって形成された配置レイアウトの幅および長さの変数を決定するためのコンピュータ可読プログラムコードと、
    前記幅および長さの変数を2で割るためのコンピュータ可読プログラムコードとを含むことを特徴とする請求項27に記載のコンピュータプログラム製品。
JP2016515147A 2013-05-30 2014-05-29 Hudオブジェクト設計および表示方法。 Active JP6625523B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201361828745P 2013-05-30 2013-05-30
US61/828,745 2013-05-30
PCT/US2014/039987 WO2014194066A1 (en) 2013-05-30 2014-05-29 Hud object design and method

Publications (2)

Publication Number Publication Date
JP2016526222A true JP2016526222A (ja) 2016-09-01
JP6625523B2 JP6625523B2 (ja) 2019-12-25

Family

ID=51989389

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016515147A Active JP6625523B2 (ja) 2013-05-30 2014-05-29 Hudオブジェクト設計および表示方法。

Country Status (7)

Country Link
US (1) US10217285B2 (ja)
JP (1) JP6625523B2 (ja)
KR (1) KR102249577B1 (ja)
CN (1) CN105264571B (ja)
CA (1) CA2906207C (ja)
GB (1) GB2527973B (ja)
WO (1) WO2014194066A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6189513B1 (ja) * 2016-10-18 2017-08-30 株式会社コロプラ 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム
WO2021235316A1 (ja) * 2020-05-21 2021-11-25 ソニーグループ株式会社 情報処理装置、情報処理方法および情報処理プログラム

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3067781B1 (en) 2013-11-05 2023-03-08 Sony Group Corporation Information processing device, method of processing information, and program
AU2015221370A1 (en) 2014-02-21 2016-09-15 Trispera Dental Inc. Augmented reality dental design method and system
US9728010B2 (en) * 2014-12-30 2017-08-08 Microsoft Technology Licensing, Llc Virtual representations of real-world objects
US9916400B1 (en) * 2015-02-12 2018-03-13 United Technologies Corporation User defined object pusher for multi-user CAx environment
US20170061700A1 (en) * 2015-02-13 2017-03-02 Julian Michael Urbach Intercommunication between a head mounted display and a real world object
JP6250592B2 (ja) * 2015-06-02 2017-12-20 株式会社ソニー・インタラクティブエンタテインメント ヘッドマウントディスプレイ、情報処理装置、表示制御方法及びプログラム
JP6742701B2 (ja) * 2015-07-06 2020-08-19 キヤノン株式会社 情報処理装置、その制御方法及びプログラム
DE102015010135B3 (de) * 2015-08-01 2017-01-12 Audi Ag Verfahren zur Auswahl eines Auswertungsobjekts für eine Funktion in einem Kraftfahrzeug und Kraftfahrzeug
JP6367166B2 (ja) 2015-09-01 2018-08-01 株式会社東芝 電子機器及び方法
KR102523997B1 (ko) 2016-02-12 2023-04-21 삼성전자주식회사 360도 영상 처리 방법 및 장치
CN105807936B (zh) * 2016-03-31 2021-02-19 联想(北京)有限公司 信息处理方法及电子设备
JP6802854B2 (ja) * 2016-11-01 2020-12-23 株式会社Fuji 画像処理用部品形状データ作成システム及び画像処理用部品形状データ作成方法
US10867445B1 (en) * 2016-11-16 2020-12-15 Amazon Technologies, Inc. Content segmentation and navigation
CN106951153B (zh) * 2017-02-21 2020-11-20 联想(北京)有限公司 一种显示方法及电子设备
US20190057180A1 (en) * 2017-08-18 2019-02-21 International Business Machines Corporation System and method for design optimization using augmented reality
US20190378334A1 (en) * 2018-06-08 2019-12-12 Vulcan Inc. Augmented reality portal-based applications
US10996831B2 (en) 2018-06-29 2021-05-04 Vulcan Inc. Augmented reality cursors
US10748343B2 (en) 2018-07-16 2020-08-18 Microsoft Technology Licensing, Llc Modifiable simulation of physical object behavior
KR20210094214A (ko) 2020-01-21 2021-07-29 삼성전자주식회사 로봇 제어 장치 및 방법
CN115191006A (zh) * 2020-02-28 2022-10-14 奇跃公司 用于所显示的2d元素的3d模型
US11805176B1 (en) * 2020-05-11 2023-10-31 Apple Inc. Toolbox and context for user interactions
CN116414223A (zh) * 2021-12-31 2023-07-11 中兴通讯股份有限公司 三维空间中的交互方法、装置、存储介质及电子装置

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000048065A (ja) * 1998-07-30 2000-02-18 Yamatake Corp 仮想3次元パイプライン作図方法
JP2002139321A (ja) * 2000-10-31 2002-05-17 Hitachi Ltd 電子杭
JP2006094315A (ja) * 2004-09-27 2006-04-06 Hitachi Ltd 立体音響再生システム
JP2006285833A (ja) * 2005-04-04 2006-10-19 Sony Corp 情報処理装置および方法、記録媒体、並びにプログラム
US7301547B2 (en) * 2002-03-22 2007-11-27 Intel Corporation Augmented reality system
US20090322671A1 (en) * 2008-06-04 2009-12-31 Cybernet Systems Corporation Touch screen augmented reality system and method
JP2010146285A (ja) * 2008-12-18 2010-07-01 Canon Inc 画像処理システム及び画像処理方法
US20130083173A1 (en) * 2011-09-30 2013-04-04 Kevin A. Geisner Virtual spectator experience with a personal audio/visual apparatus
US20130127980A1 (en) * 2010-02-28 2013-05-23 Osterhout Group, Inc. Video display modification based on sensor input for a see-through near-to-eye display
JP2015504616A (ja) * 2011-09-26 2015-02-12 マイクロソフト コーポレーション 透過近眼式ディスプレイのセンサ入力に基づく映像表示修正

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6879946B2 (en) * 1999-11-30 2005-04-12 Pattern Discovery Software Systems Ltd. Intelligent modeling, transformation and manipulation system
US20020175911A1 (en) * 2001-05-22 2002-11-28 Light John J. Selecting a target object in three-dimensional space
CN101170961A (zh) * 2005-03-11 2008-04-30 布拉科成像S.P.A.公司 利用显微镜的用于外科手术导航及可视化的方法及设备
US8730156B2 (en) * 2010-03-05 2014-05-20 Sony Computer Entertainment America Llc Maintaining multiple views on a shared stable virtual space
US20110234631A1 (en) * 2010-03-25 2011-09-29 Bizmodeline Co., Ltd. Augmented reality systems
EP2395767B1 (en) * 2010-06-11 2014-11-12 Nintendo Co., Ltd. Image display program, image display system, and image display method
US10972680B2 (en) * 2011-03-10 2021-04-06 Microsoft Technology Licensing, Llc Theme-based augmentation of photorepresentative view
WO2012154938A1 (en) * 2011-05-10 2012-11-15 Kopin Corporation Headset computer that uses motion and voice commands to control information display and remote devices
US8203605B1 (en) * 2011-05-11 2012-06-19 Google Inc. Point-of-view object selection
KR101359660B1 (ko) * 2011-07-26 2014-02-07 한국과학기술원 헤드업 디스플레이를 위한 증강현실 시스템
US9129404B1 (en) * 2012-09-13 2015-09-08 Amazon Technologies, Inc. Measuring physical objects and presenting virtual articles
CN102981616B (zh) * 2012-11-06 2017-09-22 中兴通讯股份有限公司 增强现实中对象的识别方法及系统和计算机
US9245387B2 (en) * 2013-04-12 2016-01-26 Microsoft Technology Licensing, Llc Holographic snap grid

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000048065A (ja) * 1998-07-30 2000-02-18 Yamatake Corp 仮想3次元パイプライン作図方法
JP2002139321A (ja) * 2000-10-31 2002-05-17 Hitachi Ltd 電子杭
US7301547B2 (en) * 2002-03-22 2007-11-27 Intel Corporation Augmented reality system
JP2006094315A (ja) * 2004-09-27 2006-04-06 Hitachi Ltd 立体音響再生システム
JP2006285833A (ja) * 2005-04-04 2006-10-19 Sony Corp 情報処理装置および方法、記録媒体、並びにプログラム
US20090322671A1 (en) * 2008-06-04 2009-12-31 Cybernet Systems Corporation Touch screen augmented reality system and method
JP2010146285A (ja) * 2008-12-18 2010-07-01 Canon Inc 画像処理システム及び画像処理方法
US20130127980A1 (en) * 2010-02-28 2013-05-23 Osterhout Group, Inc. Video display modification based on sensor input for a see-through near-to-eye display
JP2015504616A (ja) * 2011-09-26 2015-02-12 マイクロソフト コーポレーション 透過近眼式ディスプレイのセンサ入力に基づく映像表示修正
US20130083173A1 (en) * 2011-09-30 2013-04-04 Kevin A. Geisner Virtual spectator experience with a personal audio/visual apparatus

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
川村 洋介 他: "人工現実感を利用した意匠設計システム", 電子情報通信学会技術研究報告 IE97−41〜63 画像工学, vol. 第97巻 第203号, JPN6016037650, 25 July 1997 (1997-07-25), JP, pages 125 - 131, ISSN: 0003410010 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6189513B1 (ja) * 2016-10-18 2017-08-30 株式会社コロプラ 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム
JP2018067091A (ja) * 2016-10-18 2018-04-26 株式会社コロプラ 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム
WO2021235316A1 (ja) * 2020-05-21 2021-11-25 ソニーグループ株式会社 情報処理装置、情報処理方法および情報処理プログラム

Also Published As

Publication number Publication date
CN105264571B (zh) 2019-11-08
US20160071320A1 (en) 2016-03-10
CA2906207C (en) 2019-09-03
GB201517071D0 (en) 2015-11-11
KR20160013928A (ko) 2016-02-05
US10217285B2 (en) 2019-02-26
GB2527973A (en) 2016-01-06
CN105264571A (zh) 2016-01-20
CA2906207A1 (en) 2014-12-04
KR102249577B1 (ko) 2021-05-07
GB2527973B (en) 2020-06-10
JP6625523B2 (ja) 2019-12-25
WO2014194066A1 (en) 2014-12-04

Similar Documents

Publication Publication Date Title
JP6625523B2 (ja) Hudオブジェクト設計および表示方法。
TWI567659B (zh) 照片表示視圖的基於主題的增強
CN110603509B (zh) 计算机介导的现实环境中直接和间接交互的联合
CN107810465B (zh) 用于产生绘制表面的系统和方法
JP6967043B2 (ja) 3次元コンテンツ内の場所に基づく仮想要素モダリティ
US9886102B2 (en) Three dimensional display system and use
CN109313502B (zh) 利用选择装置的敲击事件定位
US9361665B2 (en) Methods and systems for viewing a three-dimensional (3D) virtual object
CN111373347B (zh) 用于虚拟现实内容的提供的装置、方法和计算机程序
US20210304509A1 (en) Systems and methods for virtual and augmented reality
US20170177077A1 (en) Three-dimension interactive system and method for virtual reality
CN106980378B (zh) 虚拟显示方法和系统
KR20140081840A (ko) 모션으로 제어되는 리스트 스크롤 방법
Caruso et al. Interactive augmented reality system for product design review
CN102693065A (zh) 立体影像视觉效果处理方法
Wang et al. Key technique of assembly system in an augmented reality environment
US20210278954A1 (en) Projecting inputs to three-dimensional object representations
CN117631817A (zh) 测量方法、装置、电子设备以及存储介质
Surya et al. Virtual Laboratory in Mixed Reality with 3D Modelling for Sustainable Design
CN114758089A (zh) 三维模型的展示方法、装置、计算机设备及存储介质
Kozlíková et al. Spatial Interaction for the Post-Processing of 3D CFD Datasets
Dias creating urban scenery using multimodal interfaces

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151120

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161011

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20170110

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170313

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170411

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20170710

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170911

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20180130

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180530

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180702

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20180702

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20180724

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20180907

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190904

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191127

R150 Certificate of patent or registration of utility model

Ref document number: 6625523

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250