JP2014532225A - コンピューティング装置におけるコンテキストアウェア・モデル・ベースの画像合成及びレンダリングを容易にする機構 - Google Patents
コンピューティング装置におけるコンテキストアウェア・モデル・ベースの画像合成及びレンダリングを容易にする機構Info
- Publication number
- JP2014532225A JP2014532225A JP2014533275A JP2014533275A JP2014532225A JP 2014532225 A JP2014532225 A JP 2014532225A JP 2014533275 A JP2014533275 A JP 2014533275A JP 2014533275 A JP2014533275 A JP 2014533275A JP 2014532225 A JP2014532225 A JP 2014532225A
- Authority
- JP
- Japan
- Prior art keywords
- computing device
- scene
- image
- view
- new
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2320/00—Control of display operating conditions
- G09G2320/06—Adjustment of display parameters
- G09G2320/0693—Calibration of display systems
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2340/00—Aspects of display data processing
- G09G2340/02—Handling of images in compressed format, e.g. JPEG, MPEG
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2354/00—Aspects of interface with display user
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2360/00—Aspects of the architecture of display systems
- G09G2360/12—Frame memory handling
- G09G2360/121—Frame memory handling using a cache memory
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Computer Hardware Design (AREA)
- Computer Graphics (AREA)
- Geometry (AREA)
- Software Systems (AREA)
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本発明の一実施例による、コンピューティング装置において計算的に合成され、レンダリングされる物理オブジェクトの画像及び/又は仮想モデルのコンテキストアウェア合成及びレンダリングを容易にする機構を説明する。本発明の実施例の方法は、シーンに対する、複数のコンピューティング装置それぞれの位置に応じてシーンのポイント・オブ・ビュー位置を提供するよう複数のコンピューティング装置の初期校正を行う工程を含み、複数のコンピューティング装置のコンピューティング装置はネットワークを介して互いに通信する。方法は更に、複数のコンピューティング装置のポイント・オブ・ビュー位置に基づいてシーンのコンテキストアウェア・ビューを生成する工程を含み得る。方法は、シーンのコンテキストアウェア表示に基づいてシーンの画像を生成する工程であって、各画像はコンピューティング装置に対応する工程と、その対応する計算装置において各画像を表示する工程とを含み得る。
Description
本発明の分野は、一般にコンピューティング装置に関し、より具体的には、コンピューティング装置におけるコンテキストアウェア・モデル・ベースの画像合成及びレンダリングを容易にする機構を使用する方法に関する。
コンピューティング装置上のオブジェクトの画像(例えば、3次元(「3D」)画像)のレンダリングは一般的である。表示されている3Dモデルの場合、表示されたオブジェクトは、回転させ、種々の視野角からみることが可能である。しかし、同時に複数のパースペクティブでみることには課題がある。例えば、単一の画面をみる場合、ユーザは、全画面ビューで一度にオブジェクトの1つのパースペクティブをみるか、又は、より小さな複数のウィンドウを介して複数のパースペクティブをみることにし得る。
しかし、前述の従来の手法は、単一のユーザ/装置に制限され、複数のビューのリアルタイム合成及びレンダリングによるものである。
本発明の実施例は、添付図面の図における限定の目的でなく、例示の目的で例証し、同様な参照符号は同様な構成要素を示す。
本発明の実施例は、本発明の一実施例による、コンピューティング装置における画像のコンテキストアウェア合成及びレンダリングを容易にする機構を提供する。本発明の実施例の方法は、シーンに対して、複数のコンピューティング装置それぞれの位置に応じたシーンのポイント・オブ・ビュー位置を提供するよう複数のコンピューティング装置の初期校正を行う工程を含み、複数のコンピューティング装置のコンピューティング装置はネットワークを介して互いに通信する。方法は更に、複数のコンピューティング装置のポイント・オブ・ビュー位置に基づいてシーンのコンテキストアウェア・ビューを生成する工程を含み得、コンテキストアウェア・ビューはそれぞれ、コンピューティング装置に対応する。方法は、シーンのコンテキストアウェア・ビューに基づいてシーンの画像を生成する工程であって、各画像はコンピューティング装置に対応する工程と、その対応するコンピューティング装置において各画像を表示する工程とを含み得る。
更に、本発明の実施例のシステム又は装置は、コンピューティング装置における画像のコンテキストアウェア合成及びレンダリングを容易にする機構を提供し、上述の処理、並びに、本明細書を通して記載された他の方法及び/又は処理を行い得る。例えば、一実施例では、本発明の実施例の装置は、上述の初期校正を行うための第1のロジック、コンテキストアウェア・ビューの上述の生成を行うための第2のロジック、画像の上述の生成を行うための第3のロジック、上述の表示を行うための第4のロジック、並びに、本明細書及び特許請求の範囲に記載の他の処理及び/又は方法を行うために他のロジック、又は同様なロジックの組などの同様な構成を含み得る。
図1は、本発明の一実施例による、コンピューティング装置における画像のコンテキストアウェア合成及びレンダリングを容易にするコンテキストアウェア画像合成及びレンダリングを使用するコンピューティング装置を示す。一実施例では、コンピューティング装置における画像のコンテキストアウェア合成及びレンダリングを提供するためのコンテキストアウェア画像処理及びレンダリング(「CIPR」)機構108を有するものとしてコンピューティング装置100を示す。コンピューティング装置100は、スマートフォン(例えば、アイフォン(登録商標)、ブラックベリー(登録商標)等)を含むセルラー電話機などのモバイル・コンピューティング装置、ハンドヘルド型コンピューティング装置、携帯情報端末(PDA)等、タブレット型コンピュータ(例えば、アイパッド(登録商標)、サムソン(登録商標)社Galaxy Tab(登録商標)等)、ラップトップ型コンピュータ(例えば、ノートブック、ネットブック)、eリーダ(例えば、Kindle(登録商標)、Nook(登録商標)等)、ケーブル・セットトップ・ボックス等を含み得る。コンピューティング装置100は更に、(デスクトップ型コンピュータ、サーバ・コンピュータ等などの)更に大型のコンピューティング装置を含み得る。
一実施例では、CIPR機構108は、画面上の、何れかの数の方向、角度等におけるビュー又は画像(例えば、オブジェクト、シーン、人等の画像)の合成及びレンダリングを容易にする。更に、一実施例では、複数のコンピューティング装置がネットワークを介して互いに通信する場合、複数のコンピューティング装置それぞれのユーザ(例えば、ビュ―ア)はそれぞれ、ビュー又は画像を構成し、レンダリングし、それぞれの特定のコンピューティング装置上で表示されるような、画像のコンテキスト(例えば、配置、位置等)に応じて、ネットワークを介して通信する他のコンピューティング装置全てにレンダリングを送信し得る。このことは、後続の図を参照して更に説明する。
コンピューティング装置100は、ユーザと、コンピューティング装置100の何れかのハードウェア・リソース又はソフトウェア・リソースとの間のインタフェースとしての役目を担うオペレーティング・システム106を更に含む。コンピューティング装置100は更に、1つ又は複数の、タッチスクリーン、タッチ・パネル、タッチ・パッド、仮想のキーボード又は通常のキーボード、仮想のマウス又は通常のマウス等などの入出力源110、及び、プロセッサ102、メモリ装置104、ネットワーク装置、ドライバ、ディスプレイ等を含む。「マシン」、「装置」、「コンピューティング装置」、「コンピュータ」、「コンピューティング・システム」等のような用語は、本明細書及び特許請求の範囲を通して同義で使用されるものとする。
図2は、本発明の一実施例による、コンピューティング装置において使用されるコンテキストアウェア画像合成及びレンダリング機構を示す。一実施例では、CIPR機構108は、パースペクティブ・ポイント・オブ・ビュー(「POV」)位置の初期校正で開始するための校正器202を含む。校正器202は、何れかの数及びタイプの方法を使用して校正を行うことが可能である。校正は、ユーザ・インタフェースを使用してコンピューティング装置にコンピューティング装置の現在の位置をユーザ(例えば、ビューア)が入力することで開始し得、又は、2つ以上のコンピューティング装置が互いに衝突し、1つ又は複数のセンサ204によって得られた値に基づいて、それらが同じPOVにあり、場合によっては別々の方向をみているということを確かめることを可能にする「校正のための衝突」の手法などにより、前述の位置を自動的に入力し得る。例えば、対向する2つの側から仮想オブジェクトをみている2つのノートブック・コンピュータを背中合わせに配置し得る。初期校正が行われると、移動がセンサ204によって検出され、次いで、その処理モジュール212を介して処理するために画像レンダリング・システム(「レンダリング器」)210に中継される。前述の画像レンダリングは、単一のコンピューティング装置上で、又はそれぞれの個別のコンピューティング装置上で行い得る。画像がレンダリングされると、ネットワーク(例えば、インターネット、イントラネット等)を介して接続された各コンピューティング装置上に表示モジュール214を介して表示される。更に説明すれば、別々の3つの関連したシナリオを図3B乃至図3Dを参照して説明する。
一実施例では、CIPR機構108は、実像の側部全てを範囲に含む1つ又は複数のカメラを使用して、次いで、例えば、1つ又は複数のプログラミング手法若しくはアルゴリズムを使用して、オブジェクト、シーン等のモデル(例えば、3Dコンピュータ・モデル)を生成するためのモデル生成器206を更に含む。CIPR機構108をホスティングするコンピューティング装置は更に、1つ又は複数のカメラ(図示せず)を使用し、又は上記カメラと通信し得る。更に、モデル生成器206は、例えば、シーン等の外形、テクスチャ、色合い、照明の数理モデルに基づいて、かつ/又は、例えば、コンピュータ・グラフィクスを使用して前述のモデル画像を生成し得る。モデル生成器は更に、経時的に画像のオブジェクト(又はシーン、人等)がどのようにしてふるまうかを説明する物理学に基づいてモデル画像を生成し、互いに相互作用し、外的刺激(例えば、ユーザのうちの一人による仮想接触等)に反応し得る。更に、前述のモデル画像は、ビデオ・ストリームにおけるように複数の画像の時間ベースのシーケンス、又は静止画像であり得る。
CIPR機構108は更に、モデルの元の位置付けに対して、空間における特定の向き及び位置から3D画像をみる必要があるユーザ/ビューアの位置を固定するパースペクティブPOVを提供するためのPOVモジュール208を含む。ここで、一実施例では、パースペクティブPOVは、コンピューティング装置が配置された位置からモデルをレンダリングする必要があるコンピューティング装置の位置を表し得る。パースペクティブ・ビュー・ウィンドウ(「ビュー」)はPOVからみたモデルを示す。上記ビューは、モデルに対して、パースペクティブ・レンダリングと呼ばれる1つ又は複数の画像変換をモデルに施すことによって得ることができる。
1つ又は複数のセンサ204(例えば、動きセンサ、位置センサ等)は、コンピューティング装置がそのPOVを判定することを容易にする。例えば、コンピューティング装置は、それ自体を数え上げ、複数のコンピューティング装置からリーダ・コンピューティング装置を選び、例えば、円(例えば、4つのコンピューティング装置の間隔が90度である等)周りの等距離点を計算し、モデル周りの固定POVを選択する等をすることが可能である。更に、モデル周りの円におけるPOVの回転の角度は自動的に判定し得る。センサ204は、動き、相対移動、向き、及び位置を検出するために使用することが可能な、加速度計、ジャイロメータ、コンパス、傾斜計、全地球測位システム(GPS)等のような特殊なハードウェア・センサであり得る。センサ204は、位置を判定するためにコンピューティング装置周りのワイファイ・アクセス・ポイントの近く、又は種々の無線送信器の信号強度の検出などの機構を使用するソフトウェア・センサを含み得る。前述の細粒度センサ・データは、モデルに対する、空間及び向きにおける各ユーザの位置を判定するために使用し得る。使用される方法にかかわらず、ここで関係性の高いのは、算出されるか、又は得られるセンサ・データである。
コンピューティング装置間で、コンピューティング装置における画像のコンテキストアウェア合成及びレンダリングを提供するためにCIPR機構108の作用及び運用性を容易にするために、何れかの数及びタイプの構成部分をCIPR機構108との間で追加し、除外し得るということが想定される。話を簡潔かつ明瞭にし、理解を容易にし、CIPR機構108に焦点を当てるために、コンピューティング装置、カメラ等などの種々の装置のデフォルトの、又は既知の構成部分の多くは、ここでは示しておらず、又は記載していない。
図3Aは、本発明の一実施例による、画像の種々のパースペクティブを示す。図示したように、種々のオブジェクト302がテーブル上に配置される。そこで、それぞれがコンピューティング装置(例えば、タブレット・コンピュータ、ノートブック、スマートフォン、デスクトップ等)を備えた4人のユーザが、テーブルの周りに座っている(か、又は、それぞれのコンピューティング装置上のオブジェクト302の仮想画像を遠隔でみている)と仮定する。例証したように、前述の画像304、306、308、及び310はそれぞれ、別々の4つの位置(北、東、南、及び西)から違ったふうにみえ、テーブルにつくユーザ、又はテーブル上のそのコンピューティング装置若しくはオブジェクト302が動き回るにつれ、それらの画像が変わる。例えば、オブジェクト302の1つが、テーブル上で動き、又はテーブルから除去された場合、4つの画像302乃至310それぞれは、テーブル上のオブジェクト302の現在の配置における変動に応じて変わる。
例えば、図示したように、画像302−310が、テーブル上のオブジェクト302の3Dモデルのビューである場合、各画像は仮想オブジェクト302の別々の3Dビューを提供する。ここで、一実施例では、画像310などの画像に示されている仮想オブジェクトを仮想空間内でユーザにより、自分のコンピューティング装置上で(例えば、マウス、キーボード、タッチ・パネル、タッチ・パッド等を使用して)移動させた場合、それぞれのコンピューティング装置上でレンダリングされている画像304乃至310は全て、(仮想オブジェクトでなく)実オブジェクト302の1つを移動させたかのように、自分自身のPOVに応じて変わる。同様に、一実施例では、画像310をレンダリングするコンピューティング装置などのコンピューティング装置が、何らかの理由で(ユーザ、事故、又は特定の他の理由などにより、)移動し、前述のコンピューティング装置上の画像310のレンダリングも変わる。例えば、コンピューティング装置が中央に近付けられた場合、画像310は、実画像302を表す仮想画像のズームイン・ビュー、又はより大きなビューをもたらし、対照的に、コンピューティング装置が遠ざけられた場合、画像310は仮想オブジェクトの遠隔の、ズームアウト・ビューを示す。すなわち、実在する人が実オブジェクト302をみているかにように思われ、又は、実在する人が実オブジェクト302をみているかのような状態を表す。
ここに示すオブジェクト302が例として、かつ、話を簡潔にかつ明瞭にし、理解を容易にするために示されているに過ぎず、本発明の実施例があらゆる類のオブジェクト、物、人、シーン等と互換であり、あらゆる類のオブジェクト、物、人、シーン等を対象にすることが想定されている。例えば、オブジェクト302の代わりに、建物は画像302乃至310としてみることができる。同様に、例えば、北、東、南、及び西などの種々のサイド又はエンドからのサッカーの試合の種々のリアルタイム高品位3Dビューを、対応する画像304、306、308、及び310それぞれによってレンダリングし得る。画像が、ここで例証されたような4つの側部に限定されず、北東、南西、上方、下方、円形等などの何れかの数の側部を捕捉し得るということが更に想定される。更に、例えば、インタアクティブなゲームの場合、一実施例では、複数のプレイヤは、テーブルの周りに(又は、それぞれの自宅若しくは他の場所に)座り、スクラブルのようなボード・ゲームなどのゲームをプレイし、各コンピューティング装置は、それ自身の方向パースペクティブからゲーム基板をみる。
例えば、2人のプレイヤによって使用される2つのコンピューティング装置の2つの画面によるテニスの試合により、自分の自宅にいる第1のユーザ/プレイヤがテニスボールを自分のオフィスにいる第2のユーザ/プレイヤに向けて仮想的に打ち、仮想コートの反対側に入れることが可能になり得る。第2のプレイヤは仮想ボールを受け取り、第1のプレイヤに向けて打ち返し、あるいは、仮想ボールを打ちそこね、あるいは、打ったボールが仮想的にアウトオブバウンズになる。同様に、4人のユーザ/プレイヤは、ダブルスの試合を行うことが可能であり、更なる他のユーザは自分自身の物理的な場所/位置、及び、例えば、仮想テニス・コートに対するコンテキストに基づいた自分自身の個々のパースペクティブから仮想ゲームを観ている観客としての役目を担い得る。前述のユーザは、同じ部屋にいるか、又はそれぞれ、自宅、オフィス、公園、浜、道路、バス、電車等において世界中に分散する。
図3Bは、本発明の一実施例による、コンテキストアウェア画像合成及びレンダリング機構を使用した、モデルのコンテキストアウェア合成及びレンダリングのシナリオを示す。シナリオ320では、一実施例において、複数のコンピューティング装置322−328の組がネットワーク330(例えば、ローカル・エリア・ネットワーク(LAN)、無線LAN(WLAN)、ワイド・エリア・ネットワーク(WLAN)、メトロポリタン・エリア・ネットワーク(MAN)、パーソナル・エリア・ネットワーク(PAN)、ブルートゥース(登録商標)、インターネット、イントラネット等)を介して通信し、単一のコンピューティング装置322は、モデル206Aを含み、コンピューティング装置322−328から受信された位置データに基づいて複数のコンピューティング装置322−328の複数のPOV336A、336B、336C、336Dのビューを生成する役割を果たす。各コンピューティング装置322−328はそれぞれ、それ自身のPOVモジュール(図2にPOVモジュール208と示す)を有し得るので、POV336A−336Dは、各コンピューティング装置322−328によって判定し、コンピューティング装置322に送信し得る。レンダリング器210Aがビュー332A−332D全てを生成し得るように各PV336A−336Dがモデル206Aに付加される。例証された実施例では、各コンピューティング装置322、324、326、328はそれ自体のPOV336A−Dを有する一方、別の実施例では、コンピューティング装置322は、その個々のセンサ204A−Dからのデータに基づいて他の参加コンピューティング装置334−328のPOV336B−336Dを生成し得る。コンピューティング装置322−328は、スマートフォン、タブレット型コンピュータ、ノートブック、ネットブック、eリーダ、デスクトップ等、又はそれらの何れかの組み合わせ等を含み得る。
一実施例では、コンピューティング装置322におけるCIPR機構は複数のビュー332A−332Dを生成し、それらはそれぞれ次いで、図2に関して参照したようなCIPR機構のレンダリング器210の処理モジュールとの組み合わせで表示モジュールによって行われた表示リダイレクションとして知られている転送処理を使用して、対応するコンピューティング装置322−328に送出される。表示リダイレクションの処理には、ビュー・ウィンドウのグラフィカル・コンテンツを符号化し、効率的な伝送のためにコンテンツを圧縮し、各ビュー332B−332Dをその対応するターゲット・コンピューティング装置324−328に送出するフォワード処理が関係し得、そこでは、処理モジュールを介して、伸長し、復号化し、コンピューティング装置324−328それぞれの表示画面上のビュー332B−332Dに基づいて画像をレンダリングするリバース処理が関係し得る。主コンピューティング装置322に関しては、ビュー332Aが生成され、表示リダイレクションのために処理され(フォワード処理及びリバース処理)、コンピューティング装置322における画面上に表示されるように処理を内部で行い得る。更に、例証されたように、適切なPOV 336A−336D、及びビュー332A−332Dを適切に生成し得るように表示されているオブジェクト又はシーン等に関してコンピューティング装置322−328それぞれのコンテキストアウェアの場所、位置等を検知するためにセンサ204A−Dが提供される。
ユーザ入力334A−334Dは、コンピューティング装置322−328それぞれにおけるユーザ・インタフェース及び入力装置(例えば、キーボード、タッチ・パネル、マウス等)を介してコンピューティング装置322−328の何れかのユーザによって提供される入力を表す。前述のユーザ入力334A−334Dは、コンピューティング装置326の表示画面上に表示されているオブジェクト又はシーンの何れかの変更又は移動を、ユーザがコンピューティング装置326などから要求することが関係し得る。例えば、ユーザは、画面の一部分から別の部分に、表示されている仮想オブジェクトをドラッグし、移動させるようにし得、それは、次いで、他のユーザそれぞれの仮想オブジェクトのビューを変更することが可能であり、よって、新たなビュー332A−332Dが、コンピューティング装置322においてCIPR機構によって生成され、それ自体及び他のコンピューティング装置324−328における表示のためにレンダリングされる。あるいは、ユーザは、コンピューティング装置326の表示画面との間で仮想オブジェクトを追加又は除去し、前述のオブジェクトが各装置322−328のPOVから目に見えたか否かに応じてビュー332A−332Dとの間で仮想オブジェクトのビューの追加又は除去をもたらし得る。
ここで、図3Cを参照するに、本発明の一実施例による、コンテキストアウェア画像合成及びレンダリング機構を使用した画像のコンテキストアウェア合成及びレンダリングのシナリオを示す。話を簡潔にするために、図3B及び他の先行する図を参照して説明した構成部分の一部はここでは説明しない。前述のシナリオ350では、各コンピューティング装置322−328は、モデル206A−206B(例えば、同じモデル)を含む。このモデル206A−206Dは、インターネットからなどの中央サーバからダウンロード又はストリーミングされ、又は、ネットワーク330を介した通信で、参加しているコンピューティング装置322−328の1つ又は複数から供給され得る。それ自身の位置データに基づいて、コンピューティング装置322−328それぞれは、それ自身のPOV336A−336Dを行い、処理し、対応するビュー332A−332Dを生成し、表示リダイレクションの処理、並びにそのフォワード処理及びリバース処理を含む関連した変換を行い、それ自身の表示画面上に結果として生じる画像をレンダリングする。前述のシナリオ350は、各参加コンピューティング装置322−328と無関係に、コンテンツの表示の更なるデータ転送及び時間同期化を使用し得る。更に、ユーザ・インタフェースを介したユーザ相互作用により、各コンピューティング装置322−328は、それ自身のモデル206A−206Dを更新することが可能であり得る。
図3Dは、本発明の一実施例による、コンテキストアウェア画像合成及びレンダリング機構を使用した、画像のコンテキストアウェア合成及びレンダリングのシナリオを示す。話を簡潔にするために、図3B及び図3C、並びに他の先行する図を参照して説明した構成部分はここでは説明しない。前述のシナリオ370では、各コンピューティング装置322−328は、観察されているオブジェクト又はシーンに向けられたそれ自身のカメラ342A−342D(例えば、ビデオ捕捉装置の何れかのタイプ又は形態)を使用する。例として、コンピューティング装置322−328を校正するために、コンピューティング装置322−328がオブジェクトに面し、その適切な校正が実現されるまで調節することが可能であるどこかの場所に物理オブジェクト(例えば、特定のマーキングを有する立方体)を配置し得る。更に、3Dカメラ位置を含むメタデータを、圧縮されたビデオ・ビットストリームに注釈し得る。一実施例では、POV336A−336Dは、物理シーン又はオブジェクト及びその3D座標の圧縮されたビデオをレンダリング器210Aに送信するために使用し得る。
校正が実現されると、元のビュー332A−332Dを圧縮されたビットストリームに注釈することが可能である。更に、コンピューティング装置322−328の何れかを移動させる(例えば、わずかに、又は大きく移動させるか、参加から完全に除外するか、又は参加するようコンピューティング装置を追加した場合)につれ、その3D位置が再計算又は判定され、物理ビデオ(又は静止画像)を、図3Bのように、圧縮し、単一の/選ばれたコンピューティング装置322に送信し、又は、図3Cにように、複数のコンピューティング装置322−328における複数のレンダリング装置に送信する。各コンピューティング装置322−328では、受信されたビデオ(又は静止画像)が、伸長し、ビットストリーム復号化器340によって復号化する等のリバース処理を受け、3Dメタデータは、物理モデル及び仮想モデルをビデオ・バッファに合成するために使用される。
一実施例では、各コンピューティング装置322−328は、一度校正され、次いで、カメラ342A−342Dを使用してビデオ又は静止画像を連続して捕捉し、それに、ビットストリーム(及び/又は静止画像)等の圧縮、注釈、送信、及び受信が続き得る。受信側の(合成)コンピューティング装置322−328は、ビットストリーム(及び/又は静止画像)並びに仮想モデル206Aを使用して複数のビュー332A−332Bを構築し得、複数のビュー332A−332Bは次いで、圧縮され、送信され、次いで、受信され、伸長され、次いで、コンピューティング装置322−328の表示画面上に表示され得る。モデル206Aは、ビュー332A−332D毎にレンダリングし得るが、更に、変化していることがあり得る。例えば、特定のモデル206Aは、どのようにしてモデル206Aの種々の構成部分が経時的に移動させられ、互いに相互作用するかを説明する物理エンジンを含み得る。更に、ユーザは、モデル206A内のオブジェクト又はシーンにクリック又は接触することにより、又は何れかの他のインタフェース機構(例えば、キーボード、マウス等)を使用することにより、モデル206Aと相互作用することができることもあり得る。前述の場合には、モデル206Aを更新し得、その場合、個々のビュー332A−332Dそれぞれに影響を及ぼすか、又は個々のビュー332A−332Dを変える可能性が高い。更に、モデル206Aが個々のコンピューティング装置322−328それぞれによってレンダリングされている場合、モデル206Aの関連した更新をレンダリング器21OAにより、主コンピューティング装置322及び他のコンピューティング装置324−328に送信又は供給し、よって、ビュー332A−332Dを更新し得るようにし得る。更新されたビュー332A−332Dの変換された画像は、次いで、コンピューティング装置322−32の表示画面上に表示し得る。
図4は、本発明の一実施例による、コンピューティング装置におけるコンテキストアウェア画像合成及びレンダリング機構を使用した画像のコンテキストアウェア合成及びレンダリングを容易にする方法を示す。方法400は、ハードウェア(例えば、回路、専用ロジック、プログラマブル・ロジック等)、(処理装置上で実行される命令などの)ソフトウェア、又はそれらの組み合わせを含み得る処理ロジックによって行い得る。一実施例では、方法400は、複数のコンピューティング装置上の図1のCIPR機構によって行い得る。
方法400は、表示されているオブジェクト又はシーン等を参照してPOV位置の適切な校正を実現するために、ネットワークを介して通信する複数の参加コンピューティング装置の校正を有するブロック405で始まる。ブロック410では、シーン内のオブジェクト又は何か、及び/若しくは、コンピューティング装置の何れかの移動が1つ又は複数のセンサにより、検出又は検知される。ブロック415では、検出された移動は、一実施例による、CIPR機構をホスティングする主コンピューティング装置として選ばれたコンピューティング装置のレンダリング器に中継される。別の実施例では、複数の装置は、CIPR機構を使用し得る。ブロック420では、ビューが、複数のコンピューティング装置それぞれについて生成される。ブロック425では、ビューの対応する画像を生成することが可能であるようにビュー毎に表示リディレクション(例えば、フォワード処理、リバース処理等)が行われる。ブロック430では、前述の画像が次いで、参加しているコンピューティング装置の表示画面上に表示される。
図5は、本発明の一実施例により、コンテキストアウェア画像機構を使用して、画像のコンテキストアウェア合成及びレンダリングを容易にするコンピューティング・システムを示す。例示的なコンピューティング・システム500は、図1及び図3B−図3Dのコンピューティング装置100、322−328と同じ又は同様であり得、1)上記構成を少なくとも1つが含み得る1つ又は複数のプロセッサ501、 2)(例えば、メモリ制御ハブ(MCH)、I/O制御ハブ(ICH)、プラットフォーム・コントローラ・ハブ(PCH)、システム・オン・チップ(SoC)等を含む)チップセット502、 3)(倍データレートRAM(DDR RAM)、拡張データ出力RAM(EDO RAM)等などの各種が存在する)システム・メモリ503、 4)キャッシュ504、 5)グラフィクス・プロセッサ506、 6)(陰極線管(CRT)、薄膜トランジスタ(TFT)、発光ダイオード(LED)、分子有機LED(MOLED)、液晶ディスプレイ(LCD)、ディジタル投光機(DLP)等などの各種が存在している)ディスプレイ/画面、及び 7)1つ又は複数のI/O装置508を含み得る。
1つ又は複数のプロセッサ501は、コンピューティング・システムが実現する如何なるソフトウェア・ルーチンをも行うために命令を実行する。命令には、データに対して行われる特定の類の動作が関係することが多い。データ及び命令はともにシステム503及びキャッシュ504に記憶される。キャッシュ504は通常、システム・メモリ503よりも短いレーテンシ時間を有することが企図されている。例えば、キャッシュ504は、プロセッサと同じシリコン・チップ上に集積させ、かつ/又は、より高速のスタティックRAM(SRAM)セルで構成し得る一方、システム・メモリ503は、より低速のダイナミックRAM(DRAM)セルで構成し得る。システム・メモリ503に対して、より頻繁に使用される命令及びデータをキャッシュ504に記憶する傾向があることにより、コンピューティング・システムの全体的な性能効率が向上する。
システム・メモリ503は意図的に、コンピューティング・システム内の他の構成部分に利用可能にされる・例えば、コンピュータ・システムの内部記憶エレメント(例えば、ハード・ディスク・ドライブ)から取り出され、又は、コンピューティング・システムへの種々のインタフェース(例えば、キーボード及びマウス、プリンタ・ポート、LAN、ポート、モデム・ポート等)から受け取られたデータは、ソフトウェア・プログラムの実現形態において1つ又は複数のプロセッサ501によって処理される前に、システム・メモリ503に一時的にキューイングされることが多い。同様に、コンピューティング・システム・インタフェースの1つを介して外部エンティティにコンピューティング・システムから送出されるか、内部記憶エレメントに記憶されるべきであるとソフトウェア・プログラムが判定するデータは、送信又は記憶される前にシステム・メモリ503に一時的にキューイングされることが多い。
チップセット502(例えば、ICH)は、システム・メモリ503と、その適切な対応コンピューティング・システム・インタフェース(及び、コンピューティング・システムがそう設計されている場合には、内部記憶装置)との間で前述のデータが適切に転送されることを確実にする役割を果たし得る。チップセット(例えば、MCH)は、互いに時間的に近くで生じ得る、プロセッサ501と、インタフェースと、内部記憶エレメントとの間での、システム・メモリ503のアクセスへの種々の競合する要求を管理する役割を果たし得る。
1つ又は複数のI/O装置508は更に、通常のコンピューティング・システムにおいて実現される。I/O装置は一般に、コンピューティング・システムとの間でデータを転送する役割を果たし(例えば、ネットワーキング・アダプタ)、又はコンピューティング・システム内の大規模の不揮発性記憶装置の役割を果たす(例えば、ハード・ディスク・ドライブ)。チップセット502のICHは、それ自体と、観察されたI/O装置508との間で双方向ポイントツーポイント・リンクを提供し得る。
本発明の種々の実施例の一部分は、本発明の実施例による処理を行うようコンピュータ(又は他の電子装置)をプログラムするために使用し得るコンピュータ・プログラム命令を記憶させたコンピュータ読み取り可能な媒体を含み得るコンピュータ・プログラム・プロダクトとして提供し得る。マシン読み取り可能な媒体は、限定列挙でないが、フロッピー(登録商標)・ディスク、光ディスク、コンパクト・ディスク・リードオンリ・メモリ(CD−ROM)、及び光磁気ディスク、ROM、RAM、消去可能なプログラマブル・リードオンリ・メモリ(EPROM)、電気的に消去可能なEPROM(EEPROM)、磁気若しくは光カード、フラッシュ・メモリ、又は、電子命令の記憶に適した他のタイプの媒体/マシン読み取り可能な媒体を含み得る。
図に示す手法は、コードを使用して実現し、1つ又は複数の電子装置(例えば、端局、ネットワーク・エレメント)上で実行することが可能である。前述の電子装置は、一時的でないコンピュータ読み取り可能な記憶媒体(例えば、磁気ディスク、光ディスク、ランダム・アクセス・メモリ、リードオンリ・メモリ、フラッシュ・メモリ装置、相変化メモリ)及び一時的なコンピュータ読み取り可能な伝送媒体(例えば、電気、光、音響、又は他の形式の伝搬信号(搬送波、赤外信号、ディジタル信号など))などのコンピュータ読み取り可能な媒体を使用して、コード及びデ―タを(内部的に、かつ/又は、ネットワークを介して他の電子装置との間で)記憶し、通信する。更に、前述の電子装置は通常、1つ又は複数の記憶装置(一時的でないマシン読み取り可能な記憶媒体)、ユーザ入出力装置(例えば、キーボード、タッチ画面、及び/又はディスプレイ)、及びネットワーク接続などの他の1つ又は複数の構成部分に結合された1つ又は複数のプロセッサの組を含む。プロセッサ及び他の構成部分の組の結合は通常、1つ又は複数のバス及びブリッジ(バス・コントローラとも呼ばれる)を介する。よって、特定の電子装置の記憶装置は通常、前述の電子装置の1つ又は複数のプロセッサの組上の実行のためのデータ及び/又はコードを記憶する。当然、本発明の実施例の1つ又は複数の部分は、ソフトウェア、ファームウェア、及び/又はハードウェアの種々の組み合わせを使用して実現し得る。
上記明細書では、本発明は、その特定の例示的な実施例を参照して説明してきた。しかし、特許請求の範囲に記載の本発明のより広い趣旨及び範囲から逸脱しない限り、修正及び変更を行い得るということは明らかとなろう。よって、明細書及び添付図面は、制限的意味合いというよりもむしろ例証的意味合いでとらえられるものとする。
Claims (21)
- コンピュータによって実現される方法であって、
シーンに対する、複数のコンピューティング装置それぞれの位置に応じて前記シーンのポイント・オブ・ビュー位置を提供するよう前記複数のコンピューティング装置の初期校正を行う工程であって、前記複数のコンピューティング装置はネットワークを介して互いに通信する工程と、
前記複数のコンピューティング装置の前記ポイント・オブ・ビュー位置に基づいて前記シーンのコンテキストアウェア・ビューを生成する工程であって、コンテキストアウェア・ビューそれぞれがコンピューティング装置に対応する工程と、
前記シーンの前記コンテキストアウェア・ビューに基づいて前記シーンの画像を生成する工程であって、各画像がコンピューティング装置に対応する工程と、
その対応するコンピューティング装置において各画像を表示する工程とを含む、コンピュータによって実現される方法。 - 請求項1記載のコンピュータによって実現される方法であって、
前記シーンの1つ又は複数のオブジェクトの操作を検出する工程と、
前記操作に基づいた新たなポイント・オブ・ビュー位置を提供するよう前記複数のコンピューティング装置の再校正を行う工程と
を更に含む、コンピュータによって実現される方法。 - 請求項2記載のコンピュータによって実現される方法であって、更に、
前記新たなポイント・オブ・ビュー位置に基づいて前記シーンの新たなコンテキストアウェア・ビューを生成する工程と、
前記新たなコンテキストアウェア・ビューに基づいて前記シーンの新たな画像を生成する工程と、
その対応するコンピューティング装置において新たな画像それぞれを表示する工程と
を含む、コンピュータによって実現される方法。 - 請求項1記載のコンピュータによって実現される方法であって、更に、
前記複数のコンピューティング装置のうちの1つ又は複数のコンピューティング装置の移動を検出する工程と、
前記操作に基づいた新たなポイント・オブ・ビュー位置を提供するよう前記複数のコンピューティング装置の再校正を行う工程とを含む、コンピュータによって実現される方法。 - 請求項4記載のコンピュータによって実現される方法であって、更に、
前記新たなポイント・オブ・ビュー位置に基づいて前記シーンの新たなコンテキストアウェア・ビューを生成する工程と、
前記シーンの前記新たなコンテキストアウェア・ビューに基づいて前記シーンの新たな画像を生成する工程と、
その対応するコンピューティング装置において新たな画像それぞれを表示する工程と
を含む、コンピュータによって実現される方法。 - 請求項1記載の、コンピュータによって実現可能な方法であって、前記シーンの画像を生成する工程は、1つ又は複数の仮想表示リディレクションを行って、前記画像をその対応するコンピューティング装置に送信する工程を含み、前記表示リディレクションは、前記画像の圧縮、符号化、送信を含むフォワード処理、及び、前記画像の伸長、復号化、受信を含むリバース処理を含む、コンピュータによって実現可能な方法。
- 請求項1記載のコンピュータによって実現される方法であって、
前記複数のコンピューティング装置は、スマートフォン、携帯情報端末(PDA)、ハンドヘルド型コンピュータ、eリーダ、タブレット型コンピュータ、ノートブック、ネットブック、及びデスクトップ型コンピュータの1つ又は複数を含む、コンピュータによって実現される方法。 - システムであって、
命令を記憶するためのメモリと、前記命令を実行するための処理装置とを有するコンピューティング装置を備え、前記命令は前記処理装置に
前記コンピューティング装置の初期校正を行って、シーンに対する前記コンピューティング装置の位置に応じて前記シーンのポイント・オブ・ビュー位置を提供し、前記初期校正に関する情報を1つ又は複数のコンピューティング装置に伝達して、それぞれの1つ又は複数の初期校正を行って、前記シーンのポイント・オブ・ビュー位置を、前記シーンに対する前記1つ又は複数のコンピューティング装置それぞれの位置に応じて提供する工程と、
前記シーンのコンテキストアウェア・ビューを前記コンピューティング装置の前記ポイント・オブ・ビュー位置に基づいて生成する工程と、
前記シーンの前記コンテキストアウェア・ビューに基づいて前記シーンの画像を生成する工程であって、前記画像が前記コンピューティング装置に対応する工程と、
前記コンピューティング装置において前記画像を表示する工程と
を行わせるシステム。 - 請求項8記載のシステムであって、前記処理装置は更に、
前記シーンの1つ又は複数のオブジェクトの操作を検出し、
前記操作に基づいた新たなポイント・オブ・ビュー位置を提供するよう前記コンピューティング装置の再校正を行うシステム。 - 請求項9記載のシステムであって、前記処理装置は更に、
前記新たなポイント・オブ・ビュー位置に基づいて前記シーンの新たなコンテキストアウェア・ビューを生成し、
前記シーンの前記新たなコンテキストアウェア・ビューに基づいて前記シーンの新たな画像を生成し、
前記コンピューティング装置において新たな画像を表示するシステム。 - 請求項8記載のシステムであって、前記処理装置は更に、
前記コンピューティング装置の移動を検出し、
前記移動に基づいた新たなポイント・オブ・ビュー位置を提供するよう前記コンピューティング装置の再校正を行うシステム。 - 請求項11記載のシステムであって、前記処理装置は更に、
前記新たなポイント・オブ・ビュー位置に基づいて前記シーンの新たなコンテキストアウェア・ビューを生成し、
前記シーンの前記新たなコンテキストアウェア・ビューに基づいて前記シーンの新たな画像を生成し、
前記コンピューティング装置において新たな画像を表示するシステム。 - 請求項8記載のシステムであって、前記シーンの前記画像を生成する工程は、1つ又は複数の仮想表示リディレクションを行って、前記画像を前記コンピューティング装置に送信する工程を含み、前記表示リディレクションは、前記画像の圧縮、符号化、送信を含むフォワード処理、及び、前記画像の伸長、復号化、受信を含むリバース処理を含むシステム。
- 請求項8記載のシステムであって、前記コンピューティング装置は、スマートフォン、携帯情報端末(PDA)、ハンドへルド型コンピュータ、eリーダ、タブレット型コンピュータ、ノートブック、ネットブック、及びデスクトップ型コンピュータを含むシステム。
- コンピューティング装置によって実行されると、前記コンピューティング装置に、
前記コンピューティング装置の初期校正を行って、シーンに対する前記コンピューティング装置の位置に応じてシーンのポイント・オブ・ビュー位置を提供し、前記初期校正に関する情報を1つ又は複数のコンピューティング装置に伝達して、それぞれの1つ又は複数の初期校正を行って、前記シーンのポイント・オブ・ビュー位置を、前記シーンに対する前記1つ又は複数のコンピューティング装置それぞれの位置に応じて提供する工程と、
前記シーンのコンテキストアウェア・ビューを前記コンピューティング装置の前記ポイント・オブ・ビュー位置に基づいて生成する工程と、
前記シーンの前記コンテキストアウェア・ビューに基づいて前記シーンの画像を生成する工程であって、各画像がコンピューティング装置に対応する工程と、
前記コンピューティング装置において前記画像を表示する工程と
を行わせる命令を含むマシン読み取り可能な媒体。 - 請求項15記載のマシン読み取り可能な媒体であって、前記コンピューティング装置によって実行されると、前記コンピューティング装置に、
前記シーンの1つ又は複数のオブジェクトの操作を検出し、
前記操作に基づいた新たなポイント・オブ・ビュー位置を提供するよう前記コンピューティング装置の再校正を行う
工程を更に行わせる1つ又は複数の命令を更に備えるマシン読み取り可能な媒体。 - 請求項16記載のマシン読み取り可能な媒体であって、前記コンピューティング装置によって実行されると、前記コンピューティング装置に、
前記新たなポイント・オブ・ビュー位置に基づいて前記シーンの新たなコンテキストアウェア・ビューを生成し、
前記シーンの前記新たなコンテキストアウェア・ビューに基づいて前記シーンの新たな画像を生成し、
前記コンピューティング装置において新たな画像を表示する
工程を更に行わせる1つ又は複数の命令を更に備えるマシン読み取り可能な媒体。 - 請求項15記載のマシン読み取り可能な媒体であって、前記コンピューティング装置によって実行されると、前記コンピューティング装置に、
前記コンピューティング装置の移動を検出し、
前記移動に基づいた新たなポイント・オブ・ビュー位置を提供するよう前記コンピューティング装置の再校正を行う
工程を更に行わせる1つ又は複数の命令を更に備えるマシン読み取り可能な媒体。 - 請求項16記載のマシン読み取り可能な媒体であって、前記コンピューティング装置によって実行されると、前記コンピューティング装置に、
前記新たなポイント・オブ・ビュー位置に基づいて前記シーンの新たなコンテキストアウェア・ビューを生成し、
前記シーンの前記新たなコンテキストアウェア・ビューに基づいて前記シーンの新たな画像を生成し、
前記コンピューティング装置において新たな画像を表示する
工程を更に行わせる1つ又は複数の命令を更に備えるマシン読み取り可能な媒体。 - 請求項15記載のマシン読み取り可能な媒体であって、前記シーンの前記画像を生成する工程は、1つ又は複数の仮想表示リディレクションを行って、前記画像を前記コンピューティング装置に送信する工程を含み、前記表示リディレクションは、前記画像の圧縮、符号化、送信を含むフォワード処理、及び、前記画像の伸長、復号化、受信を含むリバース処理を含むマシン読み取り可能な媒体。
- 請求項15記載のマシン読み取り可能な媒体であって、前記コンピューティング装置は、スマートフォン、携帯情報端末(PDA)、ハンドへルド型コンピュータ、eリーダ、タブレット型コンピュータ、ノートブック、ネットブック、及びデスクトップ型コンピュータを含むマシン読み取り可能な媒体。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/US2011/054397 WO2013048479A1 (en) | 2011-09-30 | 2011-09-30 | Mechanism for facilitating context-aware model-based image composition and rendering at computing devices |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2014532225A true JP2014532225A (ja) | 2014-12-04 |
Family
ID=47996211
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014533275A Pending JP2014532225A (ja) | 2011-09-30 | 2011-09-30 | コンピューティング装置におけるコンテキストアウェア・モデル・ベースの画像合成及びレンダリングを容易にする機構 |
Country Status (6)
Country | Link |
---|---|
US (1) | US20130271452A1 (ja) |
EP (1) | EP2761440A4 (ja) |
JP (1) | JP2014532225A (ja) |
CN (1) | CN103959241B (ja) |
TW (1) | TWI578270B (ja) |
WO (1) | WO2013048479A1 (ja) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10165028B2 (en) | 2014-03-25 | 2018-12-25 | Intel Corporation | Context-aware streaming of digital content |
US11089265B2 (en) | 2018-04-17 | 2021-08-10 | Microsoft Technology Licensing, Llc | Telepresence devices operation methods |
US11055902B2 (en) * | 2018-04-23 | 2021-07-06 | Intel Corporation | Smart point cloud reconstruction of objects in visual scenes in computing environments |
WO2020105269A1 (ja) * | 2018-11-19 | 2020-05-28 | ソニー株式会社 | 情報処理装置、情報処理方法、及びプログラム |
US11270464B2 (en) | 2019-07-18 | 2022-03-08 | Microsoft Technology Licensing, Llc | Dynamic detection and correction of light field camera array miscalibration |
US11553123B2 (en) | 2019-07-18 | 2023-01-10 | Microsoft Technology Licensing, Llc | Dynamic detection and correction of light field camera array miscalibration |
US11064154B2 (en) * | 2019-07-18 | 2021-07-13 | Microsoft Technology Licensing, Llc | Device pose detection and pose-related image capture and processing for light field based telepresence communications |
US11082659B2 (en) | 2019-07-18 | 2021-08-03 | Microsoft Technology Licensing, Llc | Light field camera modules and light field camera module arrays |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002149581A (ja) * | 2000-11-09 | 2002-05-24 | Nippon Telegr & Teleph Corp <Ntt> | 複数のユーザによる仮想空間共有システム |
JP2006523067A (ja) * | 2003-04-11 | 2006-10-05 | 三菱電機株式会社 | 物体上に出力画像を表示する方法 |
JP2009017540A (ja) * | 2007-05-31 | 2009-01-22 | Panasonic Corp | 画像撮影装置、付加情報提供サーバ及び付加情報フィルタリングシステム |
US20090303449A1 (en) * | 2008-06-04 | 2009-12-10 | Motorola, Inc. | Projector and method for operating a projector |
US20100214111A1 (en) * | 2007-12-21 | 2010-08-26 | Motorola, Inc. | Mobile virtual and augmented reality system |
JP2010238096A (ja) * | 2009-03-31 | 2010-10-21 | Ntt Docomo Inc | 端末装置、拡張現実感システム及び端末画面表示方法 |
US20100332958A1 (en) * | 2009-06-24 | 2010-12-30 | Yahoo! Inc. | Context Aware Image Representation |
US20110052042A1 (en) * | 2009-08-26 | 2011-03-03 | Ben Tzvi Jacob | Projecting location based elements over a heads up display |
JP2011055250A (ja) * | 2009-09-02 | 2011-03-17 | Sony Corp | 情報提供方法及び装置、情報表示方法及び携帯端末、プログラム、並びに情報提供システム |
JP2011107893A (ja) * | 2009-11-16 | 2011-06-02 | Sony Corp | 情報処理装置、情報処理方法、プログラムおよび情報処理システム |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20030062675A1 (en) * | 2001-09-28 | 2003-04-03 | Canon Kabushiki Kaisha | Image experiencing system and information processing method |
JP4054585B2 (ja) * | 2002-02-18 | 2008-02-27 | キヤノン株式会社 | 情報処理装置および方法 |
US8275397B2 (en) * | 2005-07-14 | 2012-09-25 | Huston Charles D | GPS based friend location and identification system and method |
US8235804B2 (en) * | 2007-05-14 | 2012-08-07 | Wms Gaming Inc. | Wagering game |
WO2009129418A1 (en) * | 2008-04-16 | 2009-10-22 | Techbridge Inc. | System and method for separated image compression |
TWI424865B (zh) * | 2009-06-30 | 2014-02-01 | Golfzon Co Ltd | 高爾夫模擬裝置及該裝置之高爾夫模擬方法 |
US9586147B2 (en) * | 2010-06-23 | 2017-03-07 | Microsoft Technology Licensing, Llc | Coordinating device interaction to enhance user experience |
TWM410263U (en) * | 2011-03-23 | 2011-08-21 | Jun-Zhe You | Behavior on-site reconstruction device |
-
2011
- 2011-09-30 US US13/977,657 patent/US20130271452A1/en not_active Abandoned
- 2011-09-30 JP JP2014533275A patent/JP2014532225A/ja active Pending
- 2011-09-30 CN CN201180075176.8A patent/CN103959241B/zh not_active Expired - Fee Related
- 2011-09-30 WO PCT/US2011/054397 patent/WO2013048479A1/en active Application Filing
- 2011-09-30 EP EP11873325.2A patent/EP2761440A4/en not_active Withdrawn
-
2012
- 2012-08-30 TW TW101131546A patent/TWI578270B/zh not_active IP Right Cessation
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002149581A (ja) * | 2000-11-09 | 2002-05-24 | Nippon Telegr & Teleph Corp <Ntt> | 複数のユーザによる仮想空間共有システム |
JP2006523067A (ja) * | 2003-04-11 | 2006-10-05 | 三菱電機株式会社 | 物体上に出力画像を表示する方法 |
JP2009017540A (ja) * | 2007-05-31 | 2009-01-22 | Panasonic Corp | 画像撮影装置、付加情報提供サーバ及び付加情報フィルタリングシステム |
US20100214111A1 (en) * | 2007-12-21 | 2010-08-26 | Motorola, Inc. | Mobile virtual and augmented reality system |
US20090303449A1 (en) * | 2008-06-04 | 2009-12-10 | Motorola, Inc. | Projector and method for operating a projector |
JP2010238096A (ja) * | 2009-03-31 | 2010-10-21 | Ntt Docomo Inc | 端末装置、拡張現実感システム及び端末画面表示方法 |
US20100332958A1 (en) * | 2009-06-24 | 2010-12-30 | Yahoo! Inc. | Context Aware Image Representation |
US20110052042A1 (en) * | 2009-08-26 | 2011-03-03 | Ben Tzvi Jacob | Projecting location based elements over a heads up display |
JP2011055250A (ja) * | 2009-09-02 | 2011-03-17 | Sony Corp | 情報提供方法及び装置、情報表示方法及び携帯端末、プログラム、並びに情報提供システム |
JP2011107893A (ja) * | 2009-11-16 | 2011-06-02 | Sony Corp | 情報処理装置、情報処理方法、プログラムおよび情報処理システム |
Also Published As
Publication number | Publication date |
---|---|
TW201329905A (zh) | 2013-07-16 |
CN103959241A (zh) | 2014-07-30 |
EP2761440A4 (en) | 2015-08-19 |
EP2761440A1 (en) | 2014-08-06 |
TWI578270B (zh) | 2017-04-11 |
US20130271452A1 (en) | 2013-10-17 |
CN103959241B (zh) | 2018-05-11 |
WO2013048479A1 (en) | 2013-04-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2014532225A (ja) | コンピューティング装置におけるコンテキストアウェア・モデル・ベースの画像合成及びレンダリングを容易にする機構 | |
US10614855B2 (en) | Spherical video editing | |
CN111194561B (zh) | 预测性的头部跟踪的双耳音频渲染 | |
JP6643357B2 (ja) | 全球状取込方法 | |
KR101637990B1 (ko) | 임의의 위치들을 가지는 디스플레이 구성 요소들 상에 3차원 콘텐츠의 공간적으로 상호 연관된 렌더링 | |
US9264479B2 (en) | Offloading augmented reality processing | |
US10573060B1 (en) | Controller binding in virtual domes | |
US10321109B1 (en) | Large volume video data transfer over limited capacity bus | |
JP2018139102A (ja) | 没入型コンテンツ内の関心地点を決定する方法及び装置 | |
JP2022528432A (ja) | ハイブリッドレンダリング | |
US9060093B2 (en) | Mechanism for facilitating enhanced viewing perspective of video images at computing devices | |
US11317072B2 (en) | Display apparatus and server, and control methods thereof | |
CN112912823A (zh) | 生成和修改增强现实或虚拟现实场景中对象的表示 | |
US10650592B2 (en) | Methods and apparatus for providing rotated spherical viewpoints | |
KR20190084987A (ko) | 구형 이미지 콘텐츠를 위한 배향된 이미지 스티칭 | |
CN112907652B (zh) | 相机姿态获取方法、视频处理方法、显示设备和存储介质 | |
TW201915445A (zh) | 用於頭戴式顯示裝置的定位方法、定位器以及定位系統 | |
US10740957B1 (en) | Dynamic split screen | |
CN110889384A (zh) | 场景切换方法及装置、电子设备和存储介质 | |
US20190005738A1 (en) | Method of playing virtual reality image and program using the same | |
WO2019034804A2 (en) | THREE-DIMENSIONAL VIDEO PROCESSING | |
US10719977B2 (en) | Augmented reality wall with combined viewer and camera tracking | |
JP6658799B2 (ja) | 端末装置及びプログラム | |
TW201727351A (zh) | 用以瀏覽全景相片之裝置及其方法 | |
CN117173378A (zh) | 基于CAVE环境的WebVR全景数据展现方法、装置、设备及介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20150223 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150303 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150602 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20151110 |