JP2013061937A - ステレオカメラ及びステレオディスプレイを組み合わせたやり取り - Google Patents

ステレオカメラ及びステレオディスプレイを組み合わせたやり取り Download PDF

Info

Publication number
JP2013061937A
JP2013061937A JP2012180309A JP2012180309A JP2013061937A JP 2013061937 A JP2013061937 A JP 2013061937A JP 2012180309 A JP2012180309 A JP 2012180309A JP 2012180309 A JP2012180309 A JP 2012180309A JP 2013061937 A JP2013061937 A JP 2013061937A
Authority
JP
Japan
Prior art keywords
user
event
display
model
virtual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012180309A
Other languages
English (en)
Inventor
Michael Roberts
マイケル・ロバーツ
Zarfulla Zahoor
ザハー・ザルーラ
Chu Maurice
モーリス・チュー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Palo Alto Research Center Inc
Original Assignee
Palo Alto Research Center Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Palo Alto Research Center Inc filed Critical Palo Alto Research Center Inc
Publication of JP2013061937A publication Critical patent/JP2013061937A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/156Mixing image signals
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/213Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • A63F13/26Output arrangements for video game devices having at least one additional display device, e.g. on the game controller or outside a game booth
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/65Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/014Hand-worn input/output arrangements, e.g. data gloves
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/275Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
    • H04N13/279Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals the virtual viewpoint locations being selected by the viewers or determined by tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

【課題】ステレオ画像取得機器と3次元(3D)ディスプレイの間のやり取りを円滑にするシステムを提供する。
【解決手段】システムは、ステレオ画像取得機器、複数の追跡器、事象生成器、事象処理プロセッサ、及び3Dディスプレイを含む。動作の間、ステレオ画像取得機器はユーザの画像を取得する。複数の追跡器が、取得された画像に基づいてユーザの動作を追跡する。次いで、事象生成器が、ユーザの動作に関する事象ストリームを生成し、続いて仮想世界クライアントの事象処理プロセッサがこの事象ストリームと、仮想世界内の状態変化をマッピングする。次いで、3Dディスプレイが、仮想世界と共に拡張現実を表示する。
【選択図】図1

Description

本開示は、仮想世界サーバシステムと連動する大型ステレオディスプレイに表示される仮想世界内の機械視覚インターフェースを介した、対象物とのやり取りを円滑にするシステム及び技術に関し、この機械視覚インターフェースにより、仮想世界の内部モデルに接続する拡張現実機器を含む様々な機器に、変化をストリーミングすることができる。
複雑な機器でサポートする従来のサービスでは専門の技術者が実際に初心者に付き添いながら、実際に機器を操作して説明、実演していた。しかし、このような方法で初心者を訓練又はサポートする場合は大抵、専門の技術者は初心者及び機器のある遠隔地まで出向かなければならないため、コストがかかり、しかも時間の浪費である可能性がある。
基本的には、遠隔的に専門の技術者と初心者がやり取りすることが、この問題に対する有望な解決策である。しかし、既存の通信技術を用いてやり取りできる情報では、通常このような遠隔的にサポートするサービスには不十分である。例えば、電話会議の間、音声、映像、又は文字情報、又は画像情報が一般に参加者間でやり取りされるが、大抵の場合、機器内の構成部品間の空間的相互関係等の3次元の空間関係の情報(例えば、構成部品がどのように組立てられているか)のやり取りは利用できない。遠隔的なサービスセッションでは、専門の技術者が対象の機器を示し、実際に操作することができないため、これは問題である。さらに、初心者が自分の動作の効果的に伝えることができなければ、その動作は、専門の技術者にとって容易に理解することができない。一般的に、初心者と専門の技術者の間では知識の差に著しい開きがあるため、初心者に自分の動作を口頭で専門の技術者に説明させることは効果的でなく、その逆も同様である。したがって、遠隔的なサービスの作業をどのように行うかということに関してコミュニケーションを図ることは、専門の技術者及び初心者にとって大抵の場合は困難である。
本発明の一実施形態により、ステレオ画像取得機器と3次元(3D)ディスプレイの間のやり取りを円滑にするシステムが提供される。このシステムは、ステレオ画像取得機器、複数の追跡器、事象生成器、事象処理プロセッサ、及び3Dディスプレイを含む。動作の間、ステレオ画像取得機器は、ユーザ及びユーザの周りの1つ以上の対象物の画像を取得する。複数の追跡器は、取得された画像に基づいて、ユーザの動作を追跡する。次いで、複数の事象生成器が、ユーザ動作及び/又はユーザの周囲の動作に関する事象ストリームを生成し、仮想世界クライアント内の事象処理プロセッサが、この事象ストリームと仮想世界の状態変化とをマッピングする。次いで、3Dディスプレイが仮想世界を表示する。
本実施形態の変形例では、ステレオ画像取得機器は、深度カメラ又はステレオカメラであり、深度計算用の視差マップを生成することができる。
本実施形態の変形例では、システムは較正モジュールをさらに含み、この較正モジュールは、取得された画像の位置の座標と現実世界の位置の座標をマッピングするよう設定される。
本実施形態の変形例では、複数の追跡機器には、視標追跡機器、頭部追跡機器、
手部追跡機器、及び胴体部追跡機器のうちの1つ以上が含まれる。
本実施形態の変形例では、事象処理プロセッサにより、ユーザがユーザの動作に対応する対象物を操作することができる。
別の変形例では、3Dディスプレイがユーザの動作に対応する対象物を表示する。
本実施形態の変形例では、事象処理プロセッサが対象物を操作するための第2の事象ストリームを受信する。
別の変形例では、事象処理プロセッサにより生成される仮想世界モデルへの変化を多数の接続された拡張現実システム又は仮想現実システムへ配信することができる。
図1は、本開示の実施形態による機械視覚インターフェースを組み込んだ例示的な仮想現実システムを示すブロック図である。 図2は、本開示の実施形態による例示的な仮想拡張現実システムを示すブロック図である。 図3は、本開示の実施形態による大型ステレオディスプレイに表示される仮想世界内の機械視覚インターフェースを介した、対象物とのやり取りを円滑にするコンピュータシステムを示すブロック図である。 図4は、本開示の実施形態による大型ステレオディスプレイに表示される仮想世界内の機械視覚インターフェースを介する対象物とのやり取りを円滑にする方法を示すフローチャートである。 図5は、本開示の実施形態による拡張現実での共同作業を円滑にするコンピュータシステムを示すブロック図である。
但し、同じ参照番号は、図面全体に渡り対応する部品を示す。さらに、同じ部品の例示が複数ある場合、共通の参照番号からダッシュにより分離された例示番号によりそれらを指定する。
本発明の実施形態により、機械視覚インターフェースを拡張現実システムに組み込むことに関する問題が解決され、コンピュータ装置に慣れていないユーザが、複雑な仮想空間でやり取りを行うことができる。遠隔的なサービスの用途では、ユーザ機械視覚インターフェースを組み込んだ拡張現実システムを介して、遠隔地のユーザが構内のユーザとやり取りできるようにすることが有益である。ステレオカメラとステレオディスプレイを組み合わせることにより、遠隔地のユーザは、目の前のステレオディスプレイから流れ出て現れる対象物に直接触れ操作することができる。仮想現実システムや拡張現実システムは、仮想世界からの情報を生の映像の上に重ね合わせ、遠隔地のユーザは、接続された別の仮想現実システム、又は拡張現実システムのうちのどちらかとの相互やり取りを体験することができる。
ステレオ画像取得機器と3次元(3D)ディスプレイの間のやり取りを円滑にするシステム、方法、及びコンピュータプログラム製品(ソフトウェア等)の実施形態を説明する。このシステムは、ステレオ画像取得機器、複数の追跡器、事象生成器、事象処理プロセッサ、内部の場面の状態を表示するアプリケーション、及び3Dディスプレイを含む。動作の間、ステレオ画像取得機器はユーザの画像を取得する。複数の追跡器は、取得された画像に基づいて、場面の中のユーザ及び/又は対象物の動作を追跡する。次いで、事象生成器が、ユーザの動作に関する事象ストリームを生成し、仮想世界クライアント内の事象処理プロセッサがこの事象ストリームと仮想世界アプリケーションの世界モデル内の状態変化とをマッピングする。次いで、3Dディスプレイがアプリケーションの世界モデルを表示する。
続く議論では、仮想環境(「仮想世界」又は「仮想現実」アプリケーションとも呼ばれる)人工現実感が含まれ、それによりユーザが、コンピュータにより生成された空間(3次元空間等)に投影されることは理解されよう。さらに、拡張現実アプリケーション実際の環境の生の、又は間接的な風景を含み、その要素は重ね合わされた、コンピュータで作られた情報(仮想現実アプリケーションの世界モデルに関する捕捉情報、画像又は情報等)により拡張されることも理解されたい。
次いでシステムの実施形態を説明する。図1は、本開示の実施形態による機械視覚インターフェースを組み込んだ例示的な仮想現実システムを示すブロック図である。図1に示す通り、機械視覚インターフェースが、3Dディスプレイ120の上面に設置されたステレオカメラ110の前に立っている(又は座っている)ユーザを感知する。ユーザは、3Dメガネ130をかけ、右手に赤の手袋140、左手に緑の手袋150を付けることができる。仮想現実システムは、多数の追跡モジュールを組み込むこともでき、これらの追跡モジュールは、それぞれ、ステレオカメラ110、3Dメガネ130、赤の手袋140、及び緑の手袋150のサポートを受けてユーザの動作を追跡することができる。例えば、システムは、色の付いた手袋、及び3Dメガネの外観を追跡することによりユーザの視標を追跡することで、ユーザの手を追跡することができる。追跡モジュールを追加して手の形及びユーザが行う手のジェスチャ、並びにユーザの体の別の部分の動作を認識することができる。システムは、視標追跡器を介してユーザの視界を近づけることもできる。次いで、これらの動作及びジェスチャを、符号化して事象ストリームを生成し、事象処理プロセッサに供給する。事象処理プロセッサは、仮想現実システムの世界モデルを変更する。
一実施形態では、仮想現実システムは、実際の世界で動かされる対象物の状態を表示する世界モデル、及び世界モデルの状態への変化を多数の仮想世界、即ちサーバに接続する拡張現実クライアントへ配信するサブシステムといった、いくつかの重要な要素を含む。変化を配信するサブシステムは、仮想世界クライアントで生成されるユーザのジェスチャを好適な命令に変換し、その命令で世界モデルの状態を変換してユーザのジェスチャを表示する。仮想世界クライアントは、仮想世界サーバとインターフェースを介して接続し、その状態をサーバにより維持される世界モデルと同期させた状態で、ステレオ描画技術を用いてユーザの前の大型3Dディスプレイに世界モデルを表示する。ユーザは、3Dメガネを通した異なる視点から描画された世界モデルを見て、対象物が目の前に現れていると錯覚する。
図2は、本開示の実施形態による例示的な仮想―拡張現実システム200を示すブロック図である。このシステムでは、共有のフレームワークを通して仮想世界クライアント214のユーザと、離れた場所の拡張現実クライアント220とがネットワーク216介してやり取りを行う。サーバシステム210は世界モデル212を維持し、この世界モデル212が実際の環境218の中の222−1から222−Nまでの実際の対象物に関する1つ以上のコンピュータ対象物の状態を表示する。そして、これらの対象物は1人以上のユーザにより変更される。サーバシステム210は、拡張現実クライアント220の1人以上のユーザ、及び/又は仮想世界クライアント214の1人以上の別のユーザの動作に関する世界モデルの状態に対するあらゆる変化を、リアルタイムで共有し、これにより拡張現実アプリケーションと仮想現実アプリケーションの間の動的な空間的結合又は「認識」を維持する。
拡張現実クライアント220は、カメラ228を用いてリアルタイムの映像を取得し、機械視覚モジュール230を用いてビデオ画像を処理することができる。拡張現実クライアント220はさらに、世界モデル212に関する情報又は画像を取得された映像と共に表示することができる。例えば、機械視覚モジュール230は、122−1から122−Nまでの実際に関する対象物のコンピュータ支援設計(CAD)モデル224と連動して動作して、画像の外観をCADモデル124上の対応する外観に関連付けることができる。機械視覚モジュール230は、場面の中の幾何学形状をCADモデル124に中継することができる。
表示される対象物を選択する、又は実際の環境218特定な領域の風景を変更することにより、ユーザは、拡張現実クライアント220とやり取りすることができる。この情報はサーバシステム210に中継され、このサーバシステム210が必要に応じて世界モデル212を更新し、仮想世界クライアント214及び拡張現実クライアント220の両方のあらゆる変化を反映する命令を配信する。したがって、世界モデル212内の対象物の状態に対する変化を仮想世界クライアント214及び/又は拡張現実クライアント220から受け取ることができる。サーバシステム210の状態識別機器226が、1つ以上の対象物の状態に対する変化を判定する。
したがって、複数のユーザの仮想世界サーバシステムが、拡張現実アプリケーションと仮想現実アプリケーションとの間の動的な空間的結合を維持して、仮想世界クライアント214のユーザと拡張現実クライアント220のユーザが、それぞれ自分の環境と相手の環境を用いてやり取りを行うことができる。さらに、222−1から222−Nまでの実際の対象物には、複数の相関する構成部品、即ち互いに空間関係を有する構成部品を有する複雑な対象物も含まれ得る。この複雑な対象物とやり取りを行うことにより、ユーザは世界モデル212内の相関した構成部品を分解図に移すことができる。この機能により、システム200のユーザは、共働して、即ちやり取りして、オンラインの百科事典、オンラインのユーザマニュアル、遠隔的なメンテナンス又はサービス、遠隔的な訓練、及び/又は遠隔的な手術等のアプリケーションの中の内容を変更する、又は生成することができる。
本発明の実施形態により、ステレオ画像取得機器と仮想―拡張現実環境内の3Dディスプレイの間のやり取りを円滑にするシステムが提供される。このシステムは、複数の追跡モジュールを含み、それぞれユーザの体の異なる部分の動作を追跡することができる。これらの動作は事象ストリームに符号化され、次いで仮想世界クライアントへ供給される。仮想世界クライアントに組み込まれた事象処理モジュールは、事象ストリームを受け取り、この受け取った事象ストリームに基づいて構内の仮想世界の状態に対する変更を行う。この変更には、仮想世界モデルに関するユーザの視点の調整と、対象物の選択、ドラッギング、及び回転と、が含まれ得る。但し、事象ストリーム内の特定のユーザの動作に対応する個々の事象により、世界モデルの状態変化がもたらしても、もたらさなくてもよい。事象処理モジュールは、追跡モジュールから受け取る着信する事象ストリームを分析し、世界モデルの状態に確実に影響する事象を識別し、それを、状態を変更する命令へ変換し、仮想世界サーバへ送る。
カメラの前のユーザの体の位置やユーザの手によるジェスチャを正確に測定し再生することが重要である。高性能の機械視覚モジュールを用いることで、この精度を実現することができる。ある実施形態では、機械視覚モジュールは、下記の事柄のうちの1つ以上を実行することができる。
・広い焦点距離を有するカメラレンズを使用する。
・ディスプレイの前の空間と位置を正確に較正して、ユーザが3D仮想モデルと高い精度でやり取りができることを確保する。
・リアルタイムで動作して入ってくる視覚情報をごくわずかなタイムラグで即座に処理することを確保する。
・異なる視点からカメラが感知したときに、写す位置により変化し得るジェスチャごとの手の形を正確に認識する。
一実施形態では、ステレオカメラは視差マップを作成可能であり、この視差マップを、直接取得されたx−y座標を提供するビデオ画像と共に分析して深度情報を演算する。一般に、ステレオカメラが十分な入力情報を提供し、システムは画像空間と現実空間をマッピングしてユーザの体の異なる部分を認識する。一実施形態では、独立した較正モジュールが取得された画像の位置と現実世界の位置との予備マッピングを行う。動作の間、ステレオカメラの前の特定な位置にチェッカーボードテスト用の画像が設置される。次いで、較正モジュールは、ステレオカメラからのマークされた位置と共に取得画像を分析し、最小二乗法を実行して画像空間から現実世界の空間への最適な写像変換を決定する。次に、一連の追跡器及びジェスチャ認識器が、較正された位置情報に基づいてユーザの動作、及びユーザが操作した対象物の状態変化を認識し追跡するよう設定される。動作が認識されると、事象生成器が、動作を示す高いレベルの事象を生成し、その事象を仮想世界クライアントへ通信する。続いて仮想空間マッピングモジュールが事象生成器の現実世界の空間と仮想空間をマッピングし、この仮想空間の中で仮想対象物が最終的に表示される。
いくつかの実施形態では、一連の追跡器からの出力情報はモデル結合器により組み合わされる。モデル結合器は、ユーザ及び/又はユーザ周辺(ユーザとの他の対象物を組み合わせる部屋等)の、例えば、IKモデル又はスケルトンといった1つ以上のモデルを含むことができる。結合器は、順方向及び逆方向の運動学モデル等の運動学モデルを追跡器の出力情報に適用して、ユーザと対象物とのやり取りを検知し、その検知結果を特定のアプリケーション用に最適化することができる。モデル結合器を所定の一連の規則により、又は外部インターフェースを介して設定することができる。例えば、ユーザと対象物のやり取りがユーザの手及び上体の動作だけを含む場合は、モデル結合器を人間の上体のモデルを用いて設定することができる。したがって、生成される事象ストリームは、アプリケーション専用であり、そのアプリケーションによってより効率的に処理される。
図3は、本開示の実施形態による、大型ステレオディスプレイに表示された仮想世界内の機械視覚インターフェースを介した、対象物とのやり取り円滑にするコンピュータシステム300を示すブロック図である。この例示的なシステムでは、ステレオカメラ304及び3Dディスプレイ320の前にユーザ302が立っている。ステレオカメラは、ユーザの画像を取得し、その画像を仮想世界クライアント内の追跡モジュールへ送信する。追跡モジュールは、視標追跡器312、手部追跡器314、頭部追跡器316、胴体部追跡器318、及び対象物追跡器319を含む。較正器306もステレオカメラ304と接続して、取得された画像の位置と現実世界の位置の予備マッピングを行う。追跡モジュールにより追跡されたユーザの動作及び、対象物の状態変化は、モデル結合器307に供給される。このモデル結合モジュールが、複数の追跡モジュールからの出力情報を組み合わせ、アプリケーション専用のモデルを適用してユーザ−対象物のやり取りを検知する。モデル結合器307により検知されたユーザ−対象物のやり取り、及び較正器306により生成された位置情報は、事象生成器308へ送信される。事象生成器308が、このやり取りを事象ストリームに変換し、仮想世界サーバへ転送する。次いで、仮想世界サーバ内のマッピングモジュール310が現実世界の空間の背景と仮想空間をマッピングして3Dディスプレイ320に表示する。
図4は、本開示の実施形態による大型ステレオディスプレイに表示される仮想世界内の機械視覚インターフェースを介した、対象物とのやり取りを円滑にする方法を示すフローチャートである。この方法はコンピュータシステム(図2のシステム200、又は図3のシステム300等)により実行される。動作の間、コンピュータシステムは、ユーザの画像を取得する(ステップ410)。次いで、コンピュータシステムは、取得された画像内の座標と、現実世界の座標とを較正する(ステップ412)。次いで、コンピュータシステムは、取得されたビデオ画像に基づいてユーザの動作、及び対象物の状変化を追跡する(ステップ414)。続いてコンピュータシステムは、ユーザと対象物のやり取りの事象ストリームを生成する(ステップ416)。事象ストリームと仮想世界内の状態変化をマッピングした後(ステップ418)、コンピュータシステムは、取得されたビデオ画像に仮想世界を重ね合わせた状態で、拡張現実を表示する(ステップ420)。
方法400のいくつかの実施形態では、ステップを追加すること、又は削除するができる。さらに、これらのステップの順番を入れ替える、及び/又は2つ以上のステップを組み合わせて1つのステップにすることもできる。
例示的システム
図5は、本開示の一実施形態による拡張現実での共同作業を円滑にするコンピュータシステム500を示すブロック図である。このコンピュータシステムは、1つ以上のプロセッサ510、通信インターフェース512、ユーザインターフェース514、及びこれらの構成部品を1つに接続する1つ以上の信号線522を含む。但し、1つ以上の処理ユニット510は、並列処理及び/又はマルチスレッド動作をサポートすることができ、通信インターフェース512は、持続的通信接続を実行することができ、1つ以上の信号線522で通信バスを構成することができる。さらに、ユーザインターフェース514は、3Dディスプレイ516、ステレオカメラ517、キーボード518、及び/又はマウス等のポインタ520を含むことができる。
コンピュータシステム500内のメモリ524は、揮発性メモリ及び/又は不揮発性メモリを含むことができる。メモリ524は、オペレーティングシステム526を格納し、このオペレーティングシステム526は、ハードウェアに依存する作業を実行する種々の基本システムを操作する手順(又は一連の命令)を含む。いくつかの実施形態では、このオペレーティングシステム526は、リアルタイムオペレーティングシステムでよい。メモリ524は、通信モジュール528内の通信手順(又は一連の命令)の格納することができる。これらの通信手順を用いて、1つ以上のコンピュータ、コンピュータを含む機器及び/又はサーバ、コンピュータシステム500から離れて位置する機器及び/又はサーバと通信することができる。
メモリ524は、複数のプログラムモジュール(又は一連の命令)を含むことができ、これらのプログラムモジュールには、追跡モジュール530(又は一連の命令)、状態識別モジュール532(又は一連の命令)、描画モジュール534(又は一連の命令)、更新モジュール536(又は一連の命令)、及び/又は生成モジュール538(又は一連の命令)が含まれる。但し、これらのプログラムモジュールのうちの1つ以上により、コンピュータプログラム機構を構成することができる。
動作の間、追跡モジュール530は通信モジュール528を介して1つ以上の入力情報550を受信する。次いで、状態識別モジュール532が、世界モデル540のうちの1つの中の、1つ以上の対象物の状態に対する変化を判定する。いくつかの実施形態では、入力情報550は実際の対象物の画像を含み、状態識別モジュール532は、1つ以上の任意の場面548、所定のオリエンテーション546、及び/又は1つ以上のCADモデル544を用いて状態に対する変化を判別することができる。例えば、描画モジュール534は、1つ以上のCADモデル544、及び所定のオリエンテーション546を用いて、任意の場面548を描画することができ、状態識別モジュール532は、入力情報550を任意の場面548と比較することにより、状態に対する変化を判別することができる。あるいは、又はさらに、状態識別モジュール532は、所定の対象物の状態542を用いて、状態変化を判別することができる。判定された変化に基づいて、更新モジュール536は、1つ以上の世界モデル540を変更することができる。次いで、世界モデル540のうちの1つ以上に基づいて、生成モジュール538が、仮想世界クライアント及び/又は拡張現実クライアントに対する命令を生成することができる。

Claims (10)

  1. ユーザの画像を取得するよう設定されたステレオ画像取得機器と、
    前記取得された画像に基づいて、前記ユーザの動作を追跡するよう設定された複数の追跡器と、
    前記ユーザの動作に関する事象ストリームを生成するよう設定された事象生成器と、
    前記事象ストリームと前記仮想世界内の状態変化をマッピングするよう設定された、仮想世界クライアント内の事象処理プロセッサであって、前記ユーザ及び/又は前記ユーザの周囲の1つ以上のモデルに基づいて、前記複数の追跡器からの出力情報を組み合わせるよう設定されたモデル結合器を含む事象処理プロセッサと、
    現実世界の場面のモデルを有する仮想現実アプリケーションと、
    前記現実世界の場面のモデルを表示するよう設定された1つ以上の3次元(3D)ディスプレイと、
    表示情報を前記現実世界の場面の映像ストリームに重ね合わせるよう設定された1つ以上の拡張現実クライアントと、を含むシステム。
  2. 前記ステレオ画像取得機器が、深度計算用の視差マップを生成可能なステレオカメラである、請求項1に記載のシステム。
  3. 前記取得された画像内の位置の座標と現実世界の位置の座標をマッピングするよう設定された較正モジュールをさらに含む、請求項1に記載のシステム。
  4. 前記事象生成器のために運動学のモデルを前記追跡される動作に適用するモデル組合せモジュールをさらに含む請求項1に記載のシステム。
  5. 前記複数の追跡器には、
    視標追跡器と、
    頭部追跡器と、
    手部追跡器と、
    胴体部追跡器と、
    対象物追跡器と、のうちの1つ以上の追跡器が含まれる、請求項1に記載のシステム。
  6. 前記事象処理プロセッサが、前記ユーザの動作に対応する対象物を前記ユーザが操作できるようにさらに設定されている、請求項1に記載のシステム。
  7. 前記3Dディスプレイが、ユーザの動作に対応する前記対象物を表示するようさらに設定されている、請求項6に記載のシステム。
  8. 前記事象処理プロセッサが、対象物を操作するための第2の事象ストリームを受信するよう設定されている、請求項1に記載のシステム。
  9. コンピュータにより実行される方法であって、
    コンピュータによりユーザの画像を取得するステップと、
    複数の追跡器により、前記ユーザの動作を、前記取得された画像に基づいて、追跡するするステップと、
    前記ユーザの動作に関する事象ストリームを生成するステップと、
    前記事象ストリームと仮想世界内の状態変化をマッピングするステップと、
    前記ユーザ、及び/又は前記ユーザの周囲の1つ以上のモデルに基づいて、前記複の追跡器からの出力情報を組み合わせるステップと、
    現実世界の場面のモデルを維持するステップと、
    3次元(3D)ディスプレイを用いて、前記現実世界の場面のモデル、及び前記現実世界の場面の映像ストリームの上に重ね合わせた情報を表示するステップと、を含む方法。
  10. 前記ユーザの画像を取得するステップには、深度計算用の視差マップを生成することが含まれる、請求項9に記載の方法。
JP2012180309A 2011-09-12 2012-08-16 ステレオカメラ及びステレオディスプレイを組み合わせたやり取り Pending JP2013061937A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US13/230,680 US20130063560A1 (en) 2011-09-12 2011-09-12 Combined stereo camera and stereo display interaction
US13/230,680 2011-09-12

Publications (1)

Publication Number Publication Date
JP2013061937A true JP2013061937A (ja) 2013-04-04

Family

ID=47115268

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012180309A Pending JP2013061937A (ja) 2011-09-12 2012-08-16 ステレオカメラ及びステレオディスプレイを組み合わせたやり取り

Country Status (4)

Country Link
US (1) US20130063560A1 (ja)
EP (1) EP2568355A3 (ja)
JP (1) JP2013061937A (ja)
KR (1) KR20130028878A (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105892638A (zh) * 2015-12-01 2016-08-24 乐视致新电子科技(天津)有限公司 一种虚拟现实交互方法、装置和系统
WO2020073600A1 (en) * 2018-10-10 2020-04-16 Midea Group Co., Ltd. Method and system for providing remote robotic control
WO2020073680A1 (en) * 2018-10-10 2020-04-16 Midea Group Co., Ltd. Method and system for providing remote robotic control
US10678264B2 (en) 2018-10-10 2020-06-09 Midea Group Co., Ltd. Method and system for providing remote robotic control

Families Citing this family (41)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8639666B2 (en) * 2008-09-05 2014-01-28 Cast Group Of Companies Inc. System and method for real-time environment tracking and coordination
US8643703B1 (en) * 2011-03-30 2014-02-04 Amazon Technologies, Inc. Viewer tracking image display
CN103959344B (zh) * 2011-12-20 2017-03-01 英特尔公司 跨越多个设备的增强现实表示
DE102012209316A1 (de) * 2012-06-01 2013-12-05 Robert Bosch Gmbh Verfahren und Vorrichtung zum Verarbeiten von Sensordaten eines Stereosensorsystems
US9361730B2 (en) * 2012-07-26 2016-06-07 Qualcomm Incorporated Interactions of tangible and augmented reality objects
US10970934B2 (en) * 2012-10-23 2021-04-06 Roam Holdings, LLC Integrated operating environment
GB2499694B8 (en) 2012-11-09 2017-06-07 Sony Computer Entertainment Europe Ltd System and method of image reconstruction
US9058693B2 (en) * 2012-12-21 2015-06-16 Dassault Systemes Americas Corp. Location correction of virtual objects
US9215448B2 (en) * 2013-01-31 2015-12-15 Here Global B.V. Stereo panoramic images
US9325943B2 (en) * 2013-02-20 2016-04-26 Microsoft Technology Licensing, Llc Providing a tele-immersive experience using a mirror metaphor
US10146299B2 (en) * 2013-11-08 2018-12-04 Qualcomm Technologies, Inc. Face tracking for additional modalities in spatial interaction
US9720506B2 (en) * 2014-01-14 2017-08-01 Microsoft Technology Licensing, Llc 3D silhouette sensing system
US9883138B2 (en) 2014-02-26 2018-01-30 Microsoft Technology Licensing, Llc Telepresence experience
CN103830904A (zh) * 2014-03-11 2014-06-04 福州大学 实现3d立体仿真游戏的装置
US9677840B2 (en) 2014-03-14 2017-06-13 Lineweight Llc Augmented reality simulator
EP3146466B1 (en) * 2014-05-21 2021-06-30 Tangible Play, Inc. Virtualization of tangible interface objects
CN106937531B (zh) * 2014-06-14 2020-11-06 奇跃公司 用于产生虚拟和增强现实的方法和系统
CN105279354B (zh) * 2014-06-27 2018-03-27 冠捷投资有限公司 用户可融入剧情的情境建构系统
CN104240281A (zh) * 2014-08-28 2014-12-24 东华大学 一种基于Unity3D引擎的虚拟现实头戴式设备
CN105955039B (zh) * 2014-09-19 2019-03-01 西南大学 一种智慧教室
US9811555B2 (en) 2014-09-27 2017-11-07 Intel Corporation Recognition of free-form gestures from orientation tracking of a handheld or wearable device
EP3281403A4 (en) * 2015-04-06 2018-03-07 Scope Technologies US Inc. Methods and apparatus for augmented reality applications
CN104808795B (zh) * 2015-04-29 2018-01-02 王子川 一种增强现实眼镜的手势识别方法及增强现实眼镜系统
KR101639065B1 (ko) 2015-06-22 2016-07-13 한국과학기술연구원 가상 공간과 실제 공간을 정합하기 위한 시스템과, 디스플레이 장치와 영상 센서를 정합하기 위한 방법과, 그 방법을 이용해 정합된 전자 장치
CN105107200B (zh) * 2015-08-14 2018-09-25 济南中景电子科技有限公司 基于实时深度体感交互与增强现实技术的变脸系统及方法
CN105653029A (zh) * 2015-12-25 2016-06-08 乐视致新电子科技(天津)有限公司 在虚拟现实系统中获得沉浸感的方法、系统及智能手套
CN106598217B (zh) * 2016-11-08 2020-06-19 北京小米移动软件有限公司 显示方法、显示装置和电子设备
CN106598246B (zh) * 2016-12-16 2020-07-28 阿里巴巴(中国)有限公司 基于虚拟现实的互动控制方法及装置
CN106843475A (zh) * 2017-01-03 2017-06-13 京东方科技集团股份有限公司 一种实现虚拟现实交互的方法及系统
CN107564066B (zh) * 2017-07-20 2020-10-23 长春理工大学 一种虚拟现实眼镜与深度相机的联合标定方法
CN107277494A (zh) * 2017-08-11 2017-10-20 北京铂石空间科技有限公司 立体显示系统及方法
CN107911686B (zh) * 2017-12-29 2019-07-05 盎锐(上海)信息科技有限公司 控制方法以及摄像终端
CN108144292A (zh) * 2018-01-30 2018-06-12 河南三阳光电有限公司 裸眼3d互动游戏制作设备
CN108490634B (zh) * 2018-03-23 2019-12-13 深圳奥比中光科技有限公司 一种结构光投影模组和深度相机
CN108594454B (zh) 2018-03-23 2019-12-13 深圳奥比中光科技有限公司 一种结构光投影模组和深度相机
US10777012B2 (en) * 2018-09-27 2020-09-15 Universal City Studios Llc Display systems in an entertainment environment
CN111598273B (zh) * 2020-07-20 2020-10-20 中国人民解放军国防科技大学 一种基于vr技术的环控生保系统维修性检测方法及装置
CN112017303B (zh) * 2020-09-04 2024-01-19 中筑科技股份有限公司 一种基于增强现实技术的设备维修辅助方法
CN112215933B (zh) * 2020-10-19 2024-04-30 南京大学 一种基于笔式交互及语音交互的三维立体几何绘制系统
CN112802124B (zh) * 2021-01-29 2023-10-31 北京罗克维尔斯科技有限公司 多台立体相机的标定方法及装置、电子设备及存储介质
CN113687715A (zh) * 2021-07-20 2021-11-23 温州大学 基于计算机视觉的人机交互系统及交互方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010257461A (ja) * 2009-04-26 2010-11-11 Ailive Inc ネットワークゲーム用の共有ゲーム空間を創出する方法およびシステム
US20110154266A1 (en) * 2009-12-17 2011-06-23 Microsoft Corporation Camera navigation for presentations

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6330356B1 (en) * 1999-09-29 2001-12-11 Rockwell Science Center Llc Dynamic visual registration of a 3-D object with a graphical model
US8266536B2 (en) * 2008-11-20 2012-09-11 Palo Alto Research Center Incorporated Physical-virtual environment interface
JP5290864B2 (ja) * 2009-05-18 2013-09-18 キヤノン株式会社 位置姿勢推定装置及び方法
US9113050B2 (en) * 2011-01-13 2015-08-18 The Boeing Company Augmented collaboration system

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010257461A (ja) * 2009-04-26 2010-11-11 Ailive Inc ネットワークゲーム用の共有ゲーム空間を創出する方法およびシステム
US20110154266A1 (en) * 2009-12-17 2011-06-23 Microsoft Corporation Camera navigation for presentations

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105892638A (zh) * 2015-12-01 2016-08-24 乐视致新电子科技(天津)有限公司 一种虚拟现实交互方法、装置和系统
WO2020073600A1 (en) * 2018-10-10 2020-04-16 Midea Group Co., Ltd. Method and system for providing remote robotic control
WO2020073680A1 (en) * 2018-10-10 2020-04-16 Midea Group Co., Ltd. Method and system for providing remote robotic control
US10678264B2 (en) 2018-10-10 2020-06-09 Midea Group Co., Ltd. Method and system for providing remote robotic control
US10803314B2 (en) 2018-10-10 2020-10-13 Midea Group Co., Ltd. Method and system for providing remote robotic control
US10816994B2 (en) 2018-10-10 2020-10-27 Midea Group Co., Ltd. Method and system for providing remote robotic control

Also Published As

Publication number Publication date
EP2568355A2 (en) 2013-03-13
EP2568355A3 (en) 2013-05-15
US20130063560A1 (en) 2013-03-14
KR20130028878A (ko) 2013-03-20

Similar Documents

Publication Publication Date Title
JP2013061937A (ja) ステレオカメラ及びステレオディスプレイを組み合わせたやり取り
US20150301596A1 (en) Method, System, and Computer for Identifying Object in Augmented Reality
US20200097732A1 (en) Markerless Human Movement Tracking in Virtual Simulation
US20160343166A1 (en) Image-capturing system for combining subject and three-dimensional virtual space in real time
KR101763636B1 (ko) 헤드 마운트 디스플레이를 이용한 협업 방법
US11199711B2 (en) Enhanced reality systems
TW201246088A (en) Theme-based augmentation of photorepresentative view
Jia et al. 3D image reconstruction and human body tracking using stereo vision and Kinect technology
JPWO2017094543A1 (ja) 情報処理装置、情報処理システム、情報処理装置の制御方法、及び、パラメーターの設定方法
CN106980378B (zh) 虚拟显示方法和系统
US10964104B2 (en) Remote monitoring and assistance techniques with volumetric three-dimensional imaging
JP2020065229A (ja) 映像通信方法、映像通信装置及び映像通信プログラム
Khattak et al. A real-time reconstructed 3D environment augmented with virtual objects rendered with correct occlusion
JP2023501079A (ja) 共有人工現実環境における同じ場所での姿勢推定
KR101579491B1 (ko) 증강현실에서의 원격 협업을 위한 디지로그 공간 생성기 및 그를 이용한 디지로그 공간 생성 방법
Adcock et al. Visualization of off-surface 3D viewpoint locations in spatial augmented reality
JP2017146762A (ja) 画像表示型シミュレーションサービス提供システム及び画像表示型シミュレーションサービス提供方法
US11727645B2 (en) Device and method for sharing an immersion in a virtual environment
CN111881807A (zh) 基于人脸建模及表情追踪的vr会议控制系统及方法
Fadzli et al. A robust real-time 3D reconstruction method for mixed reality telepresence
Yang et al. [POSTER] Remote Mixed Reality System Supporting Interactions with Virtualized Objects
CN103680248A (zh) 船舶机舱虚拟现实仿真系统
WO2022176450A1 (ja) 情報処理装置、情報処理方法、およびプログラム
Siegl et al. An augmented reality human–computer interface for object localization in a cognitive vision system
KR20150044243A (ko) 손 아바타를 이용한 콘텐츠 제어가능 전자학습 장치 및 방법

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20131212

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150817

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160525

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160531

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160829

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20161101