JP6285941B2 - 制御された三次元通信エンドポイント - Google Patents

制御された三次元通信エンドポイント Download PDF

Info

Publication number
JP6285941B2
JP6285941B2 JP2015536848A JP2015536848A JP6285941B2 JP 6285941 B2 JP6285941 B2 JP 6285941B2 JP 2015536848 A JP2015536848 A JP 2015536848A JP 2015536848 A JP2015536848 A JP 2015536848A JP 6285941 B2 JP6285941 B2 JP 6285941B2
Authority
JP
Japan
Prior art keywords
participant
endpoint
virtual
participants
remote
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015536848A
Other languages
English (en)
Other versions
JP2016500954A5 (ja
JP2016500954A (ja
Inventor
スミス,ヤンシー・クリストファー
ラング,エリック・ジー
ユイテマ,クリスチャン・エフ
ジャーン,ジュヨンヨウ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Microsoft Corp
Original Assignee
Microsoft Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Microsoft Corp filed Critical Microsoft Corp
Publication of JP2016500954A publication Critical patent/JP2016500954A/ja
Publication of JP2016500954A5 publication Critical patent/JP2016500954A5/ja
Application granted granted Critical
Publication of JP6285941B2 publication Critical patent/JP6285941B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/15Conference systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/243Image signal generators using stereoscopic image cameras using three or more 2D image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/254Image signal generators using stereoscopic image cameras in combination with electromagnetic radiation sources for illuminating objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/275Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
    • H04N13/279Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals the virtual viewpoint locations being selected by the viewers or determined by tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/15Conference systems
    • H04N7/157Conference systems defining a virtual conference space and using avatars or agents
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor
    • H04N9/3185Geometric adjustment, e.g. keystone or convergence
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2213/00Details of stereoscopic systems
    • H04N2213/003Aspects relating to the "2D+depth" image format

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Geometry (AREA)
  • Electromagnetism (AREA)
  • Computer Graphics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Processing Or Creating Images (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Telephonic Communication Services (AREA)
  • User Interface Of Digital Computer (AREA)

Description

[0001]現在のビデオ会議技術は、一般的に、単一のカメラを使用して、ローカルシーンから(赤、青、および緑(RGB)カラーモデルに由来する)RGBデータを取り込む。このローカルシーンは一般に、ミーティング参加者と呼ばれる、ビデオ会議に参加している人々を含んでいる。このデータは次に、リアルタイムでリモートの場所に送信され、次に、他のミーティング参加者とは異なる場所にいる別のミーティング参加者に表示される。
[0002]さらなる高精細取り込み、圧縮、および伝送を行う助けとなるビデオ会議技術が進歩したが、一般的に、直に会っての(in−person)会議の対面の体験を再現することが不十分である。この1つの理由は、一般的なビデオ会議体験には、視線および他の正確な会話のジオメトリ(conversational geometry)がないことである。例えば、一般的に、リモートで取り込まれている人は、対面の会話で体験するように相手の目を見つめていない。さらに、シーンおよびミーティング参加者を取り込んでいるのは単一の固定ビデオカメラしかないので、運動視差および画像奥行きのような三次元(3D)要素、ならびにシーンの眺め(perspective)を変える自由がない。
[0003]この節により、以下の発明を実施するための形態でさらに説明する概念の抜粋を簡略化して紹介する。この節は、特許請求の範囲に記載する主題の主要な特徴または本質的特徴を特定することを目的とせず、さらに特許請求の範囲に記載する主題の範囲を限定するように使用されることを目的としない。
[0004]制御された三次元(3D)通信エンドポイントシステムおよび方法の諸実施形態は、オンラインミーティングまたは会議の参加者間の直に会ってのコミュニケーションをシミュレートする。その上、制御された3D通信エンドポイントシステムおよび方法の諸実施形態は、仮想環境に含まれる仮想テーブルのサイズを単に大きくすることによって、さらなる参加者を追加することができるように、参加者を含んだ仮想環境の容易なスケール変更を可能にする。さらに、制御されたエンドポイントにより、見る者(viewer)は、あたかも他の参加者が見る者と同じ部屋にいるように感じることができるようになる。
[0005]詳細には、制御された3D通信エンドポイントシステムおよび方法の諸実施形態は、エンドポイントで複数のカメラポッドを使用して、参加者の3Dビデオ画像を取り込む。制御されたエンドポイントの複数のカメラポッドは、これらが参加者の周りの360度からの参加者の取り込みを可能にするように配列される。映像によって取り込まれたデータから、参加者の幾何(ジオメトリック)プロキシが作成される。取り込まれた映像からのRGBデータおよび奥行き情報を使用して、各参加者に幾何プロキシが作成される。
[0006]このシステムおよび方法の諸実施形態によって、直に会ってのコミュニケーションに存在する視線および会話のジオメトリと一致する、シーンジオメトリが作成される。シーンジオメトリの一般的な考えは、参加者間に相対的ジオメトリを作成することである。シーンは、あたかも参加者が同じ物理的場所にいて、直に会ってのコミュニケーションに関わっているかのように事実上、現実のシーンをまねるように整合される。
[0007]シーンジオメトリは、参加者間の相対的な、矛盾のないジオメトリを有するように、仮想ボックスを使用する。2人の参加者のあるミーティング(すなわち、1対1(1:1)のシーンジオメトリ)は、2人の参加者のそれぞれのモニタ(図示せず)の前の空間を占有する2つのボックスからなる。3人の参加者が存在するとき、シーンジオメトリは、仮想の丸いテーブルを囲んで等距離に置かれた3つの仮想ボックスを含む。
[0008]シーンジオメトリはまた、仮想カメラを含む。仮想カメラは、いずれか1つのカメラポッドだけによって取り込まれないカメラビューを取得するために、複数のカメラポッドの2つ以上からの画像の合成である。これにより、自然な視線および人々の間のつながりを取得するためのシステムおよび方法の諸実施形態が可能になる。顔追跡技法を使用して、仮想カメラが見る者の視線と位置合わせされた状態を維持する助けとすることによってパフォーマンスを向上させることができる。これは、仮想カメラが、垂直方向と水平方向の両方において、水平および見る者の目と位置合わせされた状態を維持すること意味する。仮想カメラは、顔追跡と対話して、ユーザの目が見ている場所をユーザに見せる仮想視点を作成する。したがって、ユーザが目をそらす場合、仮想視点は、視線をそらしているユーザの眺めに由来する。ユーザが他の参加者を見ている場合、仮想視点は、他の参加者を見ているユーザの眺めに由来する。これは、ユーザが他の参加者を見ているように人工的に見せかけることによるのではなく、ユーザが見ている場所を正確に表す仮想ジオメトリ(virtual geometry)を作成することによって行われる。
[0009]幾何プロキシは、互いに対してレンダリングされ、シーンジオメトリと共に仮想環境に配置される。レンダリングされた幾何プロキシおよびシーンジオメトリは、参加者のそれぞれに送信される。仮想環境は、エンドポイントの制御された環境で(やはり参加者の1人である)見る者に表示される。詳細には、各エンドポイントが、仮想視点を使用して見る者に仮想環境を表示する表示装置構成を含む。仮想視点は、見る者の目の位置および向きによって決まる。目の位置および向きによって見る者は、ミーティングの他の参加者の異なる眺め、ならびに仮想環境の他の態様を見る。
[0010]現実空間および仮想空間のレジストレーションにより、表示される画像は、見る者が仮想環境で他の参加者を見ているとしたら、見る者が見るものであることが確実になる。また、顔追跡技法を使用して見る者の目を追跡し、仮想視点が何を表示すべきかを知ることができる。効率的な方法で参加者のスケールで写実的なジオメトリを作成し、参加者が皆1つの物理的場所に共にいるという錯覚を維持する助けとするために、エンドポイントのサイズおよびレイアウトを制御することが、ソリューションの構築をより容易にする。
[0011]表示装置構成は、(モニタ、またはスクリーンなどの)複数の表示装置を含む。表示装置構成は、表示装置が見る者の周りの少なくとも180度に配列されるように、エンドポイント環境を制御する。これにより、見る者が確実に、没入体験を有し、あたかも他の参加者と同じ物理的空間に実際にいるように感じることができるようになる。
[0012]このシステムおよび方法の諸実施形態はまた、スケーラビリティの容易さをもたらす。詳細には、いくつかの実施形態の仮想テーブルは、第1の直径を有する丸い(または円形の)仮想テーブルである。参加者のそれぞれの幾何プロキシは、仮想テーブルの周りの仮想環境に配置される。これにより、見る者が仮想テーブルの周りの参加者のそれぞれを確実に見ることができるようになる。さらに多くの参加者がオンラインミーティングに追加される場合、仮想の丸テーブルは、第1の直径よりも大きい第2の直径にサイズを拡大される。第2の直径は、第1の直径よりも大きい任意の直径とすることができる。この拡大は、表示用のビューに参加者のそれぞれを依然として維持し、他の参加者とテーブルを囲んで同じ部屋にいるという錯覚を与える。
[0013]このシステムおよび方法の諸実施形態はまた、単一のエンドポイントにおける複数の参加者を容易にすることを含む。いくつかの実施形態では、顔追跡技法が、2つの異なる顔を追跡し、次に見る者ごとに異なるビューを提供する。他の実施形態では、エンドポイントで複数の参加者のそれぞれに眼鏡が着用され、いくつかの実施形態では、眼鏡にアクティブシャッターがあって、眼鏡ごとに調整された、モニタで表示される交互のフレームを各着用者に見せる。他の実施形態は、右側からモニタを見ている見る者があるシーンを見て、左からモニタを見ている別の見る者が異なるシーンを見るように、複数の視野角を有するモニタを使用する。
[0014]代替的実施形態が可能であり、本明細書に記載するステップおよび要素は、特定の実施形態に応じて、変更される、追加される、または削除されることが可能であることに留意されたい。これらの代替的実施形態は、本発明の範囲を逸脱することなく、使用することができる代替的ステップおよび代替的要素、ならびに行うことができる構造的変更を含む。
[0015]次に、同じ参照符号が全体を通して対応する部分を表す図面を参照する。
[0016]コンピューティング環境で実行される、制御された三次元(3D)通信エンドポイントシステムおよび方法の諸実施形態の全体的概要を示すブロック図である。 [0017]図1に示す3D通信処理システムのシステム詳細を示すブロック図である。 [0018]図1に示す制御された3D通信エンドポイントおよび方法の諸実施形態のカメラポッドの例示的実施形態の詳細を示すブロック図である。 [0019]4つのカメラポッドを使用する(図2に示すような)カメラポッドレイアウトの例示的実施形態を示す図である。 [0020]3つの表示装置を使用する(図1に示すような)表示装置構成の例示的実施形態を示す図である。 [0021]本明細書に記載し、図1〜5および7〜15に示す3D通信ウィンドウシステムおよび方法の様々な実施形態および要素が実行されることが可能である汎用コンピュータシステムの簡略化した例を示す図である。 [0022]図1に示す制御された3D通信エンドポイントシステムの全体的動作を示す流れ図である。 [0023]図1に示す3D通信処理システムの全体的動作を示す流れ図である。 [0024]さらなるエンドポイントに対応するためにシステムおよび方法の実施形態をスケールアップする例示的エンドポイントを示す例示的実施形態を示す図である。 [0025]単一ミーティング参加者の幾何プロキシの作成の例示的概要を示す図である。 [0026]オンラインミーティングに(2つの異なるエンドポイントで)2人の参加者が存在するとき、参加者間のシーンジオメトリの例示的実施形態を示す図である。 [0027]3つの異なるエンドポイントでオンラインミーティングに3人の参加者が存在するとき、参加者間のシーンジオメトリの例示的実施形態を示す図である。 [0028]参加者が見ている場所に基づいた仮想カメラの例示的実施形態を示す図である。 [0029]見る者が向いている場所に基づいて運動視差による奥行きを提供する例示的実施形態を示す図である。 [0030]複数の視野角を有するモニタを使用した、単一エンドポイントにおける複数の参加者を処理する技法の例示的実施形態を示す図である。
[0031]制御された三次元(3D)通信エンドポイントシステムおよび方法の次の説明では、その一部を形成する添付の図面を参照する。図面には例として、それにより3D通信エンドポイントシステムおよび方法の諸実施形態を実践することが可能である特定の例が示される。他の実施形態が利用されることが可能であり、請求される主題の範囲を逸脱することなく構造上の変更が行われることが可能であることを理解されたい。
I.システム概要
[0032]制御された3D通信エンドポイントシステムおよび方法の諸実施形態が、没入型オンライン会議およびミーティングのための制御された取り込みおよび表示空間を作成する。このシステムおよび方法の諸実施形態は、参加者がオンライン会議またはミーティングに参加しているとき、エンドポイントにおいて一貫性を確保する。エンドポイントは、照明、部屋設計、および形状などを含んで、オンラインミーティング中に完全に制御される。さらに、エンドポイントは、見る者には、参加者と共に他の参加者が実際に部屋(または同じ物理的空間)にいるように見えるように、3D没入型会議の取り込みおよび表示のための機器を含む。
[0033]エンドポイントは、部屋または他のタイプの環境など、オンライン会議またはミーティングの参加者の少なくとも1人を含んだ物理的場所である。各オンライン会議は、少なくとも2つのエンドポイントを有し、各エンドポイントが、少なくとも1人の参加者を有する。各エンドポイントは、2人以上の参加者を有することもある。2人以上の参加者を有するエンドポイントを処理する方法について、以下に詳細に述べる。
[0034]図1は、コンピューティング環境で実行される、制御された三次元(3D)通信エンドポイントシステム100および方法の諸実施形態の全体的概要を示すブロック図である。システム100および方法の諸実施形態は、オンラインミーティングまたは会議の参加者に没入体験を作り出すために一体となって機能する様々な構成要素およびシステムを含む。
[0035]図1に示すように、システム100および方法は、参加者に対して没入体験を容易にする3D通信処理システム105を含む。3D通信処理システム105は、コンピューティングデバイス110上で実行される。コンピューティングデバイスは、単一のコンピューティングデバイスであってもよく、または複数のデバイスにわたって展開されてもよい。さらに、コンピューティングデバイス110は、事実上、プロセッサを有するいかなるデバイスであってもよく、デスクトップコンピュータ、タブレットコンピューティングデバイス、および内蔵されたコンピューティングデバイスを含む。
[0036]システム100および方法の諸実施形態は、少なくとも2つのエンドポイントを含む。教育上の目的でおよび説明を簡単にするために、図1は、単に2つのエンドポイントを示している。しかしながら、システム100および方法の諸実施形態は、さらにいくつかのエンドポイントを含むこともあることに留意されたい。さらに、図1の各エンドポイントは、ただ1人の参加者しか示していないが、いかなるエンドポイントにいかなる数の参加者も含まれることがあることに留意されたい。
[0037]システム100および方法の諸実施形態は、第1のエンドポイント115と、第2のエンドポイント120とを含む。図1では、第1のエンドポイント115および第2のエンドポイント120が、平面図に示される。言い換えれば、第1および第2のエンドポイント115、120が部屋である場合、図1は部屋の平面図である。
[0038]第1のエンドポイント115は、中に収容された第1の参加者125を含む。第1のエンドポイント115は、複数の取り込み装置および視聴装置もまた収容する。第1のエンドポイント115の視聴装置は、第1のモニタ130と、第2のモニタ135と、第3のモニタ140とを含む。視聴装置は、第1の参加者125が、他の参加者と共に部屋にいるように感じるように、第1の参加者125にオンラインミーティングにおける没入体験を提供する。
[0039]システム100および方法の諸実施形態は、モニタまたはスクリーンが参加者の周りの少なくとも180度にあるようにこれらを配列したモニタ構成を含む。モニタの構成は、モニタが参加者の周りの少なくとも180度に位置付けられる限り、事実上、いかなる配置とすることもできる。以下に詳細に説明するように、これにより、参加者の体験が十分に没入できるものであって、オンラインミーティング参加者の数によって決まるスケール変更を可能にすることが確実になる。
[0040]図1のモニタ構成は、第1のモニタ130に対して直角の、第1のエンドポイント115の第2のモニタ135および第3のモニタ140を示す。さらに、第1のエンドポイント115のモニタ130、135、140は、第1の参加者125の周りの少なくとも180度にある。代替的実施形態では、モニタ構成は、半円形など、曲線状であることが可能である、または互いと直角に満たない角度とすることが可能である。
[0041]システム100および方法の諸実施形態は、第1のエンドポイント115内の第1の参加者125の少なくとも一部を取り込むための取り込み装置もまた含む。システム100および方法の諸実施形態は、取り込み装置として複数のカメラポッドを使用する。図1には6つのカメラポッドが示されているが、より少ないカメラポッドまたはより多いカメラポッドが使用される可能性があることに留意されたい。
[0042]図1に示すように、第1のエンドポイント115は、第1の参加者125の前に位置付けられた第1の複数のカメラポッド145と、第1の参加者125の後ろに位置付けられた第2の複数のカメラポッド150とを含む。各カメラポッドの詳細を、以下に詳細に説明する。図1は、第1の複数のカメラポッド145が、第1のモニタ130に装着され、第2の複数のカメラポッド150が第1のエンドポイント115の支持構造体(部屋の壁または部屋の床上など)に装着されることを示す。しかしながら、代替的実施形態では、第1および第2の複数のカメラポッド145、150は、その他の構造体に取り付けられることがある、または一部は第1のモニタ130に取り付けられ、一部は他の構造体に取り付けられることがあることに留意されたい。
[0043]第2のエンドポイント120は、中に収容された第2の参加者155を含む。第1のエンドポイント115と同様に、第2のエンドポイント120は、複数の取り込み装置および視聴装置もまた収容する。第2のエンドポイント120の視聴装置は、第4のモニタ160と、第5のモニタ165と、第6のモニタ170とを含む。これらのモニタ160、165、170は、第1の参加者125が他の参加者と共に部屋にいるように感じるように、第2の参加者155にオンラインミーティングにおける没入体験を提供する。
[0044]図1のモニタ構成は、第4のモニタ160に対して90度未満の角度で、第2のエンドポイント120の第5のモニタ165および第6のモニタ170を示す。さらに、第2のエンドポイント120のモニタ160、165、170は、第2の参加者155の周りの少なくとも180度にある。代替的実施形態では、モニタ構成は、半円形など、曲線状であることも可能である。
[0045]システム100および方法の諸実施形態は、第2のエンドポイント120内の第2の参加者155の少なくとも一部を取り込むための取り込み装置もまた含む。システム100および方法の諸実施形態は、取り込み装置として複数のカメラポッドを使用する。図1の第2のエンドポイント120には10個のカメラポッドが示されているが、より少ないカメラポッドまたはより多いカメラポッドが使用される可能性があることに留意されたい。
[0046]図1に示すように、第2のエンドポイント120は、第2の参加者155の前に位置付けられた第3の複数のカメラポッド175と、第2の参加者155の後ろに位置付けられた第4の複数のカメラポッド180とを含む。各カメラポッドの詳細を、以下に詳細に説明する。さらに、第5の複数のカメラポッド185が、第2の参加者155の左側に位置付けられ、第6の複数のカメラポッド190が、第2の参加者155の右側に位置付けられる。
[0047]図1は、第3の複数のカメラポッド175が、第4のモニタ160に装着され、第5の複数のカメラポッド185が、第5のモニタ165に装着され、第6の複数のカメラポッド190が、第6のモニタ170に装着されることを示す。第4の複数のカメラポット180は、第2のエンドポイント120の支持構造体(部屋の壁または部屋の床上など)に装着される。しかしながら、代替的実施形態では、第3、第4、第5、および第6の複数のカメラポッド175、180、185、190が、何らかの他の構造体に取り付けられることがある、または一部は第2のエンドポイント120内の他の構造体に取り付けられることがあることに留意されたい。
[0048]第1の参加者125は、第1のエンドポイント115でカメラポッドによって取り込まれ、第2の参加者は、第2のエンドポイント120でカメラポッドによって取り込まれる。この取り込まれた情報は次に、以下に詳細に説明するように、3D通信処理システム105の諸実施形態に送信される。第1のエンドポイント115の取り込み装置は、ネットワーク195を通じて3D通信処理システム105と通信する。ネットワーク195と第1のエンドポイント115との間の通信は、第1の通信リンクを使用して容易にされる。同様に、ネットワーク195と第2のエンドポイント120との間の通信は、第2の通信リンク198によって容易にされる。図1には、ネットワーク195にある3D通信処理システム105の諸実施形態が示される。しかしながらこれは、3D通信処理システム105がシステム100および方法の諸実施形態に実装されることが可能である1つの方法にすぎないことに留意されたい。
[0049]取り込まれた情報は処理され、モニタに表示するために様々なエンドポイントに送信される。システム100および方法の諸実施形態は、エンドポイントで各参加者に仮想視点を提供する。以下に詳細に説明するように、仮想視点により見る者は、見る者の顔の位置および向きによって決まる、変化する眺めからオンライン会議を見ることができる。いくつかの実施形態では、顔追跡が使用されて、見る者の視線を追跡し、処理された情報をどのように見る者に提示すべきかを決定する。
II.システム詳細
[0050]システム100および方法の諸実施形態は、参加者にオンラインミーティングにおける没入体験を提供するために共に使用される様々な構成要素および装置を含む。次に、構成要素および装置について説明する。他の実施形態が可能であること、および説明する構成要素および装置の目的および機能を実現するために、他の装置が使用される、または代用されることがあることに留意されたい。
[0051]システム100および方法の諸実施形態は、その「直に会っての」コミュニケーション体験を作成するために共に機能する3つの主要な構成要素を含む。第1の構成要素は、会議に参加している人それぞれの3Dビデオ画像を取り込み、作成する。第2の構成要素は、会議の参加者の数に基づいて関連シーンジオメトリを作成する。そして第3の構成要素は、あたかも見る者が見ている場所の眺めからカメラが位置付けられたかのように、仮想ビューをレンダリングして提供し、それによって、参加者が直接話をするとき有することになるものと同じシーンジオメトリを再現する。
II.A.3D通信処理システム
[0052]図2は、図1に示す3D通信処理システム105のシステム詳細を示すブロック図である。図2に示すように、3D通信処理システム105は、取り込みおよび作成構成要素200、シーンジオメトリ構成要素210、および仮想視点構成要素220を含む。取り込みおよび作成構成要素200は、エンドポイントにおいて参加者の3Dビデオ画像を取り込み、作成するために使用される。
[0053]詳細には、取り込みおよび作成構成要素200は、複数のカメラポッドを含んだカメラポッドレイアウト230を含む。カメラポッドレイアウト230は、複数の眺めから参加者を取り込むために使用される。コンピュータビジョン方法が使用されて、各会議参加者の高忠実度の幾何プロキシを作成する。以下に詳細に説明するように、これは、RGBデータ収集モジュール235から取得されるRBGデータ、および奥行き情報計算モジュール240によって取得され、計算される奥行き情報を取り入れることによって実現される。この情報から、幾何プロキシ作成モジュール245が、各参加者に幾何プロキシ250を作成する。実写ベースの(image−based)レンダリング方法が使用されて、例えば視点依存テクスチャマッピングを使用して、幾何プロキシ250の写真のようなテクスチャを作成する。
[0054]シーンジオメトリ構成要素210は、正確なシーンジオメトリを作成して、共に現実に会話をしている参加者をシミュレートするために使用される。このシーンジオメトリは、会議の参加者の数によって決まる。3Dレジストレーションモジュール260が使用されて、カメラポッドを備えた表示装置またはモニタの精密なレジストレーションを取得する。さらに、空間アライメントモジュール265が、カメラポッドの向きを現実の世界に合わせる。1:1のミーティング(2つのエンドポイントを有する)については、これは単純に、仮想環境において互いの向かいに並べられた2つの物理空間である。各参加者に再現されている取り込みエリアは、モニタの前のエリアである。
[0055]テクスチャ付き(textured)幾何プロキシ250が各ミーティング参加者に作成され、参加者が、会議の他の参加者に関連する3D仮想空間に表現されると、幾何プロキシは、会話のジオメトリと一致するように互いにレンダリングされる。さらに、このレンダリングは、会議の参加者の数に基づいて行われる。
[0056]この幾何プロキシ、ならびに場合によってはレジストレーションおよびアライメント情報は、送信モジュール270によってリモートの参加者に送信される。仮想視点構成要素220は、リモートの参加者にレンダリングされる仮想視点を向上させるために使用される。「臨場(being there)」体験は、参加者の背後のシーンに運動視差および奥行きを追加する運動視差モジュール280の使用により強化される。水平および横方向の動きが、参加者のローカルディスプレイに示される視点を変え、参加者は、異なる眺めから、参加者が見ているシーン、およびその中の人を見る。これは、ミーティング参加者の体験を大幅に向上させる。
II.B.カメラポッド
[0057]上記のように、システム100および方法の取り込みおよび作成構成要素200は、エンドポイントにおいて参加者およびシーンを取り込むために使用される複数のカメラポッドを含む。各カメラポッドは、複数のセンサを有する。図3は、図1に示す制御された3D通信エンドポイントシステム100および方法の諸実施形態のカメラポッド300の例示的実施形態の詳細を示すブロック図である。図1に示すように、システム100および方法の諸実施形態は、一般的に2つ以上のカメラポッド300を含む。しかしながら、教育上の目的で、単一のカメラポッドのみを説明する。さらに、複数のカメラポッドは、必ずしも同じセンサを含む必要がないことに留意されたい。システム100および方法のいくつかの実施形態は、互いとは異なるセンサを含んだ複数のカメラポッドを含むことができる。
[0058]図3に示すように、カメラポッド300は、複数のカメラセンサを含む。これらのセンサは、立体センサ赤外線(IR)カメラ310、RGBカメラ320、およびIRエミッタ330を含む。参加者およびエンドポイントの3D画像を取り込むために、カメラポッド300は、奥行きマップを計算するためにRGBデータおよび奥行き座標を取り込む。図3は、IR立体IRカメラ310およびIRエミッタ330が、奥行き計算を取り込むために使用されることを示す。RGBカメラ320はテクスチャ取得に使用され、奥行きセグメント化を使用して奥行きキューを補強する。コンピュータビジョン分野でよく知られている奥行きセグメント化は、背景差分を使用して、背景からの画像のオブジェクトを分割しようとする。
[0059]代替的実施形態では、カメラポッド300は、IR構造光手法(IR structure light approach)の代わりに光飛行時間センサ(time of flight sensor)または超音波を使用して、立体センシングを実現する。光飛行時間カメラは、光の速度に基づいて、および画像中の各ポイントについてカメラと物体との間の光信号の飛行時間を測定することによって距離を計算する、レンジ撮像カメラシステム(range imaging camera system)である。超音波技法を使用して、ある方向に超音波パルスを生成することにより距離を計算することができる。パルスの経路に物体がある場合、パルスの一部または全部は、エコーとして反射されて送信機に戻ることになる。レンジは、送信されるパルスと、受信されるエコーとの差を測定することによって見いだすことができる。他の実施形態では、距離は、RGBカメラのステレオペア(stereo pairs)を使用してRGB奥行き計算を行うことにより見いだすことができる。
II.C.カメラポッドレイアウト
[0060]1つまたは複数のカメラポッドは、参加者の1人または複数を含むエンドポイントの3D画像を取り込むために特定のレイアウトで構成される。カメラポッドの数は、取り込まれる画像の質およびオクルージョンの数に直接影響を及ぼす。カメラポッドの数が増えるにつれて、利用できるRGBデータが多くなり、これにより画質が向上する。さらに、オクルージョンの数は、カメラポッドの数が増えるにつれて減少する。
[0061]図1に示すように、第1のエンドポイント115は、6個のカメラポッドを含み、第2のエンドポイント120は、10個のカメラポッドを含む。代替的実施形態では、いかなる数のカメラを使用することもできる。事実、単一カメラポッドを使用する、下限バージョンが存在する。例えば、単一カメラポッドは、モニタの上部に取り付けられ、画像歪み補正技法を使用して、撮像エラーを補正することができる。試金石は、カメラポッドレイアウトが、参加者を含んだエンドポイントの3Dビューを提供するのに十分なカメラポッドを有することである。
[0062]図4は、4つのカメラポッドを使用した(図2に示すカメラポッドレイアウトなどの)カメラポッドレイアウトの例示的実施形態を示す。図4に示すように、4つのカメラポッド300は、モニタ400のベゼルに内蔵されている。モニタ400は、事実上いかなるサイズとすることもできるが、より大きいモニタは、より実物大の再投影を提供する。これは、一般的に、より現実感のある体験をユーザに提供する。オンライン会議またはミーティングに参加しているリモート参加者410が、モニタ400上に表示される。
[0063]図4に示すように、4つのカメラポッド300が、ダイヤモンド構成で配列される。これにより、システム100および方法の諸実施形態は、上下から、および左右から、ユーザを取り込むことができる。さらに、中央の上下の2つのカメラポッドを使用して、継ぎ目なく、ユーザの顔面に現実感のあるテクスチャを得ることができる。角のカメラは、一般的に継ぎ目の問題を生じることに留意する。他の実施形態において、4つのカメラポッド300のいかなる構成および配置も事実上使用されることが可能であり、モニタ400上のいかなる場所に取り付けられることも可能である。さらに他の実施形態では、4つのカメラポッド300の1つまたは複数は、モニタ400以外の場所に取り付けられる。
[0064]代替的実施形態では、3つのカメラポッドが使用され、モニタ400の上部または下部に置かれる。いくつかの実施形態は、2つのカメラポッドを使用し、モニタ400の上部または下部の角に置かれる。さらに他の実施形態では、N個のカメラポッドが使用される。ただしNは4より大きい(N>4)。この実施形態では、N個のカメラポッドは、モニタ400の外側エッジ周りに置かれる。さらに他の実施形態では、参加者を含んだエンドポイントの3Dシーンを取り込むために、モニタ400の後ろに置かれた複数のカメラポッドがある。
II.D.表示装置構成
[0065]モニタおよびスクリーンなど、いくつかの表示装置は、他の参加者の少なくとも一部の取り込まれた画像を表示し、各参加者に提示するために、特定のレイアウトで構成される。システム100および方法の諸実施形態は、配列がエンドポイントで参加者の少なくとも180度を囲むように構成された表示装置を有する。これにより、システム100および方法の諸実施形態が、スケール変更することができ、参加者に没入体験を提供することが確実になる。言い換えれば、少なくとも180度の表示装置をエンドポイントの参加者に提供することにより、参加者は、同時に仮想テーブルについたすべての人を見ることができるようになる。少なくとも180度の表示装置を用いると、見る者が丸い仮想テーブルの左右を見渡すとき、見る者は、テーブルについたすべての人を見ることができることになる。
[0066]図5は、3つの表示装置を使用する(図1に示すような)表示装置構成の例示的実施形態を示す。図5に示すように、表示装置構成500は、エンドポイント環境510に配備される。表示装置構成500は、モニタ#1 520を含み、これはエンドポイント環境510において参加者(図示せず)の前にあるように位置付けられる。表示装置構成はまた、モニタ#1 520の左右にモニタ#2 530およびモニタ#3 540を含む。図5に示すように、モニタ#2 530およびモニタ#3 540はそれぞれ、45度の角度でモニタ#1 520に結合される、またはこれに接している。
[0067]システム100および方法の諸実施形態は、取り込みおよび表示のためにエンドポイント環境510を使用する。いくつかの実施形態では、表示装置構成500は、360度の構成であることもある。言い換えれば、エンドポイント環境510の参加者の周囲全体に表示装置があることがある。他の実施形態では、表示装置は、180度から360度の範囲に、エンドポイント環境510を囲むように配列された表示装置を含むことができる。さらに他の実施形態では、表示装置構成500は、エンドポイント環境510の壁および天井すべてが表示装置である。このタイプの表示装置構成は、参加者を完全に仮想の環境に十分に没入させることができる。
III.例示的な動作環境
[0068]制御された3D通信エンドポイントシステム100および方法の諸実施形態の動作概要および詳細をさらに続ける前に、ここで、制御された3D通信エンドポイントシステム100および方法の諸実施形態が動作することができる例示的動作環境について説明を提示する。本明細書に記載する制御された3D通信エンドポイントシステム100および方法の諸実施形態は、非常に多くのタイプの汎用または特殊用途のコンピューティングシステム環境または構成の中で動作する。
[0069]図6は、本明細書で説明し、図1〜5および7〜15に示すように、3D通信エンドポイントシステム100および方法の様々な実施形態および要素が実行される汎用コンピュータシステムの簡略化した例を示す。図6に破線またはダッシュ線で表されるボックスは、簡略化したコンピューティングデバイスの代替的実施形態を表すこと、およびこれらの代替的実施形態のいずれかまたは全部は、以下に説明するように、この文書全体を通して説明する他の代替的実施形態と組み合わせて使用されることが可能であることに留意されたい。
[0070]例えば、図6は、簡略化したコンピューティングデバイス10を示す全体的なシステム図を示す。簡略化したコンピューティングデバイス10は、図1に示すコンピューティングデバイス110の簡略化版とすることができる。このようなコンピューティングデバイスは、一般的に、少なくとも何らかの最小限の計算能力を有する装置、例えば、パーソナルコンピュータ、サーバコンピュータ、ハンドヘルドコンピューティングデバイス、ラップトップまたはモバイルコンピュータ、携帯電話およびPDAなどの通信デバイス、マルチプロセッサシステム、マイクロプロセッサベースのシステム、セットトップボックス、プログラマブル家庭用電化製品、ネットワークPC、ミニコンピュータ、メインフレームコンピュータ、オーディオまたはビデオメディアプレーヤなどを含む、ただしこれらに限定されない装置に見つけることができる。
[0071]デバイスが本明細書に記載する制御された3D通信エンドポイントシステム100および方法の諸実施形態を実行できるようにするために、デバイスは、基本的な計算操作を可能にするのに十分な計算能力およびシステムメモリを有するべきである。詳細には、図6によって示すように、計算能力は、一般的に、1つまたは複数の処理ユニット12によって示され、1つまたは複数のGPU14を含むこともあり、いずれかまたは両方がシステムメモリ16と通信している。汎用コンピューティングデバイスの(1つまたは複数の)処理ユニット12は、DSP、VLIW、または他のマイクロコントローラなどの専用マイクロプロセッサであることが可能である、または、マルチコアCPU中の専用GPUベースコアを含む、1つまたは複数の処理コアを有する従来のCPUであることも可能であることに留意されたい。
[0072]さらに、図6の簡略化したコンピューティングデバイス10は、例えば、通信インタフェース18など、他の構成要素もまた含むことができる。図6の簡略化したコンピューティングデバイス10は、1つまたは複数の従来のコンピュータ入力装置20(スタイラス、ポインティングデバイス、キーボード、音声入力装置、映像入力装置、触覚入力装置、有線または無線データ伝送を受信するための装置など)もまた含むことができる。図6の簡略化したコンピューティングデバイス10は、例えば、1つまたは複数の従来のコンピュータ出力装置22(例えば、(1つまたは複数の)表示装置24、音声出力装置、映像出力装置、有線または無線データ伝送を送信するための装置)など、他のオプションの構成要素を含むこともできる。汎用コンピュータ用の、一般的な通信インタフェース18、入力装置20、出力装置22、および記憶装置26は、当業者にはよく知られており、本明細書では詳細に説明しないことに留意されたい。
[0073]図6の簡略化したコンピューティングデバイス10は、様々なコンピュータ可読媒体を含むこともできる。コンピュータ可読媒体は、記憶装置26を介して簡略化したコンピューティングデバイス10によってアクセスされることが可能であるいかなる利用可能な媒体とすることもでき、コンピュータ可読またはコンピュータ実行可能命令、データ構造、プログラムモジュール、またはその他のデータなどの情報を格納するために、取り外しできる28および/または取り外しできない30揮発性と不揮発性の両方の媒体を含む。限定ではなく例として、コンピュータ可読媒体は、コンピュータ記憶媒体および通信媒体を含むことができる。コンピュータ記憶媒体は、DVD、CD、フロッピー(登録商標)ディスク、テープドライブ、ハードドライブ、光学式ドライブ、ソリッド・ステート・メモリ・デバイス、RAM、ROM、EEPROM、フラッシュメモリもしくは他のメモリ技術、磁気カセット、磁気テープ、磁気ディスク記憶装置、もしくは他の磁気記憶装置、または所望の情報を格納するために使用することができ、1つまたは複数のコンピューティングデバイスによってアクセス可能である任意のその他のデバイスなどの、コンピュータまたは機械可読媒体または記憶装置を含むが、これらに限定されない。
[0074]コンピュータ可読またはコンピュータ実行可能命令、データ構造、プログラムモジュールなどの情報の保持は、1つまたは複数の変調されたデータ信号または搬送波を符号化するための様々な前述の通信媒体のいずれか、または他の転送メカニズムまたは通信プロトコルを使用することによって達成されることも可能であり、いかなる有線または無線情報配信メカニズムも含む。「変調されたデータ信号」または「搬送波」という用語は、一般的に、信号の中の情報を符号化するように、特性の1つまたは複数が設定されたまたは変更された信号を指すことに留意されたい。例えば、通信媒体は、1つまたは複数の変調されたデータ信号を搬送している有線ネットワークまたは直接有線接続などの有線媒体と、1つまたは複数の変調されたデータ信号または搬送波を送信するおよび/または受信するための、音響、RF、赤外線、レーザ、および他の無線媒体などの無線媒体とを含む。上記のいずれかの組合せもまた、通信媒体の範囲内に含まれるべきである。
[0075]さらに、本明細書に記載する制御された3D通信エンドポイントシステム100および方法の様々な実施形態の一部または全部を具体化するソフトウェア、プログラム、および/またはコンピュータプログラム製品またはその部分は、コンピュータ実行可能命令または他のデータ構造の形式でコンピュータまたは機械可読媒体または記憶装置、および通信媒体の任意の所望の組合せから、格納される、受信される、送信される、または読み取られることが可能である。
[0076]最後に、本明細書に記載する制御された3D通信エンドポイントシステム100および方法の諸実施形態について、プログラムモジュールなど、コンピューティングデバイスによって実行されるコンピュータ実行可能命令の一般的なコンテキストでさらに説明する。一般的に、プログラムモジュールは、特定のタスクを実行するまたは特定の抽象データ型を実現するルーチン、プログラム、オブジェクト、構成要素、データ構造などを含む。本明細書に記載する諸実施形態はまた、1つまたは複数のリモート処理デバイスによって、または1つまたは複数のデバイスのクラウド内で、タスクが行われる、1つまたは複数の通信ネットワークを通じてリンクされた分散コンピューティング環境で実践されることもある。分散コンピューティング環境では、プログラムモジュールは、媒体記憶装置を含むローカルとリモートの両方のコンピュータ記憶媒体に置くことができる。さらに、前述の命令は、一部または全部において、プロセッサを含むことがある、または含まないことがあるハードウェア論理回路として実現されることがある。
IV.動作概要
[0077]図7は、図1に示す制御された3D通信エンドポイントシステムの一般的動作を示す流れ図である。図7に示すように、システム100の動作は、ローカルエンドポイントにおいてローカル参加者の3D映像を取り込むことによって始まる(ボックス700)。例として、ローカルエンドポイントは、オフィスビルディングの部屋であることがある。取り込まれる映像は、RGBデータと奥行き情報の両方を取り込む複数のカメラポッドを使用して取得される(ボックス705)。複数のカメラポッドは、ローカル参加者の周りの360度に置かれる。言い換えれば、取り込まれる映像は、ローカル参加者の周りの全域にわたるビューを含む。
[0078]この方法の諸実施形態は、次に、取り込まれた3D映像を使用してローカル参加者にローカル幾何プロキシを作成する(ボックス710)。次に、この方法は、直に会ってのコミュニケーションと一致するシーンジオメトリを生成する(ボックス715)。一般的な考えは、直に会ってのコミュニケーションのダイナミクスをまねた仮想環境を作成することである。この方法は次に、シーンジオメトリにローカル幾何プロキシを配置して、仮想環境を作成する(ボックス720)。ローカル幾何プロキシおよびシーンジオメトリは、リモートエンドポイントのリモート参加者に送信される(ボックス725)。
[0079]同様に、オンライン会議またはミーティングに参加しているリモート参加者およびその他の参加者は、複数のカメラポッドを使用して取り込まれ、参加者のそれぞれに幾何プロキシが作成される。幾何プロキシのそれぞれは、仮想環境のシーンジオメトリにレンダリングされ、配置される。これらのレンダリングされた幾何プロキシおよびシーンジオメトリは、次に他の参加者に送信される。
[0080]受信された仮想環境は、(リモート参加者などの)見る者に、リモート参加者の周りの少なくとも180度である空間を占めるエンドポイントの表示装置上で表示される(ボックス730)。これは、リモート参加者に、仮想環境への仮想視点を提供する。以下に詳細に説明するように、見る者が仮想視点を見るとき見るものは、一部には、見る者の頭部の位置および向きによって決まる。
[0081]この方法の諸実施形態は、仮想環境内に仮想テーブルを定める。レンダリングされた参加者のそれぞれは、次に、仮想環境の仮想テーブルの周りに配置される。いくつかの実施形態では、仮想テーブルは、第1の直径を有する円形を有する(ボックス735)。これにより、スケール変更が容易に行われることが可能になる。詳細には、仮想環境は、参加者の数を増やして、現在の2人の参加者(ローカル参加者およびリモート参加者)よりも多くすることによってスケールアップすることができる(ボックス740)。参加者のこのような増加に対応するために、この方法は次に、仮想テーブルのサイズを第1の直径から第2の直径に大きくする。ただし第2の直径は、第1の直径よりも大きい(ボックス745)。参加者の幾何プロキシは、リモート参加者が仮想環境で仮想テーブルについた各参加者を見ることができるように、大きくされたサイズを有する仮想テーブルに配置される(ボックス750)。
[0082]システム100および方法の諸実施形態は、3D通信処理システム105を含む。図8は、図1に示す3D通信処理システム105の一般的動作を示す流れ図である。図8に示すように、3D通信処理システム105の動作は、オンライン会議またはミーティングの参加者のそれぞれの画像を取り込むことによって始まる(ボックス800)。参加者の少なくとも1人が、リモート参加者であり、これは、リモート参加者は他の参加者と同じ物理的場所またはエンドポイントにいないことを意味する。各参加者の取り込みは、カメラポッドを使用することによって実現される。
[0083]次に、この方法の諸実施形態は、取り込まれた画像からのデータを使用して、参加者のそれぞれに幾何プロキシを作成する(ボックス810)。その後参加者の数が、決定される(ボックス820)。これの決定は、参加者の数があらかじめ決定される、またはわかるように、アウトオブオーダー(out of order)で行われることが可能である。方法の諸実施形態は、その後、オンラインミーティングの参加者の数に基づいてシーンジオメトリを生成する(ボックス830)。このシーンジオメトリの生成は、リモート参加者との直に会っての会話またはミーティングの体験をシミュレートする助けとなる。
[0084]特定の参加者の各幾何プロキシは、その後、シーンジオメトリ内の他の参加者の他の幾何プロキシにレンダリングされる(ボックス840)。このレンダリングは、幾何プロキシが直に会っての会話と一致するように配列されるように行われる。これらのレンダリングされた幾何プロキシおよびシーンジオメトリは、その後、参加者に送信される(ボックス850)。仮想視点が、見る者の顔の位置および向きによって決まるように、参加者のそれぞれに変化する仮想視点が表示される(ボックス860)。さらなる現実感を求めて、参加者の視聴体験を向上させるために、運動視差および奥行きが加えられる(ボックス870)。以下に詳細に説明するように、運動視差および奥行きは、見る者が会議またはミーティングを見ている表示装置またはモニタに対する見る者の視線によって決まる。
V.動作詳細
[0085]制御された3D通信エンドポイントシステム100および方法の諸実施形態の動作詳細について、次に説明する。これは、システム100のスケーラビリティ、幾何プロキシ作成、およびシーンジオメトリの作成の詳細を含む。さらに、仮想カメラの概念、幾何プロキシおよびシーンジオメトリへの運動視差および奥行きの追加、および同じ環境にいて、同じ表示装置またはモニタを見ている2人以上の参加者の扱いについても説明する。
V.A.スケーラビリティ
[0086]制御された3D通信エンドポイントシステム100および方法の諸実施形態は、スケーラブルである。これは、さらなるエンドポイントがオンラインミーティングに追加されるときはいつでも、システム100および方法の諸実施形態は、さらなるエンドポイントに対応するために容易にスケールアップできることを意味する。図9は、さらなるエンドポイントに対応するために、システム100および方法の諸実施形態をスケールアップする例示的実施形態を示す。
[0087]少なくとも180度の表示装置構成により、スケーラビリティが向上する。例えば、単一のフラット画面が壁にあって、それぞれが参加者を有する2つのエンドポイントがある場合、これらの2人の参加者は仮想環境で円形テーブルに配置されることが可能である。各参加者は、相手を見ることができる。これがスケールアップされる場合、および10個のエンドポイントの10人の参加者が、オンラインミーティングに加わろうとする場合、見る者は、見る者からテーブルを挟んだ人々を見ることはできるが、他は皆、人に紛れて見えなくなる。しかしながら、仮想環境で円になっている限り、少なくとも180度の表示装置構成を使用すると、その円は、所望の大きさで作成されることが可能であり、見る者は、依然として参加者のそれぞれを見ることができる。
[0088]当然ながらこれは、追加される参加者が多くなるほど、必要とされる仮想テーブルが大きくなることを意味する。ある時点で、参加者の数は非常に大きくなるので、テーブルの最も遠くの端にいる参加者は、見る者がこの参加者を認識することができないほど小さくなる。さらに、仮想テーブルは丸い必要はないが、他の形状では、オクルージョンが存在し、人々が互いを遮り始める。
[0089]図9に示すように、仮想環境900は、システム100および方法の諸実施形態が、参加者の幾何プロキシを互いに対してどのように配置するかを示す。図9の左側には、3人の参加者905、906、907が、丸い第1の仮想テーブル910の周りに配列されている。この仮想環境の参加者905、906、907のそれぞれは、仮想ウィンドウを通してオンラインミーティングを見る。詳細には、仮想ウィンドウ920、925、930は、それぞれ3人の参加者905、906、907のそれぞれの前に置かれる。3つの仮想ウィンドウ920、925、930は、3人の参加者905、906、907に、丸い第1の仮想テーブル910の周りの仮想視点を与える。これにより各参加者は、あたかも実際に他の参加者と共に部屋にいるように感じることが可能になる。
[0090]矢印935は、仮想環境900にさらなるエンドポイントが追加されたことを示す。さらなる参加者を追加して、丸い第1の仮想テーブル910は、丸い第2の仮想テーブル940に拡大された。8つのエンドポイント950、951、952、953、954、955、956、957が、丸い第2の仮想テーブル940の周りに配列される。さらに、複数の仮想ウィンドウ960が、8人の参加者950、951、952、953、954、955、956、957のそれぞれの前に配列される。複数の仮想ウィンドウ960のそれぞれが、参加者950、951、952、953、954、955、956、957に、丸い第2の仮想テーブル940の周りの仮想視点を与える。これは、各参加者に、参加者のそれぞれが1つの大きい仮想の部屋にいるという錯覚を与える。
V.B.幾何プロキシ作成
[0091]取り込みおよび作成構成要素200の別の部分は、幾何プロキシ作成モジュール245である。モジュール245は、会議またはミーティングの参加者のそれぞれに幾何プロキシを作成する。奥行き情報は、カメラポッド300によって取り込まれるレンジデータから計算される。奥行き情報が取得されると、取り込まれた奥行き情報に含まれる奥行きポイントから、希薄なポイントクラウドが作成される。高密度の奥行きポイントクラウドが、次に、知られている方法および取り込まれた奥行き情報を使用して生成される。いくつかの実施形態では、高密度のポイントクラウドと幾何プロキシから、メッシュが構築され、メッシュから幾何プロキシが生成される。代替的実施形態では、高密度のポイントクラウドは、幾何プロキシを生成するためにテクスチャ加工される。
[0092]図10は、単一会議参加者に対する幾何プロキシの作成の例示的概要を示す。図10に示すように、カメラポッド300のRGBカメラから、RGBデータ1000が取り込まれる。さらに、カメラポッド300によって取得される奥行きデータから、奥行き情報1010が計算される。RGBデータ1000および奥行き情報1010は、単一会議参加者に対する幾何プロキシ250を作成するために、共に加えられる。この幾何プロキシ作成は、各参加者が対応する幾何プロキシを有するように、参加者のそれぞれに行われる。
V.C.3Dボリュームのレジストレーションおよび3D空間のアライメント
[0093]制御された3D通信エンドポイントシステム100および方法の諸実施形態の第2の構成要素は、シーンジオメトリ構成要素210である。これは、3Dボリュームのレジストレーションと、カメラポッド300が取り込む3D空間のアライメントの両方を含む。シーンジオメトリ構成要素210の一般的な考えは、会議参加者間に相対的ジオメトリを作成することである。シーンは、あたかも参加者が同じ物理的場所にいて、直に会っての会話に関わっているかのように正確にシーンを整合させることが望まれる。
[0094]システム100および方法の諸実施形態は、エンドポイントに固定された(または環境を取り込んでいる)3Dシーンであるシーンジオメトリを作成する。これを実現するために、参加者のそれぞれを含む環境の精密な推定を有することが望ましい。これが取得されると、システム100および方法の諸実施形態は、表示装置(またはモニタ)の精密なレジストレーションを計算する。これは、現実世界と整合された仮想空間における向きをもたらす。言い換えれば、仮想空間は、現実空間と整合される。このレジストレーションおよびアライメントは、知られている方法を使用して実現される。システム100および方法のいくつかの実施形態では、製造時に較正が行われる。他の実施形態では、較正は、環境において参照物体を使用して行われる。
[0095]シーンジオメトリは、ローカル参加者とリモート参加者との間の相対的ジオメトリを作成しようとする。これは、あたかも参加者が直に会ってのミーティングにいるかのように、視線および会話のジオメトリを作成することを含む。視線および会話のジオメトリを正確にする1つの方法は、参加者間で相対的な、矛盾のないジオメトリを有することである。いくつかの実施形態では、これは、仮想ボックスを使用することによって実現される。詳細には、参加者がある部屋に共にいるとき、現実世界で参加者を囲んでボックスが描かれたとすると、これらの仮想ボックスが、仮想レイアウトで再現されて、シーンジオメトリを作成する。ジオメトリの形状は、参加者間のその一貫性ほど重要ではない。
[0096]単一のモニタまたは複数のモニタのような因子からのある入力が、最適なレイアウトおよびソリューションのスケーラビリティに影響を及ぼすことになる。シーンジオメトリはまた、参加者の数によって決まる。2人の参加者(ローカル参加者およびリモート参加者)を有するミーティングは、3人以上の参加者が存在するシーンジオメトリとは異なる1対1(1:1)のシーンジオメトリである。さらに、以下の例からわかるように、シーンジオメトリは、参加者間の視線を含む。
[0097]図11は、オンラインミーティングに(2つの異なるエンドポイントで)2人の参加者が存在するとき、参加者間のシーンジオメトリの例示的実施形態を示す。図11に示すように、この1:1会議のシーンジオメトリ1100は、第3の参加者1110と、第4の参加者1120とを含む。これらの参加者は、同じ物理的場所にいない。言い換えれば、これらの参加者は異なるエンドポイントにいる。
[0098]この1:1会議のシーンジオメトリ1100では、ジオメトリは、参加者1110、1120のそれぞれの表示装置またはモニタ(図示せず)の前の空間を占有する2つのボックスからなる。第1の仮想ボックス1130は、第3の参加者1110を囲んで描かれ、第2の仮想ボックス1140は、第4の参加者1120を囲んで描かれる。同じサイズのモニタおよび矛盾のない設定により、システム100および方法の諸実施形態は、取り込まれたデータを操作することなく、シーンジオメトリが正しいことを知ることができる。
[0099]システム100および方法の代替的実施形態では、複数のリモート参加者が存在し、ジオメトリは、1:1会議のシーンジオメトリ1100とは異なる。図12は、3つの異なるエンドポイントでオンラインミーディングに3人の参加者が存在するときの、参加者間のシーンジオメトリの例示的実施形態を示す。これは、3エンドポイントの会議のシーンジオメトリ1200である。上記のように、エンドポイントは、会議またはミーティングの参加者を含む環境である。3エンドポイントの会議では、3つの異なる物理的場所に参加者が存在する。
[00100]図12では、3エンドポイントの会議のシーンジオメトリ1200が、仮想の丸テーブル1235を囲んで参加者#1 1210と、参加者#2 1220と、参加者#3 1230とを含んでいる。仮想ボックス#1 1240は、参加者#1 1210を囲んで描かれ、仮想ボックス#2 1250は、参加者#2 1220を囲んで描かれ、仮想ボックス#3 1260は、参加者#3 1230を囲んで描かれている。仮想ボックス1240、1250、1260のそれぞれが、仮想の丸テーブル1235を囲んで等距離に置かれる。これは、3エンドポイントの会議のシーンジオメトリ1200を作成する。このシーンジオメトリは、スケーラビリティに関して上述したように、さらなるエンドポイントに対して拡張されることが可能であることに留意されたい。
V.D.仮想カメラ
[00101]シーンジオメトリ構成要素210はまた、仮想カメラを含む。仮想カメラは、透視投影を定義し、これに従って3D幾何プロキシの新規のビューがレンダリングされることになる。これにより、自然な視線および人々の間のつながりを取得するためのシステム100および方法の諸実施形態が可能になる。現在のビデオ会議における1つのブレークダウンは、人々が、カメラの配置されている場所を見ておらず、したがって会議のリモート参加者は、あたかも相手がリモート参加者を見ていないかのように感じることから起こる。これは不自然であり、直に会っての会話では一般的に起こらない。
[00102]システム100および方法の諸実施形態における仮想カメラは、各参加者のシーンジオメトリおよび(詳細なテクスチャ情報を有する)3D幾何プロキシから仮想空間を使用して作成される。この仮想カメラは、画像を取り込むために使用されている現実のカメラポッドの場所に結び付けられない。さらに、システム100および方法のいくつかの実施形態は、(視線追跡を含んだ)顔追跡を使用して、参加者がいる場所および参加者が仮想空間で見ている場所を決定する。これにより、参加者がシーンで見ている場所に基づいて仮想カメラを作成することができる。これは、参加者の正確な視線を他の参加者に正しく伝えるのに役立ち、他の参加者に正確なビューを提供する。したがって、仮想カメラは、ミーティング参加者間の対話における自然な視線および会話のジオメトリを容易にする。
[00103]これらの仮想カメラは、シーンジオメトリを作成し、そのジオメトリにエキストラを置くことによって作成される。カメラポッドによって取得された複数の眺めから、仮想カメラは、シーンジオメトリを方々に移動することができる。例えば、頭部を風船と考える場合、風船の前面は、風船の前のカメラポッドによって取り込まれることになり、風船の一方の側面は、風船のその側面にあるカメラポッドによって取り込まれることになる。両方のカメラポッドからの画像を合成することにより、前面全体と側面との間のどこかに、仮想カメラを作成することができる。言い換えれば、仮想カメラビューは、特定の空間をカバーしている異なるカメラからの画像の合成として作成される。
[00104]図13は、参加者が見ている場所に基づいた仮想カメラの例示的実施形態を示す。これは、仮想の視線を使用して自然な視線を取得することもできる。図13に示すように、モニタ400は、リモート参加者410をローカル参加者1300に表示する。モニタ400は、4つのカメラポッド300を含んでいる。仮想視線ボックス1310は、リモート参加者の目1320およびローカル参加者の目1330を囲んで描かれる。仮想視線ボックス1310は、仮想空間において、リモート参加者の目1320およびローカル参加者1330の目が互いを見ているように、水平である。
[00105]仮想カメラのいくつかの実施形態は、顔追跡を使用して、パフォーマンスを向上させる。顔追跡は、参加者が互いに向き合っているように、システム100および方法の諸実施形態が眺めを変更する助けとなる。顔追跡は、仮想カメラが見る者の視線と同じ高さであり続ける助けとなる。これは、人の目が直に会っての会話中に機能する方法をまねる。仮想カメラは、顔追跡と相互に作用して、ユーザが他の参加者をまっすぐに見ているようにする仮想視点を作成する。言い換えれば、顔追跡は、仮想カメラの仮想視点を変えるために使用される。
V.E.運動視差による奥行き
[00106]システム100および方法の第3の構成要素は、仮想視点構成要素220である。レンダリングされた幾何プロキシおよびシーンジオメトリが参加者に送信されると、それは参加者のモニタ上にレンダリングされる。モニタ上に表示されるシーンに現実感を加えるために、運動視差を使用した奥行きが加えられて、何かを見ている誰かの位置が変わるときに発生するビュー中のニュアンスを含んだ変化をもたらす。
[00107]運動視差は、見る者の頭部が動くにつれてカメラビューを移動させる、高速の頭部追跡を使用して加えられる。これは、奥行きの錯覚を作り出す。図14は、見る者が向いている場所に基づいた運動視差による奥行きを与える例示的実施形態を示す。図14に示すように、4つのカメラポッド300を有するモニタ400は、リモート参加者410の画像を表示する。図14では、リモート参加者410は、点線の図1400および実線の図1410として示されていることに留意する。点線の図1410は、リモート参加者410が、リモート参加者の左を見ていることから、点線の参加者1430を含んだ第1の視野1420を有することを示す。実線の図1410は、リモート参加者410が、リモート参加者の右を見ていることから、実線の参加者1450を含んだ第2の視野1440を有することを示す。
[00108]リモート参加者410の視点が左右に動くにつれて、他方の空間へのリモート参加者の眺めが変化する。これは、他方の参加者および他方の参加者が位置している部屋(または環境)の異なるビューをリモート参加者410に与える。したがって、リモート参加者が左右、上下に動く場合、リモート参加者は、リモート参加者410が対話している参加者のわずかに異なるビューを見ることになり、その人物の背景も同様に変わる。これは、シーンに奥行きのシーンを与え、シーン中の人々に、この人々が誰かに直接話をするときに得られる立体感を与える。リモート参加者の視点は、頭部追跡または低遅延顔追跡技法を使用して追跡される。運動視差による奥行きは、見る者が1つのカメラの視点(one camera perspective)にロックされないので、十分に動きの自由を与えて、立体感を劇的に高める。
V.F.単一エンドポイントの複数の参加者
[00109]システム100および方法の諸実施形態は、エンドポイントに2人以上の参加者が存在する状況もまた含む。運動視差による奥行きの上記の技法は、見る者を追跡する、および視聴角度および場所に基づいてモニタ上に適切なビューを提供する能力のために、単一見る者に対してうまく機能する。しかしながらこれは、同じエンドポイントに、同じモニタを見ている第2の人物が存在する場合、モニタが一度に1つのシーンしか提供できず、一方の人物にロックされることになるために、うまくいかない。このためにビューは、追跡されていない他方の見る者にとってずれたものになる。
[00110]システム100および方法の諸実施形態がこの問題に対処するいくつかの方法がある。いくつかの実施形態では、見る者ごとに異なる画像を提供するモニタが使用される。これらの実施形態では、顔追跡技法が、2つの異なる顔を追跡し、その後見る者ごとに異なるビューを提供する。他の実施形態では、運動視差は削除され、固定の仮想カメラが、モニタの中心にロックされる。これは、2人以上の参加者がエンドポイントにいるとき、低水準の体験を作り出す。さらに他の実施形態では、エンドポイントの複数の参加者のそれぞれによって、眼鏡が着用される。各眼鏡は、異なるビューを提供するために使用される。さらに他の実施形態では、眼鏡には、各着用者にモニタとは異なるフレームを見せるアクティブシャッターが付いている。モニタによって表示される交互のフレームは、各眼鏡に調整され、各見る者に見る者の場所に基づいた正しい画像を提供する。
[00111]別の実施形態は、複数の視野角を有するモニタを使用する。図15は、複数の視野角を有するモニタを使用した、単一エンドポイントにおける複数の参加者を処理する技法の例示的実施形態を示す。これは、モニタの前の見る者ごとに、リモート参加者410およびリモート参加者410の背後の部屋の異なるビューを提供する。
[00112]図15に示すように、(複数の視野角を可能にする)レンチキュラーディスプレイを有し、4つのカメラポッド300を有するモニタ1500が、リモート参加者410を表示している。第1の見る者1510が、モニタ1500の左側からモニタ1500を見ている。第1の見る者の目1520は、左側からモニタ1500を見ており、モニタ1500の左の視野1530を有する。第2の見る者1540が、モニタ1500の右側からモニタ1500を見ている。第2の見る者の目1550は、右側からモニタ1500を見ており、右の視野1560を有する。モニタ1500上のレンチキュラーディスプレイのために、左の視野1530と右の視野1560とは異なる。言い換えれば、第1の見る者1510および第2の見る者1540は、リモート参加者410およびリモート参加者410の背後の部屋の異なるビューを提供される。したがって、第1の見る者1510および第2の見る者1540が並んでいたとしても、第1の見る者1510および第2の見る者1540は、その視点に基づいてモニタ1500上に異なるものを見ることになる。
[00113]さらに、主題について、構造的特徴および/または方法論的動作に特有の言語で説明したが、添付の特許請求の範囲において定義される主題は、必ずしも上記の特定の特徴または行為に限定されないことを理解されたい。むしろ上記の特定の特徴および行為は、特許請求の範囲を実施する例示的な形態として開示される。

Claims (20)

  1. 直に会ってのコミュニケーションをシミュレートするための方法であって、
    ローカルエンドポイントでローカル参加者の三次元映像を取り込むステップであって、前記三次元映像の取り込みは、前記ローカルエンドポイントにて、前記ローカル参加者の周りの360度から前記ローカル参加者に関するRGBデータと奥行き情報の両方を取り込む複数のカメラポッドを使用する制御された手法において行われる、ステップと、
    取り込んだ前記三次元映像を使用して、前記ローカル参加者のためのローカル幾何プロキシを作成するステップと、
    正確な視線を有するシーンジオメトリおよび直に会ってのコミュニケーションと一致する会話のジオメトリを生成するステップと、
    前記シーンジオメトリに前記ローカル幾何プロキシを置いて、仮想環境を作成するステップと、
    前記ローカル幾何プロキシおよび前記シーンジオメトリを、リモートエンドポイントのリモート参加者に送信するステップであって、前記ローカル参加者と前記リモート参加者との直に会ってのコミュニケーションをシミュレートするように、前記ローカルエンドポイントおよび前記リモートエンドポイントは異なる物理的場所にある、ステップと
    を含む方法。
  2. 請求項1に記載の方法であって、前記RGBデータと前記奥行き情報を加えて前記ローカル幾何プロキシを作成するステップをさらに含む方法。
  3. 請求項1に記載の方法であって、
    前記リモートエンドポイントで前記リモート参加者の三次元映像を取り込むステップと、
    前記リモート参加者のリモート幾何プロキシを作成するステップと、
    前記シーンジオメトリおよび仮想環境に前記リモート幾何プロキシを置くステップと、
    前記シーンジオメトリおよび仮想環境において、前記ローカル幾何プロキシと前記リモート幾何プロキシの両方を互いにレンダリングするステップと
    をさらに含む方法。
  4. 請求項3に記載の方法であって、レンダリングした前記ローカル幾何プロキシ、レンダリングした前記リモート幾何プロキシ、および前記シーンジオメトリを前記ローカルエンドポイントおよび前記リモートエンドポイントに送信するステップをさらに含む方法。
  5. 請求項1に記載の方法であって、前記リモートエンドポイントの前記リモート参加者に、前記リモート参加者の周りの少なくとも180度の空間を占める表示装置上で前記仮想環境を表示して、前記リモート参加者に前記仮想環境の仮想視点を提供するステップをさらに含む方法。
  6. 請求項5に記載の方法であって、前記表示装置は、前記リモート参加者の前に配置された第1の表示装置と、前記第1の表示装置のある側にある第2の表示装置と、前記第1の表示装置の別の側にある第3の表示装置とを含む、方法。
  7. 請求項6に記載の方法であって、
    前記第1の表示装置に対して直角に前記第2の表示装置を配置するステップと、
    前記第1の表示装置に対して直角に前記第3の表示装置を配置するステップと
    をさらに含む方法。
  8. 請求項6に記載の方法であって、
    前記第1の表示装置に対して90度未満である第1の角度で前記第2の表示装置を配置するステップと、
    前記第1の表示装置に対して90度未満である第2の角度で前記第3の表示装置を配置するステップと
    をさらに含む方法。
  9. 請求項8に記載の方法であって、前記第1の角度および前記第2の角度を互いに等しく設定するステップをさらに含む方法。
  10. 請求項3に記載の方法であって、
    前記仮想環境において仮想テーブルを定めるステップと、
    前記ローカル幾何プロキシおよび前記リモート幾何プロキシを前記仮想テーブルの周りに置いて、前記仮想環境において前記直に会ってのコミュニケーションをシミュレートするステップと
    をさらに含む方法。
  11. 請求項10に記載の方法であって、第1の直径の円形を有するものとして前記仮想テーブルを定めるステップをさらに含む方法。
  12. 請求項11に記載の方法であって、
    2人の参加者から2人より多くの参加者へ参加者の数を増やすことによって仮想環境をスケールアップするステップと、
    第1の直径から第2の直径へ前記仮想テーブルのサイズを大きくするステップであって、前記第2の直径は前記第1の直径よりも大きい、ステップと、
    前記仮想テーブルに前記参加者のそれぞれの幾何プロキシを置くステップと
    をさらに含む方法。
  13. 請求項5に記載の方法であって、運動視差を使用して前記仮想視点に奥行きを加えるステップをさらに含む方法。
  14. 請求項13に記載の方法であって、
    前記リモート参加者の頭部を追跡するステップと、
    前記リモート参加者の頭部の位置および向きに基づいて、前記仮想視点を通して前記リモート参加者に表示されるものを変更するステップと
    をさらに含む方法。
  15. 第1のエンドポイントの周りに配置されて、参加者の周りの360度が複数のカメラポッドによって取り込まれるように、前記第1のエンドポイントで前記参加者の3D映像を取り込む前記複数のカメラポッドと、
    前記3D映像からの取り込んだRGBデータと取り込んだ奥行き情報を加えることによって取得される前記参加者の幾何プロキシと、
    仮想環境を作成するための、正確な視線を有するシーンジオメトリおよび直に会ってのコミュニケーションと一致する会話のジオメトリと、
    複数の表示装置を有する表示装置構成であって、前記複数の表示装置が第2のエンドポイントにて見る者の周りの少なくとも180度に置かれて、前記見る者が仮想視点を通して前記参加者を見ることができるように、前記複数の表示装置は前記第2のエンドポイントに位置し、前記見る者の、前記仮想環境における前記参加者の見え方は、前記見る者の頭部の位置および向きに基づいて変化する、表示装置構成と
    を含む、制御された三次元(3D)エンドポイントシステム。
  16. 請求項15に記載の制御された3Dエンドポイントシステムであって、
    前記仮想環境に配置された丸い仮想テーブルと、
    オンラインミーティングの他のエンドポイントの他の参加者と共に前記丸い仮想テーブルの周りに置かれた前記参加者のレンダリングされた幾何プロキシと
    をさらに含む、制御された3Dエンドポイントシステム。
  17. エンドポイントにおいて、前記エンドポイントのそれぞれの周りに配置された複数のカメラポッドを有する制御された取り込み環境を整えるステップと、
    前記複数のカメラポッドを使用して、各前記エンドポイントの各参加者の三次元映像を取り込むステップと、
    前記参加者のそれぞれの幾何プロキシを作成するステップと、
    参加者の数に基づいてシーンジオメトリを生成するステップであって、前記シーンジオメトリは仮想テーブルを含む、ステップと、
    直に会ってのコミュニケーションに一致する前記シーンジオメトリにおいて、前記幾何プロキシのそれぞれを互いにレンダリングするステップと、
    前記シーンジオメトリにおいて前記仮想テーブルの周りに、レンダリングした前記幾何プロキシを置いて、仮想環境を作成するステップと、
    前記エンドポイントにおいて、前記エンドポイントの前記参加者の周り少なくとも180度を覆う表示装置を有する制御された見る環境を整えるステップと、
    前記表示装置を使用する前記制御された見る環境において前記参加者に前記仮想環境を表示するステップと、
    各参加者の頭部の位置および向きに基づいて、前記表示装置を見ている参加者の仮想視点を変えるステップと、
    さらなる参加者が追加されるように、参加者の数を増やすステップと、
    前記さらなる参加者に対応するために前記仮想テーブルのサイズを大きくするステップと
    を含む、オンラインミーティングにおいて参加者の数のスケール変更を行うための方法。
  18. 請求項17に記載の方法であって、前記仮想テーブルを、ある直径を有する丸い仮想テーブルとして定めるステップをさらに含む方法。
  19. 請求項18に記載の方法であって、前記仮想テーブルのサイズを大きくするステップは、前記さらなる参加者に対応するために前記丸い仮想テーブルの前記直径を大きくするステップをさらに含む、方法。
  20. 請求項1に記載の方法であって、
    前記リモート参加者の視線を追跡するステップと、
    前記リモート参加者に前記仮想環境の仮想視点を通じて表示されるものを、前記リモート参加者の視線の位置及び向きに基づいて変更するステップと
    をさらに含む方法。
JP2015536848A 2012-10-10 2013-10-09 制御された三次元通信エンドポイント Active JP6285941B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US13/648,888 2012-10-10
US13/648,888 US8976224B2 (en) 2012-10-10 2012-10-10 Controlled three-dimensional communication endpoint
PCT/US2013/063952 WO2014058931A2 (en) 2012-10-10 2013-10-09 Controlled three-dimensional communication endpoint

Publications (3)

Publication Number Publication Date
JP2016500954A JP2016500954A (ja) 2016-01-14
JP2016500954A5 JP2016500954A5 (ja) 2016-11-24
JP6285941B2 true JP6285941B2 (ja) 2018-02-28

Family

ID=49474709

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015536848A Active JP6285941B2 (ja) 2012-10-10 2013-10-09 制御された三次元通信エンドポイント

Country Status (6)

Country Link
US (2) US8976224B2 (ja)
EP (2) EP2907302A2 (ja)
JP (1) JP6285941B2 (ja)
KR (1) KR102108596B1 (ja)
CN (1) CN104782122B (ja)
WO (1) WO2014058931A2 (ja)

Families Citing this family (53)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013014872A1 (ja) * 2011-07-25 2013-01-31 パナソニック株式会社 画像変換装置、カメラ、映像システム、画像変換方法およびプログラムを記録した記録媒体
US20130321564A1 (en) 2012-05-31 2013-12-05 Microsoft Corporation Perspective-correct communication window with motion parallax
US9185345B2 (en) * 2012-09-14 2015-11-10 Ricoh Company, Limited Video conference system and method for performing the same
US10341611B2 (en) * 2013-04-30 2019-07-02 Inuitive Ltd. System and method for video conferencing
TWI530157B (zh) * 2013-06-18 2016-04-11 財團法人資訊工業策進會 多視角影像之顯示系統、方法及其非揮發性電腦可讀取紀錄媒體
US10157294B2 (en) 2013-11-26 2018-12-18 CaffeiNATION Signings (Series 3 of Caffeinaton Series, LLC) Systems, methods and computer program products for managing remote execution of transaction documents
US9407871B2 (en) * 2014-03-31 2016-08-02 Electronics And Telecommunications Research Instit Apparatus and method for controlling eye-to-eye contact function
TWI556624B (zh) * 2014-07-18 2016-11-01 友達光電股份有限公司 影像顯示方法以及影像顯示裝置
JP2016032277A (ja) * 2014-07-30 2016-03-07 日本電信電話株式会社 映像通信システム及び映像通信方法
BE1022580A9 (fr) * 2014-10-22 2016-10-06 Parallaxter Méthode d'obtention de vidéos immersives avec parallaxe interactive et méthode de visualisation de vidéos immersives avec parallaxe interactive
US9542603B2 (en) 2014-11-17 2017-01-10 Polycom, Inc. System and method for localizing a talker using audio and video information
EP3221851A1 (en) 2014-11-20 2017-09-27 Cappasity Inc. Systems and methods for 3d capture of objects using multiple range cameras and multiple rgb cameras
US20180027220A1 (en) * 2015-01-30 2018-01-25 Ent. Services Development Corporation Lp Virtual space calibration
US9880729B2 (en) 2015-07-13 2018-01-30 International Business Machines Corporation Provision of extended content on a flexible display
WO2017030985A1 (en) 2015-08-14 2017-02-23 Pcms Holdings, Inc. System and method for augmented reality multi-view telepresence
US20170061689A1 (en) * 2015-08-24 2017-03-02 Caterpillar Inc. System for improving operator visibility of machine surroundings
US9661271B1 (en) 2015-11-30 2017-05-23 International Business Machines Corporation Multiple display planes for participant collaboration
WO2017094543A1 (ja) * 2015-12-02 2017-06-08 セイコーエプソン株式会社 情報処理装置、情報処理システム、情報処理装置の制御方法、及び、パラメーターの設定方法
JP6958360B2 (ja) * 2015-12-11 2021-11-02 ソニーグループ株式会社 情報処理装置、情報処理方法、およびプログラム
US9955120B2 (en) * 2016-02-12 2018-04-24 Sony Interactive Entertainment LLC Multiuser telepresence interaction
US10762712B2 (en) 2016-04-01 2020-09-01 Pcms Holdings, Inc. Apparatus and method for supporting interactive augmented reality functionalities
US10986401B2 (en) * 2016-05-13 2021-04-20 Sony Corporation Image processing apparatus, image processing system, and image processing method
JP6950685B2 (ja) * 2016-05-18 2021-10-13 ソニーグループ株式会社 情報処理装置、情報処理方法、およびプログラム
US9681096B1 (en) 2016-07-18 2017-06-13 Apple Inc. Light field capture
US20180077437A1 (en) 2016-09-09 2018-03-15 Barrie Hansen Parallel Video Streaming
US20180096505A1 (en) * 2016-10-04 2018-04-05 Facebook, Inc. Controls and Interfaces for User Interactions in Virtual Spaces
EP3331240A1 (en) * 2016-12-02 2018-06-06 Thomson Licensing Method and device for setting up a virtual meeting scene
US10785445B2 (en) 2016-12-05 2020-09-22 Hewlett-Packard Development Company, L.P. Audiovisual transmissions adjustments via omnidirectional cameras
WO2018116253A1 (en) * 2016-12-21 2018-06-28 Interaptix Inc. Telepresence system and method
CN108259806A (zh) * 2016-12-29 2018-07-06 中兴通讯股份有限公司 一种视频通信方法、设备和终端
JP6482580B2 (ja) * 2017-02-10 2019-03-13 キヤノン株式会社 情報処理装置、情報処理方法、およびプログラム
WO2018147329A1 (ja) * 2017-02-10 2018-08-16 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 自由視点映像生成方法及び自由視点映像生成システム
US10503456B2 (en) 2017-05-05 2019-12-10 Nvidia Corporation Method and apparatus for rendering perspective-correct images for a tilted multi-display environment
CN108876852B (zh) * 2017-05-09 2021-06-22 中国科学院沈阳自动化研究所 一种基于3d视觉的在线实时物体识别定位方法
WO2018226508A1 (en) 2017-06-09 2018-12-13 Pcms Holdings, Inc. Spatially faithful telepresence supporting varying geometries and moving users
CN107465518A (zh) * 2017-08-16 2017-12-12 北京大生在线科技有限公司 一种基于网络的多人同时语音聊天方法及系统
CN109819200B (zh) * 2019-01-22 2021-02-09 视联动力信息技术股份有限公司 一种对参会终端进行查岗的方法和装置
US20220217301A1 (en) * 2019-04-15 2022-07-07 Shanghai New York University Systems and methods for interpolative three-dimensional imaging within the viewing zone of a display
US20230164304A1 (en) * 2020-04-30 2023-05-25 Virtualwindow Co., Ltd. Communication terminal device, communication method, and software program
US11870939B2 (en) 2020-05-12 2024-01-09 True Meeting Inc. Audio quality improvement related to a participant of a virtual three dimensional (3D) video conference
US11575856B2 (en) * 2020-05-12 2023-02-07 True Meeting Inc. Virtual 3D communications using models and texture maps of participants
US11509865B2 (en) * 2020-05-12 2022-11-22 True Meeting Inc Touchups, denoising and makeup related to a 3D virtual conference
US11502861B2 (en) * 2020-08-17 2022-11-15 T-Mobile Usa, Inc. Simulated auditory space for online meetings
JP6888854B1 (ja) * 2020-09-02 2021-06-16 シンメトリー・ディメンションズ・インク 遠隔勤務支援システム及び遠隔勤務支援方法
US11539935B2 (en) * 2020-12-02 2022-12-27 Meta Platforms Technologies, Llc Videotelephony with parallax effect
US11546385B1 (en) 2020-12-31 2023-01-03 Benjamin Slotznick Method and apparatus for self-selection by participant to display a mirrored or unmirrored video feed of the participant in a videoconferencing platform
US11330021B1 (en) 2020-12-31 2022-05-10 Benjamin Slotznick System and method of mirroring a display of multiple video feeds in videoconferencing systems
US11621979B1 (en) * 2020-12-31 2023-04-04 Benjamin Slotznick Method and apparatus for repositioning meeting participants within a virtual space view in an online meeting user interface based on gestures made by the meeting participants
WO2022211667A1 (ru) * 2021-03-30 2022-10-06 Хальдун Саид Аль-Зубейди Многоэкранный панорамный телевизор
FI20215726A1 (en) * 2021-06-21 2022-12-22 Teknologian Tutkimuskeskus Vtt Oy Broadcast terminal for 3D telepresence
CN114339120A (zh) * 2021-12-13 2022-04-12 微软技术许可有限责任公司 沉浸式视频会议系统
AU2021480445A1 (en) * 2021-12-23 2024-03-07 Softbank Corp. Avatar display device, avatar generation device, and program
CN117201720A (zh) * 2022-06-01 2023-12-08 微软技术许可有限责任公司 在视频会话中提供实时虚拟背景

Family Cites Families (66)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6064771A (en) 1997-06-23 2000-05-16 Real-Time Geometry Corp. System and method for asynchronous, adaptive moving picture compression, and decompression
US6072496A (en) 1998-06-08 2000-06-06 Microsoft Corporation Method and system for capturing and representing 3D geometry, color and shading of facial expressions and other animated objects
US6226003B1 (en) 1998-08-11 2001-05-01 Silicon Graphics, Inc. Method for rendering silhouette and true edges of 3-D line drawings with occlusion
JP2000175171A (ja) * 1998-12-03 2000-06-23 Nec Corp テレビ会議の映像生成装置及びその生成方法
US6919906B2 (en) 2001-05-08 2005-07-19 Microsoft Corporation Discontinuity edge overdraw
US6781591B2 (en) 2001-08-15 2004-08-24 Mitsubishi Electric Research Laboratories, Inc. Blending multiple images using local and global information
US7023432B2 (en) 2001-09-24 2006-04-04 Geomagic, Inc. Methods, apparatus and computer program products that reconstruct surfaces from data point sets
US7096428B2 (en) 2001-09-28 2006-08-22 Fuji Xerox Co., Ltd. Systems and methods for providing a spatially indexed panoramic video
US7515173B2 (en) 2002-05-23 2009-04-07 Microsoft Corporation Head pose tracking system
US7106358B2 (en) 2002-12-30 2006-09-12 Motorola, Inc. Method, system and apparatus for telepresence communications
US20050017969A1 (en) 2003-05-27 2005-01-27 Pradeep Sen Computer graphics rendering using boundary information
US7184052B2 (en) 2004-06-18 2007-02-27 Microsoft Corporation Real-time texture rendering using generalized displacement maps
US7292257B2 (en) 2004-06-28 2007-11-06 Microsoft Corporation Interactive viewpoint video system and process
US20060023782A1 (en) 2004-07-27 2006-02-02 Microsoft Corporation System and method for off-line multi-view video compression
US7671893B2 (en) 2004-07-27 2010-03-02 Microsoft Corp. System and method for interactive multi-view video
US7221366B2 (en) 2004-08-03 2007-05-22 Microsoft Corporation Real-time rendering system and process for interactive viewpoint video
US7142209B2 (en) 2004-08-03 2006-11-28 Microsoft Corporation Real-time rendering system and process for interactive viewpoint video that was generated using overlapping images of a scene captured from viewpoints forming a grid
US7561620B2 (en) 2004-08-03 2009-07-14 Microsoft Corporation System and process for compressing and decompressing multiple, layered, video streams employing spatial and temporal encoding
US8477173B2 (en) 2004-10-15 2013-07-02 Lifesize Communications, Inc. High definition videoconferencing system
JPWO2006062199A1 (ja) 2004-12-10 2008-06-12 国立大学法人京都大学 3次元画像データ圧縮装置、該方法、該プログラム及び記録媒体
US7860301B2 (en) 2005-02-11 2010-12-28 Macdonald Dettwiler And Associates Inc. 3D imaging system
US8228994B2 (en) 2005-05-20 2012-07-24 Microsoft Corporation Multi-view video coding based on temporal and view decomposition
US20070070177A1 (en) 2005-07-01 2007-03-29 Christensen Dennis G Visual and aural perspective management for enhanced interactive video telepresence
JP4595733B2 (ja) 2005-08-02 2010-12-08 カシオ計算機株式会社 画像処理装置
US7551232B2 (en) 2005-11-14 2009-06-23 Lsi Corporation Noise adaptive 3D composite noise reduction
KR100810268B1 (ko) 2006-04-06 2008-03-06 삼성전자주식회사 모바일 디스플레이 장치에서의 색약자를 위한 구현 방법
US7778491B2 (en) 2006-04-10 2010-08-17 Microsoft Corporation Oblique image stitching
US7679639B2 (en) 2006-04-20 2010-03-16 Cisco Technology, Inc. System and method for enhancing eye gaze in a telepresence system
US7692680B2 (en) 2006-04-20 2010-04-06 Cisco Technology, Inc. System and method for providing location specific sound in a telepresence system
USD610105S1 (en) 2006-07-10 2010-02-16 Cisco Technology, Inc. Telepresence system
US8538166B2 (en) * 2006-11-21 2013-09-17 Mantisvision Ltd. 3D geometric modeling and 3D video content creation
US8213711B2 (en) 2007-04-03 2012-07-03 Her Majesty The Queen In Right Of Canada As Represented By The Minister Of Industry, Through The Communications Research Centre Canada Method and graphical user interface for modifying depth maps
JP4947593B2 (ja) 2007-07-31 2012-06-06 Kddi株式会社 局所領域分割による自由視点画像の生成装置およびプログラム
US8279254B2 (en) * 2007-08-02 2012-10-02 Siemens Enterprise Communications Gmbh & Co. Kg Method and system for video conferencing in a virtual environment
US8223192B2 (en) 2007-10-31 2012-07-17 Technion Research And Development Foundation Ltd. Free viewpoint video
US8466913B2 (en) 2007-11-16 2013-06-18 Sportvision, Inc. User interface for accessing virtual viewpoint animations
US8259155B2 (en) * 2007-12-05 2012-09-04 Cisco Technology, Inc. Providing perspective-dependent views to video conference participants
BRPI0821283A2 (pt) * 2008-03-17 2015-06-16 Hewlett Packard Development Co Método para representar fluxos de imagem de vídeo e sistema de gerenciamento cliente de pontos de extremidade
US8319819B2 (en) * 2008-03-26 2012-11-27 Cisco Technology, Inc. Virtual round-table videoconference
US7840638B2 (en) 2008-06-27 2010-11-23 Microsoft Corporation Participant positioning in multimedia conferencing
US8106924B2 (en) 2008-07-31 2012-01-31 Stmicroelectronics S.R.L. Method and system for video rendering, computer program product therefor
JP5170249B2 (ja) 2008-09-29 2013-03-27 パナソニック株式会社 立体画像処理装置および立体画像処理装置のノイズ低減方法
US8537196B2 (en) 2008-10-06 2013-09-17 Microsoft Corporation Multi-device capture and spatial browsing of conferences
US8200041B2 (en) 2008-12-18 2012-06-12 Intel Corporation Hardware accelerated silhouette detection
US8436852B2 (en) 2009-02-09 2013-05-07 Microsoft Corporation Image editing consistent with scene geometry
US8477175B2 (en) 2009-03-09 2013-07-02 Cisco Technology, Inc. System and method for providing three dimensional imaging in a network environment
US8217993B2 (en) 2009-03-20 2012-07-10 Cranial Technologies, Inc. Three-dimensional image capture system for subjects
US9256282B2 (en) * 2009-03-20 2016-02-09 Microsoft Technology Licensing, Llc Virtual object manipulation
US20100259595A1 (en) 2009-04-10 2010-10-14 Nokia Corporation Methods and Apparatuses for Efficient Streaming of Free View Point Video
US8719309B2 (en) 2009-04-14 2014-05-06 Apple Inc. Method and apparatus for media data transmission
US8665259B2 (en) 2009-04-16 2014-03-04 Autodesk, Inc. Multiscale three-dimensional navigation
US8629866B2 (en) 2009-06-18 2014-01-14 International Business Machines Corporation Computer method and apparatus providing interactive control and remote identity through in-world proxy
US9648346B2 (en) 2009-06-25 2017-05-09 Microsoft Technology Licensing, Llc Multi-view video compression and streaming based on viewpoints of remote viewer
US8194149B2 (en) 2009-06-30 2012-06-05 Cisco Technology, Inc. Infrared-aided depth estimation
US8633940B2 (en) 2009-08-04 2014-01-21 Broadcom Corporation Method and system for texture compression in a system having an AVC decoder and a 3D engine
US8908958B2 (en) 2009-09-03 2014-12-09 Ron Kimmel Devices and methods of generating three dimensional (3D) colored models
US8284237B2 (en) 2009-09-09 2012-10-09 Nokia Corporation Rendering multiview content in a 3D video system
US9154730B2 (en) 2009-10-16 2015-10-06 Hewlett-Packard Development Company, L.P. System and method for determining the active talkers in a video conference
US8537200B2 (en) 2009-10-23 2013-09-17 Qualcomm Incorporated Depth map generation techniques for conversion of 2D video data to 3D video data
US8665309B2 (en) * 2009-11-03 2014-03-04 Northrop Grumman Systems Corporation Video teleconference systems and methods for providing virtual round table meetings
US8487977B2 (en) 2010-01-26 2013-07-16 Polycom, Inc. Method and apparatus to virtualize people with 3D effect into a remote room on a telepresence call for true in person experience
US20110211749A1 (en) 2010-02-28 2011-09-01 Kar Han Tan System And Method For Processing Video Using Depth Sensor Information
US8659597B2 (en) 2010-09-27 2014-02-25 Intel Corporation Multi-view ray tracing using edge detection and shader reuse
US9628755B2 (en) * 2010-10-14 2017-04-18 Microsoft Technology Licensing, Llc Automatically tracking user movement in a video chat application
US20120200676A1 (en) 2011-02-08 2012-08-09 Microsoft Corporation Three-Dimensional Display with Motion Parallax
US8675067B2 (en) * 2011-05-04 2014-03-18 Microsoft Corporation Immersive remote conferencing

Also Published As

Publication number Publication date
EP2907302A2 (en) 2015-08-19
WO2014058931A2 (en) 2014-04-17
US20150163454A1 (en) 2015-06-11
US20140098183A1 (en) 2014-04-10
KR20150067194A (ko) 2015-06-17
KR102108596B1 (ko) 2020-05-07
JP2016500954A (ja) 2016-01-14
CN104782122A (zh) 2015-07-15
CN104782122B (zh) 2018-01-19
US8976224B2 (en) 2015-03-10
EP3651454A1 (en) 2020-05-13
US9332222B2 (en) 2016-05-03
WO2014058931A3 (en) 2014-08-07

Similar Documents

Publication Publication Date Title
JP6285941B2 (ja) 制御された三次元通信エンドポイント
US10535181B2 (en) Virtual viewpoint for a participant in an online communication
US11563779B2 (en) Multiuser asymmetric immersive teleconferencing
US11450071B2 (en) Adapting acoustic rendering to image-based object
US10602121B2 (en) Method, system and apparatus for capture-based immersive telepresence in virtual environment
JP2017532847A (ja) 立体録画及び再生
Gotsch et al. TeleHuman2: A Cylindrical Light Field Teleconferencing System for Life-size 3D Human Telepresence.
TWI813098B (zh) 用於新穎視圖合成之神經混合
JPWO2017141584A1 (ja) 情報処理装置、情報処理システム、および情報処理方法、並びにプログラム
JP6091850B2 (ja) テレコミュニケーション装置及びテレコミュニケーション方法
EP2355500A1 (en) Method and system for conducting a video conference with a consistent viewing angle
CN113632458A (zh) 广角相机透视体验的系统、算法和设计
US20240022688A1 (en) Multiuser teleconferencing with spotlight feature
Thatte et al. Real-World Virtual Reality With Head-Motion Parallax
Tat Holotab: Design and Evaluation of Interaction Techniques for a Handheld 3D Light Field Display

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151130

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161004

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161004

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171018

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171110

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171206

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180104

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180202

R150 Certificate of patent or registration of utility model

Ref document number: 6285941

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250