JP2017511615A - 物理的場所間のビデオ対話 - Google Patents

物理的場所間のビデオ対話 Download PDF

Info

Publication number
JP2017511615A
JP2017511615A JP2016534118A JP2016534118A JP2017511615A JP 2017511615 A JP2017511615 A JP 2017511615A JP 2016534118 A JP2016534118 A JP 2016534118A JP 2016534118 A JP2016534118 A JP 2016534118A JP 2017511615 A JP2017511615 A JP 2017511615A
Authority
JP
Japan
Prior art keywords
video
room
marker
feed
cameras
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016534118A
Other languages
English (en)
Inventor
ティー. ジェソップ、ニール
ティー. ジェソップ、ニール
マイケル フィッシャー、マシュー
マイケル フィッシャー、マシュー
Original Assignee
ウルトラデント プロダクツ インク.
ウルトラデント プロダクツ インク.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ウルトラデント プロダクツ インク., ウルトラデント プロダクツ インク. filed Critical ウルトラデント プロダクツ インク.
Publication of JP2017511615A publication Critical patent/JP2017511615A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/15Conference systems
    • H04N7/152Multipoint control units therefor
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/142Constructional details of the terminal equipment, e.g. arrangements of the camera and the display
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/15Conference systems
    • H04N7/157Conference systems defining a virtual conference space and using avatars or agents

Abstract

【解決手段】 所定の物理的場所間のビデオ対話のシステムおよび方法が開示される。該システムには、複数のビデオカメラを有する第一の部屋および複数の動作検出カメラを有する第二の部屋が含まれる。第二の部屋にあるマーカーは、複数の動作検出カメラによって検出でき、それにより位置座標が該マーカー用に計算できる。その位置座標を用いて、該マーカーの相対位置が決定できる。該マーカーの相対位置に基づき、第一の部屋の視点を提供する第一の部屋からのビデオフィードが識別でき、そのビデオフィードは、第二の部屋にあるディスプレイに提供できる。【選択図】 図1

Description

通信技術の発達により、全世界の人々がほとんど即座に互いに姿を見たり声を聞いたりできるようになっている。音声技術およびビデオ技術を用いて、異なる地理的位置にいる人々の間で会合を持つことができる。例えば、所定の場所にいる企業関係者は、ビデオカメラおよびマイクロフォンを用い、該ビデオカメラおよびマイクロフォンで捉えた音声データおよびビデオデータをコンピューターネットワークを通して送信することにより、地理的に遠隔地にいる取引先と通信できる。該音声データおよびビデオデータはコンピューターで受信することでき、ビデオデータは画面に表示され、音声データはスピーカーを用いて声を聞くことができる。
コンピューターネットワークを通して会合を持つという選択が現在では可能となったので、企業は時間とお金を大幅に節約できる。ネットワークを通して会合を持てるようになる前は、経営者、販売担当者および企業の他の従業員達は取引先のある場所まで行き、飛行機、レンタカーおよび宿泊施設に資金を投じなければならなかった。今では、取引先の場所まで行く代わりにコンピューターネットワークを通して取引先と会合を持つことにより、斯かる出費は回避できる。
本出願開示の特徴は、実施例を用いて本発明の特徴を記載している以下の詳細な説明および添付の図面により、明らかとなるであろう。
図1は、2つの物理的場所間の例示的なビデオ対話システムの図を示している。 図2は、2つの物理的場所間にビデオ対話を提供する例示的システムの構成図を示す。 図3は、周囲にビデオカメラのアレイを有する会議室を示す例示的な図を提供する。 図4は、遠く離れた場所の会議室と対話するのに使用可能な会議室を示す例示的な図を提供する。 図5は、頭に取り付け可能なビデオディスプレイを示す例示的な図を提供する。 図6は、複数の物理的場所間のビデオ対話の例示的方法を示すフローチャートである。 図7は、2つの物理的部屋間における双方向の対話を行うための方法を示す例示的な図を提供する。
図面への参照は例示の実施形態に基づいてなされており、本明細書では該実施形態を記載するのに特定の用語が用いられている。しかし、それにより本発明の範囲が限定されるものではないことは理解されるべきである。
本発明を開示および記載する前に、本開示は本明細書に記載の特定の構造体、処理ステップまたは材料に限定されるものではなく、当業者が認識するような同等物にも拡張し得ることは理解されるべきである。さらに、本明細書で使用されている用語は特定の実施形態のみを記載する目的で使用されているのであり、限定的に解釈されるべきではない。
予備的事項として述べると、本明細書では多くの内容が営業および会議に関連している。しかし、これは例示的目的でそうしているにすぎず、本明細書に記載のシステムおよび方法は、2つの物理的場所間の仮想的対話から恩恵を受ける他の状況にも応用可能である。例えば、本明細書に記載のシステムおよび方法は、友人および家族間との個人的な通信にも有用であろう。加えて、本開示のシステムおよび方法は教室での授業にも応用可能で、その場合、該教室にいない学生でも別の場所から参加でき、まるで実際の教室にいるかのような経験をすることができる。
上記の内容を踏まえて、以下に技術の実施形態の概観をまず記載し、その次に特定の技術の実施形態を詳細に記載する。最初の記載は本技術の基礎的理解を提供するものであるが、技術の全特徴を記載するものでも、特許請求項に記載の主題の範囲を限定する意図を持つものでもない。
コンピューターネットワークを通して会合を持つことにより、参加者達は互いに姿を見たり声を聞いたりすることができるが、テレビモニターなどのディスプレイを見ている参加者達は、同じ部屋に全ての参加者達がいる直接対面の会議と同じような会議を経験するものではない。会議参加者達は、互いに生きた人間と直接話しているのではなく、テレビモニターまたはスピーカーフォンに向かって話しているかのように感じるかもしれない。加えて、ビデオカメラが固定されており、会議参加者の顔に向けられている場合、他の参加者達は、ボディランゲージ(例えば手の動き)および/またはその会議参加者が使っている文書、品目、視覚的実証等が見えないかもしれない。
現在の技術によれば、ネットワークを通して行われる会合の参加者は、遠く離れた場所の部屋にいる他の参加者達を該参加者と類似の視点から見られるようになるだろう。換言すれば、1つの会議室にいる参加者に、遠く離れた場所の会議室にいる経験を提供できるだろう。
本開示の実施形態によれば、2つの物理的場所間のビデオ対話のシステムおよび方法が開示される。例えば、該システムおよび方法によれば、会議の参加者は、遠く離れた会議室および取引先の会議参加者達を、まるでその遠く離れた会議室にいるかのような視点から見ることができるようになる。医療、教育、ビジネスなどの分野、あるいは遠く離れた場所間で会合が持たれる他のあらゆる分野に、本開示のシステムおよび方法が応用可能である。従って、上述のように、ビジネス会合の内容は例示目的のためのみであり、特許請求の範囲に具体的に記載された内容を除き、限定的に解釈されるべきではない。
従って、ネットワークを通して持たれる会議の参加者に遠く離れた会議室にいる経験を提供するため、遠く離れた会議室に配置される2つ以上のビデオカメラから送られるビデオフィードを該参加者が見られるようにするヘッドマウントディスプレイを該参加者に提供するようにしてもよい。2つ以上のビデオカメラからのビデオフィードは、遠く離れた会議室の仮想現実映像(virtual reality view)を作成するのに使用できる。参加者が実際にいる物理的会議室の位置座標が決定され、その位置座標を遠く離れた会議室の相対位置に関連付けることができる。2つ以上のビデオフィードは、遠く離れた会議室の相対位置に基づいて、遠く離れた会議室の相対位置から遠く離れた会議の状況を提供する仮想ビデオフィードの作成に使用できる。次に、該仮想ビデオフィードは、該参加者が装着しているヘッドマウントディスプレイに提供できる。従って、該参加者は、ビデオフィードを見ることにより、物理的会議室にいる該参加者に関連付けられた視点から、遠く離れた場所の会議室を見ることができるようになる。
1つの例示的構成では、遠く離れた会議室を見る目的で会議参加者が使用するヘッドマウントディスプレイは、ヘッドアップディスプレイ(HUD)をユーザーに提供する透明なディスプレイを用いてビデオフィードを表示するディスプレイを含んでもよい。別の例示的構成では、ヘッドマウントディスプレイは、右ビデオディスプレイおよび左ビデオディスプレイを含んでリアルタイムに近い立体ビデオ像を作成し得るヘッドマウント立体ディスプレイであってもよい。立体像の使用は立体視の維持を可能にするので、ヘッドマウントディスプレイを装着しているユーザーは、会議室の奥行を感じることができる。本明細書で用いられる「立体視」という用語は、人の目に投影される2つの光学的に離れた世界の投影図を見ることによって奥行き感が与えられる視覚認識過程を意味する。これは、後に詳細に記載するが、頭に取り付け可能な一対のビデオ画面(各々異なる光学的投影図を有する)を使用することにより、あるいは単一のビデオ画面上の2つの光学的投影図を光学的に分離することにより達成できる。
加えて、本明細書に開示のシステムおよび方法により、ネットワークを通して持たれる会議に参加しているあらゆる場所のメンバーが、遠く離れた会議室を見ることができる。例えば、ニューヨーク市で持たれる会議の参加者は、ロサンゼルスで持たれる会議のメンバーを見ることができ、ロサンゼルスで持たれる会議のメンバーは、ニューヨーク市で持たれる会議の参加者を見ることができる。換言すると、両方の場所にいる会議参加者達が、ある参加者が物理的に位置している会議室から離れた場所にある会議室を見ることができる。
本開示の一実施形態によれば、2つの物理的場所間のビデオ対話のためのシステムは、物理的場所にある第一の部屋のビデオフィードを生成するように構成した複数のビデオカメラを有することができる。第二の部屋にある複数の動作検出カメラは、第二の部屋にあるマーカーを検出し、第二の部屋の該マーカーの位置の座標を提供するように構成できる。会議参加者が装着することのできるヘッドマウントディスプレイは、第一の部屋のビデオカメラから受け取るビデオフィードを表示することが可能なビデオ画面を含んでいる。コンピューティング装置は、第一の部屋にあるビデオカメラから複数のビデオフィードを受け取り、第二の部屋の複数の動作検出カメラからマーカー用座標を受け取るように構成できる。該コンピューティング装置は、追跡モジュールおよびビデオモジュールを含んでもよい。該追跡モジュールは、動作検出カメラにより提供される座標を用いて、第一の部屋にあるビデオカメラに対する第二の部屋のマーカーの相対位置を決定するように構成できる。該ビデオモジュールは、第二の部屋のマーカーの相対位置に相関する、第一の部屋のビデオカメラからのビデオフィードを特定し、該ビデオフィードをヘッドマウントディスプレイに提供するように構成できる。
別の実施形態では、2つの物理的場所間のビデオ対話のためのシステムは、ビデオモジュールを有するコンピューティング装置をさらに含むことができ、該ビデオモジュールは、第二の部屋のマーカーの相対位置に相関する、第一の部屋の複数のビデオカメラからの2つのビデオフィードを特定できる。2つのビデオフィードを補間することにより、第二の部屋のマーカーの視点から見た第一の部屋の表示を提供する、仮想現実ビデオフィードが与えられる。
他の実施形態では、2つの物理的場所間のビデオ対話のためのシステムは、ビデオカメラフィードを提供するように構成されるビデオカメラアレイを有することができる。画像処理モジュールは、i)該アレイからビデオカメラフィードを受け取り、ii)該ビデオカメラフィードの1つまたはそれ以上を幾何学的に変形させて仮想カメラフィードを作成し、並びにiii)少なくとも2つのカメラフィードから立体ビデオ画像を生成するように構成できる。
本開示の更に詳細な例を説明するため、以下にいくつかの図面が示される。具体的には、図1を参照して、2つの物理的場所間のビデオ対話の例示的システム100が示される。システム100は、第一の部屋128の周囲に互いに空間的に離間して配置される複数のビデオカメラ118a−dを含んでもよい。複数のビデオカメラ118a−dは、ネットワーク114を通してサーバー110に接続できる。サーバー110は、複数のビデオカメラ118a−dからビデオフィードを受け取るように構成でき、その場合、サーバー110がビデオカメラ118a−dおよび第一の部屋128内にあるビデオカメラの場所を特定できるようにする固有のIDを、各ビデオカメラに割り当ててもよい。
システム100は、さらに、第二の部屋132の周囲に互いに空間的に離間して配置される複数の動作検出カメラ120a−dを含んでもよい。複数の動作検出カメラ120a−dは、ネットワーク114を通してサーバー110に接続できる。複数の動作検出カメラ120a−dは、第二の部屋132内のマーカー124を検出し、第二の部屋132内の該マーカー124の位置座標を計算し、該マーカー124の識別子および位置座標をサーバー110に提供できる。一実施形態では、マーカー124は、複数の動作検出カメラ120a−dに可視である発光ダイオード(LED)を含む能動マーカーであってもよいし、動作検出カメラ120a−dによって認識および追跡可能な他のマーカーであってもよい。動作検出カメラ120a−dは、部屋内の能動マーカーを追跡しその位置を特定してもよい。能動マーカーは、固有の周波数で変調するLEDを含んでもよく、その結果、固有のデジタルIDが該能動マーカーに提供される。さらに、LEDは可視光を放射してもよいし、あるいは赤外線を放射してもよい。別の実施形態では、マーカー124は受動マーカーであってもよく、その場合、該受動マーカーは、光源で照らされて動作検出カメラ120a−dに可視となる再帰反射材でコーティングされてもよい。
複数のビデオカメラ118a−dおよび複数の動作検出器120a−dは、それぞれ4つの場所に配置されていることに注意されたい。特定のアプリケーションに応じて、それよりも多いまたは少ないカメラが用いられてもよいことに注意されたい。例えば、会議室は5〜50のカメラまたは5〜50の動作検出器を有してもよいし、2または3のカメラおよび/または2または3の動作検出器を有してもよい。
システム100には、さらに、サーバー110に接続される1若しくはそれ以上のヘッドマウントディスプレイが含まれる。一実施形態では、ヘッドマウントディスプレイ122は、ユーザーの1つの目の前に配置される単一のビデオディスプレイを含んでもよいし、あるいは、ビデオディスプレイがユーザーの両方の目の前にあるように、単一のビデオディスプレイの大きさと位置を決めてもよい。別の実施形態では、ヘッドマウントディスプレイ122は透明なディスプレイを有してもよい。ビデオフィードは透明なディスプレイ上に投影され、ヘッドアップディスプレイ(HUD)をユーザーに提供する。別の実施形態では、ヘッドマウントディスプレイ122は、2つのビデオディスプレイを有してもよい。すなわち1つをユーザーの右目の前に、もう1つをユーザーの左目の前に配置してもよい。第一のビデオフィードはヘッドマウントディスプレイ122の右ビデオディスプレイ上に表示できるし、第二のビデオフィードはヘッドマウントディスプレイ122の左ビデオディスプレイ上に表示できる。右および左ビデオディスプレイはユーザーの右目および左目にそれぞれ投影されるので、立体ビデオ像が提供できる。立体ビデオ像は、2つの目の瞳に投影される僅かに異なる2つのビデオ像から視覚認識ひいては奥行感を与える。斯かる実施形態を組み合わせることにより、例えばHUDで立体像を形成してもよい。
一実施形態では、複数のビデオカメラ118a−dがビデオフィードをサーバー110に提供し、サーバー110が、部屋132内のマーカー124の座標位置に最も相関しているビデオフィードを決定するようにしてもよい。次に、サーバーは該ビデオフィードをヘッドマウントディスプレイ122に提供できる。別の実施形態では、部屋128内のビデオカメラ118a−dから、マーカー124の座標位置に最も相関している2つのビデオフィードを特定すれば、該2つのビデオフィードから補間により仮想ビデオフィードが得られる。加えて、2つの仮想ビデオフィードすなわち第一仮想ビデオフィードおよび第二の仮想ビデオフィードが生成できるので、該第一仮想ビデオフィードと第二の仮想ビデオフィードの間の瞳孔距離を真似、並びに該瞳孔距離と光学的に整合する適切な角度を与えれば、立体仮想ビデオ像が得られる。該立体仮想ビデオ像は、次に、立体ヘッドマウントディスプレイ122に提供できる。仮想ビデオフィードまたは立体仮想ビデオフィードを形成するにあたり注目すべき点は、これが複数のカメラから得られる実像を用いた発生画像であることであり、斯かるビデオフィードからのデータを補間し、ビデオフィードを、カメラ自体からではなく複数のカメラが提供する情報に基づいて生成することにより、第二の部屋内のマーカーの位置を近似した仮想像が形成される。このようにして、以下にさらに詳細に記載するように、第二の部屋のユーザーは、表示位置および方向を近似した仮想表示を受け取ることができる。1つの仮想像を使うことによりユーザーは二次元像の表示を得ることができるが、2つのビデオモニターから眼鏡内に2つの仮想像を生成しそれをユーザーに提供するならば、第一の部屋の三次元表示が第二の部屋にいるユーザーに提供できる。
従って、さらに詳細に述べると、複数のビデオカメラ118a−dは、複数のペアのビデオカメラがリアルタイムに近い立体ビデオ像を生成できるように調整でき、その場合、複数のペアの各々が、第一の部屋128の第一のビデオフィードを生成するように構成された第一のビデオカメラおよび第一の部屋128の第二のビデオフィードを生成するように構成された第二のビデオカメラを有することができる。例えば、1つの例では、ビデオカメラ118aおよび118bが第一のビデオカメラおよび第二のビデオカメラ、2つ目の例では、ビデオカメラ118cおよび118dが第一および第二のビデオカメラである。さらに、ビデオカメラは、常に一緒に使用される独立したペアである必要はない。例えば、118aおよび118cまたは118dがビデオカメラの第三のペアを形成してもよい。複数のペアのビデオカメラは瞳孔距離だけ互いに空間的に離間していてもよいし、あるいは必ずしも互いに瞳孔距離にはない位置、例えば、瞳孔距離と光学的に整合した適切な角度を持つ模擬的な瞳孔距離、あるいは瞳孔距離と光学系アラインメントにはない一定間隔離れた位置(この場合ふつう信号補正がなされる)に配置してもよい。
複数のビデオカメラ118a−dは、一次元アレイ、例えば、一直線のビデオカメラ(例えば3、4、5、...25)、あるいは二次元アレイ、例えばx軸およびy軸に沿った配列(例えば3x3、5x5、4x5、10x10、20x20)カメラ、あるいはさらに三次元アレイなどに配置できる。従って、いずれの実施形態によっても、あらゆる2つの隣接したビデオカメラが、第一のビデオカメラおよび第二のビデオカメラとして使用できる。あるいは、互いに隣接していない2つのビデオカメラをビデオフィードを提供するのに使用してもよい。ビデオカメラ118a−dの選択は、部屋132内のマーカー124の座標位置に基づいて決めることができる。容易に想到できることであるが、上記システム100には、ビデオカメラ118a−dを第一の部屋128と第二の部屋132の両方に配置する場合と、動作検出カメラ120a−dを第一の部屋128と第二の部屋132の両方に配置する場合が含まれ、そうすることにより、第一の部屋128と第二の部屋132との間で行われる会議の参加者は、ヘッドマウントディスプレイ122を通して、互いに見たり対話したりできる。
図2は、本発明の技術を実行するためのシステム200の構成部分の例を図示している。システム200は、1若しくはそれ以上のプロセッサ225を有するコンピューティング装置202、記憶モジュール230および処理モジュールを含んでもよい。一実施形態では、コンピューティング装置202は、追跡モジュール204、ビデオモジュール206、画像処理モジュール208、較正モジュール214、ズーミングモジュール216並びに本明細書では詳細に記載されない他のサービス、プロセス、システム、エンジンまたは機能を有してもよい。コンピューティング装置202は、ネットワーク228を通して、会議が行われる部屋、例えば会議室などに見られる種々の装置に接続されてもよい。例えば、第一の部屋230には数多くのビデオカメラ236および1若しくはそれ以上のマイクロフォン238が備わっている。第二の部屋232には、数多くの動作検出カメラ240、マーカー装置242、ディスプレイ244およびスピーカー246が備わっている。
追跡モジュール204は、第一の部屋230のマーカー装置242の位置に対応した、第二の部屋232のマーカー装置242の相対位置および/または方向を決定するように構成してもよい。具体例として、マーカー装置242が第二の部屋232の南部分に位置し北向きである場合、第二の部屋232のマーカー装置242が存在する南位置に相関した相対位置、すなわち第一の部屋230の南部分の北に向いた位置が、第一の部屋230に特定できる。マーカー装置242は、動作検出カメラ240が検出可能な能動マーカーまたは受動マーカーであってよい。例えば、能動マーカーは、動作検出カメラ240に可視であるLEDを含んでいてもよい。能動マーカーが第二の部屋232内を移動すると、動作検出カメラ240は能動マーカーの動きを追跡し、該能動マーカーの座標(すなわちx、yおよびzデカルト座標および方向)を追跡モジュール204に提供する。マーカー242の相対位置は、第二の部屋232にある動作検出カメラ240が提供する座標を用いて決定できる。動作検出カメラ240が捉えたデータは、第二の部屋232内のマーカー装置242の3D位置を三角測量するのに使用できる。例えば、追跡モジュール204は、動作検出カメラ240が捉えた座標データを受け取ることができる。追跡モジュール204は、座標データを用いて、第二の部屋232のマーカー装置242の位置を決定し、次に、該マーカー装置242の相対位置を第一の部屋230に決定してもよい。換言すると、第二の部屋232のマーカー装置242の位置は、第一の部屋230の対応する位置にマッピングできる。
別の実施形態では、追跡モジュール204は、場所、人の顔なとの特徴、または他の明瞭な特徴を認識できる画像認識ソフトを含んでもよい。人が第二の部屋232内を移動すると、追跡モジュール204はその人の動きを追跡し、第二の部屋232内のその人の位置座標を決定する。画像認識ソフトは、パターンを認識するようにプログラムしてもよい。例えば、最新のオートフォーカスデジタルカメラに用いられているのと類似の顔認識技術を含むソフト、例えば、デジタル表示画面のボックスが顔の周りに現れ、フォーカスまたは他の目的のために対象の顔が認識されていることをユーザーに知らせるソフトを、本開示のシステムに使用できる。
ビデオモジュール206は、追跡モジュール204が提供する第二の部屋232のマーカー装置242の相対位置に相関する、第一の部屋のビデオカメラ236からのビデオフィードを特定し、そのビデオフィードを第二の部屋にあるディスプレイ244に提供するように構成してもよい。例えば、追跡モジュール204は第二の部屋232のマーカー装置242の相対位置(すなわちx、yおよびzデカルト座標および方向座標)をビデオモジュール206に提供し、該相対位置の視点を最もよく提供するビデオフィードを特定してもよい。
あるいは、隣接して配置されている2つのビデオカメラ236からの2つのビデオフィードが特定でき、その場合、該ビデオフィードは、マーカー装置242の相対位置に相関する視点を提供する。該ビデオフィードは画像処理モジュール208に提供され、該ビデオフィードに幾何変換が施され、第二の部屋232のマーカー装置242に相関する視点(すなわちビデオフィード自体から直接得られるのとは異なる視点)を示す仮想ビデオフィードを作成するようにしてもよい。仮想ビデオフィードは、立体ディスプレイ用の立体すなわち3D信号に多重化してもよいし、あるいはヘッドマウントディスプレイ(例えば右目、左目)に送られて立体ビデオが作成されてもよい。最新のパッケージを含むハードウェアおよびソフトウェアパッケージが、この目的のためにそのまま、あるいは少し修正して用いられてもよい。例えば、NVIDIAは、ユーザーが複数のカメラフィードを取り込み、それに数学演算を行い、幾何変換されたビデオフィードを出力し、実際のビデオフィードの補間である仮想視点を作成するビデオパイプラインを有している。斯かるビデオ信号は、通常、シリアルデジタルインターフェース(SDI)フォーマットである。同様に、斯かる変換を行うのに使われるソフトウェアが、オープンソースとして入手可能である。OpenCV、OpenGLおよびCUDAが、ビデオフィードを操作するのに使用できる。立体視を作成するため、左右の目用に設計されている像あるいは光学的に分けられた単一画面へのビデオフィードは、その表示が仮想であれ実像であれ、通常、瞳孔距離または(必ずしも要求されないが)模擬的な瞳孔距離によって分離されている。この例で示されている画像処理モジュール208は、仮想カメラフィードを作成するためのものである。しかし、本実施形態または画像処理から恩恵を得る本明細書内の他の実施形態で使用されるのが好ましい他の種類の画像処理も、画像処理モジュール208を含んでもよい。
ディスプレイ244は、ユーザーの頭の上に置かれ、直接ユーザーの目の前に配置されるように構成されたビデオディスプレイを有してもよい。一実施形態では、立体ディスプレイは、人の右目が見ることのできる右ビデオディスプレイおよび人の左目が見ることのできる左ビデオディスプレイを有する立体ヘッドマウントディスプレイであってもよい。第一および第二のビデオフィードを右および左ビデオディスプレイに表示することにより、リアルタイムに近い立体ビデオ像が作成できる。あるいは、立体ディスプレイは単一のビデオ画面であってもよく、その場合、第一のビデオフィードと第二のビデオフィードは光学的に分離される(例えば、シャッター分離、偏光分離、色分解等)。立体ディスプレイは、ユーザーが眼鏡などの外部視覚装置を用いて、またはそれを用いないで立体像を見ることができるように構成されてもよい。一実施形態では、シャッター分離、偏光分離、色分解等で用いられる適切な眼鏡が、画面を三次元的に見るのに用いられてもよい。さらに、ビデオディスプレイは、会議の参加者など複数のユーザーがリアルタイムに近い立体ビデオ像を見るためのマルチビデオディスプレイを含んでいてもよい。
較正モジュール214は、第一のビデオカメラ236からのピクセルが第二のビデオカメラ236からのピクセルと整合するように、第一のビデオフィードおよび第二のビデオフィードの水平位置合わせを較正および調整するように構成してもよい。ディスプレイ244が右ビデオディスプレイおよび左ビデオディスプレイを含む立体ヘッドマウントディスプレイの場合、像ができるだけ自然に見えるように、2つの像の適切な位置合わせが、ユーザーの目の水平方向に較正されてもよい。像が不自然であればあるほど、それだけ目に負担がかかる。水平位置合わせは、画面上でリアルタイムに近い立体ビデオ像を見る場合に、(眼鏡の助けがある場合もない場合も)より鮮明な像を提供する。ピクセルが適切に配列されている場合には、ピクセルがたとえ僅かでも不整合の場合と比べ、より自然でより鮮明に見える。追加の較正を用いて、第一のビデオカメラおよび第二のビデオカメラの垂直方向の位置合わせを望ましい角度で行い、立体視を与えるようにしてもよい。較正モジュール214は、ビデオフィードのペアの水平および/または垂直位置合わせを手動により、および/または自動的に行えるように構成してもよい。
システム200を最初に設定する場合、あるいは複数のユーザーが同じ装置を使用する場合にも、較正の必要性が生じる。例えば、較正モジュール214は、複数のユーザーのために較正を提供できる。従って、該システムは、例えば、第一のユーザーには第一のモードで、第二のユーザーには第二のモードで較正できるように構成できる。該システムは、該システムを第一のユーザーが使っているか第二のユーザーが使っているかにより、自動的にまたは手動で、第一のモードと第二のモードの間を切り替えるように構成してもよい。
ズーミングモジュール216は、リアルタイムに近い立体ビデオ像を含むビデオフィードの望ましい拡大を提供するように構成してもよい。ビデオカメラ236は会議室の壁に固定されている場合があるので、ビデオカメラが提供するビデオフィードの視点は、(会議室の内部にいるかもしれない)会議参加者の視点に相関している距離にはない場合がある。ズーミングモジュール216は、マーカー装置242の相対位置座標を受け取り、ビデオフィードの視点が会議参加者の視点にマッチするように、デジタル的にズームインまたはズームアウトしてビデオフィードを調整できる。あるいは、ズーミングモジュール216は、ビデオカメラのレンズを制御することにより、望ましい視点までズームインまたはズームアウトしてもよい。
一実施形態では、システム200は、第一の部屋230にある1若しくはそれ以上のマイクロフォン238から音声フィードを受け取るように構成された音声モジュール218を有していてもよい。例えば、マイクロフォン238はビデオカメラ236に関連付けられていてもよいので、ビデオフィードを提供するのにあるビデオカメラが選択された場合、該ビデオカメラ236に関連付けられているマイクロフォン238からの音声フィードも選択される。音声フィードは、第二の部屋232にある1若しくはそれ以上のスピーカー246に提供できる。一実施形態では、スピーカー246は第二の部屋232全体に配置されており、従って、その部屋にいる人全員が該音声フィードを聞くことができる。別の実施形態では、ヘッドマウントディスプレイを装着している人が該音声フィードを聞けるように、1若しくはそれ以上のスピーカーがヘッドマウントディスプレイと一体型になっていてもよい。
コンピューティング装置202に含まれる様々な処理および/または他の機能は、種々の例において、1若しくはそれ以上の記憶モジュール245に接続されている1若しくはそれ以上のプロセッサ240上で、実行できる。コンピューティング装置202は、例えば、コンピューティング能力を提供するサーバーまたは他のシステムを含んでもよい。あるいは、例えば、1若しくはそれ以上のサーバー列、コンピューター列または他の配列で並べられた複数のコンピューティング装置202を使用してもよい。便宜上、コンピューティング装置202は単数形で言及されている。しかし、上述したように、複数のコンピューティング装置202が様々な配列で使用されてもよい。
ネットワーク228は、有用なコンピューティングネットワークを含んでもよく、例えば、イントラネット、インターネット、ローカルエリアネットワーク、ワイドエリアネットワーク、ワイヤレスデータネットワーク、その他のあらゆる類似のネットワーク、あるいはそれらの組み合わせが含まれる。斯かるシステムに使用される構成要素は、少なくとも部分的には、ネットワークの種類および/または選択した環境に依存する。ネットワークを通したコミュニケーションは、有線接続または無線接続およびその組み合わせにより可能としてもよい。
図2は、特定の処理モジュールが本発明の技術との関連で説明でき、斯かる処理モジュールはコンピューティングサービスとして実行できることを示している。1例としての構成では、モジュールは、サーバーまたは他のコンピューターハードウェア上で実行される1若しくはそれ以上のプロセスを含んだサービスであると考えることができる。斯かるサービスは、中央で提供される機能であってもよいし、要求を受け取り他のサービスまたは消費者装置にアウトプットを提供するサービスアプリケーションであってもよい。例えば、サービスを提供するモジュールは、サーバー、クラウド、グリッドまたはクラスターコンピューティングシステムで提供されるオンデマンドコンピューティングであると考えることもできる。第二のモジュールが第一のモジュールに要求を送りアウトプットを受け取ることができるようにするため、アプリケーションプログラムインターフェース(API)が各モジュールに提供されてもよい。斯かるAPIは、第三者がモジュールにインターフェースで接続され、モジュールに要求を送ったりアウトプットを受け取ったりするのも可能にする。図2は、上記技術を実行するシステムの1例を示したものであるが、その他多くの類似のまたは異なる環境が可能である。上で記載され説明された例示的な環境は単に代表例に過ぎず、限定的な意味を持つものではない。
図3は、周囲にカメラ316のアレイを有する会議室320の1例を示している。会議室320の周囲に配置されたカメラ316のアレイは複数のカメラコレクション304で構成されていてもよく、その場合、各カメラコレクション304はビデオカメラのグリッド(例えば、2x2、3x5等)を含んでいてもよい。カメラコレクション304内のビデオカメラ308は、1例では、静的ビデオフィードを提供する固定ビデオカメラであってもよい。別の例では、ビデオカメラ308は、光学的にズームインおよびズームアウトする機能を含んでいてもよい。さらに別の例では、ビデオカメラ308は、該ビデオカメラ308の方向および/またはフォーカスを制御するため、該ビデオカメラに関連付けられている個別のモーターを含んでいてもよい。該モーターは、ビデオカメラ308に機械的に連結されていてもよい。例えば、モーターは一連のギアおよび/またはネジで連結され、ビデオカメラ308を向ける角度を変更するようになっていてもよい。容易に想到できるように、他の種類の機械的連結も使用できる。ビデオカメラ308が向けられる方向をモーターがアップデートできるようにする機械的連結であれば、いずれも、本実施形態の範囲内にあると考えられる。
カメラ316のアレイは、会議室320の仮想視点を生成するのに使用でき、該仮想視点は、会議室320の直交座標空間の特定の方向にカメラ316のアレイを配置することにより生じる。例えば、種々のビデオカメラは、互いに対応するように、そして会議室320で会議を行っている人々に対応するように配置できる。会議室320内の人々の位置は、ハードウェア(例えば動作追跡技術あるいは他の追跡システムまたはモジュール)またはソフトウェアを用い、本明細書記載の追跡方法または当業界で知られている他の方法を使用することにより、知ることができる。
図4は、会議室402の例を示しており、会議室402内のマーカー416を検出するように構成されている複数の動作検出カメラ404a−cを含んでいる。複数の動作検出カメラ404a−cは、上述のように、マーカー416の位置座標を決定できるし、該遠く離れた会議室におけるマーカー416の相対位置に実質的にマッチするビデオフィードを、該遠く離れた会議室から生成できる。マーカー416は会議参加者410に取り付けることができ、それにより、会議室402内の会議参加者410の位置が追跡できる。ビデオフィードは、会議参加者410が装着しているヘッドマウントディスプレイ412に提供できる。一実施形態では、ビデオフィードは、無線ルーター408およびネットワークを通して、ヘッドマウントディスプレイ412に送ることができる。ネットワークは、インターネット、ローカルエリアネットワーク(LAN)、ワイドエリアネットワーク(WAN)、ワイヤレスローカルエリアネットワーク(WLAN)、ワイヤレスワイドエリアネットワーク(WWAN)などの有線または無線ネットワークであってよい。WLANは、Bluetooth(登録商標)などの無線規格、米国電気電子学会(IEEE)802.11−2012、802.11ac、802.11ad規格、あるいは他のWLAN規格を用いて実施してよい。WWANは、IEEE802.16−2009、第三世代パートナーシッププロジェクト(3GPP)、ロングタームエボルーション(LTE)リリース8、9、10または11等の無線規格を用いて実施してよい。斯かるシステムに使われる構成要素は、少なくとも部分的には、ネットワークの種類および/または選択した環境に依存する。ネットワークを通したコミュニケーションは、有線接続または無線接続およびその組み合わせにより可能としてもよい。
図5は、遠く離れた部屋で生成されたビデオフィードを見るのに使用できるヘッドマウントディスプレイ500の1例を示したものである。一実施形態では、ヘッドマウントディスプレイ500は、該ヘッドマウントディスプレイ500と一体型のマーカー504を含んでもよい。例えば、マーカーは、ヘッドマウントディスプレイ500の枠に一体化されてもよく、それにより、マーカー504は動作検出カメラに可視となる。さらに、マーカー504がヘッドマウントディスプレイ500との関係で前方を向くように、ヘッドマウントディスプレイ500上に配置されてもよい。例えば、マーカー504はヘッドマウントディスプレイ500の前方に配置されてもよく、その場合、ヘッドマウントディスプレイ500のユーザーが動作検出カメラの方を向いた(すなわちユーザーの顔が動作検出カメラの方向に向けられた)とき、マーカー504は動作検出カメラに可視となる。従って、動作検出カメラはマーカー504の方向座標を決定できる。方向座標は、実質的に同じ方向を向いたビデオカメラを特定するのに使用できる。さらに、複数のビデオフィードから、方向座標にマッチする視点を提供する仮想ビデオフィードを生成できる。
一実施形態では、ヘッドマウントディスプレイ500は分割視野を提供するように構成されてもよく、その場合、ディスプレイの下の部分は左目と右目に異なる高品位ディスプレイを提供し、ディスプレイの上の部分では、ユーザーは妨害されていない環境を見ることができる。あるいは、ヘッドマウントディスプレイ500は分割表示を行うように構成してもよく、その場合、下半分はビデオ像を提供し、ディスプレイの上半分は実質的に透明なので、ユーザーは、ヘッドマウントディスプレイ500を装着したままで、両方の自然環境を見ることができる。
別の実施形態では、ヘッドマウントディスプレイ500は第一のビデオフィードおよび第二のビデオフィードをディスプレイシステムに表示でき、該ディスプレイシステムは第一のビデオフィードおよび第二のビデオフィードを光学的に分離してリアルタイムに近い立体ビデオ像を作成する。1例では、第一のビデオフィードはヘッドマウントディスプレイ500の右ビデオディスプレイに表示でき、第二のビデオフィードはヘッドマウントディスプレイ500の左ビデオディスプレイに表示できる。右および左ビデオディスプレイは、それぞれユーザーの右目および左目に投影される。立体ビデオ像は、2つの目の瞳に投影される僅かに異なる2つのビデオ像から視覚認識ひいては奥行感を与える。
あるいは、ヘッドマウントディスプレイ500以外のビデオディスプレイも、リアルタイムに近いビデオフィードを表示するために配置してもよい。例えば、一実施形態では、第一および第二のビデオフィードは単一のディスプレイ画面に表示でき、それぞれのビデオフィードは光学的に分離される。光学的分離の技術としては、シャッター分離、偏光分離および色分解が挙げられる。一実施形態では、ビューアーまたはユーザーは眼鏡を掛けて立体視および奥行感のある分離像を見ることができる。他の実施形態では、複数の立体ビデオ、例えばマルチテレビ画面を表示できる。例えば、立体像をテレビ画面、投射型ディスプレイおよびヘッドマウントディスプレイに同時に表示できる。
ある種の眼鏡、例えばシャッター分離を用いたLCD眼鏡などはディスプレイ画面と同期化させることができるので、ビューアーは光学的に分離されたリアルタイムに近い立体ビデオ像を見ることができる。ビデオフィードの光学的分離は、2つの目の瞳にそれぞれ投影される僅かに異なる2つのビデオ像から視覚認識ひいては奥行感を与え、立体視を作成する。
上述の実施形態において、ビデオフィードは、デジタルビジュアルインターフェース(DVI)ケーブル、高品位マルチメディアインターフェース(HDMI(登録商標))ケーブル、コンポーネントケーブルなどの有線コミュニケーションケーブルを通して、ヘッドマウントディスプレイ500に送ることができる。あるいは、ビデオフィールドは無線でヘッドマウントディスプレイ500に送ることができる。例えば、ヘッドマウントディスプレイ500とビデオフィードを提供するサーバーとの間に無線データリンクを提供するシステムがそれである。
ビデオフィードを無線で送信するために開発された、あるいは現在開発されつつある種々の規格としては、WirelessHD規格、ワイヤレスギガビットアライアンス(WiGig)、ワイヤレスホームデジタルインターフェース(WHDI)、米国電気電子学会(IEEE)802.15規格、ウルトラワイドバンド(UWB)コミュニケーションプロトコルなどが挙げられる。別の例としては、IEEE802.11規格が、サーバーからヘッドマウントディスプレイ500に信号を送るのに使用できる。ビデオフィード情報をサーバーからヘッドマウントディスプレイ500へ送りリアルタイムに近い表示を可能にする1若しくはそれ以上の無線規格が使用でき、それにより、ワイヤの使用が排除され、ユーザーはより自由に動き回れるようになる。
別の実施形態では、ビデオカメラおよびヘッドマウントディスプレイ500は、比較的高い解像度で表示するように構成してもよい。例えば、カメラおよびディスプレイは、1280x720ピクセル(幅x高さ)の720P プログレッシブビデオディスプレイ、1920x1080ピクセルの1080iインターレースビデオディスプレイまたは1920x1080ピクセルの1080pプログレッシブビデオディスプレイを提供するように構成してもよい。ムーアの法則に従って処理力およびデジタルメモリーが指数関数的に向上しているので、7680x4320ピクセルの4320Pプログレッシブビデオディスプレイなど、さらに高い解像度を提供してもよい。解像度が向上すれば、画質を実質的に下げることなく、デジタル拡大を提供するソフトウェア(デジタルズーム)を用いて、画像を拡大できる。従って、ソフトウェアのみを用いて、遠く離れた会議室にいるヘッドマウントディスプレイ500を装着している人に、所定の視点を提供できる。
図6は、2つの物理的部屋間において対話する方法を例示的に説明するフローチャートである。ステップ605では、サーバーが、所定の物理的場所にある第一の部屋に配置された複数のビデオカメラから複数のビデオフィードを受け取る。ここで、該複数のビデオカメラは上記第一の部屋全体に離間して配置されていてもよい。例えば、第一の部屋の周囲に2つ以上のビデオカメラを離間して配置して、第二の部屋にいる人に第一の部屋の視点を提供するビデオフィードを作成するようにしてもよい。一実施形態では、ビデオカメラを第一の部屋の様々な高さに配置し、様々な高さからのビデオフィードを提供するようにしてもよい。従って、第二の部屋にいる人のビデオフィードに実質的にマッチするビデオフィードが提供できる。例えば、第二の部屋の椅子に座っている人と実質的に同じ高さにあるカメラからのビデオフィードを提供できるし、第二の部屋に立っている人のビデオフィードに実質的にマッチする高さにあるカメラからのビデオフィードも提供できる。
ステップ610では、所定の物理的場所にある第二の部屋に配置されたマーカーの位置座標が複数の動作検出カメラによって計算され、該位置座標をサーバーが受け取る。位置座標は、第二の部屋におけるマーカーの相対位置を提供する。例えば、マーカーの相対位置は、上述のように、第二の部屋の位置に相関する、第一の部屋の位置であってもよい。複数の動作検出カメラを第二の部屋の周囲に配置することにより、マーカーが第二の部屋で移動しているとき、動作検出カメラがマーカーを追跡することが可能となる。
一実施形態では、マーカーの位置座標は、動作検出カメラからの直交座標空間x、yおよびz軸距離であってもよいので、動作検出カメラは、第二の部屋のマーカーの経緯度並びに第二の部屋の該マーカーの高さを提供できる。さらに、別の実施形態では、複数の動作検出カメラによりマーカーが向いている方向を決定することができる。例えば、マーカーは、動作検出カメラに可視であるLEDを有する能動マーカーであってもよい。マーカーのLEDが動作検出カメラで特定されると、該マーカーを特定する動作検出カメラにより該マーカーが向いている方向を決定することができる。
一実施形態では、マーカーは、上述のように、ヘッドマウントディスプレイに一体型であってもよい。別の実施形態では、マーカーは人が装着していてもよい。例えば、マーカーは、人の衣服にピン、クリップまたは他の何らかの方法で留めておくことができ、そうすることにより、該個人の第二の部屋での位置が特定および追跡できる。該個人はヘッドマウントディスプレイを装着し、衣服に取り付けられた該マーカーの視点から、第一の部屋の光景を提供するビデオフィードが該ヘッドマウントディスプレイに送信される。さらに、マーカーは、人が装着している物体、例えばリストバンド、ネックレス、ヘッドバンド、ベルト等と一体化されていてもよい。
ステップ615では、複数のビデオフィードから、第二の部屋のマーカーの相対位置と相関するビデオフィードが特定される。例えば、第二の部屋にいる人の相対位置の背後に配置された、第一の部屋のビデオカメラからのビデオフィードを特定することができる。従って、第二の部屋のマーカーに関連付けられている人の視点に似た第一の部屋の視点が、該ビデオフィードにより提供される。一実施形態では、第二の部屋のマーカーの相対位置に相関する第一の部屋のビデオカメラからの少なくとも2つのビデオフィードを特定することができる。該2つのビデオフィードを用いることにより、第二の部屋のマーカーの有利な視点に実質的にマッチする仮想ビデオフィードが作成できる。例えば、ビデオ処理を行うのに補間が用いられ、第一のビデオフィードからの第一のビデオフレームと第二のビデオフィードからの第二のビデオフレームの間に、中間のビデオフレームが作成できる。従って、第一の部屋におけるマーカーの相対位置および方向を用いることにより、マーカーの視点に最もよくマッチする第一ビデオフィードおよび第二のビデオフィードを特定することができる。次に、第一および第二のビデオフィードを用いて、第一ビデオフィードまたは第二のビデオフィードにより個別に提供される場合よりも第二の部屋のマーカーの視点により近い仮想ビデオフィードを作成することができる。
一実施形態では、ビデオフィードに加えて、第一の部屋のマイクロフォンから音声フィードを受け取り、それを第二の部屋のスピーカーに提供できる。該音声フィードにより、第二の部屋にいる人は、第一の部屋にいる人の声を聞くことができる。1例では、マイクロフォンはビデオフィードを提供するビデオカメラに関連付けられていてもよく、マイクロフォンからの音声フィードは、該音声フィードに関連付けられているビデオフィードを受け取る第二の部屋の人に提供できる。
ステップ620では、該ビデオフィードは、第二の部屋に配置されたマーカーに関連付けられているヘッドマウントディスプレイに提供することができ、該ヘッドマウントディスプレイは、第二の部屋のマーカーの位置に対応する第一の部屋の表示を提供する。従って、ヘッドマウントディスプレイを装着している人は、まるでその人が第一の部屋にいるかのような模擬的視点から第一の部屋を見ることができる。例えば、第二の部屋にいる人は第一の部屋および第一の部屋にいる他の人を見ることができ、第二の部屋を物理的に動き回ると、その動きは第一の部屋の仮想表示に模擬的に示される。
図7は、複数の物理的場所間のビデオ対話の方法を示す図である。図7に示されるように、複数の部屋(すなわち部屋1である706および部屋2である708)は、多くのビデオカメラおよび動作検出カメラを有するように構成できる。例えば、部屋1である706は、複数のビデオカメラ712a−dおよび複数の動作検出カメラ716a−dを含んでもよい。部屋2である708は、同様に、複数のビデオカメラ703a−dおよび複数の動作検出カメラ734a−dを含んでもよい。各部屋は、各ビデオカメラからのビデオフィード並びに部屋にある1若しくはそれ以上のマーカー722および738の位置座標をサーバー704に提供できる。上述したように、サーバー704は、ビデオフィード(ある実施形態では仮想ビデオフィード)をそれぞれのヘッドマウントディスプレイ720および736に提供できる。
マーカー722および738が部屋の周囲を移動する(例えば、該マーカーに関連付けられている人が部屋の周りを歩き回る)場合、該マーカー722および738の相対位置に最もよく相関している1若しくはそれ以上のビデオフィードが決定できる。ビデオフィードがマーカー722および738にもはや相関していない場合、そのビデオフィードは終了され、該マーカーの相対位置に相関しているビデオフィードが、ヘッドマウントディスプレイ720および736に提供される。加えて、1つのビデオフィードから別のビデオフィードへの移行は、ヘッドマウントディスプレイを装着している人にシームレスに見える速度で行ってもよい。
上で本開示のシステムおよび方法を記載するにあたり、実装の独立性を特に強調するため、本明細書記載の多くの機能ユニットが「モジュール」として表示されている。例えば、モジュールは、カスタムVLSI回路またはゲートアレイ、既成の半導体、例えば、ロジックチップ、トランジスタまたは他の個別の構成要素を含むハードウェア回路として実装してもよい。モジュールは、フィールドプログラマブルゲートアレイ、プログラマブルアレイロジック、プログラマブルロジックデバイスなどのプログラマブルハードウェア装置に実装してもよい。
モジュールは、種々のタイプのプロセッサにより実行されるソフトに実装してもよい。実行可能コードが識別されたモジュールは、例えば、オブジェクト、手順または機能としてオーガナイズできる、コンピューター命令の1若しくはそれ以上の物理的ブロックまたは論理ブロックを含んでもよい。しかし、識別されたモジュールの実行ファイルは、物理的に同じ場所に存在する必要はなく、異なる場所に保存された個別の命令を含んでいてもよく、論理的に合わされることにより該モジュールを構成し、該モジュールの一定の目的を達成するものであってもよい。
実行可能コードのモジュールは単一命令であっても多くの命令であってもよいし、いくつかの異なるコードセグメント、異なるプログラムおよびいくつかの記憶装置に分散されていてもよい。同様に、オペレーショナルデータは、本明細書に記載されているように、モジュール内で識別され、適切な形式で組み込まれ、適切なタイプのデータ構造内にオーガナイズされているものであってよい。オペレーショナルデータは、単一のデータセットとして集められていても、異なる場所(異なる記憶装置を含む)に分散されていてもよいし、少なくとも部分的には、単にシステムまたはネットワーク上の電子信号として存在していてもよい。モジュールは、目的の機能を実行するのに操作可能なエージェントを含め、能動的なものであっても受動的なものであってもよい。
上述の例は1若しくはそれ以上の特定のアプリケーションについて本発明の原理を説明したものであり、発明の才を実行することなしに、並びに本発明の原理および概念から逸脱することなしに、形式、使用および実行の詳細に関して数多くの変更が可能であることは、当業者には明白である。従って、以下の特許請求の範囲によるものを除き、本発明は限定的に解釈されるべきではない。

Claims (27)

  1. 2つの物理的場所間におけるビデオ対話のためのシステムであって、
    所定の物理的場所にある第一の部屋のビデオフィードを生成するように構成された複数のビデオカメラと、
    第二の部屋に配置された複数の動作検出カメラであって、該第二の部屋に配置されたマーカーの動作を検出し、該マーカーの座標を提供するものである、前記動作検出カメラと、
    前記第一の部屋のビデオフィードを表示するビデオディスプレイを含むヘッドマウントディスプレイと、
    前記複数のビデオカメラからの複数のビデオフィードを受け取り、且つ前記複数の動作検出カメラからのマーカーの座標を受け取るように構成されたコンピューティング装置であって、プロセッサと、前記プロセッサによって実行されると、前記プロセッサに実行を行わせる命令を含む記憶装置とを有するものである、前記コンピューティング装置と、
    前記複数の動作検出カメラに関連付けられた追跡モジュールであって、前記複数の動作検出カメラにより提供された前記マーカーの座標を用いて、前記第二の部屋におけるマーカーの位置を決定し、前記第一の部屋における前記マーカーの相対位置を決定するように構成されているものである、前記追跡モジュールと、
    前記第二の部屋におけるマーカーの相対位置に相関する、前記第一の部屋の複数のビデオカメラのうち1のビデオカメラからのビデオフィードを特定し、前記ビデオフィードを前記ヘッドマウントディスプレイに提供するように構成されたビデオモジュールと
    を有するシステム。
  2. 請求項1記載のシステムにおいて、前記ビデオモジュールは、さらに、
    前記第二の部屋におけるマーカーの相対位置に相関する、前記第一の部屋のビデオカメラからの少なくとも2つのビデオフィードを特定し、前記少なくとも2つのビデオフィードを補間して前記第二の部屋のマーカーの視点から見た前記第一の部屋の仮想現実映像(virtual reality view)をレンダリングするものである、システム。
  3. 請求項1記載のシステムにおいて、前記ヘッドマウントディスプレイは、さらに、
    ユーザーにヘッドアップディスプレイ(HUD)を提供する透明なディスプレイに前記ビデオフィードを組み入れるディスプレイを有するもである、システム。
  4. 請求項1記載のシステムにおいて、前記ヘッドマウントディスプレイは、さらに、
    右ビデオディスプレイと左ビデオディスプレイとを含むヘッドマウント立体ディスプレイを有し、第一のビデオフィードおよび第二のビデオフィードからリアルタイムに近い立体ビデオ像を生成するものである、システム。
  5. 請求項4記載のシステムにおいて、前記右ビデオディスプレイおよび左ビデオディスプレイは、ユーザーの目の前方に位置する、ヘッドマウントディスプレイの下方部分に配置されて分割表示を提供するものであり、下を向いた場合、前記第一の部屋が可視状態となり、正面を見ているときは、前記第二の部屋が可視状態となるものである、システム。
  6. 請求項1記載のシステムにおいて、ビデオカメラは、空間的に互いに瞳孔距離だけ離間しているものである、システム。
  7. 請求項1記載のシステムにおいて、前記ビデオモジュールは、さらに、
    空間的に互いに瞳孔距離だけ離間している少なくとも2つのカメラフィードを特定するものである、システム。
  8. 請求項1記載のシステムにおいて、前記マーカーは前記ヘッドマウントディスプレイと一体型になっているものである、システム。
  9. 請求項1記載のシステムにおいて、さらに、
    前記第一の部屋から音声フィードを生成するように構成されたマイクロフォンを有するものである、システム。
  10. 請求項7記載のシステムにおいて、マイクロフォンはビデオカメラに関連付けられているものである、システム。
  11. 請求項7記載のシステムにおいて、さらに、
    前記第一の部屋のマイクロフォンからの音声フィードを特定し、前記音声フィードをスピーカーに提供するように構成された音声モジュールを有するものである、システム。
  12. 請求項11記載のシステムにおいて、前記スピーカーは前記ヘッドマウントディスプレイと一体型になっているものである、システム。
  13. 請求項1記載のシステムにおいて、前記複数のビデオカメラは、前記第一の部屋の周囲に均等に配置されているものである、システム。
  14. 請求項1記載のシステムにおいて、前記複数のビデオカメラは、ビデオカメラのアレイである、システム。
  15. 複数の物理的場所間においてビデオ対話を行う方法であって、実行可能な命令を有して構成された1若しくはそれ以上のコンピューターシステムの制御下で、
    所定の物理的場所にある第一の部屋に配置された複数のビデオカメラから複数のビデオフィードを受け取る工程であって、前記複数のビデオカメラは前記第一の部屋全体に離間して配置されるものである、前記複数のビデオフィードを受け取る工程と、
    所定の物理的場所にある第二の部屋に配置されたマーカーの位置座標を受け取る工程であって、前記位置座標は前記第二の部屋における前記マーカーの相対位置を提供するものである、前記位置座標を受け取る工程と、
    前記複数のビデオフィードから前記第二の部屋における前記マーカーの前記相対位置と相関するビデオフィードを特定する工程と、
    前記第二の部屋に配置されたマーカーと関連付けられたヘッドマウントディスプレイに前記ビデオフィードを提供する工程であって、前記ヘッドマウントディスプレイは、前記第二の部屋に配置されたマーカーの位置に対応する前記第一の部屋の映像を提供するものである、前記ビデオフィードを提供する工程と
    を有する方法。
  16. 請求項15記載の方法において、さらに、
    前記複数のビデオフィードから、前記第二の部屋における前記マーカーの相対位置と相関する少なくとも2つのビデオフィードを特定する工程と、
    前記少なくとも2つのビデオフィードを補間して前記マーカーの視点から見た前記第一の部屋の仮想現実映像をレンダリングする工程と
    を有するものである、方法。
  17. 請求項15記載の方法において、前記マーカーの位置座標は、前記第二の部屋の周囲に配置された複数の動作検出カメラにより提供されるものである、方法。
  18. 請求項15記載の方法において、前記マーカーの位置座標は、さらに、
    動作検出カメラからx、yおよびz軸の距離を有するものである、方法。
  19. 請求項15記載の方法において、前記複数のビデオカメラは、前記第一の部屋の周囲内の様々な高さに配置されるものである、方法。
  20. 請求項15記載の方法において、前記マーカーは、動作検出カメラに可視となる少なくとも1つの発光ダイオード(LED)を含む能動マーカーである、方法。
  21. 請求項15記載の方法において、前記マーカーは、光源により照射されると前記マーカーを動作検出カメラに対して可視状態にする再帰反射材でコーティングされている受動マーカーである、方法。
  22. 請求項15記載の方法において、前記マーカーは、さらに、
    ユーザーである人に取り付けられているマーカーを有するものである、方法。
  23. 請求項15記載の方法において、前記マーカーは、前記ヘッドマウントディスプレイ上に配置されるものである、方法。
  24. 請求項15記載の方法において、さらに、
    前記第一の部屋に配置されたマイクロフォンから音声フィードを受け取る工程と、
    前記音声フィードを前記第二の部屋のスピーカーに提供する工程と
    を有するものである、方法。
  25. 2つの物理的部屋間において対話を行う方法であって、実行可能な命令を有して構成された1若しくはそれ以上のコンピューターシステムの制御下で、
    第一の部屋に配置された第一の複数ビデオカメラおよび第二の部屋に配置された第二の複数ビデオカメラからビデオフィードを受け取る工程と、
    前記第一の部屋に配置された第一のマーカーおよび前記第二の部屋に配置された第二のマーカーの位置座標を受け取る工程であって、1のマーカーの座標は、1の部屋における該マーカーの相対位置を提供するものである、前記位置座標を受け取る工程と、
    前記第一のマーカーの相対位置に相関する前記第二の部屋からの少なくとも2つのビデオフィードを決定し、該2つのビデオフィードを補間して前記第一のマーカーの視点から見た前記第二の部屋の仮想現実映像をレンダリングし、前記第一のマーカーを含むヘッドマウントディスプレイに前記仮想現実映像を提供する工程と、
    前記第二のマーカーの相対位置に相関する前記第一の部屋からの少なくとも2つのビデオフィードを決定し、前記2つのビデオフィードを補間して前記第二のマーカーの視点から見た前記第一の部屋の仮想現実映像をレンダリングし、前記第二のマーカーを含むヘッドマウントディスプレイに前記仮想現実映像を提供する工程と
    を有する方法。
  26. 請求項25記載の方法において、さらに、
    マーカーが第一の会議室の空間内を移動している場合に、前記第一の会議室内における該マーカーの相対位置に最も相関する少なくとも2つのビデオフィードを決定する工程を有するものである、方法。
  27. 請求項25記載の方法において、さらに、
    ビデオフィードを終了させ、新しいビデオフィードを提供して、1つのビデオフィードから別のビデオフィードへの移行が前記ヘッドマウントディスプレイのユーザーにシームレスに見える速度で補間処理する工程を有するものである、方法。
JP2016534118A 2013-11-27 2014-11-24 物理的場所間のビデオ対話 Pending JP2017511615A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201361909636P 2013-11-27 2013-11-27
US61/909,636 2013-11-27
PCT/US2014/067181 WO2015081029A1 (en) 2013-11-27 2014-11-24 Video interaction between physical locations

Publications (1)

Publication Number Publication Date
JP2017511615A true JP2017511615A (ja) 2017-04-20

Family

ID=53199583

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016534118A Pending JP2017511615A (ja) 2013-11-27 2014-11-24 物理的場所間のビデオ対話

Country Status (6)

Country Link
US (1) US20160269685A1 (ja)
EP (1) EP3075146A4 (ja)
JP (1) JP2017511615A (ja)
KR (1) KR20160091316A (ja)
CN (1) CN105765971A (ja)
WO (1) WO2015081029A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019186921A (ja) * 2018-03-30 2019-10-24 株式会社リコー Vrシステム、通信方法、及びプログラム
JP2020527883A (ja) * 2017-09-14 2020-09-10 中興通訊股▲ふん▼有限公司Zte Corporation ビデオ処理方法、装置および記憶媒体

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10198865B2 (en) 2014-07-10 2019-02-05 Seiko Epson Corporation HMD calibration with direct geometric modeling
JP6128468B2 (ja) * 2015-01-08 2017-05-17 パナソニックIpマネジメント株式会社 人物追尾システム及び人物追尾方法
US10192133B2 (en) 2015-06-22 2019-01-29 Seiko Epson Corporation Marker, method of detecting position and pose of marker, and computer program
US10192361B2 (en) 2015-07-06 2019-01-29 Seiko Epson Corporation Head-mounted display device and computer program
JP2017098592A (ja) * 2015-11-18 2017-06-01 富士通株式会社 コミュニケーション支援システム、サーバ装置及びプログラム
US10424117B2 (en) * 2015-12-02 2019-09-24 Seiko Epson Corporation Controlling a display of a head-mounted display device
CN106326930A (zh) * 2016-08-24 2017-01-11 王忠民 一种确定虚拟现实中被跟踪物体位置的方法、装置及系统
WO2018075076A1 (en) 2016-10-21 2018-04-26 Hewlett-Packard Development Company, L.P. Wireless head-mounted device
US10505630B2 (en) * 2016-11-14 2019-12-10 Current Lighting Solutions, Llc Determining position via multiple cameras and VLC technology
WO2018155670A1 (ja) * 2017-02-27 2018-08-30 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 画像配信方法、画像表示方法、画像配信装置及び画像表示装置
US11087527B2 (en) * 2017-12-01 2021-08-10 Koninklijke Kpn N.V. Selecting an omnidirectional image for display
JP7253440B2 (ja) * 2019-05-09 2023-04-06 東芝テック株式会社 追跡装置及び情報処理プログラム
JP7253441B2 (ja) 2019-05-09 2023-04-06 東芝テック株式会社 追跡装置及び情報処理プログラム
WO2024010972A1 (en) * 2022-07-08 2024-01-11 Quantum Interface, Llc Apparatuses, systems, and interfaces for a 360 environment including overlaid panels and hot spots and methods for implementing and using same

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6774869B2 (en) * 2000-12-22 2004-08-10 Board Of Trustees Operating Michigan State University Teleportal face-to-face system
US6583808B2 (en) * 2001-10-04 2003-06-24 National Research Council Of Canada Method and system for stereo videoconferencing
US20080239080A1 (en) * 2007-03-26 2008-10-02 Moscato Jonathan D Head-mounted rear vision system
WO2009012413A1 (en) * 2007-07-17 2009-01-22 Carnegie Mellon University Multiple resolution video network with eye tracking based control
US8477175B2 (en) * 2009-03-09 2013-07-02 Cisco Technology, Inc. System and method for providing three dimensional imaging in a network environment
WO2011121916A1 (ja) * 2010-03-29 2011-10-06 パナソニック株式会社 映像処理装置
US8493206B2 (en) * 2010-07-30 2013-07-23 Gravity Jack, Inc. Augmented reality and location determination methods and apparatus
AU2011336647B2 (en) * 2010-12-02 2015-02-12 Ultradent Products, Inc. System and method of viewing and tracking stereoscopic video images
AU2011205223C1 (en) * 2011-08-09 2013-03-28 Microsoft Technology Licensing, Llc Physical interaction with virtual objects for DRM
US9077846B2 (en) * 2012-02-06 2015-07-07 Microsoft Technology Licensing, Llc Integrated interactive space
US9110503B2 (en) * 2012-11-30 2015-08-18 WorldViz LLC Precision position tracking device

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020527883A (ja) * 2017-09-14 2020-09-10 中興通訊股▲ふん▼有限公司Zte Corporation ビデオ処理方法、装置および記憶媒体
JP7111288B2 (ja) 2017-09-14 2022-08-02 中興通訊股▲ふん▼有限公司 ビデオ処理方法、装置および記憶媒体
US11582506B2 (en) 2017-09-14 2023-02-14 Zte Corporation Video processing method and apparatus, and storage medium
JP2019186921A (ja) * 2018-03-30 2019-10-24 株式会社リコー Vrシステム、通信方法、及びプログラム
JP7331405B2 (ja) 2018-03-30 2023-08-23 株式会社リコー Vrシステム、通信方法、及びプログラム

Also Published As

Publication number Publication date
EP3075146A4 (en) 2017-07-19
WO2015081029A1 (en) 2015-06-04
KR20160091316A (ko) 2016-08-02
CN105765971A (zh) 2016-07-13
EP3075146A1 (en) 2016-10-05
US20160269685A1 (en) 2016-09-15

Similar Documents

Publication Publication Date Title
JP2017511615A (ja) 物理的場所間のビデオ対話
US20230245395A1 (en) Re-creation of virtual environment through a video call
US11800059B2 (en) Environment for remote communication
US9330589B2 (en) Systems for facilitating virtual presence
CN105306868B (zh) 视频会议系统及方法
JP2020507221A (ja) Hmdを用いたビデオ会議の改良された方法およびシステム
WO2017094543A1 (ja) 情報処理装置、情報処理システム、情報処理装置の制御方法、及び、パラメーターの設定方法
KR20150099402A (ko) 증강된 가상 현실을 사용하는, 원격 참여자들 간의 개선된 통신
US20220109822A1 (en) Multi-sensor camera systems, devices, and methods for providing image pan, tilt, and zoom functionality
CN104168315B (zh) 一种全视角平滑的沉浸式显示方法和系统
Noh et al. An HMD-based Mixed Reality System for Avatar-Mediated Remote Collaboration with Bare-hand Interaction.
EP3465631B1 (en) Capturing and rendering information involving a virtual environment
US20230179756A1 (en) Information processing device, information processing method, and program
US11810219B2 (en) Multi-user and multi-surrogate virtual encounters
US11727645B2 (en) Device and method for sharing an immersion in a virtual environment
US20210065435A1 (en) Data processing
CN108427195A (zh) 一种基于增强现实的信息处理方法及设备
Katayama et al. Sharing the Positional Relationship with the Bidirectional Telepresence Robots
US20230164304A1 (en) Communication terminal device, communication method, and software program
US10469803B2 (en) System and method for producing three-dimensional images from a live video production that appear to project forward of or vertically above an electronic display
JP2013110630A (ja) 会話映像表示システム
Wittkämper et al. A distributed system for augmented reality experiences in science centers and museums
WO2022242856A1 (en) Communication devices, adapting entity and methods for augmented/mixed reality communication
WO2018187655A1 (en) System and method for producing three-dimensional images from a live video production that appear to project forward of or vertically above an electronic display
Yoshida et al. A remote multi-sites communication system providing gaze control by body movement