JP2020507221A - Hmdを用いたビデオ会議の改良された方法およびシステム - Google Patents

Hmdを用いたビデオ会議の改良された方法およびシステム Download PDF

Info

Publication number
JP2020507221A
JP2020507221A JP2019514013A JP2019514013A JP2020507221A JP 2020507221 A JP2020507221 A JP 2020507221A JP 2019514013 A JP2019514013 A JP 2019514013A JP 2019514013 A JP2019514013 A JP 2019514013A JP 2020507221 A JP2020507221 A JP 2020507221A
Authority
JP
Japan
Prior art keywords
data
person
image data
processed
video data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2019514013A
Other languages
English (en)
Inventor
バルバロス キリスケン,
バルバロス キリスケン,
Original Assignee
ベステル エレクトロニク サナイー ベ ティカレト エー.エス.
ベステル エレクトロニク サナイー ベ ティカレト エー.エス.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ベステル エレクトロニク サナイー ベ ティカレト エー.エス., ベステル エレクトロニク サナイー ベ ティカレト エー.エス. filed Critical ベステル エレクトロニク サナイー ベ ティカレト エー.エス.
Publication of JP2020507221A publication Critical patent/JP2020507221A/ja
Withdrawn legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/15Conference systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/142Constructional details of the terminal equipment, e.g. arrangements of the camera and the display
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/147Communication arrangements, e.g. identifying the communication as a video-communication, intermediate storage of the signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Telephonic Communication Services (AREA)

Abstract

本発明は、ビデオ会議セッション中にビデオデータを修正する方法に関する。本方法は、少なくとも、少なくとも視覚入力を取り込むための第1カメラユニット(103X)と、第1ヘッドマウントディスプレイ(102)と、を含む第1端末(100A)を提供し、少なくとも視覚入力を出力するための第2端末(100B)を提供し、サーバ手段(105)を提供し、前記第1端末(100A)および前記第2端末(100B)は、データ交換のために前記サーバ手段(105)を介して接続され、前記第1カメラユニット(103X)を用いて、第1の人(101)の頭部の第1基本画像データまたは第1基本ビデオデータを提供し、または取り込み、前記第1の人(101)が前記ヘッドマウントディスプレイ(102)を装着している間に、前記第1カメラユニットを用いて、前記第1の人(101)の前記頭部の第1処理画像データまたは第1処理ビデオデータを取り込み、前記第1ヘッドマウントディスプレイ(102)の外観を表す前記第1の処理画像データまたは第1の処理ビデオデータの第1処理データセクションを判定し、前記第1処理画像データまたは第1処理ビデオデータの前記第1処理データセクションを第1基本データセクションで置き換えることによって、第1の組の修正画像データまたは修正ビデオデータを生成し、前記第1基本データセクションは、前記第1基本画像データまたは第1の基本ビデオデータの一部であり、前記人の前記顔の一部、特に、前記第1の人(101)の目を表している、ステップを含む方法。【選択図】図4

Description

本発明は、請求項1に記載のビデオ会議セッション中にビデオデータを修正する方法、請求項14に記載のそのような方法を実行するためのコンピュータプログラム製品、および請求項15に記載のビデオ会議セッションのためのシステムに関する。
本発明の技術分野はビデオ会議システムに関する。そのようなビデオ会議システムは、データ接続、特にインターネット接続を通じて、コンピュータ、ラップトップまたはスマートフォンのような個別の端末を介した視覚的通信を可能にする。いくつかのビデオ会議システムでは、ヘッドマウントディスプレイ(HMD)が使用される。そのようなHMDは、仮想現実(VR)および/または拡張現実(AR)および/または複合現実(MR)を可能にする。
ビデオ会議以外に、仮想会議室、仮想空間、ロールプレイングゲームおよび仮想環境一般もHMDで行われ、HMDは、ユーザの実際の顔が見られない場合にも、そのような用途では困るものであり、厄介なものである。
文献US6806898B1は、各参加者がカメラおよびディスプレイを有するビデオ会議環境において、視線および頭部姿勢を自動的に調整するためのシステムおよび方法を開示する。参加者の画像は仮想3D空間にレンダリングされる。3D空間の参加者の画像が、画面上で見ている人に見られるように現れるようにするため、頭部姿勢の向きおよび視線の方向が修正される。参加者が視聴者を見ている場合、彼らの視線は「カメラ」の方に設定され、これはアイコンタクトの知覚を与える。
文献US20080252637は仮想現実ベースのビデオ会議を開示する。
文献US20110202306は調整可能な仮想現実システムを開示する。
HDMの大きなサイズのため、会議中の他の人々は、前記HDMを着用している人の顔のごく一部が見えるだけなので、ヘッドマウントディスプレイを用いたビデオ会議では邪魔になることがある。
したがって、本発明の目的は、ビデオ会議セッション中のユーザの快適さを改善するビデオ会議のための方法およびビデオ会議システムを提供することである。
上述の目的は、請求項1に記載のビデオ会議セッション中にビデオデータを修正する方法によって解決される。本発明の方法は、少なくとも、少なくとも視覚入力を取り込むための第1カメラユニットおよび第1ヘッドマウントディスプレイを含む第1端末を提供するステップと、少なくとも視覚入力を出力するための第2端末を提供するステップと、サーバ手段または通信手段または転送媒体を提供するステップと、前記第1端末および前記第2端末は、データ交換のために前記転送媒体、特にサーバ手段を介して接続され、第1カメラユニットを用いて、第1の人の頭部の第1基本画像データまたは第1基本ビデオデータを提供し、または取り込むステップと、前記第1の人がヘッドマウントディスプレイを装着している間に、第1カメラユニットを用いて、前記第1の人の頭部の第1処理画像データまたは第1処理ビデオデータを取り込むステップと、第1ヘッドマウントディスプレイの外観を表す第1処理画像データまたは第1処理ビデオデータの第1処理データセクションを判定するステップと、第1処理画像データまたは第1処理ビデオデータの第1処理データセクションを第1基本データセクションで置き換えることによって、第1の組の修正画像データまたは修正ビデオデータを生成するステップと、第1基本データセクションは、第1基本画像データまたは第1の基本ビデオデータの一部であり、前記人の前記顔の一部、特に、前記第1の人の前記目を表しており、特に少なくとも1つのさらなる端末、特に少なくとも第2端末を介して、特に前記人の顔全体を表す第1修正画像データまたは第1修正ビデオデータを出力することを含む。
したがって、本発明は、1人、2人または複数のユーザが仮想現実グラス(VR)または拡張現実眼鏡(AR)などのヘッドマウントディスプレイ(HMD)を装着しながら、好ましくはフルフェイスのビデオ会議を提供する方法を開示する。HMD/VR/AR装置を使用する1人、2人または複数の参加者の場合、ユーザの顔のかなりの部分、特に目はHMD/VR/AR装置で覆われているため、他のユーザは顔を完全には見ることができず、ビデオ会議はどことなく無意味である。新規な方法では、ユーザのそれぞれ1つまたは複数の事前に記録された顔の姿勢をリアルタイムビデオに重ね合わせ(スーパーインポーズ)、遠隔地に転送されて、何の障害もなくフルフェイスでのビデオ会議を確立する。
さらなる好ましい実施形態が、従属請求項および/または以下の明細書部分の主題である。
本発明の好ましい実施形態によれば、第2端末は第2カメラと第2ヘッドマウントディスプレイを含む。本発明は、さらに、第2カメラユニットを用いて、第2の人の頭部の第2基本画像データまたは第2基本ビデオデータを提供し、または取り込むステップと、前記第2の人が前記第2ヘッドマウントディスプレイを装着している間に、第2カメラユニットを用いて、前記第2の人の頭部の第2処理画像データまたは第2処理ビデオデータを取り込むステップと、第2ヘッドマウントディスプレイの外観を表す第2処理画像データまたは第2処理ビデオデータの第2処理データセクションを判定するステップと、第2処理画像データまたは第2処理ビデオデータの第2処理データセクションを第2基本データセクションで置き換えることによって、第2の組の修正画像データまたは修正ビデオデータをそれぞれ生成し、形成するステップと、第2基本データセクションは、第2基本画像データまたは第2の基本ビデオデータの一部であり、前記第2の人の前記顔の一部、特に、前記第2の人の目を表しており、特に、第1端末(100A)を介して第2修正画像データまたは第2修正ビデオデータを出力するステップによって特徴づけられる。1つだけでなく、または少なくとも1つだけでないHDMがビデオ会議方法に統合されているので、本実施形態は有益である。したがって、2人または少なくとも2人の人又はユーザが、HMDを装着しながら本発明のビデオ会議方法を使用することができる。
前記第1修正画像データまたは第1修正ビデオデータおよび/または第2修正画像データまたは第2修正ビデオデータは、本発明のさらなる好ましい実施形態によれば、前記サーバに接続された少なくとも1つの端末を介して出力される。必ずしもすべての端末がHMDを有する必要がないので、本実施形態は有益である。したがって、、HMDを装着している、または装着していない人またはユーザは、同じように対話することができ、特に各ユーザの顔、特にフルフェイサーまたはHDMなしでのそれぞれの人が、1つ、2つ、または少なくとも1つまたは少なくと2つまたは複数の端末上に表示される。
端末は、画面を有する、もしくは表面上または空間内に視覚画像を投影するあらゆる装置として理解することができる。したがって、端末は、好ましくは、ラップトップ、タブレットPC、デスクトップPC、スマートフォン、TVなどである。端末とHMDは1つの装置であることもさらに考えられる。
さらなる端末は、本発明のさらなる好ましい実施形態によれば、さらなるカメラユニットおよびさらなるヘッドマウントディスプレイを含む。本発明は、さらに、さらなるカメラユニットを用いて、さらなる人の頭部のさらなる基本画像データまたはさらなる基本ビデオデータを提供し、または取り込むステップと、前記さらなる人がさらなるヘッドマウントディスプレイを装着している間に、さらなるカメラユニットを用いて、前記さらなる人の頭部の第2処理画像データまたは第2処理ビデオデータを取り込むステップと、さらなるヘッドマウントディスプレイの外観を表すさらなる処理画像データまたはさらなる処理ビデオデータのさらなる処理データセクションを判定するステップと、さらなる処理画像データまたはさらなる処理ビデオデータの前記さらなる処理データセクションをさらなる基本データセクションで置き換えることによって、さらなる組の修正画像データまたは修正ビデオデータを形成するステップと、さらなる基本データセクションは、さらなる基本画像データまたはさらなる基本ビデオデータの一部であり、前記さらなる人の前記顔の一部、特に、前記さらなる人の目を表しており、第1端末を介し、および/または第2端末および/または任意のさらなる端末を介し、特に、同時に、さらなる修正画像データまたはさらなる修正ビデオデータを出力するステップによって特徴づけられる。本実施形態は、複数のユーザ又は人、特に2人以上、3人以上、4人以上、又は4人を超える人がそれぞれHMDを使用することができるので有益である。異なる種類のHMD、特にVRおよびAR装置が、同じビデオ会議セッションで利用されることも考えられる。したがって、処理画像データまたは処理ビデオデータによって表される各HMDは、前記それぞれのHMDを使用するユーザの顔部分、特に目を表すデータと置き換えることができる。
第1、第2および/またはさらなる基本ビデオデータもしくは第1、第2および/またはさらなる基本画像データは、本発明の好ましい実施形態によれば、それぞれの端末のメモリおよび/またはサーバ手段に記憶される。第1、第2および/またはさらなる基本ビデオデータもしくは第1、第2および/またはさらなる基本画像データが一度取り込まれ、第1、第2および/またはさらなる修正ビデオデータもしくは第1、第2および/またはさらなる修正画像データが必要とされる場合に処理される。あるいは、前記第1、第2および/または第3の人(101、111、114)がビデオ会議に参加するたびに、第1、第2および/またはさらなる基本ビデオデータもしくは第1、第2および/またはさらなる基本画像データが取り込まれ、第1、第2および/またはさらなる修正ビデオデータもしくは第1、第2および/またはさらなる修正画像データが必要とされる場合に、第1、第2および/またはさらなる基本ビデオデータもしくは第1、第2および/またはさらなる基本画像データが更新され、または置換され、および処理される。
少なくとも1つの端末および好ましくは大多数の端末、またはすべての端末は、本発明のさらなる好ましい実施形態によれば、音声データを取り込み、および/または出力するための手段を含み、1つの端末によって取り込まれた前記取り込まれた音声データは、1つまたは複数のさらなる端末に少なくとも転送される。そのような手段は、例えば、マイクロフォンである。音声取り込み手段は、HDMに配置することができ、または端末の一部とすることができる。
第1の人の顔に対する第1ヘッドマウントディスプレイの位置は、本発明のさらなる好ましい実施形態によれば、物体認識によって決定される。第1ヘッドマウントディスプレイの形状は、視覚的又は電子的に提供される物体認識および/または識別データによって決定されることが好ましい。第1ヘッドマウンドディスプレイと第1端末との間のデータ接続により、電子的識別データが提供される。第2の人の顔に対する第2ヘッドマウントディスプレイの位置は、本発明のさらなる好ましい実施形態によれば、物体認識によって決定される。第2ヘッドマウントディスプレイの形状は、視覚的又は電子的に提供される物体認識および/または識別データによって決定されることが好ましい。第2ヘッドマウンドディスプレイと第2端末との間のデータ接続により、電子的識別データが提供される。さらなる人の顔に対するさらなるヘッドマウントディスプレイの位置は、本発明のさらなる好ましい実施形態によれば、物体認識によって決定される。さらなるヘッドマウントディスプレイの形状は、視覚的又は電子的に提供される物体認識および/または識別データによって決定されることが好ましい。さらなるヘッドマウンドディスプレイとさらなる端末との間のデータ接続により、電子的識別データが提供される。
第1の人の顔の皮膚部分の動きを表す顔の動きデータが、本発明のさらなる好ましい実施形態によれば、生成され、皮膚部分の動きが前記第1カメラユニットによって取り込まれる。第2の人の顔の皮膚部分の動きを表す顔の動きデータが、本発明のさらなる好ましい実施形態によれば、生成され、皮膚部分の動きが前記第2カメラユニットによって取り込まれる。第3の人の顔の皮膚部分の動きを表す顔の動きデータが、本発明のさらなる好ましい実施形態によれば、生成され、皮膚部分の動きが前記第3カメラユニットによって取り込まれる。
第1の人の少なくとも1つの目の動きを表す眼球運動データが、本発明のさらなる好ましい実施形態によれば、生成され、目の動きは、視線追跡手段によって取り込まれる。第2の人の少なくとも1つの目の動きを表す眼球運動データも、生成され、目の動きは、第2視線追跡手段によって取り込まれる。さらなる人の少なくとも1つの目の動きを表す眼球運動データも、生成され、目の動きは、さらなる視線追跡手段によって取り込まれる。顔の皮膚の動きは、選択的な顔の動き検出器によって検出することができ、前記顔の動き検出器は、視線追跡手段に加えて、または代わりに設けることができる。視線追跡および顔の動きを組み合わせた検出器が提供され、特にHMDの上または内部に、もしくはHMDの一部として配置される。
第1基本データセクションは、さらなる好ましい実施形態によれば、第1の人の顔の前記取り込まれた顔の動きデータおよび/または第1の人の少なくとも1つの目の前記取り込まれた眼球運動データに応じて修正される。第2基本データセクションは、さらなる好ましい実施形態によれば、第2の人の顔の前記取り込まれた顔の動きデータおよび/または第2の人の少なくとも1つの目の前記取り込まれた眼球運動データに応じて修正される。第3基本データセクションは、さらなる好ましい実施形態によれば、第3の人の顔の前記取り込まれた顔の動きデータおよび/または第3の人の少なくとも1つの目の前記取り込まれた眼球運動データに応じて修正される。
さらなる好ましい実施形態によれば、第1基本データセクションの一部として第1の人の目の形状を表す眼球データが識別される。眼球データは、前記取り込まれた眼球運動データに応じて修正されることが好ましく、および/または第1基本データセクションの目の上および/または下の第1の人の顔の皮膚部分を表す皮膚データが識別されることが好ましい。皮膚データは、前記取り込まれた顔の動きデータに応じて修正されることが好ましい。さらなる好ましい実施形態によれば、第2基本データセクションの一部として第2の人の目の形状を表す眼球データが識別される。眼球データは、前記取り込まれた眼球運動データに応じて修正されることが好ましく、および/または第2基本データセクションの目の上および/または下の第2の人の顔の皮膚部分を表す皮膚データが識別されることが好ましい。皮膚データは、前記取り込まれた顔の動きデータに応じて修正されることが好ましい。さらなる好ましい実施形態によれば、さらなる基本データセクションの一部としてさらなる人の目の形状を表す眼球データが識別される。眼球データは、前記取り込まれた眼球運動データに応じて修正されることが好ましく、および/またはさらなる基本データセクションの目の上および/または下のさらなる人の顔の皮膚部分を表す皮膚データが識別されることが好ましい。皮膚データは、前記取り込まれた顔の動きデータに応じて修正されることが好ましい。HMDを使用するそれぞれの人の眼球運動を表す視覚データを利用して、ビデオ会議セッションおよびシステムそれぞれの使いやすさおよび/または快適さをさらに高めることができるので、本実施形態は有益である。
視線追跡手段は、好ましくはnear eye PCCRトラッカーである。前記視線追跡手段は、第1ヘッドマウントディスプレイの上または内部に、および/または第2ヘッドマウントディスプレイの上または内部に、および/またはさらなるヘッドマウントディスプレイの上または内部に配置されることが好ましい。
本発明のさらなる好ましい実施形態によれば、本発明の方法は、特にカメラユニットによって、第1の人の頭部の姿勢に関する情報を受信するステップと、物体、特に第1の人の頭部の姿勢に従って、頭部の仮想モデルと頭部の顔の視線を方向づけるステップと、ビデオ会議通信の一部からの可視ピクセルを仮想モデルに投影するステップと、空間の所望の点で顔の視線を作り出す前記頭部の合成された目を生成するステップと、作り出された顔の視線に従って仮想モデルを方向づけるステップと、ビデオ会議通信の対応する部分に仮想モデルを投影するステップと、を含み、第1の組の修正画像データまたは修正ビデオデータの少なくとも一部は、前記仮想モデルによって置き換えられる。それぞれの(第1、第2、および/またはさらなる)処理画像データまたは(第1、第2、および/またはさらなる)処理ビデオデータが、本発明の方法と本発明のシステムのそれぞれをさらに強化するために修正することができるので、本実施形態は有益である。
合成された目を作成することは、好ましくは、目のセグメンテーション情報を受信すること、および合成の目を作成するために虹彩および瞳孔情報を推定することを含む。合成された目は、さらに好ましくは、オリジナルの目を合成の目に置き換えるために、セグメンテーション情報を用いてビデオ会議通信の対応する部分に合成の目をデジタル的に描くことを含む。好ましくは、ビデオ会議通信中にリアルタイムで仮想モデルの合成された目をデジタル的に調整するステップが提供される。ビデオ会議通信は、少なくとも2人の参加者間で行うことが好ましく、インターネット、統合サービスデジタルネットワーク、または直接通信リンクのうちの少なくとも1つによって進められることが非常に好ましい。
本発明は、さらに、請求項1乃至請求項13に記載の方法を実行するためのコンピュータプログラム製品に関する。
本発明は、さらに、ビデオ会議セッションのためのシステムに関する。前記システムは、少なくとも視覚入力を取り込むための第1カメラユニットおよび第1ヘッドマウントディスプレイを含む第1端末と、少なくとも視覚入力を出力するための第2端末と、サーバ手段と、を含み、前記第1端末および前記第2端末は、データ交換のためのサーバ手段を介して接続され、第1カメラユニットを用いて、第1の人の頭部の第1基本画像データまたは第1基本ビデオデータが提供され、または取り込まれ、前記第1の人がヘッドマウントディスプレイを装着している間に、第1カメラユニットを用いて、前記第1の人の頭部の第1処理ビデオデータまたは第1処理ビデオデータが取り込まれ、第1ヘッドマウントディスプレイの外観を表す第1処理画像データまたは第1処理ビデオデータの第1処理データセクションが判定され、第1処理画像データまたは第1処理ビデオデータの第1処理データセクションを第1基本データセクションで置き換えることによって、第1の組の修正画像データまたは修正ビデオデータが形成され、第1基本データセクションは、第1基本画像データまたは第1基本ビデオデータの一部であり、前記人の顔の一部、特に、前記人の目を表しており、特に前記人の顔全体を表す第1修正データまたは第1修正ビデオデータが第2端末を介して出力されることを含むことが好ましい。
本発明のさらなる利点、目的および特徴は、本発明の例示的な構成要素が例示されている添付の図面の以下の明細書によって説明される。少なくとも本質的にそれらの機能に関して適合する本発明に係るシステムおよび方法の構成要素は、同じ参照符号を付すことができ、そのような構成要素は、前記図面に関して何度も付したり説明したりする必要はない。
以下では、添付の図面に関して本発明を例示的に説明する。
HMDが使用される技術状態のビデオ会議セッションの概略図を示す。 HMDも使用される本発明に係るビデオ会議セッションの第1の概略図を示す。 HMDも使用される本発明に係るビデオ会議セッションの第2の概略図を示す。 人間の顔の形状の一部を表すピクセルによるHMDを表すピクセルの置き換えを概略的に示す。 本発明のビデオ会議セッション中に使用することができるいくつかのHMDを示す。 使用中のHMDの形状を検出するために使用中のHMDを識別するためのいくつかの可能性をそれぞれ示す。 概略的に示されたHMDの正面図および側面図を示し、ここに示されたHMDは視線追跡手段を含む。 顔の動きの追跡中のシーンを概略的に示し、ここでは、顔の動きの追跡がマーカーの有無にかかわらず実行することができる。 システム起動フローチャートの一例を示す。 画像処理中のステップを表すフローチャートの一例を概略的に示す。 複数のユーザとのビデオ会議を概略的に示す。 例示的な場合における仮想環境、仮想会議室に接続された複数のユーザを示す。
図1は従来技術の設定を示す。ここには、第1ユーザの頭部の正面図101Aと、第1ユーザ101の頭部の側面図(横顔)101Bとが示されている。第1ユーザ101は、HMD102を装着している。前記HMD102(例示的な場合ではVRガラス)は、正面図102Aおよび側面図102Bに示されている。第1ユーザ101の頭部は、第1カメラユニット103Xによって取り込まれる。第1カメラユニット103Xは、ビデオ会議中に利用可能なカメラユニットである。第1カメラユニット103Xは、例示的な場合では、好ましくは外部に配置されるが、他の任意の選択肢も可能である。
参照符号103Yは第2カメラユニットを示す。第2カメラユニット103Yによって第2ユーザ111の頭部が取り込まれる。第2カメラユニット103Yは、ビデオ会議中に利用可能なカメラユニットである。 第2カメラユニット103Yは、例示的なケースでは、好ましくは外部に配置されるが、他の任意の選択肢も可能である。本発明のビデオ会議セッション中に第2ユーザ111がHMDを使用または着用することも考えられる。
参照番号103Zはさらなるカメラユニットを示す。さらなるユーザ114の頭部は、さらなるカメラユニット103Zによって取り込まれる。さらなるカメラユニット103Zは、ビデオ会議セッション中に利用可能なカメラユニットである。さらなるカメラユニット103Zは、例示的な場合では、好ましくは外部に配置されるが、他の任意の選択肢も可能である。
参照番号Aは、第1ユーザ101と第2ユーザ111がビデオ会議システムを介して通信している場合を示す。この場合、第1ユーザ101のみがHMDを装着し、第2ユーザ111は画面のようなHMDとは異なる光学出力手段を利用する。この場合、第1カメラ103Xおよび第2のカメラ103Yによって取り込まれたデータは、ビデオ会議用の任意の転送媒体105を介して他の参加者に転送される。例示的な場合では、転送媒体105は、好ましくはサーバユニット、特にインターネットである。さらに、第1ユーザ101側の第1ユーザ端末100Aから第2ユーザ111側の第2ユーザ端末100Bに経路104を介して音声データおよびビデオデータを送信すること、およびその逆も可能である。そのため、第1カメラユニット103Xで取り込まれたビデオデータは、画面109を介して第2ユーザ111に出力される。したがって、第2ユーザ111は、HMD110を装着している第1ユーザを認識する。
参照番号Bは、第1ユーザ101とさらなるユーザ114がビデオ会議システムを介して通信している場合を示す。この場合、第1ユーザ101とさらなるユーザ114の両方が、それぞれHMDを着用して使用している。この場合、第1カメラ103Xおよびさらなるカメラ103Zによって取り込まれたデータは、ビデオ会議用の任意の転送媒体105を介して他の参加者に転送される。例示的な場合では、転送媒体105は、好ましくはサーバユニット、特にインターネットである。第1ユーザ101側の第1ユーザ端末100Aからさらなるユーザ114側のさらなるユーザ端末100Cに経路104を介して音声データおよびビデオデータを送ること、さらにその逆も可能である。したがって、第1カメラユニット103Xによって取り込まれたビデオデータは、HMD112を介して第2ユーザ111に出力される。第1カメラユニット103Aによって取り込まれたビデオデータは、HMD112の右画面およびHMD112の左画面を介して出力されることが好ましい。したがって、第2ユーザ111は、HMD110を装着している第1ユーザを認識するが、これは、それぞれHMD112の右画面112AおよびそれぞれHMDの左画面112Bに何の変更もなく、第1ユーザ101のビデオが113Aおよび113Bに転送されることを意味する。
したがって、図1は、本発明がオフの状態でもある従来技術の間に起ったことを簡単に説明したものであるが、ユーザがHMD(図ではVRグラス)にアイコンタクトも対面通信も有しないため、顔全体の画像の転送が不可能である。これは、ビデオ会議の参加者を非常に煩わせるものである。
図2は、本発明の方法およびシステムの第1の概略図を示す。参照番号201は、顔の動きの取り込みための、特にベクトル、ラスタ、画像および/またはビデオのいずれかの方法で取り込まれた、第1ユーザ101の記録された頭部データを示す。記録された頭部データ201は、HMDを表すデータを含まないことが好ましく、したがって頭部、特に顔、特に顔の形状、特に口の上および額の下、特に顔の目の領域を表すデータを含むことが好ましい。第1ユーザ101の記録された頭部データ201は、コンピューティングシステムまたはユニット、特にサーバおよび/または第1端末100Aもしくは第2端末100B、または任意のさらなる端末100Cに転送することができる。コンピューティングシステムまたはユニットは、第1カメラユニット103Xによって取り込まれたデータを記録されたデータ201で修正する。ここでの修正することとは、好ましくは、特にリアルタイムで、結合すること、置き換えること、重ね合わせることを意味する。したがって、ビデオまたは写真が第2ユーザ111に出力されるが、前記ビデオまたは写真は、第1カメラユニット103Xによって取り込まれたビデオまたは写真とは異なる。出力されたそれぞれの視聴画像は、特にカメラ103Xによって取り込まれたデータと記録された頭部のデータ201とを組み合わせることによって人工的に生成されることが好ましい。したがって、参照番号202はHMDを使用していても第1ユーザ101の顔全体を転送する画像データを表す。
ケースBでも、さらなるユーザ114が目、特に第1の人101の顔全体を見る。
したがって、参照番号203Aは、第1ユーザ101が、HMD、特にVRグラスの右表示にHMDを使用していても、その第1ユーザ101の正面図を転送する画像データを表す。したがって、参照番号203Bは、第1ユーザ101が、HMD、特にVRグラスの右表示にHMDを使用していても、第1ユーザ101の顔全体を転送する画像データを表す。
したがって、本発明は、ビデオ会議セッション中にビデオデータを修正するための方法、または高度なビデオ会議セッションを提供するための方法を開示する。第1端末100Aが提供され使用され、第1端末100Aはラップトップ、デスクトップ、携帯電話、タブレットPC、TVなどであり得る。前記端末100Aは、好ましくは、少なくとも視覚的入力を取り込むための第1カメラユニット103Xを含み、さらに第1ヘッドマウントディスプレイ102をさらに含む。さらに、少なくとも視覚入力を出力するために、第2端末100Bが設けられ、使用される。好ましくは、データ転送手段、特にサーバ手段106が設けられ、前記第1端末100Aおよび前記第2端末100Bは、サーバ手段106を介してそれぞれデータ交換のためのデータ転送手段に接続される。第1の人101の頭部の第1の基本画像データまたは第1の基本ビデオデータ201は、好ましくは、第1カメラユニット103Xによって提供または取り込まれる。前記第1の人101が第1ヘッドマウントディスプレイ102を装着している間の前記第1の人101の頭部の第1の処理画像データまたは第1の処理ビデオデータは、第1カメラユニット103Xによって取り込まれる。第1ヘッドマウントディスプレイ102の外観を表す第1の処理画像データまたは第1の処理ビデオデータの第1処理データセクションが取り込まれ、ここでは、第1の基本データセクションによって第1処理画像データまたは第1処理ビデオデータを置き換えることによって、第1の組の修正された画像データまたは修正されたビデオデータが生成される。第1の基本データセクションは、好ましくは第1の基本画像データまたは第1の基本ビデオデータの一部であり、第1の人101の顔の一部、特にその人物101の目の一部を表す。特に前記第1の人101の完全な顔を表すデータは、それぞれ第2端末100Bの出力装置、特に画面を介して示されるように出力することができる。
したがって、本発明は、1人以上のユーザがそれぞれ装着しているHMD(ヘッドマウントディスプレイ)を使用している間のビデオ会議(または他の任意の電話会議技術)に関する。HMD(ヘッドマウントディスプレイ)は、独自の表示または携帯電話の付属品を備えた独立型の仮想現実グラス、拡張現実グラスのいずれであってもよく、これは、現実世界、複合現実デバイスおよび/またはヘッドアップディスプレイ(HUD)の上に拡張画像(ビデオ)を重ね合わせるものである。
カメラ装置、カメラユニット103X〜103Zは、任意のカメラ、いくつかの例では外部カメラ、または携帯電話の内蔵カメラ、または任意のコンピュータとすることができる。カメラは、単レンズカメラまたはデュアルレンズ(マルチレンズ)であってもライトフィールドカメラにすることができる。
ビデオ会議は、インスタントメッセンジャー(IM)またはVoIP環境で、インターネットを介して行うことができる。ビデオ会議の用語は、電話会議などのあらゆる種類のビデオ会議アクティビティを網羅することが好ましい。
図3は、記録された頭部データ201がどのように取り込まれ、処理されるかを示す。
ユーザ頭部データ301は、学習サイクルまたは記録されたビデオまたは類似の技術のいずれかで取り出される。第1ユーザ101の頭部についての頭部データは、好ましくは、前記頭部の正面透視図から取り込まれる。参照番号302は、特に、少なくとも180°、または少なくとも270°、または360°の範囲における、前記頭部および/または前記カメラユニット310の回転運動を示す。カメラユニット310は、好ましくは記録装置、特に単純なカメラ、または好ましくは走査レーザ支持を有する没入型カメラまたは光深度カメラなどのより複雑な装置である。カメラユニット310は、第1カメラユニット103Xまたは他のカメラユニットであることがさらに考えられる。第1のHMD102のサイズが検出され、ユーザ頭部データ301が適切に切り取られ(307)、それぞれHMDを装着して使用しながら、第1の人101の取り込まれた画像またはビデオデータのHMDを表すデータを置き換える。切り取られたデータは、グラフィック的なそれぞれ画像データまたはビデオデータ修正のためのユニットに転送される(308)。
切り取られたデータ305は、第1カメラユニット103Xによって取り込まれた画像またはビデオデータ、特に処理画像データまたは処理ビデオデータを修正するために提供される(309)。
したがって、図2および図3は、本発明が使用されている間の状態および本発明の利益を明示する。記録された顔データ(顔のポーズ)は、HMDのサイズで切り取られ、好ましくはリアルタイムビデオと組み合わされ(重ね合わせまたはスーパーインポーズ)、第2のビデオに転送される。さらに、ユーザはHMDを使用していない第1ユーザの顔全体であるので、これは全体的なビデオ会議の体験を向上させる。図2および図3では、画像/ビデオ処理に関連する計算は、第1ユーザ側で行われるが、他の任意の選択肢、例えば、サーバ上またはそれぞれの受信者の端末100A、100B上でも可能である。多くの、特に3人以上のユーザが同じビデオ会議セッションに参加していることも考えられ、そこでは複数のまたはすべてのユーザがHMDを使用または着用している。したがって、HMDを使用することが好ましいすべてのユーザの画像またはビデオデータ(処理画像データまたは処理ビデオデータ)は、それぞれのユーザの顔面部分、特に目を表す画像またはビデオデータで修正されることが好ましい。
図4は、重ねあわせ、それぞれの置換処理の一例を示す。切り取られたデータ305は、HMDを表す処理画像データまたは処理ビデオデータの少なくとも一部を、顔、特に第1ユーザ101の顔、特に目の所定の部分を表すデータにそれぞれ重ね合わせるかまたは置き換える。言い換えれば、1つの選択肢として、切り取られた没入データ305は、処理画像データまたは処理ビデオデータを部分的または区画的に重ねあわせる(402)ために、処理画像データまたは処理ビデオデータに転送される(401)。
図5は、HMDの実施形態に関する4つの例を示す。参照番号102Aは、VRグラス(スクリーンとして携帯電話/スマートフォンを有する)を表し、参照番号501は、独立型VRグラスまたはそれ自体の画面を有するVRガラスを表し、参照番号502は片目の適用範囲を有する一種のARグラスまたは複合現実グラスを表し、参照番号503は、両目の適用範囲を有する一種のARグラスまたは複合現実感グラスを表す。このように、図5は、スマートフォンを搭載した最大のVRグラスと、顔の対象エリアが異なるさまざまなHMDを示す。
図6は、使用中のHMDに関する情報、特に形状および/または色および/またはサイズをどのように収集することができるかの3つの例を示す。参照番号601は、モーションキャプチャおよびサイズ検出のためのマーカーなし検出または電子的検出を表す。したがって、HMDの特徴は画像解析によって収集することができる。参照番号602は、カメラユニット103Xに見える、HMDの部分上の特別な形状または点またはドットマーカーを示す。参照番号603はQRマーカーを示し、ここでQRコード(登録商標)はHMDの特徴に関する情報、または前記HMDの特徴を表すデータをダウンロードするためのリンクを表す。したがって、図6は、システムがどのようにしてユーザの顔の位置、HMD位置、そしておそらくHMDサイズを検出するかを示す。より没入型のビデオ会議システムでは、ユーザの目を正しい表現の場所にユーザの目を正しく配置する必要があり、さまざまなセンサおよび視線追跡メカニズムを使用することができる。
NFCまたはBluetooth(登録商標)またはRFIDまたはWiFiまたは非無線またはケーブル接続技術、特にUSBなどの無線技術を介したデータ転送などのさらなる可能性が、追加的または代替的に考えられる。
図7は特別なHMD102Aを示す。このHMD102Aは、好ましくはアイトラッカー、特に任意の種類の(最も可能なのはnear eye PCCRトラッカー)701、および/または顔の動きを検出するための検出器(容量性または光学的)702を含む。ユーザ頭部データ301、特に、切り取られたユーザの頭部データは、好ましくはアイトラッカー701および/または顔の動き検出器702によって測定された測定値に応じて修正される。したがって、第1ユーザ101の顔の表示外観はさらに現実的に見える。
図8は顔の動き追跡の例を示す。ドットマーカー801の光学的検出は、それぞれの顔の動きの分析の判定を可能にする。しかしながら、マーカーレス法のような異なる検出方法が代替的または追加的に可能である。
図9は、システム起動を表すフローチャートを示す。
参照番号901によれば、本発明のシステムはそれぞれビデオ会議セッションを開始する。 したがって、システムが実際に開始されているかどうかを902でチェックされ、システムが実際に開始されていない902Nの場合では何も起こらない(904)。システムが実際に開始される場合902Yでは、少なくとも1つのHMDが検出されたかどうかがチェックされる(904)。HMD装置が検出されない904N場合は、何も起こらない。HMD装置が検出されると(904Y)、記録されたデータ(基本画像データまたは基本ビデオデータ)がそれぞれロードまたは生成されるように要求される。その後、システムの起動は終了する(908)。
図10は、第1ユーザ側、特に第1端末によって画像処理がどのように行われるかを例示的に示すフローチャートを示す。リアルタイムビデオ1001が取り込まれる。前記取り込まれたリアルタイムビデオ1001のそれぞれ前記処理画像データまたは処理ビデオデータは、画像/ビデオ処理1002によって修正される(最も好ましくは、第1ユーザ側で行われるが、クラウド、ビデオ会議サーバまたは遠隔で計算を行うなどの他のオプションがユーザは可能である)。処理画像データまたは処理ビデオデータをそれぞれ修正する画像/ビデオ処理1002は、記録されたデータ1004を用いて行われる。好ましくは第1ユーザの少なくとも片目を表すデータは、処理画像データまたは処理ビデオデータと組み合わされる。出力1003として、合成された重ね合わせ画像/ビデオが結果として得られる。
したがって、図10に示す重ね合わせ計算を、任意の計算場所およびシステムおよび装置に転送することができるが、ほとんどの場合、この計算はユーザ側で行われ、装置/端末はコンピュータ(デスクトップ、PC、ラップトップ)、スマートフォンまたはタブレットである可能性がある。
図11は、HMDを有するまたは有しない複数のユーザが本発明のビデオ会議セッションに参加することができ、これらのユーザのうちの少なくとも1人がそれぞれHMDを着用することを示す。参照番号1101は第1ユーザ(図1、図2、図3の第1ユーザ101に対応)を示し、参照番号1102は第2ユーザを示し、参照番号1103は第2ユーザを示し、参照番号1104は第2ユーザを示し、参照番号1105はn番目のユーザを示す。 したがって、ビデオ会議通信は、少なくとも2人の参加者の間で行われることが好ましく、ビデオ会議105のための少なくとも1つの転送媒体、特にインターネット106、統合サービスデジタルネットワークまたは直接通信リンクによって進められることが特に好ましい。
図12は、例示的な場合における仮想環境1200および仮想会議室をそれぞれ示す。仮想環境1200は、特にロールプレイングゲームなどのための仮想空間であることも考えられる。例示的な場合では、第1ユーザ1201はHMD、VRグラスを有する。例示的な場合では、第2ユーザ1202もHMD、VRグラスを有する。N番目のユーザ1203もまた、HMD、特に例示的な場合にはVRグラスを有する。仮想環境1200からわかるように、本発明により、前記仮想環境で会議を行うすべての人がHMD1201A、1202Aおよび1203Aなしで示されている。
したがって、本発明は、システムおよび方法に関し、その方法は、ビデオ会議セッション中にビデオデータを修正するために機能することが好ましく、少なくとも次のステップを含む。少なくとも視覚入力を取り込むための第1カメラユニット103Xと第1ヘッドマウントディスプレイ102とを備える第1端末100Aを提供する。少なくとも視覚入力を出力するために第2端末100Bを提供する。サーバ手段105を提供し、前記第1端末100Aと前記第2端末100Bとはデータ交換のためにサーバ手段105を介して接続される。第1カメラユニット103Xを用いて第1の人101の頭部の第1の基本画像データまたは第1の基本ビデオデータを提供または取り込み、前記第1の人101が前記ヘッドマウントディスプレイ102を装着している間に、前記第1の人101の頭部の第1の処理画像データまたは第1の処理ビデオデータを第1カメラユニットで取り込み、第1ヘッドマウントディスプレイ102の外観を表す第1の処理画像データまたは第1の処理ビデオデータの第1処理データセクションを判定し、第1の処理画像データまたは第1の処理ビデオデータの第1処理データセクションを第1の基本データセクションで置き換えることによって、第1の組の修正画像データまたは修正ビデオデータを生成するが、第1の基本データセクションは、第1の基本画像データまたは第1の基本ビデオデータの一部であり、上記人の顔の一部、特に上記第1の人101の目の一部を表す。
第2端末100Bを介して、特に前記第1の人101の完全な顔を表す第1の修正画像データまたは第1の修正ビデオデータを出力する。
したがって、本発明の方法は、まず、VR/ARグラスなしでユーザの顔の写真を記録または撮影する。このプロセスでは、光深度写真技術やその他の3Dまたは没入型ビデオ/写真技術などの任意の技術を使用することができる。目の近くのユーザの顔領域がモデル化された後、それはそれぞれの端末に記憶されることが好ましい。ユーザがビデオ会議またはビデオ通話でVR/ARグラスを使い始めると、コンピュータはVR/ARグラスの端(または識別子などの他の方法)を容易に検出し、通常のビデオにVR/ARグラスとビデオを組み合わせた結果、他のユーザはVR/ARグラスなしの通常の顔を見る。追加の機能はVR/ARグラスの内側の視線追跡も目を正しく配置することができる。
100A 第1ユーザ端末
100B 第2ユーザ端末
100C さらなるユーザ端末
101 第1の人/第1ユーザ
101B ユーザ頭部(第1ユーザ)の側面(横顔)
102 第1HMD
102A HMD装置(例示的場合のVRグラス)の前面
102B HMD装置(例示的場合のVRグラス)の側面
103X 第1ユーザでのビデオ会議用の第1カメラユニット(例示的な場合では外部に配置されているが、他の任意の選択肢が可能である)
103Y 第2ユーザでのビデオ会議用のカメラ(例示的な場合では外部に配置されているが、他の任意の選択肢が可能である)
103Z 第3ユーザでのビデオ会議用のカメラ(例示的な場合では外部に配置されているが、他の任意の選択肢が可能である)
104 両方のユーザがビデオオーディオ情報を送信する
105 ビデオ会議用の任意の転送媒体
106 例示的な場合では、転送媒体はインターネットである
A 画面表示を使用するビデオ会議の第2ユーザ
109 画面
110 HMDを装着する第1ユーザの転送されたビデオ
111 第2ユーザ
112 さらなるユーザのHMD
112A VRグラスの右画面
112B VRグラスの左画面
113A グラスの右画面を変更することなく第1ユーザの転送されたビデオ
113B グラスの左画面を変更することなく第1ユーザの転送されたビデオ
114 さらなるユーザ
115 さらなるヘッドマウントディスプレイ
201 顔のモーションキャプチャのための第1ユーザの記録された頭部データ(ベクトル、ラスター、画像および/またはビデオのいずれか任意の方法で)
309 リアルタイムビデオを記録データと組み合わせる(重ね合わせ−スーパーインポーズ)ためにコンピュータシステム(図示せず)に転送される
202 HMDを使用している場合でも、第1ユーザの顔全面を転送される
203A VRグラスの右表示用HMDを使用している場合でも第1ユーザの顔全面を転送される
203B VRグラスの左表示用HMDを使用している場合でも第1ユーザの顔全面を転送される
301 ユーザの頭部データは、学習サイクルで撮影されるか、またはビデオなどで記録されるかのいずれかである
302 360°または同様の広角データを回転し、取得する
303 HMDのサイズを検出し、適切に切り取られる
304 適切な切り取り
305 切り取られたデータ
307 適切なHMDサイズを取得することによって切り取りから転送されたデータ
308 切り取られたデータ転送
310 記録装置(単純なカメラ、もしくは走査型レーザを支持する没入型または光深度カメラなどのより複雑な装置)
401 切り取られた没入型データが転送される
402 重ね合わせが行われる
501 独立型VRグラスまたは専用画面付きVRグラス
502 片目を覆うARグラスまたは複合現実グラスの種類
503 両目を覆うARグラスまたは複合現実グラスの種類
601 モーションキャプチャとサイズ検出のためのマーカーレス検出または電子的検出6602 ドットマーカー
603 QRマーカー
701 あらゆる種類のアイトラッカー(最も可能なのはnear eye PCCRトラッカー)
702 顔の動き検出器(静電容量式または光学式のいずれか)
801 ドットマーカー
901 開始
902 発明(開示されたシステム)が有効になっているか
902N/Y いいえ/はい
903 何もしない
904 HMDが検出されたか?
905 何もしない
906 リアルタイムビデオと記録されたデータとの重ね合わせ
907 記録されたデータ
908 終了
1001 リアルタイムビデオ
1002 画像/ビデオ処理(最も好ましくは、第1ユーザ側で行われるが、クラウド、ビデオ会議サーバまたは遠隔ユーザでの計算のような他の任意の選択肢が可能である)
1003 合成された重ね合わせ画像の出力
1004 記録されたデータ
1200 仮想環境、例示的な場合には仮想会議室、また仮想空間および/またはロールプレイングゲームなども可能である
1201 例示的な場合では、HMD、VRグラスを有する第1ユーザ
1201A 仮想環境で見られた第1ユーザ
1202 例示的な場合では、HMD、VRグラスを有する第2ユーザ
1202A 仮想環境で見られた第2ユーザ
1203 例示的な場合では、HMD、VRグラスを有する第Nユーザ
1203A 仮想環境で見られた第Nユーザ

Claims (15)

  1. ビデオ会議セッション中にビデオデータを修正する方法であって、
    少なくとも、
    少なくとも視覚入力を取り込むための第1カメラユニット(103X)および第1ヘッドマウントディスプレイ(102)を含む第1端末(100A)を提供するステップと、
    少なくとも視覚入力を出力するための第2端末(100B)を提供するステップと、
    サーバ手段(105)を提供するステップと、
    前記第1カメラユニット(103X)を用いて、第1の人(101)の頭部の第1基本画像データまたは第1基本ビデオデータを提供し、または取り込むステップと、
    前記第1の人(101)が前記ヘッドマウントディスプレイ(102)を装着している間に、前記第1カメラユニットを用いて、前記第1の人(101)の前記頭部の第1処理画像データまたは第1処理ビデオデータを取り込むステップと、
    前記第1ヘッドマウントディスプレイ(102)の外観を表す前記第1の処理画像データまたは第1の処理ビデオデータの第1処理データセクションを判定するステップと、
    前記第1処理画像データまたは第1処理ビデオデータの前記第1処理データセクションを第1基本データセクションで置き換えることによって、第1の組の修正画像データまたは修正ビデオデータを生成するステップと、を含み、
    前記第1端末(100A)および前記第2端末(100B)は、データ交換のために前記サーバ手段(105)を介して接続され、
    前記第1基本データセクションは、前記第1基本画像データまたは第1の基本ビデオデータの一部であり、前記人の前記顔の一部、特に、前記第1の人(101)の目を表している方法。
  2. 前記第2端末(100B)は、第2カメラユニット(103Y)および第2ヘッドマウントディスプレイを含むことを特徴とし、
    前記第2カメラユニット(103Y)を用いて、第2の人(111)の頭部の第2基本画像データまたは第2基本ビデオデータを提供し、または取り込むステップと、
    前記第2の人(111)が前記第2ヘッドマウントディスプレイを装着している間に、前記第2カメラユニット(103Y)を用いて、前記第2の人(111)の前記頭部の第2処理画像データまたは第2処理ビデオデータを取り込むステップと、
    前記第2ヘッドマウントディスプレイの外観を表す前記第2処理画像データまたは第2処理ビデオデータの第2処理データセクションを判定するステップと、
    前記第2処理画像データまたは第2処理ビデオデータの前記第2処理データセクションを第2基本データセクションで置き換えることによって、第2の組の修正画像データまたは修正ビデオデータを形成するステップと、
    前記第1端末(100A)を介して前記第2修正画像データまたは第2修正ビデオデータを出力するステップと、によって特徴づけられ、
    前記第2の基本データセクションは、前記第2基本画像データまたは第2の基本ビデオデータの一部であり、前記第2の人(111)の前記顔の一部、特に、前記第2の人(111)の目を表している請求項1に記載の方法。
  3. 前記第1修正画像データまたは第1修正ビデオデータおよび/または前記第2修正画像データまたは第2修正ビデオデータは、前記サーバ手段(105)に接続された少なくとも1つのさらなる端末(100C)を介して出力されることを特徴とする請求項1または請求項2に記載の方法。
  4. さらなる端末(100C)は、さらなるカメラユニット(103Z)およびさらなるヘッドマウントディスプレイを含むことを特徴とし、
    前記さらなるカメラユニット(103Z)を用いて、さらなる人(114)の頭部のさらなる基本画像データまたはさらなる基本ビデオデータを提供し、または取り込むステップと、
    前記さらなる人(114)が前記さらなるヘッドマウントディスプレイを装着している間に、前記さらなるカメラユニット(103Z)を用いて、前記さらなる人(114)の前記頭部の第2処理画像データまたは第2処理ビデオデータを取り込むステップと、
    前記さらなるヘッドマウントディスプレイ(112)の外観を表す前記さらなる処理画像データまたはさらなる処理ビデオデータのさらなる処理データセクションを判定するステップと、
    前記さらなる処理画像データまたはさらなる処理ビデオデータの前記さらなる処理データセクションをさらなる基本データセクションで置き換えることによって、さらなる組の修正画像データまたは修正ビデオデータを形成するステップと、
    前記第1端末(100A)および/または前記第2端末(100B)を介して、特に、同時に、前記さらなる修正画像データまたはさらなる修正ビデオデータを出力するステップと、によって特徴づけられ、
    前記第さらなる基本データセクションは、前記さらなる基本画像データまたはさらなる基本ビデオデータの一部であり、前記さらなる人(114)の前記顔の一部、特に、前記さらなる人(114)の目を表している請求項1乃至請求項3のいずれか一に記載の方法。
  5. 第1、第2および/またはさらなる基本ビデオデータもしくは第1、第2および/またはさらなる基本画像データは、それぞれの端末(100A、100B、100C)のメモリおよび/または前記サーバ手段(105)に記憶され、
    第1、第2および/またはさらなる基本ビデオデータもしくは第1、第2および/またはさらなる基本画像データが一度取り込まれ、第1、第2および/またはさらなる修正ビデオデータもしくは第1、第2および/またはさらなる修正画像データが必要とされる場合に処理されることを特徴とし、または、
    前記第1、第2および/または第3の人(101、111、114)がビデオ会議に参加するたびに、第1、第2および/またはさらなる基本ビデオデータもしくは第1、第2および/またはさらなる基本画像データが取り込まれ、第1、第2および/またはさらなる修正ビデオデータもしくは第1、第2および/またはさらなる修正画像データが必要とされる場合に、前記第1、第2および/またはさらなる基本ビデオデータもしくは第1、第2および/またはさらなる基本画像データが更新され、または置換され、および処理されることを特徴とする請求項1乃至請求項4のいずれか一に記載の方法。
  6. 少なくとも1つの端末(100A)と好ましくは大多数の端末(100a、100B)またはすべての端末(100A、100B、100C)は、音声データを取り込み、および/または出力するための手段を含み、1つの端末によって取り込まれた前記取り込まれた音声データは、1つまたは複数のさらなる端末に少なくとも転送されることを特徴とする請求項1乃至請求項5のいずれか一に記載の方法。
  7. 第1の人(101)の顔に対する前記第1ヘッドマウント(102)ディスプレイの前記位置は、物体認識を用いて判定され、
    前記第1ヘッドマウントディスプレイ(102)の前記形状は、物体認識によって判定され、および/または識別データは視覚的または電子的に提供されることを特徴とする請求項1乃至請求項6のいずれか一に記載の方法。
  8. 前記第1の人(101)の前記顔の皮膚部分の動きを表す顔の動きデータが生成され、前記皮膚部分の前記動きが前記第1カメラユニット(103X)によって取り込まれることを特徴とする請求項1乃至請求項7のいずれか一に記載の方法。
  9. 前記第1の人(101)の少なくとも1つの眼の動きを表す眼球運動データが生成され、前記目の動きは、視線追跡手段(702)によって取り込まれることを特徴とする請求項1乃至請求項8のいずれか一に記載の方法。
  10. 第1基本データセクションは、
    前記第1の人(101)の前記顔の前記取り込まれた顔の動きデータ、および/または、
    前記第1の人(101)の少なくとも1つの目の前記取り込まれた眼球運動データ、に応じて修正されることを特徴とする請求項8または請求項9に記載の方法。
  11. 前記第1の人(101)の前記目の形状を表す眼球データは、前記第1基本データセクションの一部として識別され、
    前記眼球データは、前記取り込まれた眼球運動データに応じて修正されることを特徴とし、および/または、
    前記第1の人(101)の前記顔の前記皮膚部分を表す皮膚データは、前記第1基本データセクション内の目の上および/下に修正され、
    前記皮膚データは、前記取り込まれた顔の動きデータに応じることを特徴とする請求項10に記載の方法。
  12. 視線追跡手段(702)は、好ましくはnear eye PCCRトラッカーであり、
    前記視線追跡手段(702)は前記第1ヘッドマウントディスプレイ(102)の上または内部に配置されることを特徴とする請求項10または請求項11に記載の方法。
  13. 前記第1の人(101)の前記頭部の前記姿勢に関する情報を受信し、
    前記物体の前記姿勢に従って、前記頭部の仮想モデルおよび前記頭部の顔の視線を方向づけ、
    ビデオ会議通信の一部からの可視ピクセルを仮想モデルに投影し、
    空間の所望の点で顔の視線を作り出す前記頭部の合成された目を生成し、
    前記作り出された顔の凝視に従って、前記仮想モデルを方向づけ、
    前記仮想モデルを前記ビデオ会議通信の対応する部分に投影し、
    修正画像データまたは修正ビデオデータの少なくとも一部は、前記仮想モデルによって置き換えられることを特徴とする請求項1乃至請求項12のいずれか一に記載の方法。
  14. 請求項1乃至請求項13のいずれか一に記載の方法を実行するためのコンピュータプログラム製品。
  15. 少なくとも、
    少なくとも視覚入力を取り込むための第1カメラユニット(103X)および第1ヘッドマウントディスプレイ(102)を含む第1端末(100A)と、
    少なくとも視覚入力を出力するための第2端末(100B)と、
    サーバ手段(105)と、を含み、
    前記第1端末(100A)および前記第2端末(100B)は、データ交換のために前記サーバ手段(105)を介して接続され、
    前記第1カメラユニット(103X)を用いて、第1の人(101)の頭部の第1基本画像データまたは第1基本ビデオデータが提供され、または取り込まれ、
    前記第1の人(101)が前記ヘッドマウントディスプレイ(102)を装着している間に、前記第1カメラユニット(103X)を用いて、前記第1の人(101)の前記頭部の第1処理画像データまたは第1処理ビデオデータが取り込まれ、
    前記第1ヘッドマウントディスプレイの外観を表す前記第1処理画像データまたは第1処理ビデオデータの第1処理データセクションが判定され、
    前記第1処理画像データまたは第1処理ビデオデータの前記第1処理データセクションを第1基本データセクションで置き換えることによって、第1の組の修正画像データまたは修正ビデオデータが形成され、
    前記第1基本データセクションは、前記第1基本画像データまたは第1基本ビデオデータの一部であり、前記人(101)の前記顔の一部、特に、前記人(101)の目を表しており、
    特に前記人(101)の顔全体を表す前記第1修正画像データまたは第1修正ビデオデータは、前記第2端末(100B)を介して出力されるビデオ会議セッションのためのシステム。
JP2019514013A 2017-02-03 2017-02-03 Hmdを用いたビデオ会議の改良された方法およびシステム Withdrawn JP2020507221A (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/EP2017/052449 WO2018141408A1 (en) 2017-02-03 2017-02-03 IMPROVED METHOD AND SYSTEM FOR VIDEO CONFERENCES WITH HMDs

Publications (1)

Publication Number Publication Date
JP2020507221A true JP2020507221A (ja) 2020-03-05

Family

ID=58018071

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019514013A Withdrawn JP2020507221A (ja) 2017-02-03 2017-02-03 Hmdを用いたビデオ会議の改良された方法およびシステム

Country Status (7)

Country Link
US (1) US20210281802A1 (ja)
EP (1) EP3358835B1 (ja)
JP (1) JP2020507221A (ja)
KR (1) KR102574874B1 (ja)
CN (1) CN109952759B (ja)
TR (1) TR201702966A2 (ja)
WO (1) WO2018141408A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023037812A1 (ja) * 2021-09-10 2023-03-16 株式会社Nttドコモ オンライン対話支援システム

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109803109B (zh) * 2018-12-17 2020-07-31 中国科学院深圳先进技术研究院 一种可穿戴增强现实远程视频系统及视频通话方法
US20230101902A1 (en) * 2020-03-06 2023-03-30 Telefonaktiebolaget Lm Ericsson (Publ) Methods providing video conferencing with adjusted/modified video and related video conferencing nodes
CN112115823A (zh) * 2020-09-07 2020-12-22 江苏瑞科科技有限公司 一种基于情感化身的混合现实协同系统
US20220122239A1 (en) * 2020-10-21 2022-04-21 Johnson & Johnson Surgical Vision, Inc. Visualizing an organ using multiple imaging modalities combined and displayed in virtual reality
CN112492231B (zh) * 2020-11-02 2023-03-21 重庆创通联智物联网有限公司 远程交互方法、装置、电子设备和计算机可读存储介质
CN112887702A (zh) * 2021-01-11 2021-06-01 杭州灵伴科技有限公司 一种近眼显示设备的摄像头数据的传输方法及近眼显示设备
CN114979454B (zh) * 2021-02-24 2024-02-20 广州视创显示科技有限公司 一种一体机显示图像调整方法、装置、设备及存储介质
US11831814B2 (en) * 2021-09-03 2023-11-28 Meta Platforms Technologies, Llc Parallel video call and artificial reality spaces
US20230091949A1 (en) * 2021-09-21 2023-03-23 NCA Holding BV Data realization for virtual collaboration environment
US11722329B2 (en) * 2021-10-06 2023-08-08 Fotonation Limited Gaze repositioning during a video conference
US11644895B1 (en) * 2021-10-08 2023-05-09 Synaptics Incorporated Attention cues for head-mounted display (HMD)
US11921970B1 (en) 2021-10-11 2024-03-05 Meta Platforms Technologies, Llc Coordinating virtual interactions with a mini-map
US11622083B1 (en) * 2021-11-29 2023-04-04 Motorola Mobility Llc Methods, systems, and devices for presenting obscured subject compensation content in a videoconference
US20230196712A1 (en) * 2021-12-21 2023-06-22 Snap Inc. Real-time motion and appearance transfer
US20230252745A1 (en) * 2022-02-09 2023-08-10 Google Llc Validation of modeling and simulation of virtual try-on of wearable device
US11935201B2 (en) * 2022-04-28 2024-03-19 Dell Products Lp Method and apparatus for using physical devices in extended reality environments
US11972526B1 (en) 2023-03-31 2024-04-30 Apple Inc. Rendering of enrolled user's face for external display
CN116634177B (zh) * 2023-06-16 2024-02-20 北京行者无疆科技有限公司 一种基于hdmi通信设备的视频通信解码处理方法

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1196366A (ja) * 1997-09-19 1999-04-09 Nippon Telegr & Teleph Corp <Ntt> ヘッドマウントディスプレイを装着した人物の顔画像合成方法およびその装置
JP2000004395A (ja) * 1998-06-15 2000-01-07 Sony Corp ビデオカメラの画像処理装置及びヘッドマウントディスプレイ
JP2000083228A (ja) * 1998-09-04 2000-03-21 Sony Corp 双方向通信システム、端末装置および制御方法
US20040130614A1 (en) * 2002-12-30 2004-07-08 Valliath George T. Method, system and apparatus for telepresence communications
JP2009512009A (ja) * 2005-10-10 2009-03-19 トビイ テクノロジー アーベー 広範囲の動作距離を有するアイトラッカー
JP2009514090A (ja) * 2005-10-28 2009-04-02 トビイ テクノロジー アーベー 視覚的フィードバックを有するアイトラッカー
JP2011217098A (ja) * 2010-03-31 2011-10-27 Ns Solutions Corp 情報処理システム、会議管理装置、情報処理方法、会議管理装置の制御方法及びプログラム
WO2016021252A1 (ja) * 2014-08-05 2016-02-11 ソニー株式会社 情報処理装置及び情報処理方法、並びに画像表示システム
JP2016086321A (ja) * 2014-10-27 2016-05-19 治幸 岩田 自己撮影機能付スマートグラス
JP2016536700A (ja) * 2013-09-04 2016-11-24 エシロール アンテルナシオナル (コンパニー ジェネラル ドプティック) 拡張現実感のための方法とシステム

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6806898B1 (en) 2000-03-20 2004-10-19 Microsoft Corp. System and method for automatically adjusting gaze and head orientation for video conferencing
US20080252637A1 (en) 2007-04-14 2008-10-16 Philipp Christian Berndt Virtual reality-based teleconferencing
US8868373B2 (en) 2008-08-25 2014-10-21 Universitat Zurich Prorektorat Mnw Adjustable virtual reality system
US8436789B2 (en) * 2009-01-16 2013-05-07 Microsoft Corporation Surface puck
EP2820842A1 (en) * 2012-02-27 2015-01-07 ETH Zürich Method and system for image processing in video conferencing for gaze correction
KR102004265B1 (ko) * 2012-12-28 2019-07-26 엘지전자 주식회사 헤드 마운트 디스플레이 및 이를 이용한 영상 통화 방법
US9524588B2 (en) * 2014-01-24 2016-12-20 Avaya Inc. Enhanced communication between remote participants using augmented and virtual reality
CN104539868B (zh) * 2014-11-24 2018-06-01 联想(北京)有限公司 一种信息处理方法及电子设备
GB2534580B (en) * 2015-01-28 2020-06-17 Sony Interactive Entertainment Europe Ltd Image processing
US9910275B2 (en) * 2015-05-18 2018-03-06 Samsung Electronics Co., Ltd. Image processing for head mounted display devices

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1196366A (ja) * 1997-09-19 1999-04-09 Nippon Telegr & Teleph Corp <Ntt> ヘッドマウントディスプレイを装着した人物の顔画像合成方法およびその装置
JP2000004395A (ja) * 1998-06-15 2000-01-07 Sony Corp ビデオカメラの画像処理装置及びヘッドマウントディスプレイ
JP2000083228A (ja) * 1998-09-04 2000-03-21 Sony Corp 双方向通信システム、端末装置および制御方法
US20040130614A1 (en) * 2002-12-30 2004-07-08 Valliath George T. Method, system and apparatus for telepresence communications
JP2009512009A (ja) * 2005-10-10 2009-03-19 トビイ テクノロジー アーベー 広範囲の動作距離を有するアイトラッカー
JP2009514090A (ja) * 2005-10-28 2009-04-02 トビイ テクノロジー アーベー 視覚的フィードバックを有するアイトラッカー
JP2011217098A (ja) * 2010-03-31 2011-10-27 Ns Solutions Corp 情報処理システム、会議管理装置、情報処理方法、会議管理装置の制御方法及びプログラム
JP2016536700A (ja) * 2013-09-04 2016-11-24 エシロール アンテルナシオナル (コンパニー ジェネラル ドプティック) 拡張現実感のための方法とシステム
WO2016021252A1 (ja) * 2014-08-05 2016-02-11 ソニー株式会社 情報処理装置及び情報処理方法、並びに画像表示システム
JP2016086321A (ja) * 2014-10-27 2016-05-19 治幸 岩田 自己撮影機能付スマートグラス

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
MASAYUKI TAKEMURA(外1名): "Diminishing Head-Mounted Display for Shared Mixed Reality", PROCEEDINGS INTERNATIONAL SYMPOSIUM ON MIXED AND AUGMENTED REALITY, JPN6020050101, 1 October 2002 (2002-10-01), US, ISSN: 0004417308 *
中村裕一(外3名): "複合コミュニティ空間のための人物動作理解と人物映像加工", 電子情報通信学会2000年情報・システムソサイエティ大会, JPN6020050103, 7 September 2000 (2000-09-07), JP, pages 331 - 332, ISSN: 0004417309 *
竹村雅幸(外1名): "協調型複合現実空間のためのアイコンタクトの復元〜視線認知実験と顔映像の高精細化〜", FIT2004 第3回情報科学技術フォーラム 情報科学技術レターズ,, JPN6020050102, 20 August 2004 (2004-08-20), JP, ISSN: 0004417310 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023037812A1 (ja) * 2021-09-10 2023-03-16 株式会社Nttドコモ オンライン対話支援システム

Also Published As

Publication number Publication date
CN109952759B (zh) 2021-06-15
WO2018141408A1 (en) 2018-08-09
EP3358835B1 (en) 2020-11-18
EP3358835A1 (en) 2018-08-08
KR20190112712A (ko) 2019-10-07
US20210281802A1 (en) 2021-09-09
KR102574874B1 (ko) 2023-09-05
CN109952759A (zh) 2019-06-28
TR201702966A2 (tr) 2018-08-27

Similar Documents

Publication Publication Date Title
EP3358835B1 (en) Improved method and system for video conferences with hmds
US20200142480A1 (en) Immersive displays
US10527846B2 (en) Image processing for head mounted display devices
US11765318B2 (en) Placement of virtual content in environments with a plurality of physical participants
US9959676B2 (en) Presentation of enhanced communication between remote participants using augmented and virtual reality
US8928659B2 (en) Telepresence systems with viewer perspective adjustment
CN107924584A (zh) 增强现实
CN103513421A (zh) 影像处理装置、影像处理方法及影像处理系统
JP2017511615A (ja) 物理的場所間のビデオ対話
CN113282163A (zh) 具可调整影像感测模块的头戴式装置及其系统
JP2023095862A (ja) プログラム及び情報処理方法
CN114625468B (zh) 增强现实画面的展示方法、装置、计算机设备及存储介质
US20230260235A1 (en) Information processing apparatus, information processing method, and information processing system
JP6999538B2 (ja) 情報処理方法、情報処理プログラム、情報処理システム、および情報処理装置
WO2023075810A1 (en) System and method for extracting, transplanting live images for streaming blended, hyper-realistic reality

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191018

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7426

Effective date: 20190614

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201124

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210105

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20210401

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20210604

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20210706