JP2020513704A - ビデオデータ処理方法、装置および機器 - Google Patents
ビデオデータ処理方法、装置および機器 Download PDFInfo
- Publication number
- JP2020513704A JP2020513704A JP2019528723A JP2019528723A JP2020513704A JP 2020513704 A JP2020513704 A JP 2020513704A JP 2019528723 A JP2019528723 A JP 2019528723A JP 2019528723 A JP2019528723 A JP 2019528723A JP 2020513704 A JP2020513704 A JP 2020513704A
- Authority
- JP
- Japan
- Prior art keywords
- view
- video data
- image
- terminal
- target object
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/14—Systems for two-way working
- H04N7/141—Systems for two-way working between two video terminals, e.g. videophone
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/14—Systems for two-way working
- H04N7/141—Systems for two-way working between two video terminals, e.g. videophone
- H04N7/147—Communication arrangements, e.g. identifying the communication as a video-communication, intermediate storage of the signals
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/14—Systems for two-way working
- H04N7/15—Conference systems
- H04N7/152—Multipoint control units therefor
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Processing Or Creating Images (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Abstract
第1端末と第2端末とのビデオ通話中に、少なくとも前記第1端末に対応する対象物体の第1左側面図および第1右側面図が含まれる第1ビデオデータと、少なくとも前記第2端末が現在位置している現実のシーンの第2左側面図および第2右側面図が含まれる第2ビデオデータとを取得することと、前記第1左側面図における前記対象物体の第1画像と前記第2左側面図とを合成し、前記第1右側面図における前記対象物体の第2画像と前記第2右側面図とを合成することと、合成後の第2左側面図および合成後の第2右側面図に基づき、3次元ビデオデータを生成することとを含むビデオデータ処理方法。【選択図】図1
Description
本開示は、拡張現実(AR、Augmented Reality)技術に関し、例えば、ビデオデータ処理方法、装置および機器に関する。
近年、通信ネットワーク技術の急速な発展に伴い、モバイルインターネット技術が日進月歩であり、従来の音声コミュニケーションは、人々のコミュニケーション需要を対応できなくなっている。ますます多くの人がビデオ通信で相手と交流してコミュニケーションすることを希望するため、多くの端末にビデオ通信の機能が搭載されている。現在、ビデオ通信は、人々の生活および仕事において非常に重要な役割を果たしている。
しかし、ビデオ通話中に、自装置には相手側のカメラによって撮影された2次元映像のみが表示でき、相手側に対応する対象物体を自装置が位置する現実のシーンに組み込むことができず、ユーザは相手の2次元イメージのみが見え、感覚的には、ユーザとビデオ通信する相手は、依然として遠い場所に存在し、自分が位置する現実環境に相手が来ているというような実感が感じられないため、自装置のビデオ通話の視覚情報に現実感がなく、ユーザは、感覚的に、相手が自分と対面して交流およびコミュニケーションを行っているような真実な体験が得られぬず、ユーザ体験が悪い。
これに鑑み、本実施例は、拡張現実した3次元ビデオ通話を実現し、ユーザ体験を向上させるビデオデータ処理方法、装置および機器を提供する。
第1態様において、本実施例は、第1端末と第2端末とのビデオ通話中に、少なくとも前記第1端末に対応する対象物体の第1左側面図および第1右側面図が含まれる第1ビデオデータと、少なくとも前記第2端末が現在位置している現実のシーンの第2左側面図および第2右側面図が含まれる第2ビデオデータとを取得することと、前記第1左側面図における前記対象物体の第1画像と前記第2左側面図とを合成し、前記第1右側面図における前記対象物体の第2画像と前記第2右側面図とを合成することと、合成後の第2左側面図および合成後の第2右側面図に基づき、3次元ビデオデータを生成することとを含む、ビデオデータ処理方法を提供する。
第2態様において、本実施例は、取得モジュール、合成モジュールおよび生成モジュールを備えるビデオデータ処理装置であって、前記取得モジュールは、第1端末と第2端末とのビデオ通話中に、少なくとも前記第1端末に対応する対象物体の第1左側面図および第1右側面図が含まれる第1ビデオデータと、少なくとも前記第2端末が現在位置している現実のシーンの第2左側面図および第2右側面図が含まれる第2ビデオデータとを取得するように構成され、前記合成モジュールは、前記第1左側面図における前記対象物体の第1画像と前記第2左側面図とを合成し、前記第1右側面図における前記対象物体の第2画像と前記第2右側面図とを合成するように構成され、前記生成モジュールは、合成後の第2左側面図および合成後の第2右側面図に基づき、3次元ビデオデータを生成するように構成されるビデオデータ処理装置を提供する。
第3態様において、本実施例は、送受信機およびプロセッサを備えるサーバであって、前記送受信機は、少なくとも前記第1端末に対応する対象物体の第1左側面図および第1右側面図が含まれる第1端末からの第1ビデオデータを受信し、少なくとも前記第2端末が現在位置している現実のシーンの第2左側面図および第2右側面図が含まれる第2端末からの第2ビデオデータを受信するように構成され、更に、前記第2端末に3次元ビデオデータを送信するように構成され、前記プロセッサは、前記第1左側面図における前記対象物体の第1画像と前記第2左側面図とを合成し、前記第1右側面図における前記対象物体の第2画像と前記第2右側面図とを合成し、合成後の第2左側面図および合成後の第2右側面図に基づき、3次元ビデオデータを生成するように構成されるサーバを提供する。
第4態様において、本実施例は、受信機、ステレオカメラ、プロセッサおよびディスプレイを備える端末であって、前記受信機は、少なくとも相手側に対応する対象物体の第1左側面図および第1右側面図が含まれる前記相手側からのビデオデータを受信するように構成され、前記ステレオカメラは、現在位置している現実のシーンの前記第2左側面図および前記第2右側面図を同期して収集するように構成され、前記プロセッサは、前記第1左側面図における前記対象物体の第1画像と前記第2左側面図とを合成し、前記第1右側面図における前記対象物体の第2画像と前記第2右側面図とを合成し、合成後の第2左側面図および合成後の第2右側面図に基づき、3次元ビデオデータを生成するように構成され、前記ディスプレイは、前記3次元ビデオデータを表示するように構成される端末を提供する。
第5態様において、本実施例は、上記いずれか1項に記載の方法を実行するためのコンピュータ実行可能命令が記憶されるコンピュータ可読記憶媒体を更に提供する。本実施例に係るビデオデータ処理方法、装置および機器は、第1端末対象物体の画像データを第2端末の現在の現実のシーンの画像データに組み込み、第2端末のビデオ通話中の現実情報を拡張し、第2端末のユーザに拡張現実した3次元ビデオ通話を提供し、感覚的に、自分が位置している現実環境に対象物体が存在することをユーザに感じさせ、更に、ユーザ体験を向上させることができる。
以下、本実施例における図面を参照しながら、本実施例における技術案について明確かつ完全に説明する。
実施例1
本実施例は、ビデオデータ処理方法を提供し、実際の応用において、該方法は、様々なビデオ通信トラフィックにおいてビデオデータの処理が必要となる場合に適用でき、端末におけるビデオ通話アプリケーション系製品、社交系製品およびスマートオフィス系製品等であってもよく、ビデオトラフィックサーバにおけるビデオデータの処理であってもよい。例示的には、ユーザは、端末におけるスマートオフィス系製品を用いて他のユーザと拡張現実したビデオ通話を行うことを実現でき、感覚的に、自分が位置している会議室に他のユーザが来たことを感じることができ、自分の通話体験を向上させる。
本実施例は、ビデオデータ処理方法を提供し、実際の応用において、該方法は、様々なビデオ通信トラフィックにおいてビデオデータの処理が必要となる場合に適用でき、端末におけるビデオ通話アプリケーション系製品、社交系製品およびスマートオフィス系製品等であってもよく、ビデオトラフィックサーバにおけるビデオデータの処理であってもよい。例示的には、ユーザは、端末におけるスマートオフィス系製品を用いて他のユーザと拡張現実したビデオ通話を行うことを実現でき、感覚的に、自分が位置している会議室に他のユーザが来たことを感じることができ、自分の通話体験を向上させる。
なお、図1は、実施例1におけるビデオデータ処理方法のフローチャートであり、図1に示すように、該ビデオデータ処理方法はS110〜S130を含む。
S110において、第1端末と第2端末とのビデオ通話中に、第1ビデオデータおよび第2ビデオデータを取得する。
ここで、第1ビデオデータには、少なくとも第1端末に対応する対象物体の第1左側面図および第1右側面図が含まれ、第2ビデオデータには、少なくとも第2端末が現在位置している現実のシーンの第2左側面図および第2右側面図が含まれる。
ここで、ユーザは、ビデオ通話中に、感覚的に対象物体をユーザの現在位置している現実環境内に現せ、より現実感のあるビデオ通話体験を取得しようとする場合、拡張現実したビデオ通話トラフィックを選択することができる。このようにして、第1端末と第2端末とのビデオ通話中に、少なくとも第1端末に対応する対象物体の第1左側面図および第1右側面図が含まれる第1ビデオデータを取得し、少なくとも第2端末が現在位置している現実のシーンの第2左側面図および第2右側面図が含まれる第2ビデオデータを取得する。これにより、第1端末に対応する対象物体の画像データを第2端末が現在位置している現実のシーンの画像データに組み込み、第2端末側のユーザのビデオ通話体験を向上させることができる。
好ましくは、第1ビデオデータは、対象物体を含む1フレームのデータ、例えば第iフレームのデータであってもよい。この時、該第1ビデオデータには、タイミングiに収集された対象物体の第1左側面図および第1右側面図が含まれる。第1ビデオデータは、対象物体を含む複数フレームのデータ、例えば第jフレーム〜第j+2フレームのデータであってもよい。この時、該第1ビデオデータには、タイミングj〜タイミングj+2に収集された対象物体の全ての第1左側面図および第1右側面図が含まれる。同様に、第2ビデオデータは、現実のシーンを含む1フレームのデータであってもよいし、現実のシーンを含む複数フレームのデータであってもよい。更に、第2ビデオデータと第1ビデオデータとが同期して対応しているため、第1ビデオデータに対象物体の第iフレームのデータが含まれる場合、第2ビデオデータにも現実のシーンの第iフレームのデータが含まれる。第1ビデオデータまたは第2ビデオデータの第iフレームのデータは3次元画像であってもよく、該3次元画像から対象物体または現実のシーンの左側面図および右側面図を取得することができ、または、第1ビデオデータまたは第2ビデオデータの第iフレームのデータは、2つの2次元画像のままであってもよく、すなわち、対象物体または現実のシーンの左側面図および右側面図のままである。ここで、第1ビデオデータは時間が4秒でフレームレートが25フレーム/秒のビデオデータであると仮定すると、25×4、合計100個の第1左側面図および100個の第1右側面図が得られる。これにより、第2ビデオデータも対応して時間が4秒でフレームレートが25フレーム/秒のビデオデータである。更に、タイムスタンプに基づき、各第1左側面図にそれぞれ1つの第2左側面図が対応付けられ、各第1右側面図にそれぞれ1つの第2右側面図が対応付けられる。
実際の応用において、上記第1ビデオデータおよび第2ビデオデータは、それぞれ1つの両眼カメラで収集してもよく、同一平面に位置して同じ焦点距離および収集方向を有する左右2つのカメラにより、対象物体または現実のシーンの視差のある2枚の画像、すなわち、左側面図および右側面図を同じタイミングで取得することができ、この2枚の視差のある画像よって、対象物体または現実のシーンの3次元データを取得することができる。もちろん、他のタイプのステレオカメラ、例えば4眼カメラで対象物体または現実のシーンのビデオデータを収集してもよい。
具体的な実施過程において、第1端末が対象物体の左側面図および右側面図を収集する時、対象物体が位置するシーンは、純粋な白色、純粋な青色または純粋な緑色等のような単純な背景であってもよく、環境が比較的乱雑な道路のような複雑な背景であってもよい。しかし、抽出アルゴリズムの複雑度を低減し、対象物体が含まれる左側面図および右側面図から真の対象物体の画像を容易に抽出できるように、対象物体は、できるだけ比較的単純な背景、例えば、単一色の背景に存在すべきである。好ましくは、対象物体と色が大きく異なる背景を採用し、例えば、青色や緑色が人の肌色と大きく異なるため、対象物体が人体である場合、青色の背景または緑色の背景を選択してもよい。
好ましくは、S110は、第1端末からの第1ビデオデータを受信し、第2端末からの第2ビデオデータを受信し、あるいは、第1端末からの第1ビデオデータを受信し、現在位置している現実のシーンの第2左側面図および第2右側面図を同期して収集することを更に含む。
好ましくは、該方法をサーバに用いると、第1端末からの第1ビデオデータを受信し、第2端末からの第2ビデオデータを受信することで、第1ビデオデータおよび第2ビデオデータを取得することができる。該方法を第2端末に用いると、第1端末からの第1ビデオデータを受信し、現在位置している現実のシーンの第2左側面図および第2右側面図を同期して収集することで、第1ビデオデータおよび第2ビデオデータを取得することができる。
S120において、第1左側面図における対象物体の第1画像と第2左側面図とを合成し、第1右側面図における対象物体の第2画像と第2右側面図とを合成する。
ここで、第2端末のユーザのビデオ通話の現実感を拡張するために、第1端末に対応する対象物体の第1左側面図および第1右側面図を取得し、第2端末が現在位置している現実のシーンの第2左側面図および第2右側面図を取得した後に、第1左側面図における対象物体の第1画像と第2左側面図とを合成し、合成後の第1端末に対応する対象物体および第2端末が現在位置している現実のシーンが同時に含まれた第2左側面図を取得し、第1右側面図における対象物体の第2画像と第2右側面図とを合成し、合成後の第1端末に対応する対象物体および第2端末が現在位置している現実のシーンが同時に含まれた第2右側面図を取得することができる。
例示的には、第1左側面図における対象物体の第1画像が立っている人であり、第2左側面図において1本の木であると仮定すると、合成後の左側面図は1本の木のそばに立っている人を含むことができる。
実際の応用において、第1左側面図における対象物体の第1画像と第2左側面図とを合成し、第1右側面図における対象物体の第2画像と第2右側面図とを合成する時に、画素に基づく画像合成アルゴリズム、ウェーブレット変換に基づく多重解像度画像合成アルゴリズム、ピラミッド画像合成アルゴリズム、およびポアソン法に基づく画像合成アルゴリズム等の通常のマシンビジョンアルゴリズムのうちの少なくとも1種を採用してもよく、当業者が具体的に実施する際に実際の状況に応じて決定してもよい。
好ましくは、S120の前に、所定の規則に従い、第1左側面図から第1画像を抽出し、第1右側面図から第2画像を抽出することを更に含む。
ここで、対象物体の第1画像と第2左側面図とを合成し、対象物体の第2画像と第2右側面図とを合成する前に、所定の規則に従い、第1左側面図から第1画像を抽出し、第1右側面図から第2画像を抽出する必要がある。
具体的な実施過程において、予め記憶された対象物体モデルによって、第1左側面図に対してターゲット識別を行って第1画像を抽出し、第1右側面図に対してターゲット識別を行って第2画像を抽出してもよいし、予め記憶された背景モデルによって、第1左側面図における背景データをフィルタリングして第1画像を取得し、第1右側面図における背景データをフィルタリングして第2画像を取得してもよい。もちろん、局所ポアソンマッティングアルゴリズムおよびベイジアンマッティングアルゴリズム(Bayesian Matting Algorithm)等のような他の方法を採用して第1画像および第2画像を取得してもよく、当業者は具体的な実施過程で決定する。
実際の応用において、予め記憶された対象物体モデルは、機械学習アルゴリズムによってサンプルをモデリングして予め生成したものであってもよく、ユーザが手動で対象領域を選択し、マシンビジョンアルゴリズムによってリアルタイムに生成したものであってもよい。同様に、予め記憶された背景モデルは、予め設定された背景色情報に基づいて生成したものであってもよく、ユーザが手動で背景領域を標定し、マシンビジョンアルゴリズムによってリアルタイムに生成したものであってもよい。もちろん、予め記憶された対象物体モデルまたは背景モデルは、他の方式で得られてもよい。
例示的には、機械学習アルゴリズムにより、人または自動車等のようなサンプル対象を学習し、対象物体の関連特徴ライブラリーを取得して対象物体の視覚モデルを予め確立しており、第1ビデオデータにおける対象物体を識別してマッチングし、第1左側面図における対象物体の第1画像および第1右側面図における対象物体の第2画像を取得してもよい。あるいは、背景と前景の対象物体とは色が異なる場合、背景情報をフィルタリングし、対象物体の画像データを取得してもよい。あるいは、背景と前景対象物体とは明らかに異なっている場合、背景レイヤフィルタリング法を用いて背景を透明化処理し、対象物体の画像データを取得してもよい。あるいは、背景に1つのガウス背景モデルを確立した後に、背景データをマッチングして識別し、対象物体の画像データを取得してもよい。
また、得られた画像には、常に様々なノイズが存在するため、これらノイズは、外部環境の光線または塵埃等による外部ノイズであってもよく、ビデオ収集モジュールの内部回路またはイメージセンサモジュールの材料等による内部ノイズであってもよく、これらノイズの存在で、画像上の対象物がぼやけてしまい、ひいては識別できず、取得された対象データが不正確になってしまう。
そのため、具体的な実施過程において、第1左側面図から第1画像を正確に抽出し、第1右側面図から第2画像を正確に抽出できることを確保するために、更に、第1左側面図および第1右側面図に対してノイズ除去処理を行い、ひいてはノイズ除去された第1左側面図およびノイズ除去された第1右側面図を使用して第1画像および第2画像を抽出する必要がある。
実際の応用において、ノイズ除去処理を行う際に採用されるノイズ除去方法は、線形フィルタ法、メディアンフィルタ法およびウィナーフィルタ法等の空間領域ノイズ除去方法であってもよく、フーリエ変換およびウェーブレット変換等の周波数領域ノイズ除去方法であってもよく、もちろん、色ヒストグラム均等化等のような他のタイプのノイズ除去方法であってもよい。
S130において、合成後の第2左側面図および合成後の第2右側面図に基づき、対応する3次元ビデオデータを生成する。
ここで、合成後の第2左側面図および合成後の第2右側面図を取得すると、3次元撮像技術で対象物体と現実のシーンとを合成した3次元ビデオデータを生成することができる。
実際の応用において、合成後の第2左側面図および合成後の第2右側面図に基づいて対応する3次元ビデオデータを生成する際に、色分割、光分割および時分割等の通常の3次元撮像技術を採用してもよく、当業者が具体的に実施する際に実際の状況に応じて決定する。
具体的な実施過程において、第2端末のユーザに拡張現実した3次元ビデオデータを感じさせるために、上記方法は、S130の後に、上記3次元ビデオデータを表示させ、または、第2端末に3次元ビデオデータを送信することを更に含む。
好ましくは、該方法を第2端末に用いると、第2端末に上記3次元ビデオデータを直接に表示させることができ、該方法をサーバに用いる場合、サーバから第2端末に上記3次元ビデオデータを送信する必要があり、第2端末は、3次元ビデオデータを取得してから、該3次元ビデオデータを表示させる。
実際の応用において、ユーザは、該3次元ビデオデータを視聴している時に、パッシブ偏光メガネを着用してもよいし、アクティブシャッター3D(Three Dimensions、3次元)メガネを着用してもよく、もちろん、VR(Virtual Reality、仮想現実)メガネのような他の方式を着用してもよい。一般的には、該3次元ビデオデータを生成する方法によっては、該3次元ビデオデータを視聴する方法も対応して異なり、例えば、時分割に基づく3D技術で3次元ビデオデータが生成された場合、ユーザは、アクティブシャッター3Dメガネを用いて視聴することができる。
これで、2ビデオデータに対する処理が完了する。
上記内容から分かるように、本実施例に係る技術案は、まず、第1端末と第2端末とのビデオ通話中に、少なくとも第1端末に対応する対象物体の第1左側面図および第1右側面図が含まれる第1ビデオデータと、少なくとも第2端末が現在位置している現実のシーンの第2左側面図および第2右側面図が含まれる第2ビデオデータとを取得する。その後、第1左側面図における対象物体の第1画像と第2左側面図とを合成し、第1右側面図における対象物体の第2画像と第2右側面図とを合成する。最後に、合成後の第2左側面図および合成後の第2右側面図に基づき、第1端末に対応する対象物体と第2端末ユーザが現在位置している現実のシーンとを合成した3次元ビデオデータを生成する。このようにして、本実施例に係るビデオデータ処理方法により、ビデオ通話中に、第1端末に対応する対象物体を第2端末が位置する現実のシーンに組み込み、第2端末のビデオ通話の現実情報を拡張し、第2端末のユーザに拡張現実した3次元ビデオ通話を提供することができ、これにより、感覚的に、自分が現在位置している現実環境に対象物体が存在することを第2端末に対応するユーザに感じさせ、更に、ユーザに良好なユーザ体験を提供することができる。
実施例2
上記実施例に基づき、本実施例は、端末1および端末2を備えるビデオ通信システムを提供する。本実施例は、該ビデオ通信システムに適用可能なビデオデータ処理方法を提供する。
上記実施例に基づき、本実施例は、端末1および端末2を備えるビデオ通信システムを提供する。本実施例は、該ビデオ通信システムに適用可能なビデオデータ処理方法を提供する。
例示的には、ビデオ会議を実際の応用シーンとし、ユーザBとユーザAがプロジェクト計画についてコミュニケーションする必要があるが、二人が同じ都市にいないため、対面の交流が困難であると仮定すれば、ユーザBは、会議室において該ビデオ通信システムを用いてユーザAと拡張現実したビデオ通話を行うことができ、着席しているユーザAをユーザBが位置する会議室内のユーザBの向こう側の椅子に組み込むことにより、感覚的に、自分が現在位置している現実環境にユーザAが存在することをユーザBに感じさせることができる。
以下、端末2のユーザBのビデオ通話体験を向上させる過程について詳細に説明する。
なお、図2は、実施例2におけるビデオデータ処理方法のフローチャートであり、図2に示すように、該ビデオデータ処理方法は、S201〜S206を含む。
S201において、端末1は、第1ビデオデータを取得し、第1ビデオデータを端末2に送信する。
ここで、第1ビデオデータには、少なくともユーザAの第1左側面図および第1右側面図が含まれる。
具体的な実施過程において、端末1は、両眼3DカメラによってユーザAを撮影し、ユーザAの第1左側面図および第1右側面図を取得することができる。
実際の応用において、引き続いてユーザAの画像データを抽出しやすくするために、ユーザAは白色、緑色または青色等のような単一色の背景に位置してもよく、一般的には、収集する必要のある対象が人体である場合、緑色および青色が人の肌色と大きく異なっているため、青色の背景または緑色の背景を選択してもよく、映画撮影中の青色の幕または緑色の幕に類似する役割を果たす。
S202において、端末2は、第1ビデオデータを受信し、第2ビデオデータを取得する。
ここで、第2ビデオデータは、ユーザBの目線に立って収集した会議室の第2左側面図および第2右側面図である。
実際の応用において、端末2は装着可能なヘルメットであってもよく、ヘルメットの外側に両眼3Dカメラが設けられ、ユーザBは、ユーザBの目線に立って見た会議室の第2左側面図および第2右側面図を取得することができるように、端末2を頭部に装着してもよい。
S203において、端末2は、第1左側面図から第1画像を抽出し、第1右側面図から第2画像を抽出する。
S204において、端末2は、第1左側面図における対象物体の第1画像と第2左側面図とを合成し、第1右側面図における対象物体の第2画像と第2右側面図とを合成する。
ここで、ユーザAの第1画像および第2画像を取得した後に、ユーザAの3次元情報を会議室内のユーザBの向こう側の座席に組み込んでもよい。
S205において、端末2は、合成後の第2左側面図および合成後の第2右側面図に基づき、対応する3次元ビデオデータを生成する。
ここで、合成後の第2左側面図および合成後の第2右側面図を取得した後に、端末2は、3次元撮像技術により、対応する3次元ビデオデータを生成して表示させ、ユーザBに見せてもよい。
S206において、端末2は、3次元ビデオデータを表示させる。
ここで、3次元ビデオデータを生成した後に、端末2は、3次元ビデオデータを表示させてユーザBに見せてもよい。例示的には、ユーザBは、端末2により、ユーザAが自分と同じ会議室内に位置し、自分の向こう側の座席に座っていることが見える。
これで、端末2によって取得された第2ビデオデータに対する処理が完了する。
上記内容から分かるように、本実施例に係る方法によれば、ユーザBは、端末2により、通話しようとするユーザAの映像を、ユーザBが位置している現実のシーンの映像に組み込んで3次元撮像技術によって表示させ、拡張現実の効果を達成することができ、これによって、ユーザBは、感覚的に、自分が位置している現実環境にユーザAが存在することを感じることができ、ユーザBのビデオ通話体験を向上させる。
実施例3
本実施例は、ビデオデータ処理装置を提供する。図3は、実施例3におけるビデオデータ処理装置の構造模式図であり、図3に示すように、該ビデオデータ処理装置30は、取得モジュール301、合成モジュール302および生成モジュール303を備え、取得モジュール301は、第1端末と第2端末とのビデオ通話中に、少なくとも第1端末に対応する対象物体の第1左側面図および第1右側面図が含まれる第1ビデオデータと、少なくとも第2端末が現在位置している現実のシーンの第2左側面図および第2右側面図が含まれる第2ビデオデータとを取得するように構成され、合成モジュール302は、第1左側面図における対象物体の第1画像と第2左側面図とを合成し、第1右側面図における対象物体の第2画像と第2右側面図とを合成するように構成され、生成モジュール303は、合成後の第2左側面図および合成後の第2右側面図に基づき、対応する3次元ビデオデータを生成するように構成される。
本実施例は、ビデオデータ処理装置を提供する。図3は、実施例3におけるビデオデータ処理装置の構造模式図であり、図3に示すように、該ビデオデータ処理装置30は、取得モジュール301、合成モジュール302および生成モジュール303を備え、取得モジュール301は、第1端末と第2端末とのビデオ通話中に、少なくとも第1端末に対応する対象物体の第1左側面図および第1右側面図が含まれる第1ビデオデータと、少なくとも第2端末が現在位置している現実のシーンの第2左側面図および第2右側面図が含まれる第2ビデオデータとを取得するように構成され、合成モジュール302は、第1左側面図における対象物体の第1画像と第2左側面図とを合成し、第1右側面図における対象物体の第2画像と第2右側面図とを合成するように構成され、生成モジュール303は、合成後の第2左側面図および合成後の第2右側面図に基づき、対応する3次元ビデオデータを生成するように構成される。
好ましくは、該ビデオデータ処理装置は、所定の規則に従い、第1左側面図から第1画像を抽出し、第1右側面図から第2画像を抽出するように構成される抽出モジュールを更に備える。
好ましくは、抽出モジュールは、更に、予め記憶された対象物体モデルによって、第1左側面図に対してターゲット識別を行って第1画像を抽出し、第1右側面図に対してターゲット識別を行って第2画像を抽出するように構成される。
好ましくは、抽出モジュールは、更に、予め記憶された背景モデルによって、第1左側面図における背景データをフィルタリングして第1画像を取得し、第1右側面図における背景データをフィルタリングして第2画像を取得するように構成される。
好ましくは、取得モジュールは、更に、第1端末からの第1ビデオデータを受信し、第2端末からの第2ビデオデータを受信するように構成され、対応的に、該ビデオデータ処理装置は、第2端末に3次元ビデオデータを送信するように構成される送信モジュールを更に備える。
好ましくは、取得モジュールは、更に、第1端末からの第1ビデオデータを受信し、現在位置している現実のシーンの第2左側面図および第2右側面図を同期して収集するように構成され、対応的に、該ビデオデータ処理装置は、3次元ビデオデータを表示させるように構成される表示モジュールを更に備える。
実際の応用において、上記取得モジュール、合成モジュール、生成モジュール、抽出モジュールおよび送信モジュールは、いずれも中央処理装置(CPU、Central Processing Unit)、グラフィックプロセッサ(GPU、Graphics Processing Unit)、マイクロプロセッサ(MPU、Micro Processor Unit)、デジタル信号プロセッサ(DSP、Digital Signal Processor)またはフィールドプログラマブルゲートアレイ(FPGA、Field Programmable Gate Array)等によって実現できる。
以上の装置の実施例の説明は、上記方法の実施例の説明と類似し、方法の実施例と類似する有益な効果を有するため、説明を省略する。装置の実施例において開示されていない技術の詳細については、方法の実施例の説明を参照して理解し、紙面の都合上、重複する説明を省略する。
実施例4
本実施例は、サーバを提供する。図4は、実施例4におけるサーバの構造模式図であり、図4に示すように、該サーバ40は、送受信機401およびプロセッサ402を備え、送受信機401は、少なくとも第1端末に対応する対象物体の第1左側面図および第1右側面図が含まれる第1端末からの第1ビデオデータを受信し、少なくとも第2端末が現在位置している現実のシーンの第2左側面図および第2右側面図が含まれる第2端末からの第2ビデオデータを受信するように構成され、更に、第2端末に3次元ビデオデータを送信するように構成される。プロセッサ402は、第1左側面図における対象物体の第1画像と第2左側面図とを合成し、第1右側面図における対象物体の第2画像と第2右側面図とを合成し、合成後の第2左側面図および合成後の第2右側面図に基づき、対応する3次元ビデオデータを生成するように構成される。
本実施例は、サーバを提供する。図4は、実施例4におけるサーバの構造模式図であり、図4に示すように、該サーバ40は、送受信機401およびプロセッサ402を備え、送受信機401は、少なくとも第1端末に対応する対象物体の第1左側面図および第1右側面図が含まれる第1端末からの第1ビデオデータを受信し、少なくとも第2端末が現在位置している現実のシーンの第2左側面図および第2右側面図が含まれる第2端末からの第2ビデオデータを受信するように構成され、更に、第2端末に3次元ビデオデータを送信するように構成される。プロセッサ402は、第1左側面図における対象物体の第1画像と第2左側面図とを合成し、第1右側面図における対象物体の第2画像と第2右側面図とを合成し、合成後の第2左側面図および合成後の第2右側面図に基づき、対応する3次元ビデオデータを生成するように構成される。
好ましくは、プロセッサ402は、更に、所定の規則に従い、第1左側面図から第1画像を抽出し、第1右側面図から第2画像を抽出するように構成される。
好ましくは、プロセッサ402は、更に、予め記憶された対象物体モデルによって、第1左側面図に対してターゲット識別を行って第1画像を抽出し、第1右側面図に対してターゲット識別を行って第2画像を抽出するように構成される。
好ましくは、プロセッサ402は、更に、予め記憶された背景モデルによって、第1左側面図における背景データをフィルタリングして第1画像を取得し、第1右側面図における背景データをフィルタリングして第2画像を取得するように構成される。
本実施例は、上記実施例のサーバに配置可能であり、上記いずれかの実施例に係るビデオデータ処理方法を実行するためのコンピュータ実行可能命令が記憶される、コンピュータ可読記憶媒体を更に提供する。
好ましくは、本実施例に係るサーバは、上記背景モデルおよび対象物体モデル等のようなデータおよび論理命令を記憶するためのメモリ403を更に備える。プロセッサ402は、メモリ403内の論理命令を呼び出し、上記実施例のビデオデータ処理方法を実行することができる。
上記メモリ内の論理命令は、ソフトウェア機能ユニットの形式で実現でき、独立した製品として販売または使用される場合、コンピュータ可読記憶媒体に記憶させることができる。前記記憶媒体は、USB、リムーバブルハードディスク、読み出し専用メモリ(ROM、Read−Only Memory)、ランダムアクセスメモリ(RAM、Random Access Memory)、磁気ディスクまたは光ディスク等の複数種のプログラムコードを記憶可能な媒体を含む非一時的記憶媒体であってもよく、一時的記憶媒体であってもよい。
以上のサーバの実施例の説明は、上記方法の実施例の説明と類似し、方法の実施例と類似する有益な効果を有するため、説明を省略する。サーバの実施例において開示されていない技術の詳細については、方法の実施例の説明を参照して理解し、紙面の都合上、重複する説明を省略する。
実施例5
本実施例は端末を提供する。図5は、実施例5における端末の構造模式図であり、図5に示すように、該端末50は、受信機501、ステレオカメラ502、プロセッサ503およびディスプレイ504を備える。ここで、受信機501は、少なくとも相手側に対応する対象物体の第1左側面図および第1右側面図が含まれる相手側からのビデオデータを受信するように構成され、ステレオカメラ502は、現在位置している現実のシーンの第2左側面図および第2右側面図を同期して収集するように構成され、プロセッサ503は、第1左側面図における対象物体の第1画像と第2左側面図とを合成し、第1右側面図における対象物体の第2画像と第2右側面図とを合成し、合成後の第2左側面図および合成後の第2右側面図に基づき、対応する3次元ビデオデータを生成するように構成され、ディスプレイ504は、3次元ビデオデータを表示するように構成される。
本実施例は端末を提供する。図5は、実施例5における端末の構造模式図であり、図5に示すように、該端末50は、受信機501、ステレオカメラ502、プロセッサ503およびディスプレイ504を備える。ここで、受信機501は、少なくとも相手側に対応する対象物体の第1左側面図および第1右側面図が含まれる相手側からのビデオデータを受信するように構成され、ステレオカメラ502は、現在位置している現実のシーンの第2左側面図および第2右側面図を同期して収集するように構成され、プロセッサ503は、第1左側面図における対象物体の第1画像と第2左側面図とを合成し、第1右側面図における対象物体の第2画像と第2右側面図とを合成し、合成後の第2左側面図および合成後の第2右側面図に基づき、対応する3次元ビデオデータを生成するように構成され、ディスプレイ504は、3次元ビデオデータを表示するように構成される。
好ましくは、プロセッサ503は、更に、所定の規則に従い、第1左側面図から第1画像を抽出し、第1右側面図から第2画像を抽出するように構成される。
好ましくは、プロセッサ503は、予め記憶された対象物体モデルによって、第1左側面図に対してターゲット識別を行って第1画像を抽出し、第1右側面図に対してターゲット識別を行って第2画像を抽出するように構成される。
好ましくは、プロセッサ503、更に、予め記憶された背景モデルによって、第1左側面図における背景データをフィルタリングして第1画像を取得し、第1右側面図における背景データをフィルタリングして第2画像を取得するように構成される。
本実施例は、上記実施例の端末に配置可能であり、上記いずれかの実施例に係るビデオデータ処理方法を実行するためのコンピュータ実行可能命令が記憶される、コンピュータ可読記憶媒体を更に提供する。
好ましくは、前記端末は、上記背景モデルおよび対象物体モデル等のようなデータおよび論理命令を記憶するためのメモリ505を更に備える。プロセッサ503は、メモリ505内の論理命令を呼び出し、上記実施例のビデオデータ処理方法を実行することができる。
上記メモリ内の論理命令は、ソフトウェア機能ユニットの形式で実現でき、独立した製品として販売または使用される場合、コンピュータ可読記憶媒体に記憶することができる。前記記憶媒体は、USB、リムーバブルハードディスク、読み出し専用メモリ(ROM、Read−Only Memory)、ランダムアクセスメモリ(RAM、Random Access Memory)、磁気ディスクまたは光ディスク等の複数種のプログラムコードを記憶可能な媒体を含む非一時的記憶媒体であってもよく、一時的記憶媒体であってもよい。
以上の端末の実施例の説明は、上記方法の実施例の説明と類似し、方法の実施例と類似する有益な効果を有するため、説明を省略する。端末の実施例において開示されていない技術の詳細については、方法の実施例の説明を参照して理解し、紙面の都合上、重複する説明を省略する。
当業者であれば理解するであろう、本実施例は、方法、システムまたはコンピュータプログラム製品として提供され得る。そのため、本実施例は、ハードウェアの実施例、ソフトウェアの実施例、またはソフトウェアおよびハードウェアの態様を組み合わせる実施例の形式を採用することができる。更に、本実施例は、コンピュータ利用可能なプログラムコードを含む1つまたは複数のコンピュータ利用可能な記憶媒体(磁気ディスクメモリおよび光学的メモリ等を含んでもよいが、それらに限定されない)で実施されるコンピュータプログラム製品の形式を採用してもよい。
本実施例は、本実施例による方法、機器(システム)、およびコンピュータプログラム製品のフローチャートおよび/またはブロック図を参照して説明される。コンピュータプログラム命令により、フローチャートおよび/またはブロック図における各フローおよび/またはブロック、およびフローチャートおよび/またはブロック図におけるフローおよび/またはブロックの組み合わせを実現できることを理解すべきである。これらのコンピュータプログラム命令を、汎用コンピュータ、専用コンピュータ、組込み式処理装置または他のプログラマブルデータ処理機器のプロセッサに提供して1つの機器を生成することができることにより、コンピュータまたは他のプログラマブルデータ処理機器のプロセッサによって実行される命令は、フローチャートの1つのフローまたは複数のフロー、および/またはブロック図の1つのブロックまたは複数のブロックにおいて指定される機能を実現するための装置を生成する。
これらコンピュータプログラム命令は、特定の方式でコンピュータまたは他のプログラマブルデータ処理機器を動作させることができるコンピュータ可読メモリに記憶されてもよく、それにより、該コンピュータ可読メモリに記憶された命令は、フローチャートの1つのフローまたは複数のフロー、および/またはブロック図の1つのブロックまたは複数のブロックにおいて指定される機能を実現する命令装置を含む製造品を生成する。
これらコンピュータプログラム命令は、コンピュータまたは他のプログラマブルデータ処理機器にロードされてもよく、コンピュータまたは他のプログラマブル機器で一連の操作ステップを実行し、コンピュータで実現する処理を生成することにより、コンピュータまたは他のプログラマブル機器で実行される命令は、フローチャートの1つのフローまたは複数のフロー、および/またはブロック図の1つのブロックまたは複数のブロックにおいて指定される機能を実現するためのステップを提供する。
本開示に係るビデオデータ処理方法、装置および機器は、第1端末対象物体の画像データを第2端末の現在の現実のシーンの画像データに組み込み、第2端末のビデオ通話中の現実情報を拡張し、第2端末のユーザに拡張現実した3次元ビデオ通話を提供し、感覚的に、自分が現在位置している現実環境に対象物体が存在することをユーザに感じさせ、更に、ユーザ体験を向上させることができる。
Claims (13)
- 第1端末と第2端末とのビデオ通話中に、少なくとも前記第1端末に対応する対象物体の第1左側面図および第1右側面図が含まれる第1ビデオデータと、少なくとも前記第2端末が現在位置している現実のシーンの第2左側面図および第2右側面図が含まれる第2ビデオデータとを取得することと、
前記第1左側面図における前記対象物体の第1画像と前記第2左側面図とを合成し、前記第1右側面図における前記対象物体の第2画像と前記第2右側面図とを合成することと、
合成後の第2左側面図および合成後の第2右側面図に基づき、3次元ビデオデータを生成することと、を含む、
ビデオデータ処理方法。 - 第1左側面図における前記対象物体の第1画像と前記第2左側面図とを合成し、前記第1右側面図における前記対象物体の第2画像と前記第2右側面図とを合成する前に、
所定の規則に従い、前記第1左側面図から前記第1画像を抽出し、前記第1右側面図から前記第2画像を抽出することを更に含む、
請求項1に記載の方法。 - 所定の規則に従い、前記第1左側面図から前記第1画像を抽出し、前記第1右側面図から前記第2画像を抽出することは、
予め記憶された対象物体モデルによって、前記第1左側面図に対してターゲット識別を行って前記第1画像を抽出し、前記第1右側面図に対してターゲット識別を行って前記第2画像を抽出することを含む、
請求項2に記載の方法。 - 所定の規則に従い、前記第1左側面図から前記第1画像を抽出し、前記第1右側面図から前記第2画像を抽出することは、
予め記憶された背景モデルによって、前記第1左側面図における背景データをフィルタリングして前記第1画像を取得し、前記第1右側面図における背景データをフィルタリングして前記第2画像を取得することを含む、
請求項2に記載の方法。 - 第1端末と第2端末とのビデオ通話中に、第1ビデオデータおよび第2ビデオデータを取得することは、前記第1端末からの前記第1ビデオデータを受信し、前記第2端末からの前記第2ビデオデータを受信することを含み、
前記3次元ビデオデータを生成した後に、前記第2端末に前記3次元ビデオデータを送信することを更に含む、
請求項1から4のいずれか1項に記載の方法。 - 第1端末と第2端末とのビデオ通話中に、第1ビデオデータおよび第2ビデオデータを取得することは、前記第1端末からの前記第1ビデオデータを受信し、前記第2端末が現在位置している現実のシーンの前記第2ビデオデータを同期して収集することを含み、
前記3次元ビデオデータを生成した後に、前記3次元ビデオデータを表示することを更に含む、
請求項1から4のいずれか1項に記載の方法。 - 取得モジュール、合成モジュールおよび生成モジュールを備えるビデオデータ処理装置であって、
前記取得モジュールは、第1端末と第2端末とのビデオ通話中に、少なくとも前記第1端末に対応する対象物体の第1左側面図および第1右側面図が含まれる第1ビデオデータと、少なくとも前記第2端末が現在位置している現実のシーンの第2左側面図および第2右側面図が含まれる第2ビデオデータとを取得するように構成され、
前記合成モジュールは、前記第1左側面図における前記対象物体の第1画像と前記第2左側面図とを合成し、前記第1右側面図における前記対象物体の第2画像と前記第2右側面図とを合成するように構成され、
前記生成モジュールは、合成後の第2左側面図および合成後の第2右側面図に基づき、3次元ビデオデータを生成するように構成される、
ビデオデータ処理装置。 - 所定の規則に従い、前記第1左側面図から前記第1画像を抽出し、前記第1右側面図から前記第2画像を抽出するように構成される抽出モジュールを更に備える、
請求項7に記載の装置。 - 前記抽出モジュールは、予め記憶された対象物体モデルによって、前記第1左側面図に対してターゲット識別を行って前記第1画像を抽出し、前記第1右側面図に対してターゲット識別を行って前記第2画像を抽出するように構成される、
請求項8に記載の装置。 - 前記抽出モジュールは、予め記憶された背景モデルによって、前記第1左側面図における背景データをフィルタリングして前記第1画像を取得し、前記第1右側面図における背景データをフィルタリングして前記第2画像を取得するように構成される、
請求項8に記載の装置。 - 送受信機およびプロセッサを備えるサーバであって、
前記送受信機は、少なくとも前記第1端末に対応する対象物体の第1左側面図および第1右側面図が含まれる第1端末からの第1ビデオデータを受信し、少なくとも前記第2端末が現在位置している現実のシーンの第2左側面図および第2右側面図が含まれる第2端末からの第2ビデオデータを受信するように構成され、
前記プロセッサは、前記第1左側面図における前記対象物体の第1画像と前記第2左側面図とを合成し、前記第1右側面図における前記対象物体の第2画像と前記第2右側面図とを合成し、且つ、合成後の第2左側面図および合成後の第2右側面図に基づき、3次元ビデオデータを生成するように構成され、
前記送受信機は、更に、前記第2端末に3次元ビデオデータを送信するように構成される、
サーバ。 - 受信機、ステレオカメラ、プロセッサおよびディスプレイを備える端末であって、
前記受信機は、少なくとも相手側に対応する対象物体の第1左側面図および第1右側面図が含まれる前記相手側からのビデオデータを受信するように構成され、
前記ステレオカメラは、現在位置している現実のシーンの前記第2左側面図および前記第2右側面図を同期して収集するように構成され、
前記プロセッサは、前記第1左側面図における前記対象物体の第1画像と前記第2左側面図とを合成し、前記第1右側面図における前記対象物体の第2画像と前記第2右側面図とを合成し、且つ、合成後の第2左側面図および合成後の第2右側面図に基づき、3次元ビデオデータを生成するように構成され、
前記ディスプレイは、前記3次元ビデオデータを表示させるように構成される、
端末。 - 請求項1から6のいずれか1項に記載の方法を実行するためのコンピュータ実行可能命令が記憶される、コンピュータ可読記憶媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201611063055.2 | 2016-11-28 | ||
CN201611063055.2A CN108377355A (zh) | 2016-11-28 | 2016-11-28 | 一种视频数据处理方法、装置及设备 |
PCT/CN2017/112217 WO2018095317A1 (zh) | 2016-11-28 | 2017-11-22 | 视频数据处理方法、装置及设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2020513704A true JP2020513704A (ja) | 2020-05-14 |
Family
ID=62194807
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019528723A Pending JP2020513704A (ja) | 2016-11-28 | 2017-11-22 | ビデオデータ処理方法、装置および機器 |
Country Status (4)
Country | Link |
---|---|
EP (1) | EP3547672A4 (ja) |
JP (1) | JP2020513704A (ja) |
CN (1) | CN108377355A (ja) |
WO (1) | WO2018095317A1 (ja) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108924529B (zh) | 2018-07-25 | 2020-03-17 | 北京小米移动软件有限公司 | 图像显示的控制方法及装置 |
CN112788273B (zh) * | 2019-11-08 | 2022-12-02 | 华为技术有限公司 | 一种增强现实ar通信系统及基于ar的通信方法 |
CN112788274A (zh) * | 2019-11-08 | 2021-05-11 | 华为技术有限公司 | 一种基于增强现实的通信方法及装置 |
CN112887258B (zh) * | 2019-11-29 | 2022-12-27 | 华为技术有限公司 | 一种基于增强现实的通信方法及装置 |
CN111556271B (zh) * | 2020-05-13 | 2021-08-20 | 维沃移动通信有限公司 | 视频通话方法、视频通话装置和电子设备 |
CN111929323A (zh) * | 2020-06-02 | 2020-11-13 | 珠海诚锋电子科技有限公司 | 一种瓦楞纸包装箱印刷瑕疵视觉检测方法及装置 |
CN113489920B (zh) * | 2021-06-29 | 2024-08-20 | 维沃移动通信(杭州)有限公司 | 一种视频合成方法、装置及电子设备 |
CN113920032A (zh) * | 2021-10-29 | 2022-01-11 | 上海商汤智能科技有限公司 | 图像处理方法、装置、电子设备及存储介质 |
CN115082639B (zh) * | 2022-06-15 | 2023-06-27 | 北京百度网讯科技有限公司 | 图像生成方法、装置、电子设备和存储介质 |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6873723B1 (en) * | 1999-06-30 | 2005-03-29 | Intel Corporation | Segmenting three-dimensional video images using stereo |
US6583808B2 (en) * | 2001-10-04 | 2003-06-24 | National Research Council Of Canada | Method and system for stereo videoconferencing |
JP4738870B2 (ja) * | 2005-04-08 | 2011-08-03 | キヤノン株式会社 | 情報処理方法、情報処理装置および遠隔複合現実感共有装置 |
CN101610421B (zh) * | 2008-06-17 | 2011-12-21 | 华为终端有限公司 | 视频通讯方法、装置及系统 |
CN101668219B (zh) * | 2008-09-02 | 2012-05-23 | 华为终端有限公司 | 3d视频通信方法、发送设备和系统 |
JP5754044B2 (ja) * | 2010-09-21 | 2015-07-22 | オリンパス株式会社 | 撮像装置及び画像通信システム |
CN102340648A (zh) * | 2011-10-20 | 2012-02-01 | 鸿富锦精密工业(深圳)有限公司 | 用于视频通信系统的视频通信装置、图像处理器及方法 |
EP2713593B1 (en) * | 2012-09-28 | 2015-08-19 | Alcatel Lucent, S.A. | Immersive videoconference method and system |
CN104349111A (zh) * | 2013-07-24 | 2015-02-11 | 华为技术有限公司 | 视频会议会场创建方法及系统 |
US9524588B2 (en) * | 2014-01-24 | 2016-12-20 | Avaya Inc. | Enhanced communication between remote participants using augmented and virtual reality |
CN105955456B (zh) * | 2016-04-15 | 2018-09-04 | 深圳超多维科技有限公司 | 虚拟现实与增强现实融合的方法、装置及智能穿戴设备 |
CN106131530B (zh) * | 2016-08-26 | 2017-10-31 | 万象三维视觉科技(北京)有限公司 | 一种裸眼3d虚拟现实展示系统及其展示方法 |
-
2016
- 2016-11-28 CN CN201611063055.2A patent/CN108377355A/zh active Pending
-
2017
- 2017-11-22 EP EP17874884.4A patent/EP3547672A4/en not_active Withdrawn
- 2017-11-22 WO PCT/CN2017/112217 patent/WO2018095317A1/zh unknown
- 2017-11-22 JP JP2019528723A patent/JP2020513704A/ja active Pending
Also Published As
Publication number | Publication date |
---|---|
WO2018095317A1 (zh) | 2018-05-31 |
EP3547672A1 (en) | 2019-10-02 |
EP3547672A4 (en) | 2020-07-08 |
CN108377355A (zh) | 2018-08-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2020513704A (ja) | ビデオデータ処理方法、装置および機器 | |
JP4794678B1 (ja) | 映像処理装置、映像処理方法、および映像通信システム | |
JP6654625B2 (ja) | 仮想現実環境において遮られた顔部分を再構築する方法およびシステム | |
CN109615703B (zh) | 增强现实的图像展示方法、装置及设备 | |
CN109997175B (zh) | 确定虚拟对象的大小 | |
CN113228625A (zh) | 支持复合视频流的视频会议 | |
CN109598796A (zh) | 将真实场景与虚拟物体进行3d融合显示的方法和装置 | |
JP2004289527A (ja) | 立体画像表示装置 | |
CN102647606A (zh) | 立体影像处理器、立体影像互动系统及立体影像显示方法 | |
CN103777757A (zh) | 一种结合显著性检测的在增强现实中放置虚拟对象的系统 | |
CN103747236A (zh) | 结合人眼跟踪的立体视频处理系统及方法 | |
WO2018176927A1 (zh) | 虚拟主动视差计算补偿的双目渲染方法及系统 | |
CN107862718A (zh) | 4d全息视频捕捉方法 | |
US9161012B2 (en) | Video compression using virtual skeleton | |
WO2017124870A1 (zh) | 一种处理多媒体信息的方法及装置 | |
CN107948631A (zh) | 一种基于集群和渲染的裸眼3d系统 | |
US20210327121A1 (en) | Display based mixed-reality device | |
US20230386147A1 (en) | Systems and Methods for Providing Real-Time Composite Video from Multiple Source Devices Featuring Augmented Reality Elements | |
CN109685911B (zh) | 一种可实现虚拟试衣的ar眼镜及其实现方法 | |
US11297296B2 (en) | Display control apparatus, program, and display control method | |
JP2017055355A (ja) | 画像表示システム及び画像表示方法 | |
CN105894581B (zh) | 一种呈现多媒体信息的方法及装置 | |
Parikh et al. | A mixed reality workspace using telepresence system | |
Richardt et al. | Stereo coherence in watercolour rendering | |
JP6550307B2 (ja) | 画像表示システム及び画像表示方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190530 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200714 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201014 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20201201 |