JP2010212947A - 情報処理装置および方法、情報処理システム、並びにプログラム - Google Patents

情報処理装置および方法、情報処理システム、並びにプログラム Download PDF

Info

Publication number
JP2010212947A
JP2010212947A JP2009056266A JP2009056266A JP2010212947A JP 2010212947 A JP2010212947 A JP 2010212947A JP 2009056266 A JP2009056266 A JP 2009056266A JP 2009056266 A JP2009056266 A JP 2009056266A JP 2010212947 A JP2010212947 A JP 2010212947A
Authority
JP
Japan
Prior art keywords
image
information processing
data
partial
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009056266A
Other languages
English (en)
Inventor
Ikuo Tsukagoshi
郁夫 塚越
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2009056266A priority Critical patent/JP2010212947A/ja
Priority to EP10750717.0A priority patent/EP2408200A4/en
Priority to RU2011136680/07A priority patent/RU2524677C2/ru
Priority to BRPI1009503A priority patent/BRPI1009503A2/pt
Priority to US13/254,094 priority patent/US20110317921A1/en
Priority to CN2010800104072A priority patent/CN102405642A/zh
Priority to PCT/JP2010/053393 priority patent/WO2010103963A1/ja
Publication of JP2010212947A publication Critical patent/JP2010212947A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/147Communication arrangements, e.g. identifying the communication as a video-communication, intermediate storage of the signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Image Processing (AREA)
  • Data Exchanges In Wide-Area Networks (AREA)

Abstract

【課題】アップリンク帯域においても映像画質を向上させ、且つ臨場感を損なわない効果を実現する。
【解決手段】送信側としてのクライアント機器11Aは、撮影画像からコミュニケーションの主体となる画像のみを分離して、その分離した画像の画像データを1次データ21Aとして送信する。受信側としてのクライアント機器11Bは、撮影画像の背景に代わるものとして、テクスチャ画像の画像データを2次データ22Aとして、ネットワーク13上のストリーミングサーバ12Aから受信する。受信した1次データ21Aと2次データ22Aとを合成し、合成画像をモニタ34に表示する。本発明は、例えば、ピクチャーコミュニケーションを行う送受信装置に適用可能である。
【選択図】図2

Description

本発明は、情報処理装置および方法、情報処理システム、並びにプログラムに関し、特に、アップリンク帯域においても映像画質を向上させ、且つ臨場感を損なわない双方向通信が実現できるようになった、情報処理装置および方法、情報処理システム、並びにプログラムに関する。
従来、一般的なネットワーク環境として、ADSL(Asymmetric Digital Subscriber Line)接続が広く普及している。
図1を用いて、一般的なADSL接続におけるネットワーク環境を説明する。
クライアント機器1とクライアント機器2とは、ネットワーク3とADSL接続することで、ネットワーク3を介して相互に接続している。たとえば、クライアント機器1とクライアント機器2が双方向通信を行う場合、クライアント機器1は、データをネットワーク3に送信する。すなわち、データはクライアント機器1からネットワーク3に対してアップリンクにより送信される。クライアント機器2は、ネットワーク3を介してクライアント機器1から送信されたデータを受信する。すなわち、データは、ネットワーク3からダウンリンクによりクライアント機器2に送信されてくる。このようにして、クライアント機器2は、クライアント機器1から送信されたデータを受信することができる。
逆方向の通信においても同様に、クライアント機器2は、データをネットワーク3に送信する。すなわち、データはクライアント機器2からネットワーク3に対してアップリンクにより送信される。クライアント機器1は、ネットワーク3を介してクライアント機器2から送信されたデータを受信する。すなわち、データは、ネットワーク3からダウンリンクによりクライアント機器1に送信されてくる。このようにして、クライアント機器1は、クライアント機器2から送信されたデータを受信することができる。(例えば、特許文献1参照)
ADSL接続は、インターネット接続する場合、データがダウンリンクにより送信される(下り)側の通信帯域の幅を広く、データがアップリンクにより送信される(上り)側の通信帯域の幅を狭く設定している。以下、ダウンリンク側の通信帯域をダウンリンク帯域と称する。また、アップリンク側の通信帯域をアップリンク帯域と称する。
特開2001-236292号公報
しかしながら、上述した一般的なADSL接続におけるネットワーク環境では、ビデオコミュニケーションあるいはビデオチャットなどの双方向通信を行う場合、ダウンリンク帯域の幅と比較して、アップリンク帯域の幅の制約が大きい。このため、送信するデータの圧縮符号化レートが低くなってしまう。なお、ビデオコミュニケーションあるいはビデオチャットなどの双方向通信を、以下、ピクチャーコミュニケーションと称する。
よって、ユーザがカメラからのキャプチャ画像全体を圧縮符号化してアップリンクにより送信した場合に、コミュニケーションの主体となる人物の顔が、十分な画質で相手側に受信されるのが困難となることがあった。
また、上述した人物の顔の映像に限らず、他の画像においても、アップリンク帯域に置ける映像画質の向上が望まれている。
本発明はこのような状況に鑑みてなされたものであり、アップリンク帯域においても映像画質を向上させ、且つ臨場感を損なわないようにするものである。
本発明の一側面の第1の情報処理装置は、元画像を1以上の領域に区分し、区分された1以上の領域のうち所定の1の領域を部分画像として、その領域の画サイズで、前記元画像から分割する分割手段と、前記分割手段により前記元画像から分割された前記部分画像を他の情報処理装置に送信する送信手段と、前記部分画像に対して合成する背景画像を配信する配信装置に対して、前記背景画像を前記他の情報処理装置に送信することを要求する要求手段とを備える。
前記部分画像は、ピクチャーコミュニケーションの主体となるオブジェクトを含む画像である。
本発明の一側面である第1の情報処理方法とプログラムのそれぞれは、上述した本発明の一側面の情報処置装置に対応する方法とプログラムのそれぞれである。
本発明の一側面のである第1の情報処理装置及び方法並びにプログラムにおいては、情報処理装置または、情報処理装置を制御するコンピュータによって、元画像が1以上の領域に区分され、区分された1以上の領域のうち所定の1の領域を部分画像として、その領域の画サイズで、前記元画像から分割され、前記元画像から分割された前記部分画像が他の情報処理装置に送信され、前記部分画像に対して合成する背景画像を配信する配信装置に対して、前記背景画像を前記他の情報処理装置に送信することが要求される。
本発明の一側面の第2の情報処理装置は、他の情報処理装置により、元画像が1以上の領域に区分され、区分された1以上の領域のうち所定の1の領域が部分画像とされて、その領域の画サイズで前記元画像から分割され、前記部分画像が送信されてきた場合、その部分画像を受信する部分画像受信手段と、前記部分画像受信手段により受信された前記部分画像と、所定の背景画像とを合成することで、合成画像を生成する合成手段とを備える。
前記合成手段により合成された前記合成画像を含む画像の表示を制御する表示制御手段をさらに備える。
前記部分画像は、ピクチャーコミュニケーションの主体となるオブジェクトを含む画像である。
前記背景画像が配信装置から配信されてきた場合、その背景画像を受信する背景画像受信手段をさらに備え、前記合成手段は、前記部分画像と、前記背景画像受信手段により受信された前記背景画像とを合成することで、前記合成画像を生成する。
前記前記背景画像受信手段により受信された前記背景画像を保持する保持手段をさらに備え、前記合成手段は、前記部分画像と、前記保持手段により保持された前記背景画像とを合成することで、前記合成画像を生成する。
本発明の一側面である第2の情報処理方法とプログラムのそれぞれは、上述した本発明の一側面の情報処置装置に対応する方法とプログラムのそれぞれである。
本発明の一側面である第2の情報処理装置及び方法並ぶにプログラムにおいては、情報処理装置または、情報処理装置を制御するコンピュータによって、他の情報処理装置により、元画像が1以上の領域に区分され、区分された1以上の領域のうち所定の1の領域が部分画像とされて、その領域の画サイズで前記元画像から分割され、前記部分画像が送信されてきた場合、その部分画像が受信され、受信された前記部分画像と、所定の背景画像とが合成されることで、合成画像が生成される。
本発明の一側面である情報処理システムは、第1の情報処理装置から第2の情報処理装置に送信する対象である元画像を1以上の領域に区分し、区分された1以上の領域のうち所定の1の領域を部分画像として、その領域の画サイズで、前記元画像から分割する分割手段と、前記分割手段により前記元画像から分割された前記部分画像を前記第2の情報処理装置に送信する送信手段と、前記部分画像に対して合成する背景画像を配信する配信装置に対して、前記背景画像を前記第2の情報処理装置に送信することを要求する要求手段とを備える前記第1の情報処理装置と、前記第1の情報処理装置からの要求を受けて、前記背景画像を前記第2の情報処理装置に配信する前記配信装置と、前記第1の情報処理装置から送信されてきた前記部分画像を受信する部分画像受信手段と、前記配信装置から配信されてきた前記背景画像を受信する背景画像受信手段と、前記部分画像受信手段により受信された前記部分画像と、前記背景画像受信手段により受信された前記背景画像とを合成することで、前記合成画像を生成する合成手段とを備える第2の情報処理装置とを含むように構成される。
本発明の一側面である情報処理システムにおいては、第1の情報処理装置によって元画像を1以上の領域に区分され、区分された1以上の領域のうち所定の1の領域を部分画像として、その領域の画サイズで、前記元画像から分割され、前記分割手段により前記元画像から分割された前記部分画像を前記第2の情報処理装置に送信され、前記部分画像に対して合成する背景画像を配信する配信装置に対して、前記背景画像を前記第2の情報処理装置に送信することを要求される。また、配信装置によって、前記第1の情報処理装置からの要求を受けて、前記背景画像を前記第2の情報処理装置に配信される。第2の情報処理装置によって、前記第1の情報処理装置から送信されてきた前記部分画像が受信され、前記配信装置から配信されてきた前記背景画像が受信され、前記部分画像受信手段により受信された前記部分画像と、前記背景画像受信手段により受信された前記背景画像とを合成することで、前記合成画像が生成される。
以上のごとく、本発明によれば、アップリンク帯域においても映像画質を向上させ、且つ臨場感を損なわないようにすることが可能となる。
一般的なADSL接続におけるネットワーク環境を説明するための図である。 本発明を適用した情報処理システムの概要を示す機能ブロック図である。 クライアント機器11の機能的な構成例を示す機能ブロック図である。 図3のクライアント機器11よる画像表示を説明するための図である。 図3の部分図作成部32Aの機能的な構成例を示す機能ブロック図である。 図3の部分図作成部32Bの機能的な構成例を示す機能ブロック図である。 図5の画像分離処理部の処理の例を説明するための図である。 図5の画像分離処理部の処理の例を説明するための図である。 図5および図6の動画フレーム合成部の処理を説明するための図である。 図3のクライアント機器11による双方向通信処理の一例を説明するフローチャートである。 図3のクライアント機器11による双方向通信処理の一例を説明するフローチャートである。 本発明が適用される情報処理システムを制御するコンピュータの構成例を示すブロック図である。
〈本発明の実施の形態〉
図2は、本発明の手法が適用される情報処理システムの概要を示す機能ブロック図である。
図2において、点線で囲まれたブロックは、データを示している。また、点線はデータの流れを示している。ただし、実際のデータの伝送経路は、点線そのものではなく、後述するネットワーク13を介在する経路になる。
図2の例の情報処理システムは、クライアント機器11A,11B,ストリーミングサーバ12A,12Bが、ネットワーク13を介して相互に接続されて構成されている。
なお、クライアント機器11A,11B、およびストリーミングサーバ12A,12Bは、は、それぞれ1以上の数で構成されていればよく、図2の例に限定するものではない。
クライアント機器11Aは、ネットワーク13を介して、クライアント機器11Bとピクチャーコミュニケーションを行う。
クライアント機器11Aは、カメラ(後述する図3のカメラ31参照)から入力されたキャプチャ画像の画像データを、次の第1の画像データと第2の画像データに分離する。第1の画像データは、キャプチャ画像のうちのコミュニケーションの主体となる部分、たとえば、人物についての画像データである。なお、以下、第1の画像データを、1次データと称する。第2の画像データは、キャプチャ画像のうちの1次データ以外の部分、たとえば、人物の背景についての画像データである。なお、以下、第2の画像データを、背景画像データと称する。
クライアント機器11Aは、キャプチャ画像の画像データのうち、1次データ21Aを圧縮符号化する。圧縮符号化された1次データ21Aは、ネットワーク13を介してクライアント機器11Bに送信される。
同様に、クライアント機器11Bは、キャプチャ画像の画像データのうち、1次データ21Bを圧縮符号化する。圧縮符号化された1次データ21Bは、ネットワーク13を介してクライアント機器11Aに送信される。
ストリーミングサーバ12Aは、1次データ21Aに対応する背景画像データに代わるものとして、2次データ22Aを、ネットワーク13を介してクライアント機器11Aおよびクライアント機器11Bに配信する。2次データ22Aは、例えば、ストリーミングサーバ12Aに予め保存されていた静止画または動画の画像データである。ただし、2次データ22Aは、圧縮符号化されて保存されている。
同様にストリーミングサーバ12Bは、1次データ21Bに対応する背景画像データに代わるものとして、2次データ22Bを、ネットワーク13を介してクライアント機器11Aおよびクライアント機器11Bに配信する。2次データ22Bは、例えば、ストリーミングサーバ12Bに予め保存されていた静止画または動画の画像データである。ただし、2次データ22Bは、圧縮符号化されて保存されている。
クライアント機器11Aは、クライアント機器11Bから送信された1次データ21Bを、ネットワーク13を介して受信する。クライアント機器11Aはまた、ストリーミングサーバ12Bから送信された2次データ22Bを、ネットワーク13を介して受信する。上述の如く、1次データ21Bと2次データ22Bはともに圧縮符号化されている。そこで、クライアント機器11Aは、1次データ21Bと2次データ22Bとのそれぞれに対して伸長復号化処理を施す。さらにクライアント機器11Aは、伸長復号化処理が施された1次データ21Bと2次データ22Bに対して合成処理を施す。この合成処理により得られる画像データとは、次のような合成画像についての画像データとなる。即ち、本来の背景画像の代わりに、2次データ22Bに対応する静止画像等を背景画像として、1次データ21Bに対応するコミュニケーションの主体となる部分(例えば人物)が合成された画像(以下、部分図データ23Bと称する)についての合成画像データが得られる。この部分図データ23Bは、クライアント機器11Aのモニタ(後述する図3のモニタ34)において、通信相手であるクライアント機器11Bからの受信画像として表示される。
クライアント機器11Aは、自身の画像に対応する画像データとして、1次データ21Aを保持している。クライアント機器11Aはまた、ストリーミングサーバ12Aから送信された2次データ22Aを、ネットワーク13を介して受信する。上述の如く、1次データ21Aと2次データ22Aはともに圧縮符号化されている。そこで、クライアント機器11Aは、1次データ21Aと2次データ22Aとのそれぞれに対して伸長復号化処理を施す。さらにクライアント機器11Aは、伸長復号化処理が施された1次データ21Aと2次データ22Aに対して合成処理を施す。この合成処理により得られる画像データとは、次のような合成画像についての画像データとなる。即ち、本来の背景画像の代わりに、2次データ22Aに対応する静止画像等を背景画像として、1次データ21Aに対応するコミュニケーションの主体となる部分(例えば人物)が合成された画像(以下、部分図データ23Aと称する)についての合成画像データが得られる。この部分図データ23Aは、クライアント機器11Aのモニタ(後述する図3のモニタ34)において、通信相手であるクライアント機器11Bへの送信画像として表示される。
すなわち、クライアント機器11Aは、通信相手であるクライアント機器11Bからの受信画像(部分図データ23B)と、クライアント機器11Bへの送信画像(部分図データ23A)を、同時にモニタ(後述する図3のモニタ34)に表示することができる。
クライアント機器11Bは、クライアント機器11Aから送信された1次データ21Aを、ネットワーク13を介して受信する。クライアント機器11Bはまた、ストリーミングサーバ12Aから送信された2次データ22Aを、ネットワーク13を介して受信する。上述の如く、1次データ21Aと2次データ22Aはともに圧縮符号化されている。そこで、クライアント機器11Bは、圧縮符号化された1次データ21Aと2次データ22Aとのそれぞれに対して伸長復号化処理を施す。さらにクライアント機器11Bは、伸長復号化処理の結果得られた1次データ21Aと2次データ22Aに対して合成処理を施す。この合成処理により得られる画像データとは、次のような合成画像についての画像データとなる。即ち、本来の背景画像の代わりに、2次データ22Aに対応する静止画像等を背景画像として、1次データ21Aに対応するコミュニケーションの主体となる部分(例えば人物)が合成された画像(以下、部分図データ23Aと称する)についての合成画像データが得られる。この部分図データ23Aは、クライアント機器11Bのモニタ(後述する図3のモニタ34)において、通信相手であるクライアント機器11Aからの受信画像として表示される。
クライアント機器11Bは、自身の画像に対応する画像データとして、1次データ21Bを保持している。クライアント機器11Bはまた、ストリーミングサーバ12Bから送信された2次データ22Bを、ネットワーク13を介して受信する。上述の如く、1次データ21Bと2次データ22Bはともに圧縮符号化されている。そこで、クライアント機器11Aは、圧縮符号化された1次データ21Bと2次データ22Bとのそれぞれに対して伸長復号化処理を施す。さらにクライアント機器11Bは、伸長復号化処理の結果得られた1次データ21Bと2次データ22Bに対して合成処理を施す。この合成処理により得られる画像データとは、次のような合成画像についての画像データとなる。即ち、本来の背景画像の代わりに、2次データ22Bに対応する静止画像等を背景画像として、1次データ21Bに対応するコミュニケーションの主体となる部分(例えば人物)が合成された画像(以下、部分図データ23Bと称する)についての合成画像データが得られる。この部分図データ23Bは、クライアント機器11Bのモニタ(後述する図3のモニタ34)において、通信相手であるクライアント機器11Aへの送信画像として表示される。
このようにして、クライアント機器11Bにおいても、通信相手であるクライアント機器11Aからの受信画像(部分図データ23A)と、クライアント機器11Aへの送信画像(部分図データ23B)を、同時にモニタ(後述する図3のモニタ34)に表示することができる。
[クライアント機器の構成例]
次に、クライアント機器11A,11Bの詳細について説明する。
なお、以下、クライアント機器11A,11Bを個々に区別する必要がない場合、それらをまとめて、クライアント機器11と称する。
図3は、クライアント機器11の機能的な構成例を示す機能ブロック図である。
図4は、図3のクライアント機器11における画像表示例を説明するための図である。
図3の例のクライアント機器11は、カメラ31、モニタ32、部分図作成部32Aおよび32B、および、画像構成部33を含むように構成されている。ただし、カメラ31とモニタ34は、クライアント機器11にとって必須な構成要素ではない。即ち、外部機器としてのカメラ31とモニタ34を、クライアント機器11に接続するようにしてもよい。
以下、クライアント機器11Aであるとして説明する。
カメラ31は、ユーザ等の被写体を撮影し、その結果得られる画像データ(以下、撮影画像データと称する)を、部分図作成部32Aに供給する。
部分図作成部32Aは、撮影画像データを、1次データ21Aと背景画像データとに分離する。さらに、部分図作成部32Aは、1次データ21Aに対して圧縮符号化処理を施す。圧縮符号化された1次データ21Aは、ネットワーク13を介してクライアント機器11Bに送信される。
また、部分図作成部32Aは、図2に示されるストリーミングサーバ12Aから送信されてくる2次データ22Aを、ネットワーク13を介して受信する。
ここで、上述の如く2次データ22Aは、圧縮符号化されている。そこで、部分図作成部32Aは、圧縮符号化されている2次データ22Aに対して伸長復号化処理を施す。さらに部分図作成部32Aは、図4の上段に示されるように、1次データ21Aと2次データ22Aに対して合成処理を施すことで、部分図データ23Aを生成する。
図4の上段に示されるように、1次データ21Aとは、撮影画像から背景画像が除外された画像、即ち、コミュニケーションの主体となる部分(例えば図4の例では特定人物の上半身)についての画像データである。また、2次データ22Aとは、本来の背景画像の代わりとなる静止画像等(例えば図4の例では斜線パターンの静止画像)についての画像データである。よって、部分図データ23Aとは、本来の背景画像の代わりとなる静止画像等(例えば図4の例では斜線パターンの静止画像)の上に、コミュニケーションの主体となる部分(例えば図4の例では特定人物の上半身)が合成された合成画像についての画像データとなる。
部分図作成部32Bは、図2に示されるクライアント機器11Bから送信されてくる1次データ21Bを、ネットワーク13を介して受信する。
また、部分図作成部32Bは、図2に示されるストリーミングサーバ12Bから送信されてくる2次データ22Bを、ネットワーク13を介して受信する。
ここで、上述の如く1次データ21B、および2次データ22Bは、圧縮符号化されている。そこで、部分図作成部32Bは、圧縮符号化されている1次データ21B、および2次データ22Aに対して伸長復号化処理を施す。さらに部分図作成部32Bは、図4の下段に示されるように、1次データ21Bと2次データ22Bに対して合成処理を施すことで、部分図データ23Bを生成する。
図4の下段に示されるように、1次データ21Bとは、撮影画像から背景画像が除外された画像、即ち、コミュニケーションの主体となる部分(例えば図4の例では特定人物の上半身)についての画像データである。また、2次データ22Bとは、本来の背景画像の代わりとなる静止画像等(例えば図4の例では格子パターンの静止画像)についての画像データである。よって、部分図データ23Bとは、本来の背景画像の代わりとなる静止画像等(例えば図4の例では格子パターンの静止画像)の上に、コミュニケーションの主体となる部分(例えば図4の例では特定人物の上半身)が合成された合成画像についての画像データとなる。
図3の画面構成部33は、図4の右方のモニタ34に示されるように、部分図作成部32からの部分図データ23Aに対応する画像と、部分図作成部32Bからの部分図データ23Bに対応する画像を、モニタ34の一画面に表示させる制御をする。
なお、説明の簡略上、クライアント機器11Aとして説明を行った。勿論、クライアント機器11Bも、以上に説明した各種機能を同様に有している。
このようにして、ユーザは、クライアント機器11Aやクライアント機器11Bを用いて、たとえば自身の画像と通信相手の画像を同時に見ながら、ピクチャーコミュニケーションを行うことができる。
また、送信側としてのクライアント機器11Aは、本来の背景画像の代わりとなる2次データ22Aに対し、画像制御を行うことが可能である。例えば、2次データ22Aが静止画である場合においては、クライアント機器11Aは、静止画スライドショーのページ送り制御等を行うことも可能である。また例えば、2次データ22Aが動画である場合においては、クライアント機器11Aは、動画の早送りや巻き戻し制御等を行うことも可能である。
図5は、図3のクライアント機器11の部分図作成部32Aの詳細な機能的構成例を示している。
図5の例では、部分図作成部32Aは、画像入力部41乃至動画フレーム合成部53を含むように構成されている。
なお、以下の簡略上、図3の説明と同様に、クライアント機器11Aの部分図作成部32Aとして説明をする。勿論、クライアント機器11Bの部分図作成部32Aも、以下に説明する各種機能を同様に有している。
画像入力部41は、カメラ31から撮影画像データを入力し、画像分離処理部42に供給する。
画像分離処理部42は、撮影画像データを、コミュニケーションの主体となる画像(例えば人物)についての1次データ21Aと、背景画像についての背景画像データとに分離する。分離された1次データ21Aは、符号化部43に供給される。
なお、分離直後の1次データ21Aに対応する画像には、コミュニケーションの主体となる画像(人物)以外の背景部分がまだ含まれている。そこで、画像分離処理部42は、分離直後の1次データ21Aに対応する画像のうち、コミュニケーションの主体となる画像(人物)以外の背景部分の代わりに、高周波成分の少ない平滑なテクスチャで置き換える処理を実行する。なお、この処理の詳細については、図8を参照して後述する。
以上に説明した一連の処理、即ち、背景画像データを1次データ21Aと背景画像データとに分離し、背景画像データを平滑なテクスチャに置き換えるまでの処理を、以下、画像分離処理と称する。画像分割処理の具体例については、図7と図8を用いて後述する。
符号化部43は、ビット割当て部44を含むように構成されている。
符号化部43は、画像分離処理部42から入力された1次データ21Aに対して圧縮符号化処理を施す。圧縮符号化された1次データ21Aは、送信処理部45に供給される。
また、符号化部43は、1次データ21Aを、画像サイズ変換部46に供給する。
ビット割当て部44は、1次データ21Aの圧縮符号化に際して適応的にビットを割り当てる処理を施す。
送信処理部45は、圧縮符号化された1次データ21Aを、ネットワーク13を介してクライアント機器11Bに送信する。
画像サイズ変換部46は、符号化部43からの1次データ21Aに対して、サイズ変換処理を施す。画サイズが変更された1次データ21Aは、動画フレーム合成部53に供給される。
図2のストリーミングサーバ12Aから送信された2次データ22Aは、ネットワーク13を介してクライアント機器11(本例ではクライアント機器11A)に受信される。
クライアント機器11Aの受信処理部47は、2次データ22Aを受信し、スイッチ部49に供給する。
受信処理部47は、必要に応じて2次データ22Aをローカル蓄積部48に蓄積させる。
ローカル蓄積部48は、クライアント機器11Aに内蔵されているか、または外部機器として接続されている。ローカル蓄積部48は、2次データ22Aを予め蓄積している。
例えば、受信処理部47は、ローカル蓄積部48への2次データ22Aの蓄積を、ネットワーク13の通信帯域に余裕のある時にあらかじめ行っておく。
スイッチ部49は、入力を、受信処理部47側とローカル蓄積部48側のいずれか一方に切り替える。すると、受信処理部47側とローカル蓄積部48側とのうち切り替えられた側から、2次データ22Aがスイッチ部49に入力される。スイッチ部49に入力された2次データ22Aは、データカウンタ部50に供給される。この場合、スイッチ部49がローカル蓄積部48に切り替えて2次データ22Aを出力することにより、ダウンリンク帯域をより有効に利用できる。なお、スイッチ部49により切り替えられた後のモニタ34の表示としては、ファイルとして既圧縮符号化ビデオの非参照ピクチャからのみ表示することが可能となる。
データカウンタ部50は、2次データ22Aに関するストリーミングサーバ12A上のファイル読み出し経過位置を算出する。これにより、ネットワーク13を介して受信する2次データ22Aを、ローカル蓄積部48にある、ストリーミングサーバ12Aのコピーファイルの先頭位置からのオフセットとして読み換えることができるようになる。
データカウンタ部50から出力される2次データ22Aは圧縮符号化されている。そこで、復号化部51は、圧縮符号化された2次データ22Aに対して伸長復号化処理を施す。その結果得られる2次データ22Aは、画像サイズ変換部52に供給される。
画像サイズ変換部52は、復号化部51からの2次データ22Aに対し、サイズ変換処理を施す。画サイズが変更された2次データ22Aは、動画フレーム合成部53に供給される。
動画フレーム合成部53は、画像サイズ変換部46からの1次データ21Aと、画像サイズ変換部52からの2次データ22Aとに対し、合成処理をフレーム毎に施す。その結果得られる部分図データ23Aは、画像構成部33に供給される。
図6は、図3のクライアント機器11の部分図作成部32Bの詳細な機能的構成例を示している。
図6の例では、部分図作成部32Bは、受信処理部71乃至動画フレーム合成部77を含むように構成されている。
なお、以下の簡略上、図3の説明と同様に、クライアント機器11Aの部分図作成部32Bとして説明をする。勿論、クライアント機器11Bの部分図作成部32Bも、以下に説明する各種機能を同様に有している。
図2のクライアント機器11(本例ではクライアント機器11B)から送信された1次データ21Bは、ネットワーク13を介してクライアント機器11(本例ではクライアント機器11A)に受信される。
受信処理部71はクライアント機器11Bから送信されてくる1次データ21Bを、ネットワーク13を介して受信する。
ここで、上述の如く1次データ21Bは、圧縮符号化されている。そこで復号化部72は、圧縮符号化されている1次データ21Bに対して伸長復号化処理を施す。伸長復号化された1次データ21Bは、画像サイズ変換部73に供給される。
画像サイズ変換部73は、復号化部72からの1次データ21Bに対し、サイズ変換処理を施す。画サイズが変更された1次データ21Bは、動画フレーム合成部77に供給される。
図2のストリーミングサーバ12Bから送信された2次データ22Bは、ネットワーク13を介してクライアント機器11(本例ではクライアント機器11A)に受信される。
受信処理部74は、ストリーミングサーバ12Bから送信されてくる2次データ22Bを、ネットワーク13を介して受信する。
ここで、上述の如く2次データ22Bは、圧縮符号化されている。そこで復号化部75は、圧縮符号化されている2次データ22Bに対して伸長復号化処理を施す。伸長復号化された2次データ22Bは、画像サイズ変換部76に供給される。
画像サイズ変換部76は復号化部75からの2次データ22Bに対し、サイズ変換処理を施す。画サイズが変更された2次データ22Bは、動画フレーム合成部77に供給される。
動画フレーム合成部77は、画像サイズ変換部73からの1次データ21Bと、画像サイズ変換部76からの2次データ22Bとに対し、合成処理をフレームごとに施す。その結果得られる部分図データ23Bは、画像構成部33に供給される。
なお、クライアント機器11は、2次データ22Aおよび2次データ22Bのファイル再生を、自動的に繰り返し再生するように制御することも可能である。
[本発明が適用される画像表示処理装置の画像分離処理の一例]
図7と図8は、図5の画像分離処理部42による画像分離処理の具体例を説明するための図である。
図7のAには、カメラ31により被写体mが撮影された結果、カメラ31から出力された撮影画像データ20Aの一例が示されている。即ち、図7のAの撮影画像データ20Aが画像入力部41を介して画像分離処理部42に提供される。
すると、画像分離処理部42は、撮影画像データ20Aに対応する撮影画像のうち、コミュニケーションの主体となる部分(図7の例では被写体m)と背景との境界mbを検出する。そして、画像分離処理部42は、この境界mbに従って、撮影画像データ20Aから、一次データ21A(図7のC参照)と背景画像データとを分離する。
なお、図7のCに示される画像、即ち、一次データ21Aに対応する画像は、基本的に、図7のBに示される撮影画像のうち点線の部分の画像である。しかしながら、基本的にと記述したように、図7のBの点線の部分の画像と、図7のCの一次データ21Aに対応する画像とは異なる。前者の画像には、コミュニケーションの主体となる画像(図7の例では被写体mの画像)以外に、背景画像がまだ含まれているからである。このため、画像分離処理部42は、撮影画像データから、前者の画像に対応する画像データを切り出した後、その前者の画像(以下、スクラップ画像と称する)から、背景画像を除去する処理(以下、背景除去処理と称する)を実行する必要がある。
図8は、背景除去処理の具体例を示す図である。
図8のAは、スクラップ画像を示している。このスクラップ画像は、境界mbを境にして、コミュニケーションの主体となる画像mp(図7の被写体mの画像mp)と、背景画像bpとに区分される。
画像分離処理部42は、図8のAのスクラップ画像のうち、背景画像bpを、例えば画素値でいう極値の色(例えば黒色)で塗りつぶす画像処理を行う。その結果、図8のBに示されるように、図8のAのスクラップ画像に対して、背景画像bpがテクスチャ画像tpに変更された画像についての画像データが生成される。この図8のBに対応する画像データこそが、1次データ21Aとして画像分離処理部42から符号化部43に供給される。
なお、受信側であるクライアント機器11Bに送信される1次データ21Aとしては、テクスチャ画像tpに変更される前の画像、即ち、背景画像bpを含むスクラップ画像に対応する画像データを採用してもよい。この場合、受信側であるクライアント機器11Bの部分図作成部32Bでは、図6に示されるように、圧縮符号化された1次データ21Aが復号化部72で伸張復号化処理されると、背景画像bpを含むスクラップ画像に対応する画像データが得られることになる。そこで、動画フレーム合成部77等が、図8のAのスクラップ画像のうち、背景画像bpを、例えば画素値でいう極値の色(例えば黒色)で塗りつぶす画像処理を行ってもよい。即ち、受信側のデコード後の1次データ21Aに対して、テクスチャ画像tpを張り付ける処理が施されても構わない。
[本発明が適用される画像表示処理装置の画像合成処理の一例]
図9は、動画フレーム合成部53が、1次データ21Aと2次データ22Aとを合成する画像合成処理の具体例を説明するための図である。なお、この画像合成処理は、動画フレーム合成部77において、1次データ21Bと2次データ22Bに対して行う画像合成処理についても同様である。
図9において、1次データ21Aに対応する画像1p(以下、1次画像1pと称する)が、2次データ21Bに対応する画像2Pの上に配置される。1次画像1pは、図8のBを用いて説明した如く、背景としてのテクスチャ画像tpと、コミュニケーションの主体となる画像mp(図7の被写体mの画像mp)とに区分される。
図9において、画像のスキャンラインの方向が、破線の矢印で示されている。また、図9には、オフセット領域の始点S、1次画像1pの始点T、スクラップ画像の終点Pが、それぞれ示されている。
動画フレーム合成部53は、スキャンライン方向において、極値で塗りつぶしたテクスチャ画像tpの画素値(以下、フィルデータ値と称する)をトグルとして、そのフィルデータ値(1次データ21Aの画素値)を、2次画像2Pの画素値(2次データ22Aの画素値)に切り替えることで、合成処理を実現する。
具体的には、スキャンライン方向にしたがってスキャンする場合、動画フレーム合成部53は、フィルデータ値でなくなった画素、すなわち極値で塗りつぶしていない最初の画素をInとして認識する。その後、動画フレーム合成部53は、スキャンを継続し、再びフィルデータ値となった画素、すなわち極値で塗りつぶした最初の画素をOutとして認識する。換言すると、動画フレーム合成部53は、InとOutとの間の線領域を、コミュニケーションの主体となる画像mp(図7の被写体mの画像mp)の線領域と認識する。
次に、スキャンライン方向において、1次画像1Pの始点T以後の領域かつ1次画像1Pの終点P以前の領域であって、さらにIn以後Out以前の領域を、1次データ21Aの各画素値で埋める処理を行う。この1次データ21Aの画素値で埋められた領域こそが、コミュニケーションの主体となる画像mp(図7の被写体mの画像mp)の領域である。以下、かかる領域を、1次データ領域と称する。
さらに、動画フレーム合成部53は、1次データ領域以外の領域の画素を、すべて2次データ22Aの画素値で埋める処理を行う。
なお、動画フレーム合成部53は、本実施の形態では、例えば境界mp付近の画素に対する処理として、1次データ21Aの画素値と2次データ21Bの画素値との方向性をもったαブレンディング処理を採用している。
このようにして、動画フレーム合成部53は、1次データ21Aと2次データ22Aとを合成する合成処理を行う。
[本発明が適用される情報処理システムの処理方法の例]
次に、図10,および図11のフローチャートを参照して、クライアント機器11Aおよびクライアント機器11Bが、ネットワーク13を介してピクチャーコミュニケーションを行う場合の処理(以下、双方向通信処理と称する)について説明する。
なお、クライアント機器11Aおよびクライアント機器11Bと、ストリーミングサーバ12Bとの通信は、ストリーミングサーバ12Aとの通信と同様の処理であるため、図10,図11には図示がされていない。よって、これらの処理の説明は省略する。
また、双方向通信処理において、クライアント機器11Aとクライアント機器11Bとの間のIP(Internet Protocol)アドレスやユーザ名などの基本となる通信の設定は、第3のサーバ(ネットワークサーバ等)を介して執り行われているものとする。
図10のステップS1において、クライアント機器11Aは、クライアント機器11Bに対して初期接続を要求する。
ステップS2において、クライアント機器11Bは、クライアント機器11Aに対して、初期接続に対する応答を行う。
ステップS3において、クライアント機器11Aは、クライアント機器11Bに対して、クライアント機器11Aのパラメータを通知する。
ステップS4において、クライアント機器11Bは、クライアント機器11Aに対し、クライアント機器11Bのパラメータを通知する。
パラメータとしては、例えば合成処理に関するパラメータが存在する。具体的には例えば、図9を用いて説明した1次画像1Pの左上位置と2次画像2Pの左上位置との差のオフセットに対して、XYオフセット等がパラメータとして、クライアント機器11Aからクライアント機器11Bに通知される。
パラメータ通知がなされたクライアント機器11A,11Bは、例えば、2次データ22A,22Bに関して、あらかじめ指定しておいた再生位置で合成時の頭出しを行い、スタンバイ状態にする。
ステップS5において、クライアント機器11Aは、クライアント機器11Bに対し、2次データ22Aの配信先としてのストリーミングサーバ12Aの存在場所等を通知する。
ステップS6において、クライアント機器11Bは、クライアント機器11Aに対し、その通知に対する応答を行う。
ステップS7において、クライアント機器11Bは、クライアント機器11Aに対し、2次データ22Bの配信先としてのストリーミングサーバ12Bの存在場所等を通知する。
ステップS8において、クライアント機器11Aは、クライアント機器11Bに対し、その通知に対する応答を行う。
ステップS9において、クライアント機器11Aは、ストリーミングサーバ12Aに対し、パラメータを要求する。
ステップS10において、クライアント機器11Bは、ストリーミングサーバ12Aに対し、パラメータを要求する。
ステップS11において、ストリーミングサーバ12Aは、クライアント機器11Aに対し、パラメータの書き込みを行う。
ステップS12において、ストリーミングサーバ12Aは、クライアント機器11Bに対し、パラメータの書き込みを行う。
ステップS13において、クライアント機器11Aは、ストリーミングサーバ12Aに対し、セットアップ要求を行う。
ステップS14において、クライアント機器11Bは、ストリーミングサーバ12Aに対し、セットアップ要求を行う。
ステップS15において、ストリーミングサーバ12Aは、クライアント機器11Aに対し、セットアップ要求に対する応答を行う。
ステップS16において、クライアント機器11Aは、ストリーミングサーバ12Aに対し、2次データ22Aの送信を要求する。
ステップS17において、ストリーミングサーバ12Aは、クライアント機器11Aに対し、2次データ22Aをパケット単位で送信する。
ステップS18において、クライアント機器11Aは、ストリーミングサーバ12Aに対し、通信の中断を要求する。
ステップS19において、ストリーミングサーバ12Aは、クライアント機器11Aに対し、通信の中断に対する応答を行う。そして、ストリーミングサーバ12Aは、クライアント機器11Aに対する2次データ22Aのパケット送信を一時中断する。
ステップS20において、クライアント機器11Aは、ストリーミングサーバ12Aに対し、再送信を要求する。
ステップS21において、ストリーミングサーバ12Aは、クライアント機器11Aに対し、2次データ22Aをパケット単位で送信する。
ステップS22において、クライアント機器11Aは、ストリーミングサーバ12Aに対し、通信の中断を要求する。
ステップS23において、ストリーミングサーバ12Aは、クライアント機器11Aに対し、通信の中断に対する応答を行う。そして、ストリーミングサーバ12Aは、クライアント機器11Aに対する2次データ22Aのパケット送信を一時中断する。
図11のステップS24において、クライアント機器11Aは、ストリーミングサーバ12Aに対し、ストリーミング開始を要求する。
ステップS25において、ストリーミングサーバ12Aは、クライアント機器11Aに対し、ストリーミング開始に対する応答を行う。
ステップS26において、ストリーミングサーバ12Aは、クライアント機器11Aに対し、2次データ22Aをパケット単位で送信する。
ステップS27において、ストリーミングサーバ12Aは、クライアント機器11Bに対し、2次データ22Aをパケット単位で送信する。
ステップS28において、クライアント機器11Aは、クライアント機器11Bに対し、1次データ21Aをパケット単位で送信する。
ステップS29において、クライアント機器11Bは、クライアント機器11Aに対し、1次データ21Bをパケット単位で送信する。
ステップS30において、クライアント機器11Aは、ストリーミングサーバ12Aに対し、通信の中断を要求する。
ステップS31において、ストリーミングサーバ12Aは、クライアント機器11Aに対し、通信の中断に対する応答を行う。そして、ストリーミングサーバ12Aは、クライアント機器11Aに対する2次データ22Aのパケット送信を一時中断する。
ステップS32において、クライアント機器11Aは、ストリーミングサーバ12Aに対し、再送信を要求する。
ステップS33において、ストリーミングサーバ12Aは、クライアント機器11Aに対し、2次データ22Aをパケット単位で送信する。
ステップS34において、ステップS33の処理と同時に、ストリーミングサーバ12Aは、クライアント機器11Bに対し、2次データ22Aをパケット単位で送信する。
ステップS35において、クライアント機器11Aは、ストリーミングサーバ12Aに対し、ストリーミングを再開する。
ステップS36において、ストリーミングサーバ12Aは、クライアント機器11Aに対し、ストリーミングの再開に対する応答を行う。
ステップS37において、ストリーミングサーバ12Aは、クライアント機器11Bに対し、2次データ22Aをパケット単位で送信する。
ステップS38において、クライアント機器11Aは、クライアント機器11Bに対し、接続終了を要求する。
ステップS39において、クライアント機器11Bは、クライアント機器11Aに対し、接続終了に対する応答を行う。
ステップS40において、クライアント機器11Aは、ストリーミングサーバ12Aに対し、ストリーミングの終了を要求する。
ステップS41において、ストリーミングサーバ12Aは、クライアント機器11Aに対し、ストリーミングの終了に対する応答を行う。
以上で、双方向通信処理は終了される。
以上説明したように、ストリーミングサーバ12Aやストリーミングサーバ12Bは、データの送信先であるクライアント機器11Aやクライアント機器11Bの応答をチェックすることにより、ダウンリンク帯域のトラヒック状況を検知することができる。その結果、ストリーミングサーバ12Aやストリーミングサーバ12Bは、ダウンリンク帯域が不足していると判断した場合、2次データ22Aや2次データ22Bの送信を一時中断することができる。これにより、1次データ21や1次データ21Bのクライアント機器11Aやクライアント機器11Bに対する優先的な送信処理が実現可能となる。
本発明によれば、ピクチャーコミュニケーションを行う場合に、コミュニケーションの主体となる画像(たとえば人物の画像)とそれ以外の画像(たとえば背景の画像)を分離し、コミュニケーションの主体となる画像のみをアップリンクにより送信することができる。また、背景に相当する画像を、ネットワーク上からのストリーミングデータをダウンロードして合成することにより、通信帯域幅の狭いアップリンク時のデータ量を抑制し、ダウンリンク帯域幅を活用することが可能となる。これにより、高画質、高解像度の双方向動画コミュニケーションが可能となる。
また、本発明の適用先は、上述した例に特に限定されない。例えば、本発明は、ビデオチャットなどのPeer to Peerのコミュニケーションとオンデマンドのストリーミング機能を合成した技術分野に適用することができる。
また、本発明によれば、ピクチャーコミュニケーションを行う相手に、自分の背景等の見られたくない箇所を隠すこともできる。これにより、プライバシーを確保することができる。
また、背景として表示する2次データを、ユーザが任意に選択することにより、仮想臨場感を創造することも可能である。
上述した一覧表示処理も含む一連の処理は、ハードウエアにより実行させることもできるし、ソフトウエアにより実行させることもできる。
上述した一連の処理をソフトウエアにより実行させる場合、本発明が適用される情報処理装置は、たとえば、図12に示されるコンピュータを含むように構成することもできる。或いは、図12のコンピュータによって、本発明が適用される情報処理装置が制御されてもよい。
図12において、CPU(Central Processing Unit)101は、ROM(Read Only Memory
)102に記録されているプログラム、または記憶部108からRAM(Random Access Memory)103にロードされたプログラムに従って各種の処理を実行する。RAM103にはまた、CPU101が各種の処理を実行する上において必要なデータなども適宜記憶される。
CPU101、ROM102、およびRAM103は、バス104を介して相互に接続されている。このバス104にはまた、入出力インタフェース105も接続されている。
入出力インタフェース105には、キーボード、マウスなどよりなる入力部106、ディスプレイなどよりなる出力部107、ハードディスクなどより構成される記憶部108、および、モデム、ターミナルアダプタなどより構成される通信部109が接続されている。通信部109は、インターネットを含むネットワークを介して他の装置(図示せず)との間で行う通信を制御する。
入出力インタフェース105にはまた、必要に応じてドライブ110が接続され、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどよりなるリムーバブル記録媒体111が適宜装着され、それらから読み出されたコンピュータプログラムが、必要に応じて記憶部108にインストールされる。
一連の処理をソフトウエアにより実行させる場合には、そのソフトウエアを構成するプログラムが、専用のハードウエアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、たとえば汎用のパーソナルコンピュータなどに、ネットワークや記録媒体からインストールされる。
このようなプログラムを含む記録媒体は、図12に示されるように、装置本体とは別に、視聴者にプログラムを提供するために配布される、プログラムが記録されている磁気ディスク(フロッピディスクを含む)、光ディスク(CD-ROM(Compact Disk-Read Only Memory),DVD(Digital Versatile Disk)を含む)、光磁気ディスク(MD(Mini-Disk)を含む)、もしくは半導体メモリなどよりなるリムーバブル記録媒体(パッケージメディア)311により構成されるだけでなく、装置本体に予め組み込まれた状態で視聴者に提供され
る、プログラムが記録されているROM102や、記憶部108に含まれるハードディスクなどで構成される。
なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、その順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。
また、本明細書において、システムとは、複数の装置や処理部により構成される装置全体を表すものである。
1,2,11A,11B クライアント機器, 3,13 ネットワーク, 12A,12B ストリーミングサーバ, 31 カメラ, 32A,32B 部分図作成部, 33 画面構成部, 34 モニタ, 41 画像入力部, 42 画像分離処理部, 43 符号化部, 44 ビット割当て部, 45 送信処理部, 46,52,73,76 画像サイズ変換部, 47,71,74 受信処理部, 48 ローカル蓄積部, 49 スイッチ部, 50 データカウンタ部, 51,72,75 復号化部, 53,77 動画フレーム合成部, 101 CPU, 102 ROM, 103 RAM, 104 バス, 105 入出力インタフェース, 106 入力部, 107 出力部, 108 記憶部, 109 通信部, 110 ドライブ, 111 リムーバブルメディア

Claims (12)

  1. 元画像を1以上の領域に区分し、区分された1以上の領域のうち所定の1の領域を部分画像として、その領域の画サイズで、前記元画像から分割する分割手段と、
    前記分割手段により前記元画像から分割された前記部分画像を他の情報処理装置に送信する送信手段と、
    前記部分画像に対して合成する背景画像を配信する配信装置に対して、前記背景画像を前記他の情報処理装置に送信することを要求する要求手段と
    を備える情報処理装置。
  2. 前記部分画像は、ピクチャーコミュニケーションの主体となるオブジェクトを含む画像である
    請求項1に記載の情報処理装置。
  3. 情報処理装置が、
    元画像を1以上の領域に区分し、区分された1以上の領域のうち所定の1の領域を部分画像として、その領域の画サイズで、前記元画像から分割し、
    前記元画像から分割された前記部分画像を他の情報処理装置に送信し、
    前記部分画像に対して合成する背景画像を配信する配信装置に対して、前記背景画像を前記他の情報処理装置に送信することを要求する
    ステップを含む情報処理方法。
  4. 情報処理装置を制御するコンピュータに、
    元画像を1以上の領域に区分し、区分された1以上の領域のうち所定の1の領域を部分画像として、その領域の画サイズで、前記元画像から分割し、
    前記元画像から分割された前記部分画像を他の情報処理装置に送信し、
    前記部分画像に対して合成する背景画像を配信する配信装置に対して、前記背景画像を前記他の情報処理装置に送信することを要求する
    ステップを含む情報処理を実行させるプログラム。
  5. 他の情報処理装置により、元画像が1以上の領域に区分され、区分された1以上の領域のうち所定の1の領域が部分画像とされて、その領域の画サイズで前記元画像から分割され、前記部分画像が送信されてきた場合、その部分画像を受信する部分画像受信手段と、
    前記部分画像受信手段により受信された前記部分画像と、所定の背景画像とを合成することで、合成画像を生成する合成手段と
    を備える情報処理装置。
  6. 前記合成手段により合成された前記合成画像を含む画像の表示を制御する表示制御手段
    をさらに備える請求項5に記載の情報処理装置。
  7. 前記部分画像は、ピクチャーコミュニケーションの主体となるオブジェクトを含む画像である
    請求項6に記載の情報処理装置。
  8. 前記背景画像が配信装置から配信されてきた場合、その背景画像を受信する背景画像受信手段をさらに備え、
    前記合成手段は、前記部分画像と、前記背景画像受信手段により受信された前記背景画像とを合成することで、前記合成画像を生成する
    請求項5に記載の情報処理装置。
  9. 前記前記背景画像受信手段により受信された前記背景画像を保持する保持手段をさらに備え、
    前記合成手段は、前記部分画像と、前記保持手段により保持された前記背景画像とを合成することで、前記合成画像を生成する
    請求項8に記載の情報処理装置。
  10. 情報処理装置が、
    他の情報処理装置により、元画像が1以上の領域に区分され、区分された1以上の領域のうち所定の1の領域が部分画像とされて、その領域の画サイズで前記元画像から分割され、前記部分画像が送信されてきた場合、その部分画像を受信し、
    受信された前記部分画像と、所定の背景画像とを合成することで、合成画像を生成する
    ステップを含む情報処理方法。
  11. 情報処理装置を制御するコンピュータに、
    他の情報処理装置により、元画像が1以上の領域に区分され、区分された1以上の領域のうち所定の1の領域が部分画像とされて、その領域の画サイズで前記元画像から分割され、前記部分画像が送信されてきた場合、その部分画像を受信し、
    受信された前記部分画像と、所定の背景画像とを合成することで、合成画像を生成する
    ステップを含む情報処理を実行させるプログラム。
  12. 第1の情報処理装置から第2の情報処理装置に送信する対象である元画像を1以上の領域に区分し、区分された1以上の領域のうち所定の1の領域を部分画像として、その領域の画サイズで、前記元画像から分割する分割手段と、
    前記分割手段により前記元画像から分割された前記部分画像を前記第2の情報処理装置に送信する送信手段と、
    前記部分画像に対して合成する背景画像を配信する配信装置に対して、前記背景画像を前記第2の情報処理装置に送信することを要求する要求手段と
    を備える前記第1の情報処理装置と、
    前記第1の情報処理装置からの要求を受けて、前記背景画像を前記第2の情報処理装置に配信する前記配信装置と、
    前記第1の情報処理装置から送信されてきた前記部分画像を受信する部分画像受信手段と、
    前記配信装置から配信されてきた前記背景画像を受信する背景画像受信手段と、
    前記部分画像受信手段により受信された前記部分画像と、前記背景画像受信手段により受信された前記背景画像とを合成することで、前記合成画像を生成する合成手段と
    を備える第2の情報処理装置と
    を含むように構成される情報処理システム。
JP2009056266A 2009-03-10 2009-03-10 情報処理装置および方法、情報処理システム、並びにプログラム Pending JP2010212947A (ja)

Priority Applications (7)

Application Number Priority Date Filing Date Title
JP2009056266A JP2010212947A (ja) 2009-03-10 2009-03-10 情報処理装置および方法、情報処理システム、並びにプログラム
EP10750717.0A EP2408200A4 (en) 2009-03-10 2010-03-03 INFORMATION PROCESSING DEVICE AND METHOD AND INFORMATION PROCESSING SYSTEM
RU2011136680/07A RU2524677C2 (ru) 2009-03-10 2010-03-03 Устройство и способ обработки информации и система обработки информации
BRPI1009503A BRPI1009503A2 (pt) 2009-03-10 2010-03-03 sistema de processamento de informação, e, método de processamento de informção de um sistema de processamento de informação
US13/254,094 US20110317921A1 (en) 2009-03-10 2010-03-03 Information processing equipment and method, and information processing system
CN2010800104072A CN102405642A (zh) 2009-03-10 2010-03-03 信息处理设备和方法、及信息处理系统
PCT/JP2010/053393 WO2010103963A1 (ja) 2009-03-10 2010-03-03 情報処理装置および方法、並びに情報処理システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009056266A JP2010212947A (ja) 2009-03-10 2009-03-10 情報処理装置および方法、情報処理システム、並びにプログラム

Publications (1)

Publication Number Publication Date
JP2010212947A true JP2010212947A (ja) 2010-09-24

Family

ID=42728253

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009056266A Pending JP2010212947A (ja) 2009-03-10 2009-03-10 情報処理装置および方法、情報処理システム、並びにプログラム

Country Status (7)

Country Link
US (1) US20110317921A1 (ja)
EP (1) EP2408200A4 (ja)
JP (1) JP2010212947A (ja)
CN (1) CN102405642A (ja)
BR (1) BRPI1009503A2 (ja)
RU (1) RU2524677C2 (ja)
WO (1) WO2010103963A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016517644A (ja) * 2013-03-08 2016-06-16 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. オーディオ−ビデオ用のワイヤレスドッキングシステム

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130013701A1 (en) * 2011-07-10 2013-01-10 Microsoft Corporation Open invite for video calls
WO2020078354A1 (zh) 2018-10-16 2020-04-23 北京凌宇智控科技有限公司 视频串流系统、视频串流方法及装置
CN111064981B (zh) * 2018-10-16 2021-07-16 北京凌宇智控科技有限公司 一种视频串流的系统及方法
CN110213485B (zh) * 2019-06-04 2021-01-08 维沃移动通信有限公司 一种图像处理方法及终端

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0787471A (ja) * 1993-09-09 1995-03-31 Fujitsu Ltd 画面表示制御方式
JPH08102926A (ja) * 1994-09-30 1996-04-16 Toshiba Corp 対話システム
JP2001014474A (ja) * 1999-07-01 2001-01-19 Matsushita Electric Ind Co Ltd 人物抽出法
JP2004164668A (ja) * 2004-01-16 2004-06-10 Matsushita Electric Ind Co Ltd 画像生成装置及び画像生成方法
JP2006304060A (ja) * 2005-04-22 2006-11-02 Nagaoka Univ Of Technology 画像通信装置、画像通信システム、及び画像通信方法

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0884331A (ja) * 1994-09-13 1996-03-26 Canon Inc 画像通信装置およびその画像通信方法
KR100316639B1 (ko) * 1998-05-22 2002-01-16 윤종용 다지점 영상회의 시스템 및 그에 따른 구현방법
JP2001236292A (ja) 2000-02-24 2001-08-31 Five Any Inc 双方向通信イベント運営装置、双方向通信イベント運営方法及び記録媒体
WO2002067050A1 (en) * 2001-02-16 2002-08-29 Imatte, Inc. Interactive teleconferencing display system
US7203356B2 (en) * 2002-04-11 2007-04-10 Canesta, Inc. Subject segmentation and tracking using 3D sensing technology for video compression in multimedia applications
US20050125505A1 (en) * 2003-11-20 2005-06-09 Jong-Kyung Kim Picture providing service system and the method thereof
JP4750379B2 (ja) * 2004-05-31 2011-08-17 キヤノン株式会社 電子機器
US7227567B1 (en) * 2004-09-14 2007-06-05 Avaya Technology Corp. Customizable background for video communications
US7676081B2 (en) * 2005-06-17 2010-03-09 Microsoft Corporation Image segmentation of foreground from background layers
CN1980334A (zh) * 2005-12-09 2007-06-13 英业达股份有限公司 视频画面叠加编码传输的方法
RU2336655C1 (ru) * 2006-12-08 2008-10-20 Общество с ограниченной ответственностью ООО "Юник Ай Сиз" Способ выделения областей объекта и фона на цифровых изображениях

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0787471A (ja) * 1993-09-09 1995-03-31 Fujitsu Ltd 画面表示制御方式
JPH08102926A (ja) * 1994-09-30 1996-04-16 Toshiba Corp 対話システム
JP2001014474A (ja) * 1999-07-01 2001-01-19 Matsushita Electric Ind Co Ltd 人物抽出法
JP2004164668A (ja) * 2004-01-16 2004-06-10 Matsushita Electric Ind Co Ltd 画像生成装置及び画像生成方法
JP2006304060A (ja) * 2005-04-22 2006-11-02 Nagaoka Univ Of Technology 画像通信装置、画像通信システム、及び画像通信方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016517644A (ja) * 2013-03-08 2016-06-16 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. オーディオ−ビデオ用のワイヤレスドッキングシステム

Also Published As

Publication number Publication date
RU2011136680A (ru) 2013-03-10
EP2408200A4 (en) 2013-09-04
US20110317921A1 (en) 2011-12-29
BRPI1009503A2 (pt) 2016-03-15
CN102405642A (zh) 2012-04-04
RU2524677C2 (ru) 2014-08-10
WO2010103963A1 (ja) 2010-09-16
EP2408200A1 (en) 2012-01-18

Similar Documents

Publication Publication Date Title
US20220239719A1 (en) Immersive viewport dependent multiparty video communication
CN106068495B (zh) 将使用不同编码参数编码的多个编码成流
JP5089658B2 (ja) 送信装置及び送信方法
JP6305279B2 (ja) 映像圧縮装置および映像再生装置
JP4153995B2 (ja) 画像復号化符号化装置、画像符号化装置及び画像復号化装置
JP2014511621A (ja) 表示切換えのための方法および装置
JP2009021901A (ja) 画像送信装置、画像送信方法、受信装置および画像送信システム
KR20150040125A (ko) 마스터 기기, 클라이언트 기기, 및 그에 따른 화면 미러링 방법
JP2015513717A (ja) データ、マルチメディアおよびビデオの送信の更新システム
JP2011087268A (ja) テレビ会議システムのための端末、中継ノードおよびストリーム処理方法
JP2013255210A (ja) 映像表示方法、映像表示装置および映像表示プログラム
JP2010212947A (ja) 情報処理装置および方法、情報処理システム、並びにプログラム
JP2016063481A (ja) エンコード装置、デコード装置、ストリーミングシステム、および、ストリーミング方法
JP2017520940A (ja) 階層符号化されたコンテンツを多重化するための方法および装置
CN114189696A (zh) 一种视频播放方法及设备
TW201138464A (en) Network device, information processing apparatus, stream switching method, information processing method, program, and content distribution system
JP2014116922A (ja) 映像再生装置及び映像配信装置
JP2014183488A (ja) ストリーミング受信装置
CN114598853A (zh) 视频数据的处理方法、装置及网络侧设备
JP2011066577A (ja) 画像処理プログラム、表示システム、画像処理装置および画像処理方法
JP2010028232A (ja) 通信制御装置および通信制御方法
JP2012222399A (ja) 映像再生システム、映像再生方法、映像再生装置及びプログラム
Stamos Katsigiannis et al. 5G: Disruption in media and entertainment
JP5799958B2 (ja) 映像処理サーバおよび映像処理方法
WO2014076823A1 (ja) 情報処理装置、情報処理システム、情報処理プログラム、及び動画データ送受信方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120229

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130507

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130701

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140128

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140306

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20140619