JP2007323481A - 映像データの伝送システムとその方法、送信処理装置とその方法、ならびに、受信処理装置とその方法 - Google Patents

映像データの伝送システムとその方法、送信処理装置とその方法、ならびに、受信処理装置とその方法 Download PDF

Info

Publication number
JP2007323481A
JP2007323481A JP2006154596A JP2006154596A JP2007323481A JP 2007323481 A JP2007323481 A JP 2007323481A JP 2006154596 A JP2006154596 A JP 2006154596A JP 2006154596 A JP2006154596 A JP 2006154596A JP 2007323481 A JP2007323481 A JP 2007323481A
Authority
JP
Japan
Prior art keywords
data
video data
target area
unit
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006154596A
Other languages
English (en)
Other versions
JP4929848B2 (ja
Inventor
Tetsuo Ikeda
哲男 池田
Takaaki Kagawa
能明 賀川
Tetsuo Yoshitani
哲夫 由谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2006154596A priority Critical patent/JP4929848B2/ja
Publication of JP2007323481A publication Critical patent/JP2007323481A/ja
Application granted granted Critical
Publication of JP4929848B2 publication Critical patent/JP4929848B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】実質的な見た目の高画質感を維持したまま映像データの伝送量を低減する。
【解決手段】システムは、撮影装置1、送信処理装置3および受信処理装置4を有する。送信処理装置3は、所定の基準に従って、撮影装置1からの映像データ(原映像データD0)をコンピュータグラフィックス(CG)の対象領域と非対象領域に分離する分離処理部31、対象領域の映像データをCGデータに変換するCGデータ変換部32、および、対象領域のCGデータと非対象領域の映像データを通信回線に送信する送信部34を備える。受信処理装置4は、受信部41、受信した対象領域のCGデータからCGデータ変換部32が変換する前の映像データを復元するデータ復元部42A、および、復元された対象領域の映像データを非対象領域の映像データと画面ごとに合成する合成処理部44を備える。
【選択図】図1

Description

本発明は、コンピュータグラフィックス(CG)の技術を用いて伝送データ量が低減可能な映像データの伝送システムと、その方法に関する。また本発明は、上記伝送システムに用いることが可能な映像データの送信処理装置とその方法、ならびに、受信処理装置とその方法に関する。
コンピュータグラフィックスは、主に、3次元対象物の描写を、見る角度を変えて変更する際のリアルタイム性向上、処理負担低減を目的とした用途に用いられている(たとえば特許文献1)。
また、コンピュータグラフィックの記録、転送の負担を軽くするためにビット容量を減らす符号化および復号化の技術が知られている(たとえば特許文献2)
特許文献1の請求項1には、対象物を実写ビデオ画像の背景から分離し、建築物を表すCG画面中に上記対象物を表す部分の実写ビデオ画像を嵌め込んで合成する合成方法が記述されている。
また、その請求項2には、顧客が撮影した対象物の実写ビデオ画像を記録した実写データを当該顧客用のコンピュータから通信回線を用いて建築会社のサーバコンピュータに送信し、建設会社が当該顧客の建築予定の建築物を表すCG画像中に上記対象物の実写ビデオ画像を嵌め込む合成処理を行って合成ビデオ画像を作成した後、上記合成ビデオ画像を記録した合成データを、通信回線を用いて上記サーバコンピュータから上記顧客用コンピュータに送信し、顧客用コンピュータ上で上記合成ビデオ画像を再生できる方法が記述されている。
特開2000−350094号公報 特開平5−108811号公報
ところで近年、実写のビデオ画像等の映像データを含む映画や番組のストリーミング配信等が盛んに行われるようになってきてきる。また、映像規格もHD(high definition)規格等、より高精細なものに移行しつつある。
したがって、インターネット等の通信回線を大容量の映像データが盛んに伝送される状況が生まれ、この傾向は今後、益々強まると予想されている。
このような状況において、実写のビデオ画像等の映像データをそのまま通信回線を介して送受信する方法では伝送データ量が大きく、限られたデータ伝送レートの通信回線で遅滞なくデータ伝送を行うことは困難である。
また、伝送データ量を小さくするため映像圧縮技術を用いる方法では、映像全体が圧縮されてしまうため、多少なりとも映像表示品質が低下する。圧縮率は通常サイズの画面では原画像と表示時に見劣りしないように決められるが、大画面に高精細表示を行うと、映像品質の低下が視認されることがある。
なお、特許文献1に記載されている技術は、顧客の姿等の実写ビデオ画像を、この顧客のために建築しようとする建物のCG画面に嵌め込んで顧客に建築後のイメージを持ってもらう、建築会社のサービス方法を提案するためのものである。通信回線を伝送されるデータは実写ビデオ画像や合成画像のデータである。
また、特許文献2に記載されている技術は通信回線の伝送データ量を低減するが、その目的を符号化、複合化技術で解決するものである。ただし、3次元CGデータを2次元CGデータに変換するため画質の低下は避けられない。
本発明が解決しようとする課題は、実質的な見た目の高画質感を維持したまま映像データの伝送量を低減することである。
本発明は、たとえば見た目に重要な部分を撮像時の映像データで伝送し、その他の、たとえば余り重要でない部分をCG化の対象とすることによって全体としてデータ量を低減する場合に適用できる。つまり本発明では、3次元対象物の描写を、見る角度を変えて変更する際のリアルタイム性向上、処理負担低減という通常の目的にCG技術を用いるのではなく、伝送時のデータ量低減という目的に用いる。
本発明に係る映像データの伝送システムは、撮影装置と、前記撮影装置からの映像データをコンピュータグラフィックス(CG)の対象領域と非対象領域に所定の基準に従って分離する分離処理部、前記対象領域の映像データをCGデータに変換するCGデータ変換部、および、前記対象領域のCGデータと前記非対象領域の映像データを通信回線に送信する送信部を備える送信処理装置と、受信部、当該受信部が受信した前記対象領域のCGデータから前記CGデータ変換部が変換する前の映像データを復元するデータ復元部、および、復元された前記対象領域の映像データを前記受信部が受信した前記非対象領域の映像データと画面ごとに合成する合成処理部を備える受信処理装置とを有する。
本発明に係る映像データの送信処理装置は、撮影装置からの映像データをコンピュータグラフィックス(CG)の対象領域と非対象領域に所定の基準に従って分離する分離処理部と、前記対象領域の映像データをCGデータに変換するCGデータ変換部と、前記対象領域のCGデータと前記非対象領域の映像データを通信回線に送信する送信部とを備える。
本発明に係る映像データの受信処理装置は、通信回線から、映像データの画面ごとにコンピュータグラフィックス(CG)の対象領域の映像データが変換されて生成されたCGデータ、および、CGの非対象領域の映像データを各々受信する受信部と、前記受信部が受信した前記対象領域のCGデータから当該CGデータに変換される前の映像データを復元するデータ復元部と、復元された前記対象領域の映像データを前記受信部が受信した前記非対象領域の映像データと画面ごとに合成する合成処理部とを備える。
本発明に係る映像データの伝送方法は、映像データをコンピュータグラフィックス(CG)の対象領域と非対象領域に所定の基準に従って分離する分離ステップと、前記対象領域の映像データをCGデータに変換するCG変換ステップと、前記対象領域のCGデータと前記非対象領域の映像データを通信回線に送る送信ステップと、前記CGデータおよび前記非対象領域の映像データを前記通信回線から受信する受信ステップと、受信した前記対象領域のCGデータから当該CGデータに変換される前の映像データを復元する復元ステップと、復元された前記対象領域の映像データを、受信した前記非対象領域の映像データと画面ごとに合成する合成ステップとを含む。
本発明に係る映像データの送信処理方法は、映像データをコンピュータグラフィックス(CG)の対象領域と非対象領域に所定の基準に従って分離する分離ステップと、前記対象領域の映像データをCGデータに変換するCG変換ステップと、前記対象領域のCGデータと前記非対象領域の映像データを通信回線に送る送信ステップとを含む。
本発明に係る映像データの受信処理方法は、コンピュータグラフィックス(CG)の対象領域の映像データを変換して生成されたCGデータ、および、CGの非対象領域の映像データを通信回線から受信する受信ステップと、受信した前記対象領域のCGデータから当該CGデータに変換される前の映像データを復元する復元ステップと、復元された前記対象領域の映像データを、受信した前記非対象領域の映像データと画面ごとに合成する合成ステップとを含む。
本発明によれば、実質的な見た目の高画質感を維持したまま映像データの伝送量を低減可能にすることができる。
以下、本発明の実施形態を、図面を参照して説明する。
《システム構成》
図1に、本発明の実施形態に関わる映像データの伝送システムの全体構成を示す。
この伝送システムは、映像データを送る送信者側に、撮影装置1、3次元情報取得部2および送信処理装置3が配置され、映像データを受け取る受信者側に受信処理装置4と機器5とが配置されている。
送信処理装置3と受信処理装置4は、たとえばインターネットなどの有線または無線の通信回線100により接続されている。
なお、本発明は通信回線の伝送データ量の低減を目的としており、その意味で通信回線100が受信者と送信者の専用回線でもよい。ただし、受信者と送信者が伝送データ量を制限できないネットワーク回線で本発明は、より大きな効果を奏する。よって以下の説明では、通信回線100はインターネット等のネットワークを前提とする。
撮影装置1は、カムコーダ、デジタルカメラなど、送信者が撮影した映像(動画または静止画)に対し所定の信号処理を行い、処理後の映像を出力する装置である。撮影装置1からの映像データ(原映像データ)D0は、撮影装置1から送信処理装置3に出力される。
なお、送信者は個人であってもよいが、映像ソース提供者、たとえば放送局を含む番組作成者やオンデマンド映像供給会社(以下、単に事業者という)であってもよい。また個人には、事業者に属する、または、フリーの取材カメラマンを含む。
送信処理装置3は、個人(送信者)等が所有するパーソナルコンピュータ(PC)やホームサーバ、高性能ゲーム機などの高速な計算機、あるいは、事業者(送信者)のサーバ、映像編集機器等である。
本実施形態における送信処理装置3の特徴は、撮影装置1からの原映像データを画面ごとにコンピュータグラフィックス(CG)の対象領域と非対象領域とに分離して、対象領域の映像データをCG化(CGデータに変換する)機能を備えることである。CGデータと、非対象領域の映像データとは画面合成されて送信映像データとして通信回線100に送り出される。
3次元情報取得部2は、撮影装置1からの原映像データに3次元対象物(人等の生物を含む)が含まれる場合、その対象物の映像データに画面のxy座標(x,yアドレス)からは得られない画面に垂直なz方向の情報を取得するための手段である。
3次元情報取得部2から出力される3次元情報I0は、対象物の表面形状を表すためのz座標(zアドレス)、対象物同士のz方向の位置関係を表すための情報のいずれでもよい。
受信処理装置4は、個人(受信者)等が所有するパーソナルコンピュータ(PC)やホームサーバ、高性能ゲーム機などの高速な計算機、あるいは、事業者(受信者)のサーバ、映像編集機器等である。この受信処理装置4は、通信回線100から送られてくるCGの対象領域のデータ(CGデータ)と、非対象領域の映像データとを画面ごとに合成する機能を少なくとも有する。
また機器5は、合成後の映像を表示、記録または加工するための装置である。
機器5が映像表示機能を有する場合、受信処理装置4に、機器5の映像表示仕様にあわせて画面サイズを変更する機能を付加してもよい。
《3次元情報の取得法》
3次元情報取得部2が採用する手法は、対象物の形状、または、対象物同士の画面と垂直な方向の位置が得られるものであれば、任意である。
このような手法のうち実用的なものとして、光切断法(light sectioning method)、フォトメトリックステレオ法(photometric stereo method)、超音波計測法の何れを用いてもよい。
光切断法では、光ビームを円筒レンズで一方向にのみ広げた平面状のシート光を生成し、このシート光を走査して対象表面に斜めから当てる。このとき対象表面とシートビームとの交わりに明瞭な切断線が描かれる。この切断線をカメラ(イメージセンサ)で撮像して、その切断線形状と、シート光の角度、カメラの角度から対象表面の高さ、走査点の光源からの距離等が分かるため、この情報から3次元情報が得られる。
超音波計測法は様々な方法があるが、一般には、超音波を物体に当てて、反射波の強度を参照しながら、その時間的な遅れ、位相変化等から対象物の音源や検出位置からの位置情報を得ることができる。この方法をイメージセンサから得られる2次元情報と組み合わせることによって3次元情報が得られる。
装置が簡易で最も実用的な方法は、フォトメトリックステレオ法である。
フォトメトリックステレオ法では、対象物に異なる(たとえば互いに直角な)3方向から、LEDなどを光源として対象物全体を照らす光を照射する。このとき3つの光源を順番に1つずつ発光させ、その発光の度にイメージセンサによって撮像を行う。得られた3つの撮影画面の輝度レベルを2画面の組み合わせを変えて差分をとる処理を行う。そして、この差分画面から、対象物の3次元情報を得る。
このフォトメトリックステレオ法を用いると、3次元対象物を含むシーンを3方向から照明することで現れる影の違いから三次元形状を推定することができる。このときシーン内の3次元対象物の画面領域からは、影の違いがはっきりとした3次元情報が得られる。ただし、背景などの遠すぎて光が届かない画面領域からは3次元情報が得られない。よって、シーン内の3次元対象物を特定することができる。
以上、3次元情報取得部2について説明してきたが、本実施形態の図1において3次元情報取得部2は必須の構成ではない。その理由は、CGの対象領域と非対象領域を画面内で分離する方法として他の方法を採用可能だからである。
CG化の目的は、前述したようにデータ伝送量を小さくすることである。詳細は後述するが、CGデータは、原映像データに比べると、そのデータ量を格段に小さくでき、その結果、CGデータ化した領域の画面内の占有率が高ければ高いほど当該画面のデータ伝送量も低減される。
ところが、CG化できるものを全てCG化すると、以下の不都合が生じることがある。
人物等を含め3次元情報が得られるCG化の対象物は、映像を鑑賞する際に、着目されやすく、より高精度な画面領域としておきたい場合も存在する。言い換えると、人物や物が画面の被写体(より着目される画面領域)となる場合に、この被写体をCG化すると、映像品質が低い印象を鑑賞者に与えてしまう。
とくに人物の場合は映像品質を落とさないことが重要である。
そこで本実施形態の送信処理装置3(図1)は、人物や動きのある他の生物または物の被写体を、他の背景の画面領域と区別する方法として、肌色検出と動き検出の機能を備える。肌色検出は人物の顔や手足等を特定するための機能であり、動き検出は人物を含め動きのある生物や物を特定するための機能である。
《詳細な構成例》
以下、この肌色検出機能、動き検出機能、前述した3次元情報取得機能の何れか一の機能、または、複数の機能を組み合わせて実行する場合を例として、送信処理装置3と受信処理装置4のより詳細な構成例を説明する。
なお、機能の組み合わせは任意であるが、ここでは3次元情報取得機能と、他の機能の一または二とを組み合わせる場合を主に説明する。
図2は、送信処理装置3と受信処理装置4のより詳細な構成例を示すブロック図である。
図解した送信処理装置3は、分離処理部31、CGデータ変換部32、映像データ処理部33、および、送信部34を有する。
分離処理部31は、動き検出部31Aと肌色検出部31Bとを含み、図1の撮影装置1からの原映像データD0と、3次元情報取得部2からの3次元情報I0とを入力可能となっている。
分離処理部31は、原映像データD0に対して画面ごとにCG化の対象領域と非対象領域を分離する。このとき、分離を行う手法を、3次元情報I0に基づく方法(第1分離法)、動き検出部31Aの動き検出結果に基づく方法(第2分離法)、肌色検出部31Bの肌色検出結果に基づく方法(第3分離法)の何れか一の分離法または複数の分離法を組み合わせて実行する。この分離法の選択は、不図示の制御部からの分離制御信号S0に基づいて制御される。このため分離処理部31には、分離制御信号S0が入力可能となっている。
第1分離法では、原則として、3次元情報I0が得られた画面領域をCG化の対象領域とし、3次元情報I0が得られない画面領域をCG化の非対象領域とする。
ただし、後述するが、3次元情報I0が得られてもあえて非対象領域とする場合、逆に、3次元情報I0が得られなくても対象領域とする場合がある。この後者の方法は、詳細は後述するが、テクスチャと称される部分的な映像データをポリゴンに貼り付ける手法であり、本実施形態では、この手法もCG化の一手法としている。
第2分離法では、画面の動き検出を、複数の画面(たとえばフレーム)間で同じアドレスを有する画素データの微分成分(変化成分)の大小を検出することによって行う。
第3分離法では、色成分の違いから肌色検出を行う。
分離制御信号S0による、これらの分離法の選択は、たとえば、番組などの映像ソースごとに予め適切な分離法を選択しておき、その映像ソースの処理中には分離法の切り換えを行わないようにするとよい。ただし、この制御は、映像ソース内でも、たとえばスタジオ等の屋内と屋外のシーンごとに適切な分離法を切り替えるようにすることを制限する趣旨ではない。
図2のCGデータ変換部32には、分離処理部31からCG化の対象領域の映像データ(CG化対象データ)D1が入力可能となっている。
CGデータ変換部32は、ポリゴン生成部32A、データ変換部32B、データ変更部32C、および、データ抽出部32Dを有する。
ポリゴン生成部32Aは、CG化対象データD1を入力し、CG化対象データD1からポリゴンを生成する構成である。ここでポリゴンとは、3次元対象物等の表面を構成する多角形を言う。
データ変換部32Bは、ポリゴンごとの座標データ、法線データおよび色データを含むポリゴンデータを求めることによって、CG化対象データD1をCGデータ(ポリゴンデータの別名)D2に変換するブロックである。
図3に、三角形ポリゴンを示す。なお、この図は一例であり、ポリゴンは三角形以外の多角形であってもよい。
ポリゴン生成部32Aが求める座標データとは、三角形ポリゴン35の頂点座標P1=(x1,y1,z1)、P2=(x2,y2,z2)、P3=(x3,y3,z3)である。ポリゴン生成部32Aは、これらの座標データを三角形ポリゴン35ごとに求める。
ポリゴン生成部32Aが求める法線データとは、三角形ポリゴン35の平面に垂直な単位ベクトル(法線ベクトルn(v))を表すデータである。ここで添え字(suffix)の“(v)”はベクトルであることの表示である。3次元対象物が局面を有する場合、法線ベクトルn(v)の向きが異なる三角形ポリゴン35が細かく生成される。
ポリゴン生成部32Aが求める色データは、たとえばRGBの原色データまたは色差データである。このポリゴンの色は特定の1色が原則であるが、後述するテクスチャ貼り付けの場合は、その貼り付ける部分映像データの色であり、通常多数の色を有する。
データ変更部32Cは、たとえば、法線データ(法線ベクトルn(v)のデータ)と色データの各々が近似する隣接ポリゴンが複数ある場合、当該複数の隣接ポリゴンのデータから1つのポリゴンデータを生成する構成である。このデータ変更部32Cの処理実行によって、たとえば、ほぼ均一な色の平面部分は影の部分で1つのポリゴン面積が拡大する。この処理が施された画像はCGデータD2のデータ量が劇的に低減する可能性がある。1枚の画面内には、略平面や影部分は多く存在するのが普通だからである。
データ抽出部32Dは、CG化対象データD1が示すCG対象領域の全部または一部を、画像を貼り付け可能なポリゴンにすることができる。そして、データ抽出部32Dは、単一または複数の画像貼り付け用ポリゴンを生成したときは、当該画像貼り付け用ポリゴンごとに、その座標データ(図3のP1,P2,P3に相当するポリゴン頂点の座標データ)を求める。さらに、データ抽出部32Dは、当該座標データに対応する画像部分であるテクスチャを、たとえば分離処理部31からのCG化対象データD1から抽出する。
より具体的には、たとえば動き検出や肌色検出で得られた人物の背景は、その全部または一部に3次元情報が得られない領域を含むことが多い。しかし、3次元情報が得られた領域だけをCG化すると余りデータ量を減らせないことがある。このため、背景を1つまたは数個の画像貼り付け用ポリゴンとして、各画像貼り付け用ポリゴンに、それぞれ対応するテクスチャを貼り付ける。
また、複数フレームに連続して同じテクスチャが存在する場合は、最初のフレームからテクスチャを抜き出し、以降のフレームではそのテクスチャの変化分を考慮した画像貼り付け用ポリゴンのCGデータを生成し、作成したCGデータに、該当するテクスチャをそれぞれ貼り付けることも可能である。
この「変化分を考慮する」とは、図2の動き検出部31Aの機能を用いて画面の動きを常に監視して、鑑賞者に視認されるほどの動きが検出された場合にCGデータの再作成、テクスチャの再抽出、または、その両方を行うことを意味する。人物に動きがなく背景のみ、その内部で動きがあった場合には、CGデータの再作成は不要で、テクスチャを再抽出して、今あるテクスチャを抽出後の新たなテクスチャで貼り替えればよい。一方、人物に動きがあった場合は背景の形状も異なるため、CGデータの再作成まで必要となる。ただし、人物の動きがある範囲を1つの画像貼り付け用ポリゴンとしている場合は、そのポリゴンデータ(CGデータ)の再作成のみでよい。
CGデータ変換部32からは、CGデータD2とテクスチャデータD3とが送信部34に出力される。ただし、画像貼り付けを行わない場合、CGデータ変換部32からテクスチャデータD3が出力されない。
図2の映像データ処理部33は、CG化の非対象の映像データ(非対象データ)D4を、分離処理部31から入力し、必要な処理を行う。この処理には一般的なノイズ除去等の高画質化処理や増幅処理等も含まれる。
本例では、伝送データ量低減の意味で、図示のようにMPEGエンコーダ33Aを映像データ処理部33に含むことが望ましい。ただし、高精細大画面表示を前提とした場合、それに対応する動画圧縮ができなければMPEGエンコーダ33Aを省略することもできる。CG化技術の適用によって画面としては伝送データ量の低減が可能であるため、画質との兼ね合いで動画圧縮を行うか否かを決めるとよい。
このCGの対象化領域の処理においても、変化分を考慮したデータ伝送仕様、すなわち人物等の被写体に動きが実質的にないとみなされる場合は、動きがあるまでフレームデータの出力を省くことが可能である。
処理後のCG化非対象データD5は、送信部34に出力される。
送信部34は、処理後のCG化の非対象データD5と、CGデータD2(およびテクスチャデータD3)とを入力し、変調、エラー訂正の符号化等、送信に必要な処理を行って通信回線100から、処理後の送信データを出力する。
つぎに、図2の受信処理装置4側の詳細構成を説明する。
図解した受信処理装置4は、受信部41、レンダリング処理部42、映像データ処理部43および合成処理部44を有する。
受信部41は、通信回線100を介して送られてきたCG化の非対象データD5と、CGデータD2(およびテクスチャデータD3)とを入力し、復調、エラー訂正の復号化等、受信に必要な処理を行って、処理後の受信データを出力する。このとき受信部41は、非対象データD5を映像データ処理部43に出力し、CGデータD2(およびテクスチャデータD3)をレンダリング処理部42に出力する。
映像データ処理部43は、非対象データD5を受信部41から入力し、必要な処理を行う。この処理には一般的なノイズ除去等の高画質化処理や増幅処理等も含まれる。
本例では、伝送データ量低減の意味で、図示のようにMPEGエンコーダ33Aにより動画圧縮がされている場合は、その解除のためのMPEGデコーダ43Aを有する。
レンダリング処理部42は、受信部41から入力したCGデータD2(およびテクスチャデータD3)から、送信側のCGデータ変換部32が変換する前の映像データ(CG化対象データD1)を復元するデータ復元部42Aを有する。
つぎに、レンダリング処理について簡単に説明する。
レンダリングとは、CGデータを元のデータに復元する上記処理を含め、CG化対象物に質感を持たせる処理をいう。
このときCG化対象領域をCGデータとして扱うことにより、受信側の環境に合わせた調整処理が実現可能である。
より詳細には、図1の機器5が有する表示デバイスの表示可能なフレームレートに合わせてシーンを間引いたり、解像度や画素数に応じて映像サイズを変化させたり、表現可能色数に合わせて減色してレンダリングを行うことで計算速度を向上することが可能である。このため図2に示すように、レンダリング処理部42に表示デバイスからの情報を送る信号S1が入力可能になっている。
計算機やレンダリングエンジンの性能が不足している場合は、CGデータからレンダリング対象となるポリゴン数を減らしたり、テクスチャを貼るポリゴン数を減らしたりすることにより、計算コストを低減することも可能である。
なお、これらの調整処理は、画像合成後にも可能であるが、レンダリング時の調整で行うと効率がよい。
レンダリングには、たとえば光線追跡法(レイトレーシング法)を用いるが、優れたレンダリングエンジン(演算処理装置)が使用可能な場合は、より計算速度を必要とするレンダリング手法であるフォトンマッピング法などを用い、よりリアルな映像再現を行うことも可能である。
合成処理部44は、レンダリング処理部42からのレンダリングの画像データD6と、映像データ処理部43からの処理後の画像データD7とを合成して一枚の画像を生成する。この合成処理を映像の画面ごとに繰り返して映像データを生成し、これを図1の機器5に送る。
《送信側処理手順》
つぎに、以上の構成を前提として送信側処理手順を説明する。この説明では図1、図2および図4を参照する。
図4は、送信側処理を示すフローチャートである。
送信者は、図1の撮影装置1の撮像部を用いて、高品質な映像を撮影する(ステップST1)。これにより原映像データD0が撮影装置1から送信処理装置3に送られる。
また並行して、3次元情報取得部2によって3次元情報I0が取得され(ステップST2)、原映像データD0と関連付けられて送信処理装置3に入力される。
送信処理装置3では撮影された映像をリアルタイムに処理し、所定の基準に基づいて原映像の品質を維持するCG化の非対象領域と、CG画像に変換してデータ量を低減するCG化の対象領域とに分離する(ステップST3)。この分離処理は図2の分離処理部31で実行され、この処理に変更可能に基準を与えるのは図2の分離制御信号S0であり、その指示に応じて前述した第1〜第3分離法の選択が行われる。
たとえば人物と背景から成るシーンならば、顔画像検出や肌色抽出などの手法を用いて人物の映像をCG化非対象領域として扱い、背景をCG化対象領域として扱う。
また、シーン中にほぼ静止している部分と動いている部分がある場合は、シーン間の微分をとることで動いている部分をCG化非対象領域として抽出することが可能である。
さらに、背景に3次元対象物、たとえば家などがある場合は、3次元対象物をCG化の対象領域に含ませることができる。
背景領域にテクスチャ貼り付け用ポリゴンを生成し、テクスチャを貼り付ける手法は既に述べたが、そのために前もってテクスチャを貼り付ける領域を分離処理でCG化の対象領域とする必要がある。
ところで3次元情報I0は、CG画像を生成するためのCGデータが得られない単なる画面に垂直な向きの位置情報の場合もある。たとえば超音波計測では物体形状まで検出できない場合があるが、その場合、その得られた位置情報(z座標データ)によって画面に垂直な向きの物体の位置分布が得られるのみである。
そのz座標データ分布に分離可能な孤立した纏まりが複数ある場合、そのシーンの手前にあるものと奥側の背景を分離することができる。具体的には、分布における纏まり間のz座標範囲にz座標データの閾値を設け、その閾値よりz座標が小さい手前にあると推測できる画面領域をCG化の非対象領域とし、閾値以上のz座標が大きく画面領域を背景と判定して、これをCG化の対象領域とする。
このようにして得られた背景領域にテクスチャを貼り付けることが可能なことは、前述した通りである。
分離処理後のCG化対象データD1(図2参照)に対して、図2のCGデータ変換部32によってCGデータ変換処理が実行される(ステップST4)。また、ステップST4と並行して、図2の映像データ処理部33によって送信側の映像処理が実行される(ステップST5)。
これらの処理内容はテクスチャ貼り付けを含め既に述べたので、ここでの重複説明は行わない。
ステップST4のCGデータ変換によって、図2に示すCGデータD2(およびテクスチャデータD3)が得られる。また、ステップST5によって処理後の非対象データD5が得られる。
これらのデータに対し必要な送信処理を、図2の送信部34が行う(ステップST6)。この処理後のデータは送信データとして通信回線100に出力される。
《受信側処理手順》
続いて受信側処理手順を説明するが、ここでは図1、図2および図5を参照する。
図5は、受信側処理を示すフローチャートである。
ステップST11にて、図2の受信部41が受信データを受信処理する。処理後の受信データが受信部41からレンダリング処理部42と映像データ処理部43に送られる。
レンダリング処理部42は、受信部41からのCGデータを元に、受信側の環境に適したレイトレーシングなどのレンダリング処理を行う(ステップST12)。
映像データ処理部43は、レンダリング処理と並行して、受信部41からのCG化の非対象データに受信側の所定の映像処理を施す(ステップST13)。この映像処理には、MPEGデコード処理を含む。
レンダリングされたCG映像とCG化非対象領域の映像を、図2の合成処理部44が合成処理し(ステップST14)、機器5の表示デバイスにて、合成後の映像を表示する(ステップST15)。
本実施形態では、人物等の被写体がCG化非対象領域として扱われ、CG化対象領域である背景がCGデータとして扱われている場合は、CGデータを差し替えることで、他の背景と重ねたシミュレーションなどの用途にも用いることも可能である。
本実施形態では、以下の利益が得られる。
CG化非対象領域は原映像あるいは適切な処理が施された映像として扱われるため、品質を劣化させることはない。残りのCG化対象領域はCGデータとして扱われるため、原映像よりも容量が小さく、送受信や処理のコストが少なくて済む。そのため本手法のような、低容量で高品質な映像の送受信を実現する手段が必要とされているが、本実施形態では第1〜第3分離法を必要に応じて組み合わせで用いることで適切な領域分離が可能である。
そして本実施形態では、CGデータにより送信データの一部(または全部)を生成し、これによって原映像データD0に対する送信データの圧縮率が高く、送信データ量を低減することができる。
このようにCG化により、動く可能性が高い人物がCG化非対象領域として扱われ、CG化対象領域である背景がCGデータとして扱われている場合、CG化対象領域がほとんど変化しないことが考えられるので、人物と背景の再描画分だけを送受信すればよく、その結果、高い圧縮率を実現することができる。
よって、さらに効率よく伝送データ量の低減が可能である。
以上は送信側で得られる利益であるが、受信側では、CGデータと、その他の映像データが分離して送られてくる。このとき、背景などのCG化対象領域の映像データは、フレームごとではなく必要なタイミングで送られてくるようにできることから、レンダリング処理そのものの負担が小さくでき、また、フレームの間引きや画素数変換等のレンダリング処理時に行う画像調整の負担も軽くて済む。さらに、シミュレーション用途への適用も容易である。
以上をまとめると、以下のごとくである。
(1)映像の全体的な品質を維持しながら、伝送データ量を小さくすることが可能である。
(2)領域分離の柔軟性が高く、このため、より効率的な伝送データ量の低減が可能である。
(3)人物と背景の再描画分だけを送受信することができ、より効率的な伝送データ量の低減が可能である。
高品質な映像を送受信する際のコストを小さくすることが可能である。
(4)受信者の環境に応じた最適な映像再現が可能である。
(5)CG化対象領域を他のデータと差し替えたシミュレーションが可能である。
とくに上記(1)〜(3)の伝送データ量の低減は、今後益々重要性が増すと予想される。
すなわち、たとえばインターネット放送などの分野では、多チャンネルの放送データをHD(high definition)規格等に適合する高品質映像として配信する必要があり、現在数[Mbps]を実現している光ファイバー伝送を用いても帯域が不足すると考えられる。
よって、本実施形態のデータ伝送システム、その送信処理装置、受信処理装置、およびこれらのデータ伝送方法を用いると、この通信回線の容量不足を解決することが可能となる。
本発明の実施形態に関わる映像データの伝送システムの全体構成を示す図である。 送信処理装置と受信処理装置のより詳細な構成例を示すブロック図である。 三角形ポリゴンを示す図である。 送信側処理を示すフローチャートである。 受信側処理を示すフローチャートである。
符号の説明
1…撮影装置、2…3次元情報取得部、3…送信処理装置、31…分離処理部、31A…動き検出部、31B…肌色検出部、32…CGデータ変換部、32A…ポリゴン生成部、32B…データ変換部、32C…データ変更部、32D…データ抽出部、33…映像データ処理部、33A…MPEGエンコーダ、34…送信部、4…受信処理装置、41…受信部、42…レンダリング処理部、42A…データ復元部、43…映像データ処理部、43A…MPEGデコーダ、44…合成処理部、5…機器、D0…原映像データ、D1…CG化対象データ、D2…CGデータ、D3…テクスチャデータ、S0…分離制御信号

Claims (15)

  1. 撮影装置と、
    前記撮影装置からの映像データをコンピュータグラフィックス(CG)の対象領域と非対象領域に所定の基準に従って分離する分離処理部、前記対象領域の映像データをCGデータに変換するCGデータ変換部、および、前記対象領域のCGデータと前記非対象領域の映像データを通信回線に送信する送信部を備える送信処理装置と、
    受信部、当該受信部が受信した前記対象領域のCGデータから前記CGデータ変換部が変換する前の映像データを復元するデータ復元部、および、復元された前記対象領域の映像データを前記受信部が受信した前記非対象領域の映像データと画面ごとに合成する合成処理部を備える受信処理装置と、
    を有する映像データの伝送システム。
  2. 前記撮影装置からの前記撮像データに関連付けられた3次元情報を取得する3次元情報取得部が前記分離処理部に接続され、
    前記分離処理部は、前記3次元情報が取得できた対象物を映像内で区別し、当該対象物の画面領域を前記対象領域とし、その他の画面領域を前記非対象領域とする
    請求項1に記載の映像データの伝送システム。
  3. 前記分離処理部は、前記撮影装置からの前記撮像データの動き検出を行い、動きがある画面領域を前記非対象領域とし、動きがない又は動きが比較的小さいその他の画面領域を前記対象領域とする
    請求項1に記載の映像データの伝送システム。
  4. 前記分離処理部は、前記撮影装置からの前記撮像データから肌色を検出し、肌色の画面領域または肌色部分を包括する画面領域を前記非対象領域とし、その他の画面領域を前記対象領域とする
    請求項1に記載の映像データの伝送システム。
  5. 前記撮影装置からの前記撮像データに関連付けられた3次元情報を取得する3次元情報取得部が前記分離処理部に接続され、
    前記分離処理部は、前記3次元情報が取得できた対象物を映像内で区別し、当該対象物の画面領域を前記対象領域とし、その他の画面領域を前記非対象領域とする第1分離法、前記撮影装置からの前記撮像データの動き検出を行い、動きがある画面領域を前記非対象領域とし、動きがない又は動きが比較的小さいその他の画面領域を前記対象領域とする第2分離法、前記撮影装置からの前記撮像データから肌色を検出し、肌色の画面領域または肌色部分を包括する画面領域を前記非対象領域とし、その他の画面領域を前記対象領域とする第3分離法の何れか一の分離法または複数の分離法を組み合わせて実行し、かつ、外部からの制御信号に応じて分離法の切り替えが可能に構成されている
    請求項1に記載の映像データの伝送システム。
  6. 前記CGデータ変換部は、
    前記対象領域の映像データからポリゴンを生成するポリゴン生成部と、
    前記ポリゴンごとの座標データ、法線データおよび色データを含むポリゴンデータを求めることによって、前記対象領域の映像データを前記CGデータに変換するデータ変換部と、
    前記法線データと前記色データの各々が近似する隣接ポリゴンが複数ある場合、当該複数の隣接ポリゴンのデータから1つのポリゴンデータを生成するデータ変更部と、
    を含む請求項1〜5の何れか1項に記載の映像データの伝送システム。
  7. 前記CGデータ変換部は、前記対象領域の全部または一部を、画像を貼り付け可能なポリゴンにすることができ、単一または複数の画像貼り付け用ポリゴンを生成したときは、当該画像貼り付け用ポリゴンごとに、その座標データを求め、当該座標データに対応する画像部分であるテクスチャを前記分離処理部または前記撮影装置からの映像データから抽出するデータ抽出部を含む
    請求項6に記載の映像データの伝送システム。
  8. 前記データ抽出部は、前記対象領域の全部から単一の画像貼り付け用ポリゴンを生成したときは、1回限りまたは数画面ごとに1回の割合で、前記画像貼り付け用ポリゴンの生成と、その座標データおよび前記テクスチャの抽出とを実行する
    請求項7に記載の映像データの伝送システム。
  9. 前記データ復元部は、映像に質感を持たせるレンダリング処理部内に設けられ、
    前記受信処理装置は、前記合成処理部により合成された画面の拡大または縮小が可能なスケーリング部を備える
    請求項1に記載の映像データの伝送システム。
  10. 撮影装置からの映像データをコンピュータグラフィックス(CG)の対象領域と非対象領域に所定の基準に従って分離する分離処理部と、
    前記対象領域の映像データをCGデータに変換するCGデータ変換部と、
    前記対象領域のCGデータと前記非対象領域の映像データを通信回線に送信する送信部と、
    を備える映像データの送信処理装置。
  11. 通信回線から、映像データの画面ごとにコンピュータグラフィックス(CG)の対象領域の映像データが変換されて生成されたCGデータ、および、CGの非対象領域の映像データを各々受信する受信部と、
    前記受信部が受信した前記対象領域のCGデータから当該CGデータに変換される前の映像データを復元するデータ復元部と、
    復元された前記対象領域の映像データを前記受信部が受信した前記非対象領域の映像データと画面ごとに合成する合成処理部と、
    を備える映像データの受信処理装置。
  12. 映像データをコンピュータグラフィックス(CG)の対象領域と非対象領域に所定の基準に従って分離する分離ステップと、
    前記対象領域の映像データをCGデータに変換するCG変換ステップと、
    前記対象領域のCGデータと前記非対象領域の映像データを通信回線に送る送信ステップと、
    前記CGデータおよび前記非対象領域の映像データを前記通信回線から受信する受信ステップと、
    受信した前記対象領域のCGデータから当該CGデータに変換される前の映像データを復元する復元ステップと、
    復元された前記対象領域の映像データを、受信した前記非対象領域の映像データと画面ごとに合成する合成ステップと、
    を含む映像データの伝送方法。
  13. 映像データをコンピュータグラフィックス(CG)の対象領域と非対象領域に所定の基準に従って分離する分離ステップと、
    前記対象領域の映像データをCGデータに変換するCG変換ステップと、
    前記対象領域のCGデータと前記非対象領域の映像データを通信回線に送る送信ステップと、
    を含む映像データの送信処理方法。
  14. コンピュータグラフィックス(CG)の対象領域の映像データを変換して生成されたCGデータ、および、CGの非対象領域の映像データを通信回線から受信する受信ステップと、
    受信した前記対象領域のCGデータから当該CGデータに変換される前の映像データを復元する復元ステップと、
    復元された前記対象領域の映像データを、受信した前記非対象領域の映像データと画面ごとに合成する合成ステップと、
    を含む映像データの受信処理方法。
  15. 前記復元ステップは、映像データに質感を持たせるレンダリング処理にて実行され、
    前記合成ステップにて合成された画面の拡大または縮小が可能なスケーリングステップを含む
    請求項14に記載の映像データの受信処理方法。
JP2006154596A 2006-06-02 2006-06-02 映像データの伝送システムとその方法、送信処理装置とその方法 Expired - Fee Related JP4929848B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006154596A JP4929848B2 (ja) 2006-06-02 2006-06-02 映像データの伝送システムとその方法、送信処理装置とその方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006154596A JP4929848B2 (ja) 2006-06-02 2006-06-02 映像データの伝送システムとその方法、送信処理装置とその方法

Publications (2)

Publication Number Publication Date
JP2007323481A true JP2007323481A (ja) 2007-12-13
JP4929848B2 JP4929848B2 (ja) 2012-05-09

Family

ID=38856219

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006154596A Expired - Fee Related JP4929848B2 (ja) 2006-06-02 2006-06-02 映像データの伝送システムとその方法、送信処理装置とその方法

Country Status (1)

Country Link
JP (1) JP4929848B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017530626A (ja) * 2014-09-09 2017-10-12 クゥアルコム・インコーポレイテッドQualcomm Incorporated ビデオコード化のための同時ローカライゼーション及びマッピング
JP7429930B2 (ja) 2020-09-23 2024-02-09 グリー株式会社 コンピュータプログラム、方法、及び、サーバ装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02298169A (ja) * 1989-05-12 1990-12-10 Nippon Telegr & Teleph Corp <Ntt> 画像符号化方法
JPH07222145A (ja) * 1994-01-31 1995-08-18 Mitsubishi Electric Corp 画像符号化装置
JPH0946704A (ja) * 1995-07-28 1997-02-14 Tsushin Hoso Kiko 画像符号化方式
JP2004054572A (ja) * 2002-07-19 2004-02-19 Minolta Co Ltd 3次元モデルの編集方法および装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02298169A (ja) * 1989-05-12 1990-12-10 Nippon Telegr & Teleph Corp <Ntt> 画像符号化方法
JPH07222145A (ja) * 1994-01-31 1995-08-18 Mitsubishi Electric Corp 画像符号化装置
JPH0946704A (ja) * 1995-07-28 1997-02-14 Tsushin Hoso Kiko 画像符号化方式
JP2004054572A (ja) * 2002-07-19 2004-02-19 Minolta Co Ltd 3次元モデルの編集方法および装置

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017530626A (ja) * 2014-09-09 2017-10-12 クゥアルコム・インコーポレイテッドQualcomm Incorporated ビデオコード化のための同時ローカライゼーション及びマッピング
US10484697B2 (en) 2014-09-09 2019-11-19 Qualcomm Incorporated Simultaneous localization and mapping for video coding
JP7429930B2 (ja) 2020-09-23 2024-02-09 グリー株式会社 コンピュータプログラム、方法、及び、サーバ装置

Also Published As

Publication number Publication date
JP4929848B2 (ja) 2012-05-09

Similar Documents

Publication Publication Date Title
WO2018121333A1 (zh) 一种360度vr全景图形图像及视频实时生成方法
EP3695383A1 (en) Method and apparatus for rendering three-dimensional content
JP2005500721A (ja) Vtvシステム
KR101538947B1 (ko) 실감형 자유시점 영상 제공 장치 및 방법
JP2005500721A5 (ja)
US20080168512A1 (en) System and Method to Implement Interactive Video Streaming
CN113099204A (zh) 一种基于vr头戴显示设备的远程实景增强现实方法
EP3434021B1 (en) Method, apparatus and stream of formatting an immersive video for legacy and immersive rendering devices
US20210233303A1 (en) Image processing apparatus and image processing method
CN113873264A (zh) 显示图像的方法、装置、电子设备及存储介质
CN113243112A (zh) 流式传输体积视频和非体积视频
CN213461894U (zh) 一种xr-扩展现实系统
US20230179756A1 (en) Information processing device, information processing method, and program
KR101987062B1 (ko) Ip를 통한 멀티카메라 비디오 분배 및 결합 시스템 및 그 방법
CN107580228B (zh) 一种监控视频处理方法、装置及设备
JP4929848B2 (ja) 映像データの伝送システムとその方法、送信処理装置とその方法
WO2022024780A1 (ja) 情報処理装置、情報処理方法、映像配信方法及び情報処理システム
CN115174954A (zh) 视频直播方法、装置、电子设备以及存储介质
KR20170059310A (ko) 텔레 프레젠스 영상 송신 장치, 텔레 프레젠스 영상 수신 장치 및 텔레 프레젠스 영상 제공 시스템
US20230008125A1 (en) Augmenting a view of a real-world environment with a view of a volumetric video object
JP2020042666A (ja) 画像生成装置、画像生成装置の制御方法及びプログラム
US20240015264A1 (en) System for broadcasting volumetric videoconferences in 3d animated virtual environment with audio information, and procedure for operating said device
TWI774063B (zh) 三維直播影像的橫向縱向控制裝置
TWI836141B (zh) 即時三維影像顯示的直播方法
WO2023014094A1 (en) Method and apparatus for supporting 360 video

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090525

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110609

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110621

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110815

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110920

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111114

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120117

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120130

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150224

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees