JP4094942B2 - Arbitrary viewpoint image transmission method, apparatus for implementing the method, processing program therefor, and recording medium - Google Patents

Arbitrary viewpoint image transmission method, apparatus for implementing the method, processing program therefor, and recording medium Download PDF

Info

Publication number
JP4094942B2
JP4094942B2 JP2002359168A JP2002359168A JP4094942B2 JP 4094942 B2 JP4094942 B2 JP 4094942B2 JP 2002359168 A JP2002359168 A JP 2002359168A JP 2002359168 A JP2002359168 A JP 2002359168A JP 4094942 B2 JP4094942 B2 JP 4094942B2
Authority
JP
Japan
Prior art keywords
packet
image
viewpoint
identification number
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2002359168A
Other languages
Japanese (ja)
Other versions
JP2004193941A (en
Inventor
豊 國田
秋彦 橋本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2002359168A priority Critical patent/JP4094942B2/en
Publication of JP2004193941A publication Critical patent/JP2004193941A/en
Application granted granted Critical
Publication of JP4094942B2 publication Critical patent/JP4094942B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
本発明は利用者が所望する任意の視点位置からの画像を伝送する任意視点画像伝送装置に関し、特に複数の視点位置で撮影された2次元画像を元に、利用者が所望する任意の視点位置からの画像を生成する画像処理システムで画像データを伝送する任意視点画像伝送装置に適用して有効な技術に関するものである。
【0002】
【従来の技術】
近年のコンピュータグラフィックス(CG)やバーチャルリアリティ(VR)技術の発達により、カメラが設置された視点位置からだけでなく、利用者が望む視点位置から被写体の写実的な画像を観察できる様になってきた。
【0003】
その様な画像生成技術は一般にImage-Based Rendering(IBR)と呼ばれ、従来のCG技術が被写体の精緻な幾何モデルを必要としていたのに対し、IBRは被写体を多数の位置から撮影した2次元画像を元に、幾何モデルを殆ど或いは全く用いずに任意の視点位置から被写体を見た画像を生成することができる。
【0004】
IBRの代表的なものに、Light Field Rendering、Lumigraphや、光線空間理論と呼ばれる手法がある(例えば非特許文献1乃至3参照)。
【0005】
これらの手法では、多数の位置からカメラで撮影した2次元画像を、そのカメラのレンズ中心を通る光線の束(光線群)の強度をサンプリングしたデータであると見なす。そして、一旦それら光線群のデータを光線空間等と呼ばれる多次元空間上で表現し、その後に所望する視点位置を通る光線群を光線空間上で再サンプリングすると言う手順を経る。
【0006】
しかし、この様な手法では、光線空間を構成する為に多数の視点位置で撮影した2次元画像データ(多眼データ)を必要とする為、幾何モデルを用いる方法と比べて必要とするデータ量は膨大となる欠点がある。その為、多眼データが内包する冗長性を利用し、符号化処理を行うことでデータ量を圧縮するアプローチがとられることが多い。
【0007】
例えば、参照画像を幾つか設定し、その他の画像はその差分を符号化する方式や、一旦3次元的なモデルを構築し、そのモデルを視点位置から見たときの画像を生成し、実際の画像との予測誤差を符号化する等の方式がある(例えば特許文献1及び2参照)。
【0008】
しかし、これらの符号化処理を行うとデータ量はある程度まで減少するものの、通常の2次元画像と比較すると膨大である。
【0009】
故にネットワークでの利用を考えた場合、利用者側の端末に膨大なデータを一旦時間をかけてダウンロードし、その後に端末で蓄えたデータを閲覧するといった使い方は現実的であるが、絶え間なく配信されてくるデータをすぐさま端末で閲覧するストリーミングと呼ばれる用途では伝送路の帯域が不足し、実現が困難である。
【0010】
また、より高い圧縮率の符号化方式をとることで伝送帯域に収める様なアプローチをとるにしても、圧縮率を高くする程、計算機負荷が高くなり、処理時間は増大する。その為、遅延が生じてしまい、実時間性が重視されるコミュニケーションやライブ配信の用途には向かない。
【0011】
これらの問題は、遠隔地間でのデータ伝送に限った問題ではなく、ローカルなシステムにおいても、膨大な多眼データを構成機器間で伝送する際に問題となる。よって、符号化によりデータ量を減らすと言う従来の手法は、適用できるアプリケーションやサービスの形態を著しく限定していた。
【0012】
一方、この様な手法とは別のアプローチとして、まず利用者側から視点位置の要求を伝送し、多眼カメラ側で要求された視点位置の画像を生成し、その生成画像を利用者側に伝送すると言う手法も考えうる。この場合、符号化による圧縮効率を考慮しなければ、データ量は1つのカメラ分の画像と同じであるので、通常の2次元画像の通信に必要な帯域で伝送が可能となる。
【0013】
この様に、伝送帯域の面だけに注目すると上記手法は理想的と言えるが、利用者が視点位置の変更を要求してから提示画像に変更が反映されるまでの応答性に問題がある。つまり、利用者の指示した視点移動が提示画像に反映される為には、利用者側と多眼カメラ側でデータが往復する伝送時間がかかり、利用者への応答に遅延が生じる為に、システムとしての操作性が著しく揖なわれてしまう。
【0014】
また、この方法により一定数以上の利用者に任意視点画像を提供することは難しい。何故なら、多眼カメラ側でそれぞれの利用者が要求する視点の映像を逐一作成することになり、計算機負荷もデータの伝送量も人数倍で増えていくからである。
【0015】
【非特許文献1】
Marc Levoy, Pat Hanrahan,“Light Field Rendering”, SIGGRAPH'96 Conference Proceedings, Association for Computing Machinery, 1996年, p.31-41
【非特許文献2】
Steven J.Gortler外,“The Lumigraph”, SIGGRAPH'96 Conference Proceedings, Association for Computing Machinery, 1996年, p.43-54
【非特許文献3】
内山外、“光線空間理論に基づく実写データのCGモデルを融合した仮想環境の実現”、3次元画像コンファレンス’96、3次元画像コンファレンス’96実行委員会、1996年、p.13−18
【特許文献1】
特開平10−111951号公報(第5−6頁、第6図)
【特許文献2】
特開平11−18091号公報(第7−10頁、第1図)
【0016】
【発明が解決しようとする課題】
前記従来のIBRの代表的な手法では、光線空間を構成する為に多数の視点位置で撮影した多眼データのデータ量が膨大となる為、ネットワークでの利用を考えた場合、ストリーミングの用途では伝送路の帯域が不足し、実現が困難になると言う問題がある。
【0017】
また、より高い圧縮率の符号化方式をとることで伝送帯域に収める様なアプローチをとるにしても、圧縮率を高くする程、計算機負荷が高くなって処理時間が増大し、遅延が生じてしまう為、実時間性が重視されるコミュニケーションやライブ配信の用途には向かないと言う問題がある。
【0018】
一方、利用者側から要求された視点位置の画像を多眼カメラ側で生成して利用者側に伝送する手法では、利用者側と多眼カメラ側でデータが往復する際の伝送時間がかかる為、システムとしての操作性が著しく揖なわれてしまうと言う問題がある。
【0019】
また、この方法では、多眼カメラ側でそれぞれの利用者が要求する視点の映像を逐一作成することになり、計算機負荷及びデータ伝送量が利用者の人数倍で増えていく為、所定数以上の利用者に任意視点画像を提供することが難しいと言う問題がある。
【0020】
本発明の目的は、上記問題を解決し、画像データを伝送する為の伝送帯域を節約し、利用者からの視点移動の要求に対する応答性を犠牲にすること無く、利用者の人数が増えた場合にも安定して、任意視点画像を生成する元となる複数の視点位置から撮影された画像データを伝送することが可能な技術を提供することにある。また本発明の他の目的は、利用者に近い末端の伝送帯域を節約すると共に、利用者の視点移動に対する画像生成の応答性を犠牲にすること無く、任意視点画像を生成する為の画像データの伝送を行うこと、画像全体を符号化した場合と比較して圧縮効率を落とすこと無く画像の分割を行うことや、伝送帯域を必要最小限に節約することが可能な技術を提供することにある。
【0021】
【課題を解決するための手段】
本発明は、任意視点画像を生成する元となる複数の視点位置から撮影された画像データを伝送する任意視点画像伝送装置において、複数の領域の部分画像に分割された画像データの内、利用者の所望する視点位置の画像を生成するのに必要な部分画像を選択して伝送するものである。
【0022】
本発明では、実時間コミュニケーション、ライブ配信やストリーミング放送等、処理時間の要求が厳しいネットワーク・アプリケーションで、利用者の所望する視点位置からの画像(任意視点画像)を提供する場合に、次の様に画像データの伝送を行う。
【0023】
すなわち、異なる視点位置で撮影されたそれぞれの画像を更に複数の領域の部分画像に分割した後、それらのそのデータがどの視点位置のどの領域のものであるかを示す領域ヘッダ情報を前記分割された部分画像のデータに付加する。そして、そのデータに対して通信用プロトコルのヘッダを付加してパケットとし、そのパケットの中から利用者の所望する視点位置の画像を生成するのに必要な部分画像を含むパケットを選択した後、その選択したパケットを通信プロトコルのヘッダにより経路判定して伝送する。
【0024】
一般的なIBRによる画像生成法においては、ある視点位置での画像を利用者端末で生成する際に複数の異なる視点位置で撮影した元画像を用いるが、その全てが必要なのではなく、必要となるのは各視点の元画像毎に一部分づつだけである。
【0025】
よって、上記提案手法により、複数の視点で撮影した元画像を更に部分的な領域に分割したデータとすることで、ある時点での所望の視点位置からの画像の生成に必要な領域を含むデータのみを伝送でき、全ての元画像を伝送してから画像の生成を行う場合に比べて伝送帯域を節約することができる。
【0026】
また、分割後の部分画像のデータに対して領域の情報を示すヘッダを付加する処理は非常にシンプルな為、その処理負荷はごく少なく、時間的なオーバーヘッドも殆ど生じない。
【0027】
その一方で、選択処理は部分画像の内容によらず、ヘッダ部分により判断ができる為、一般にスイッチと呼ばれるハードウェアにより高いスループットで処理することが可能である。
【0028】
更に、この領域ヘッダを含む画像データに対して更に通信プロトコルのヘッダを加えてパケットとすることで、領域ヘッダに対応していない既存のネットワーク機器であっても、パケットを伝送することができる。
【0029】
利用者数が増加して同一のパケットを異なる利用者が必要とする場合でも、選択処理の過程でその様なパケットを複写することで、元画像を提供する側には負担をかけること無く、スケーラビリティに優れるシステムを実現することができる。
【0030】
また本発明のパケット選択処理では、送信側と受信側との間の伝送経路上で段階的にパケットの選択を行うものとしても良い。
【0031】
利用者の視点位置が変化した場合、画像生成に必要となる部分画像も変化する。よって、パケットの伝送期間中に利用者が視点移動をすると、送信する時点で必要であったパケットと、受信側に到着した時点で必要なパケットとが異なることになる。その為、送信する時点で必要なパケットのみを選択して伝送すると、利用者が視点移動をした場合には画像生成に必要なパケットが受信側で取得できないことがあり、結果として利用者に適切な画像を提示できず、利用者の操作への応答性を損なう場合がある。
【0032】
その一方で、送信時にパケットの選択を厳しくせずに、余剰にパケットを送信した場合は、受信した段階で新たに必要なパケットを選択することができるが、広い伝送帯域を必要とする。一般にネットワークは末端の利用者側に近くなる程、帯域が狭くなる為、送信側に近い経路では広い帯域で伝送することのできた量のデータも、受信する利用者側までは伝送できないことがある。
【0033】
しかし、送信側で大まかにパケットの選択をしておき、経路上のノードでの中継により利用者に近づくにつれて逐次的にパケットの選択を厳しくすれば、利用者に近い末端の伝送帯域を節約することができる。そして、利用者に近いノード程、そこから利用者までパケットが到達する時間が短いことから、視点の移動する範囲が狭く、パケットの選択も厳しくしても、利用者側に到着した時に必要なパケットが欠落する危険が少ない為、利用者の視点移動に対する画像生成の応答性を犠牲にすることが無い。
【0034】
また本発明の部分画像への分割では、符号化処理の最小単位若しくはその集合を分割単位として生成した部分画像に対して直交変換を含む符号化を行うものとしても良い。
【0035】
2次元画像の符号化として一般的に用いられている変換符号化方式では、画像の2次元相関性を積極的に利用することで圧縮効率を高めている。しかし、部分画像に分割すると、それぞれのデータ毎に圧縮効率が落ち、全体としてはデータサイズが大きくなることがある。
【0036】
しかし、変換符号化方式では、ブロックと呼ばれる部分画像毎に例えば離散コサイン変換(DCT)により直交符号化していることから、部分画像の分割をこのブロック若しくはその集合毎に行うことで、画像全体を符号化した場合と比べても圧縮効率を落とすこと無く画像の分割をすることができる。
【0037】
また本発明では、利用者の所望する視点位置が伝送期間中に移動することを想定してその移動範囲を予測し、その範囲内の視点位置での画像生成に必要なパケットを選択するものとしても良い。
【0038】
パケットの伝送期間中に利用者が視点移動をすると、送信する時点で必要であったパケットと、受信側に到着した時点で必要なパケットは異なることになる。この為、送信する時点で必要なパケットのみを選択して伝送すると、利用者が視点移動をした場合には必要なパケットが受信側で取得できないことがある。パケットの選択を大まかに行えば視点移動に対するロバスト性が向上するが、その分必要な伝送帯域も広くなる。
【0039】
そこで本発明において、利用者の視点移動範囲を具体的に予測して、その予測した視点の範囲内で画像を生成するのに必要なパケットを選択する様にし、この様にパケットの選択に具体的な指針を与えることで、伝送帯域を必要最小限に節約することができる。
【0040】
以上の様に本発明の任意視点画像伝送装置によれば、複数の領域の部分画像に分割された画像データの内、利用者の所望する視点位置の画像を生成するのに必要な部分画像を選択して伝送するので、画像データを伝送する為の伝送帯域を節約し、利用者からの視点移動の要求に対する応答性を犠牲にすること無く、利用者の人数が増えた場合にも安定して、任意視点画像を生成する元となる複数の視点位置から撮影された画像データを伝送することが可能である。
【0041】
【発明の実施の形態】
(実施形態1)
以下に任意視点画像を生成する元となる複数の視点位置から撮影された画像データを伝送する実施形態1の任意視点画像伝送装置について説明する。
【0042】
図1は本実施形態の任意視点画像伝送装置の処理概要を示す図である。図1に示す様に本実施形態の任意視点画像伝送装置は、カメラ101により異なる視点位置で撮影されたそれぞれの画像を、画像分割ユニット102により更に複数の領域の部分画像に分割した後、それらの分割された部分画像のデータに、そのデータがどの視点位置のどの領域のものであるかを示すヘッダ情報を領域ヘッダ付加ユニット103により付加する。そして通信ヘッダ付加ユニット104により、そのデータに対して通信用プロトコルのヘッダを付加してパケットとし、利用者端末107からパケット要求108を受け取って、利用者の所望する視点位置の画像を生成するのに必要な部分画像を含むパケットをパケット選択ユニット105により選択した後、その選択したパケットを通信プロトコルのヘッダによりネットワーク106上で経路判定して利用者端末107へ伝送する。
【0043】
図1において、カメラ101は、被写体の画像を多視点位置から撮影する装置であり、刻々と変化する被写体を、例えば1秒間に30フレームの2次元画像として記録し、そのディジタルデータを出力する。なお、カメラ101は、撮影された画像データを実時間で逐次出力しても良いし、カメラ101で撮影された画像データを一旦記憶装置に蓄積し、その蓄積したデータを後で読み出して出力しても良いものとする。
【0044】
画像分割ユニット102は、画像の分割処理を担うユニットであり、カメラ101から出力されてきた被写体の2次元画像を複数の領域に分割し、複数の部分的な画像としてそのデータを出力する。
【0045】
領域ヘッダ付加ユニット103は、画像分割ユニット102で分割された部分画像データに対して、その部分画像データがどのカメラで撮影されたかや、どの領域の画像であるか等を示すヘッダ情報(以下、領域ヘッダと呼ぶ)を付加するユニットである。
【0046】
通信ヘッダ付加ユニット104は、領域ヘッダ付加ユニット103により領域ヘッダが付加された部分画像データに対し、更に通信プロトコル用のヘッダ(以下、通信ヘッダと呼ぶ)を付加してパケットと呼ばれるデータの固まりとし、ネットワーク106に送出するユニットである。ここで通信プロトコルとは、OSI参照モデルにおける物理・データリンク層及びネットワーク層及びトランスポート層の全て若しくは一部に相当し、通信ヘッダは例えばイーサネットヘッダ、IPヘッダ、TCPヘッダがそれぞれ相当する。しかし、本発明はこれら特定の通信プロトコルに限定されるものではないものとする。
【0047】
パケット選択ユニット105は、通信ヘッダ付加ユニット104より送られてくる多数のパケットの内、利用者の任意視点生成端末である利用者端末107で必要となる部分画像を含むパケットをネットワーク106に送出し、不要なパケットを破棄する処理を、パケットの領域ヘッダにより判断して行うユニットである。必要となるパケットを示すパケット要求108は利用者端末107側から与えられ、パケット選択ユニット105で保持されるものとする。利用者端末107で生成する画像の視点位置が移動し、必要となるパケットも変化した際にはパケット選択ユニット105において保持されている情報が更新される。
【0048】
ネットワーク106は、パケットの伝送経路となる伝送媒体や中継ノードを有しており、パケットの通信ヘッダにより経路を決定し、パケット選択ユニット105により選択されたパケットを利用者端末107まで伝送する。
【0049】
利用者端末107は、利用者が使用する端末装置であり、利用者の所望する視点位置の画像を生成する為に必要な部分画像を算出し、その部分画像を含むパケットをパケット選択ユニット105に要求し、要求に応じて送られてきたパケットを元に、その視点位置での画像を生成して利用者に提示する。
【0050】
図2は本実施形態の任意視点画像伝送装置の概略構成を示す図である。図2に示す様に本実施形態の任意視点画像伝送装置210は、CPU211と、メモリ212と、磁気ディスク装置213と、入力装置214と、出力装置215と、CD−ROM装置216と、通信装置217と、パケット要求管理テーブル218とを有している。
【0051】
CPU211は、任意視点画像伝送装置210全体の動作を制御する装置である。メモリ212は、任意視点画像伝送装置210全体の動作を制御する際にその為の各種処理プログラムやデータをロードする記憶装置である。
【0052】
磁気ディスク装置213は、前記各種処理プログラムやデータを格納しておく記憶装置である。入力装置214は、任意視点画像の画像データを伝送する為の各種入力を行う装置である。出力装置215は、任意視点画像の画像データの伝送に伴う各種出力を行う装置である。
【0053】
CD−ROM装置216は、前記各種処理プログラムを記録したCD−ROMの内容を読み出す装置である。通信装置217は、インターネットやイントラネット等のネットワークを介して利用者端末107との通信を行う装置である。パケット要求管理テーブル218は、パケット要求108を受信したポート番号と、そのパケット要求108中の視点位置識別番号とを対応付けて格納するテーブルである。
【0054】
本実施形態の任意視点画像伝送装置210は、コンピュータとプログラムによっても実現できるものとし、画像分割ユニット102、領域ヘッダ付加ユニット103、通信ヘッダ付加ユニット104、パケット選択ユニット105としてコンピュータを機能させる為のプログラムは、CD−ROM等の記録媒体に記録され磁気ディスク等に格納された後、メモリにロードされて実行されるものとする。なお前記プログラムを記録する記録媒体はCD−ROM以外の他の記録媒体でも良い。また前記プログラムを当該記録媒体からコンピュータにインストールして使用しても良いし、ネットワークを通じて当該記録媒体にアクセスして前記プログラムを使用するものとしても良い。
【0055】
図3は本実施形態の画像分割及びヘッダ付加処理の処理手順を示すフローチャートである。図3の様に本実施形態の画像分割ユニット102は、カメラ101により異なる視点位置で撮影されたそれぞれの画像データを複数の領域の部分画像に分割した後、領域ヘッダ付加ユニット103により、その部分画像データがどの視点位置のどの領域のものであるかを示すヘッダ情報を付加し、通信ヘッダ付加ユニット104によりその部分画像データに対して通信用プロトコルのヘッダを付加してパケット選択ユニット105へ送る。
【0056】
本実施形態の任意視点画像伝送装置210は、利用者端末107から任意視点画像の伝送要求を受信すると、まず画像分割ユニット102の処理を開始し、ステップ301で画像分割ユニット102は、その画像がどのカメラで撮影されたかを識別する為のカメラ識別番号や、分割された部分画像データを識別する為の領域識別番号を初期化する。
【0057】
ステップ302では、カメラ101から出力されてきた被写体の画像データを受信した後、ステップ303では、前記受信した画像データをメモリ212に一時的に格納する。ここで、カメラ101で撮影された画像データを一旦蓄積した記憶装置から画像データを読み出してメモリ212に一時的に格納するものとしても良い。
【0058】
ステップ304では、前記の様にメモリ212に格納した画像データのサイズや再生時間を調べ、前記格納した画像データが部分画像への分割を行う為の分割単位に達しているかどうかを判定し、分割単位に達している場合にはステップ305へ進む。
【0059】
ステップ305で領域ヘッダ付加ユニット103は、前記分割単位の部分画像データに、前記視点識別番号や領域識別番号を含む領域ヘッダを付加した後、領域識別番号をインクリメントしてステップ306へ進む。
【0060】
ステップ306で通信ヘッダ付加ユニット104は、前記領域ヘッダが付加された部分画像データに対し、利用者端末107へ送信する為の通信ヘッダを付加してパケットを生成する。そしてステップ307では、前記生成したパケットをパケット選択ユニット105へ渡す。
【0061】
ステップ308では、画像分割及びヘッダ付加処理の終了指示が入力されているかどうかや、全ての元画像の処理が終了したかどうかを調べ、終了指示が入力されておらず、未処理の元画像がまだ存在している場合にはステップ302へ戻り、次の画像データの分割を行う。
【0062】
前記の様にして複数のカメラ101により撮影された各視点位置の画像に対して画像分割及びヘッダ付加処理が行われると、各視点位置の画像がそれぞれ複数の部分画像に分割された後、複数の視点位置の複数の部分画像のパケットがそれぞれ分割された順にパケット選択ユニット105に渡される。
【0063】
図4は本実施形態のパケット選択処理の処理手順を示すフローチャートである。図4の様に本実施形態のパケット選択ユニット105は、前記の様に複数の視点位置の複数の部分画像のパケットをそれぞれの分割順に受け取り、利用者の所望する視点位置の画像を生成するのに必要な部分画像を含むパケットを選択して伝送する。
【0064】
ステップ401でパケット選択ユニット105は、利用者の所望する視点位置を示すパケット要求108を利用者端末107から受信しているかどうかを調べ、パケット要求108を受信している場合にはステップ402へ進む。
【0065】
ステップ402では、パケット要求108から視点位置識別番号を読み出し、パケット要求108を受信したポート番号と、前記読み出した視点位置識別番号とを対応付けてパケット要求管理テーブル218に保持する。
【0066】
ステップ403では、通信ヘッダ付加ユニット104よりパケットを受け取っているかどうかを調べ、パケットを受け取っている場合にはステップ404へ進む。
【0067】
ステップ404では、通信ヘッダ付加ユニット104より受け取ったパケットの領域ヘッダを参照して、その領域ヘッダ中のカメラ識別番号がパケット要求管理テーブル218に格納されている視点位置識別番号に該当するかどうを調べ、該当する場合には、そのパケットは利用者端末107で必要となる部分画像を含むパケットであると判定してステップ405へ進む。ここで、あるカメラ識別番号がどの視点位置識別番号に該当するかを示す情報、すなわちある視点位置の画像を生成する際に、どのカメラで撮影した画像が必要であるかを示す情報については、予めパケット選択ユニット105に設定されているものとする。
【0068】
ステップ405では、必要となる部分画像を含むパケットをパケット要求管理テーブル218中の視点位置識別番号に対応付けられたポートからネットワーク106へ送出し、利用者端末107へ伝送する。
【0069】
利用者端末107では、パケット選択ユニット105から伝送されたパケットを受信し、その領域ヘッダを参照して画像データを領域識別番号順に並べ替えて合成し、その視点位置での画像を生成してディスプレイ装置やスピーカ等の出力装置へ出力し、利用者へ任意視点画像を提供する。
【0070】
またステップ404で調べた結果、利用者端末107で必要となる部分画像を含むパケットであると判定されなかった場合にはステップ406へ進み、その不要なパケットを破棄する処理を行う。
【0071】
前記の様に本実施形態では、複数の視点位置で撮影した元画像を各視点位置毎に並列に分割して部分画像データを生成し、それらの複数の視点位置の複数の部分画像データを分割した順に伝送するので、ある時点での所望の視点位置からの画像の生成に必要な領域を含む部分画像データのみを伝送でき、全ての元画像を伝送してから画像の生成を行う場合に比べて伝送帯域を節約することができる。
【0072】
例えば、視点位置1〜5の5つの元画像を伝送して、利用者の所望する視点位置3での画像を利用者端末107で生成する場合、従来では、視点位置1及び2の元画像の伝送が全て完了し、視点位置3の伝送が開始されなければ、視点位置3の画像を利用者端末107で生成することができなかった。この為、利用者端末107での応答性を確保するには、視点位置1及び2等の全画像を所定の応答時間内に伝送できるだけの広い帯域が必要であった。
【0073】
一方、本実施形態では、視点位置1〜5の各元画像の伝送の際、視点位置1の部分画像1-1、視点位置2の部分画像2-1、…、視点位置5の部分画像5-1、視点位置1の部分画像1-2、視点位置2の部分画像2-2、…、視点位置5の部分画像5-2の様に、分割された部分画像をパケット選択ユニット105で順次受け取って伝送しているので、部分画像1-1から3-1までの部分画像のパケット選択ユニット105への受け渡しが終了した後、部分画像3-1を選択して伝送した時点で、視点位置3の画像の生成を利用者端末107で開始することができる。この為、利用者端末107での応答性を確保するには、部分画像3-1等の部分画像を所定の応答時間内で利用者端末107へ伝送できるだけの帯域を用意すれば良く、伝送帯域を節約することが可能である。
【0074】
また本実施形態では、前記分割された部分画像のパケットを選択して伝送するので、利用者からの視点移動の要求に対する応答性を犠牲にすること無く、任意視点画像の伝送を行うことができる。
【0075】
例えば、視点位置1〜5の5つの元画像を伝送して、視点位置3での画像を利用者端末107で生成中に視点が視点位置5に変更された場合、従来では、視点位置3及び4の元画像の伝送が全て完了し、視点位置5の伝送が開始されなければ、視点位置5への視点移動を利用者端末107で行うことができなかった。
【0076】
一方、本実施形態では、視点位置1〜5の各元画像の伝送の際、前記の様に分割された部分画像をパケット選択ユニット105で順次受け取って選択しているので、例えば部分画像3-2から5-2の部分画像のパケット選択ユニット105への受け渡しが終了した後、選択される部分画像を部分画像3-2から部分画像5-2へ変更するだけで、視点位置3から視点位置5への視点移動を利用者端末107で行うことができる。この為、利用者からの視点移動の要求に対する応答性を犠牲にすること無く、任意視点画像の伝送を行うことが可能である。
【0077】
以上、本実施形態の概要を記した。次に、個別の構成要素について詳細を説明する。
【0078】
図5は本実施形態のカメラと画像分割ユニットの接続の一形態を示す図である。図1においては1つの画像分割ユニット102に対してカメラ101は1つづつ接続されているが、本発明はこの様な接続形態に限定されるものではなく、図5に示す様に、1つの画像分割ユニット202に対して複数のカメラ201を接続する様な形態をとることも可能であるものとする。
【0079】
同様にして、それ以降の領域ヘッダ付加ユニット103及び通信ヘッダ付加ユニット104に関しても、データフローの上流にあるユニットと下流にあるユニットは1対1の接続形態に限定されるものではないものとする。
【0080】
図6は本実施形態の階層的なパケット選択処理の一例を示す図である。図1においてパケット選択ユニット105は1つだけ表記されているが、本発明はこの様な形態に限定されるものではなく、例えば図6に示す様に、パケット選択処理を階層401〜403に分け、各階層で段階的な選択処理を行い、各構成ユニットにおける負荷を軽減させる様な形態もとりうるものとする。
【0081】
例えば、図6のパケット選択処理では、カメラ識別番号がパケット要求108中の視点位置識別情報に該当しているものを必要なパケットとしているが、受信したパケットのカメラ識別番号が、パケット要求108中の視点位置識別番号を含むある範囲内の視点位置識別情報に該当する場合にそのパケットを必要なパケットと判定し、階層401から階層403へ進むにつれ、徐々にその範囲を狭めて段階的な選択処理を行う。
【0082】
図7は本実施形態のOSI参照モデルにおける複数のレイヤへの通信ヘッダの付加処理の一例を示す図である。図1における通信ヘッダ付加ユニット104は、より詳細に記すと図7に示す様に、領域ヘッダ付加ユニット501、OSI参照モデルにおける複数のレイヤを処理する1つ以上の通信ヘッダ付加ユニット502及び503、パケット選択ユニット504から構成され、通信ヘッダ付加ユニット502及び503としては、例えば下位レイヤとしてイーサネットヘッダ、上位レイヤとしてIPヘッダを付加するユニットが考えられる。但し、本発明はこれら特定のプロトコルに依存するものではないものとする。
【0083】
図8は本実施形態の通信ヘッダの付加処理を上位レイヤと下位レイヤで分割し、領域ヘッダ付加処理の前後にパケット選択処理を配置する場合の一例を示す図である。図8に示す様に、領域ヘッダ付加ユニット601及び下位レイヤ通信ヘッダ付加ユニット602と、上位レイヤ通信ヘッダ付加ユニット604との間にパケット選択ユニット603を配置し、複数のレイヤでのヘッダ付加処理の任意の段階でパケット選択処理を行うものとしても良い。
【0084】
次に図1におけるパケット選択ユニット105、ネットワーク106、利用者端末107に至る処理の流れを図9において詳細に述べる。
【0085】
図9は本実施形態のパケット選択ユニット、ネットワーク、利用者端末に至る処理の流れの一例を示す図である。図9において、パケット選択ユニット701は図1のパケット選択ユニット105に相当するユニット、利用者端末702〜704は利用者側の端末、中継ノード712〜717はネットワーク106上でパケットの中継を行う装置、入力パケット706はパケット選択ユニット701に入力されるパケット、選択パケット707及び708はパケット選択ユニット701により選択されたパケット、破棄パケット709はパケット選択ユニット701により破棄されたパケットを表している。
【0086】
パケット選択ユニット701は、1つの入力ポートと2つの出力ポート710及び711を持ち、2つの出力ポートの内のポート710にはネットワーク106の延長上に利用者端末702と利用者端末703が接続され、ポート711の延長には利用者端末704が接続されている。
【0087】
このときパケット選択ユニット701は、入力ポートに刻々と到達する入力パケット706の内、利用者端末702及び利用者端末703の画像生成に必要な選択パケット707をポート710から出力することにより、ネットワーク106の中継ノード712〜715経由で当該パケットを各端末に伝送し、同様に利用者端末704の画像生成に必要な選択パケット708をポート711から出力することにより、ネットワーク106の中継ノード716及び717経由で選択パケット708を利用者端末704に伝送する。
【0088】
このときパケット選択ユニット701は、ポート710及び711の両方から出力する必要のあるパケットを複写して両方のポートから出力し、また、どの端末でも必要の無い破棄パケット709を破棄する処理を行う。
【0089】
図10は本実施形態の利用者端末からの視点位置入力を元に必要なパケットを算出し、パケット選択ユニット701に要求する処理の一例を示す図である。前記の様なパケット選択処理は、利用者端末702〜704からのどのパケットが必要であるかと言うパケット要求108をパケット選択ユニット701が受けてなされるが、図10に示す様に利用者端末801からは所望する視点位置を出力し、その視点位置での画像生成に必要なパケットを算出する必要パケット算出ユニット802を経由することでパケット要求108をパケット選択ユニット803に受け渡すことも可能である。このとき必要パケット算出ユニット802の設置位置は、ネットワーク106に対して利用者端末801側でも良いし、パケット選択ユニット803側でも良く、任意のネットワークノードであっても良い。
【0090】
また、ポート710から出力される選択パケット707の内、利用者端末702と利用者端末703の両方で必要なパケットを、経路中の中継ノード713で複写し、パケット選択ユニット701−中継ノード712−中継ノード713の経路の帯域を節約して伝送することも可能であるし、予めパケット選択ユニット701にて複写し、ポート710から重複して出力し、中継ノード713にて分岐させて両端末に伝送することも可能である。
【0091】
前記の様に本実施形態では、利用者数が増加して同一のパケットを異なる利用者が必要とする場合でも、選択処理や中継処理の過程でその様なパケットを複写することで、元画像を提供する側には負担をかけること無く、スケーラビリティに優れるシステムを実現することができる。
【0092】
以上、図9を例にとってパケット選択ユニットから利用者端末までのパケットの処理過程を述べたが、本発明はこの様な接続形態に限定されるものではないものとする。
【0093】
以上説明した様に本実施形態の任意視点画像伝送装置によれば、複数の領域の部分画像に分割された画像データの内、利用者の所望する視点位置の画像を生成するのに必要な部分画像を選択して伝送するので、画像データを伝送する為の伝送帯域を節約し、利用者からの視点移動の要求に対する応答性を犠牲にすること無く、利用者の人数が増えた場合にも安定して、任意視点画像を生成する元となる複数の視点位置から撮影された画像データを伝送することが可能である。
【0094】
(実施形態2)
以下にパケット選択処理を伝送路上で段階的に行う実施形態2の任意視点画像伝送装置について説明する。
【0095】
図11は本実施形態の任意視点画像伝送装置の処理概要を示す図である。図11では画像分割処理及びヘッダ付加処理を行う任意視点画像伝送装置900から中継ノード902及び903を介して利用者端末905へ画像データを伝送する際に、任意視点画像伝送装置910の2つのパケット選択ユニット901及び904により段階的にパケットの選択処理を行うことを表している。ここで、段階的な選択処理とは、パケット選択ユニット901で一旦大まかな選択処理を行い、その後にパケット選択ユニット904でより絞り込んだ選択処理を行うことを言うものとする。
【0096】
ここで図11の様に、利用者端末905からパケット選択ユニット904までの片道の伝送遅延をt1、同様にパケット選択ユニット901までの片道の伝送遅延をt2(t2>t1)とし、往復の伝送遅延が等しいとすれば、利用者端末905に時刻t0に到達するパケットは、利用者端末905からの時刻t0-2×t2の時点でのパケット要求908に基づき、時刻t0-t2にパケット選択ユニット901にて選択したパケットの内、更に利用者端末905からの時刻t0-2×t1の時点でのパケット要求908に基づき、時刻t0-t1にパケット選択ユニット904にて選択したパケットである。
【0097】
パケット選択ユニット904とパケット選択ユニット901へ利用者端末905がパケット要求908を出してから実際に画像生成処理をするまでのタイムラグをそれぞれ△t1、△t2とおくと、△t1=2×t1、△t2=2×t2、△t1<△t2なので、利用者端末905に近いパケット選択ユニット904の方が、利用者端末905から遠いパケット選択ユニット901よりもタイムラグが少なく、その為タイムラグの期間中に視点が移動する程度も少なく、よってパケット選択をより厳しくしても画像の生成に必要なパケットを破棄してしまう状況が起き難い。
【0098】
よって、パケット選択ユニット901とパケット選択ユニット904で段階的な選択処理を行っても、パケット選択ユニット901だけで選択処理を行った場合と比べて、視点移動に対する応答性のパフォーマンスを落とすことは無い。その一方で、パケット選択ユニット904で更に絞り込みをすることで、一般に伝送帯域の小さい利用者端末905側の伝送路でも十分に必要なパケットを伝送できる。
【0099】
なお、上記の例ではパケット選択ユニットは2つであるが、2つ以上のパケット選択ユニットにより伝送経路中で段階的にパケットの選択を行うものとしても良い。
【0100】
図12は本実施形態の伝送路における利用者端末905の間近で行われるパケット選択処理の一例を示す図である。本実施形態では、利用者端末905の手前までの伝送経路(バックボーン)が全てのパケットを伝送するのに十分な伝送帯域を持ち、利用者端末905に間近の伝送路では限られた伝送帯域しか持たない場合、図12の様に伝送路の入り口にはパケット選択ユニットを設置せず、伝送経路の利用者に近い側にのみパケット選択ユニットを設置する様な実施の形態も取りうるものとする。
【0101】
図13は本実施形態の任意視点画像伝送装置900及び910の概略構成を示す図である。図13に示す様に本実施形態の任意視点画像伝送装置900は、CPU1301と、メモリ1302と、磁気ディスク装置1303と、入力装置1304と、出力装置1305と、CD−ROM装置1306と、通信装置1307とを有している。
【0102】
CPU1301は、任意視点画像伝送装置900全体の動作を制御する装置である。メモリ1302は、任意視点画像伝送装置900全体の動作を制御する際にその為の各種処理プログラムやデータをロードする記憶装置である。
【0103】
磁気ディスク装置1303は、前記各種処理プログラムやデータを格納しておく記憶装置である。入力装置1304は、画像分割、領域ヘッダ付加及び通信ヘッダ付加を実行する為の各種入力を行う装置である。
【0104】
出力装置1305は、画像分割、領域ヘッダ付加及び通信ヘッダ付加に伴う各種出力を行う装置である。CD−ROM装置1306は、前記各種処理プログラムを記録したCD−ROMの内容を読み出す装置である。通信装置1307は、インターネットやイントラネット等のネットワークを介して任意視点画像伝送装置910との通信を行う装置である。
【0105】
任意視点画像伝送装置910は、CPU1311と、メモリ1312と、磁気ディスク装置1313と、入力装置1314と、出力装置1315と、CD−ROM装置1316と、通信装置1317と、パケット要求管理テーブル1318とを有している。
【0106】
CPU1311は、任意視点画像伝送装置910全体の動作を制御する装置である。メモリ1312は、任意視点画像伝送装置910全体の動作を制御する際にその為の各種処理プログラムやデータをロードする記憶装置である。
【0107】
磁気ディスク装置1313は、前記各種処理プログラムやデータを格納しておく記憶装置である。入力装置1314は、パケット選択を実行する為の各種入力を行う装置である。出力装置1315は、パケットの選択に伴う各種出力を行う装置である。
【0108】
CD−ROM装置1316は、前記各種処理プログラムを記録したCD−ROMの内容を読み出す装置である。通信装置1317は、インターネットやイントラネット等のネットワークを介して任意視点画像伝送装置900、中継ノード902及び903、利用者端末905との通信を行う装置である。パケット要求管理テーブル1318は、パケット要求908を受信したポート番号と、そのパケット要求908中の視点位置識別番号とを対応付けて格納するテーブルである。
【0109】
本実施形態の任意視点画像伝送装置900は、コンピュータとプログラムによっても実現できるものとし、画像分割ユニット102、領域ヘッダ付加ユニット103、通信ヘッダ付加ユニット104としてコンピュータを機能させる為のプログラムは、CD−ROM等の記録媒体に記録され磁気ディスク等に格納された後、メモリにロードされて実行されるものとする。なお前記プログラムを記録する記録媒体はCD−ROM以外の他の記録媒体でも良い。また前記プログラムを当該記録媒体からコンピュータにインストールして使用しても良いし、ネットワークを通じて当該記録媒体にアクセスして前記プログラムを使用するものとしても良い。
【0110】
また本実施形態の任意視点画像伝送装置910は、コンピュータとプログラムによっても実現できるものとし、パケット選択ユニット901またはパケット選択ユニット904としてコンピュータを機能させる為のプログラムは、CD−ROM等の記録媒体に記録され磁気ディスク等に格納された後、メモリにロードされて実行されるものとする。なお前記プログラムを記録する記録媒体はCD−ROM以外の他の記録媒体でも良い。また前記プログラムを当該記録媒体からコンピュータにインストールして使用しても良いし、ネットワークを通じて当該記録媒体にアクセスして前記プログラムを使用するものとしても良い。
【0111】
図14は本実施形態のパケット選択処理の処理手順を示すフローチャートである。図14の様に本実施形態の任意視点画像伝送装置910のパケット選択ユニットは、複数の視点位置の複数の部分画像のパケットを任意視点画像伝送装置910または中継ノード903からそれぞれの分割順に受け取り、利用者の所望する視点位置の画像を生成するのに必要な部分画像を含むパケットを選択して伝送する。
【0112】
ステップ1401で任意視点画像伝送装置910のパケット選択ユニットは、利用者の所望する視点位置を示すパケット要求908を利用者端末905から受信しているかどうかを調べ、パケット要求908を受信している場合にはステップ1402へ進む。
【0113】
ステップ1402では、パケット要求908から視点位置識別番号を読み出し、パケット要求908を受信したポート番号と、前記読み出した視点位置識別番号とを対応付けてパケット要求管理テーブル1318に保持する。
【0114】
ステップ1403では、任意視点画像伝送装置910の通信ヘッダ付加ユニット104または中継ノード903よりパケットを受信しているかどうかを調べ、パケットを受信している場合にはステップ1404へ進む。
【0115】
ステップ1404では、通信ヘッダ付加ユニット104より受信したパケットの領域ヘッダを参照して、その領域ヘッダ中のカメラ識別番号が、パケット要求管理テーブル1318に格納されている視点位置識別番号を含む所定範囲内の視点位置識別情報に該当するかどうかを調べ、該当する場合には、そのパケットは利用者端末905で必要となる部分画像を含むパケットであると判定してステップ1405へ進む。ここで前記所定範囲は、パケット選択ユニット901では大まかな範囲が設定され、パケット選択ユニット904では絞り込まれた範囲が設定されているものとし、例えば、大まかな範囲としてパケット要求管理テーブル1318中の視点位置識別番号の前後数十%の範囲、絞り込んだ範囲としてパケット要求管理テーブル1318中の視点位置識別番号の前後数%の範囲等を設定しておくものとする。
【0116】
ステップ1405では、前記必要となる部分画像を含むものとして判定されたパケットをパケット要求管理テーブル1318中の視点位置識別番号に対応付けられたポートから送出し、そのパケットを中継ノード902または利用者端末905へ伝送する。
【0117】
パケット選択ユニット901から中継ノード902へパケットが伝送された場合、中継ノード902は、パケット選択ユニット901からパケットを受信し、その通信ヘッダを参照して伝送経路を判定した後、そのパケットを中継ノード903経由でパケット選択ユニット904へ伝送する。
【0118】
パケット選択ユニット904から利用者端末905へパケットが伝送された場合、利用者端末905は、パケット選択ユニット904からパケットを受信し、その領域ヘッダを参照して画像データを領域識別番号順に並べ替えて合成し、その視点位置での画像を生成してディスプレイ装置やスピーカ等の出力装置へ出力し、利用者へ任意視点画像を提供する。
【0119】
またステップ1404で調べた結果、利用者端末905で必要となる部分画像を含むパケットであると判定されなかった場合にはステップ1406へ進み、その不要なパケットを破棄する処理を行う。
【0120】
以上説明した様に本実施形態の任意視点画像伝送装置によれば、伝送経路上で段階的にパケットの選択を行うので、利用者に近い末端の伝送帯域を節約すると共に、利用者の視点移動に対する画像生成の応答性を犠牲にすること無く、任意視点画像を生成する為の画像データの伝送を行うことが可能である。
【0121】
(実施形態3)
以下に直交変換を含む符号化処理の最小単位若しくはその集合を部分画像の分割単位とする実施形態3の任意視点画像伝送装置について説明する。
【0122】
本実施形態においては、図1の画像分割ユニット102における画像分割処理において、画像を分割するだけでなく符号化処理を行い、パケットのデータサイズを圧縮することで、伝送に必要な帯域を小さくする。
【0123】
図15は本実施形態の画像の分割・符号化処理の概要を示す図である。図中、ブロック化処理1101ではディジタル画像全体をブロックと呼ばれる部分画像に分割し、直交変換処理1102では、例えば離散フーリエ変換(DFT)や離散コサイン変換(DCT)により直交変換を施し、量子化処理1103では、直交変換後の変換係数に符号化ビット数を周波数成分毎に適応的に配分し、領域ヘッダ付加処理1104にて領域ヘッダ付加して、それ以降の処理に結果を出力する。
【0124】
図16は本実施形態の画像の符号化における直交変換のブロックと、パケット分割における部分画像の関係の一例を示す図である。図16において、1201は直交変換の1ブロックを示しており、ブロック毎に符号化処理を行い、領域ヘッダを付加することで1202の様なパケットを生成する。
【0125】
この様に、パケット化する為の画像の分割の単位を直交変換におけるブロックと一致させることで、画像全体を直交変換により符号化する場合と比較しても、符号化の圧縮効率が低下しない様にすることができる。
【0126】
なお、本発明における直交変換は、上記の例で示したDFTとDCTに限定されるものではなく、他の基底を用いた直交変換も含まれるものとする。また、本発明は、直交変換の複数ブロックに対して1つのパケットを生成する場合も含むものとし、例えば図16の1203の様にパケットをまとめる形態を取りうるものとする。更に、本発明における符号化処理は、直交変換に限定されるものではなく、画像を部分領域毎に区切って符号化する方式一般に適用されるものとする。
【0127】
以上説明した様に本実施形態の任意視点画像伝送装置によれば、直交変換を含む符号化処理の最小単位若しくはその集合を部分画像の分割単位とするので、画像全体を符号化した場合と比較して圧縮効率を落とすこと無く画像の分割を行うことが可能である。
【0128】
(実施形態4)
以下に利用者の所望する視点位置の移動範囲を予測し、その範囲内の視点位置での画像生成に必要なパケットを選択する実施形態4の任意視点画像伝送装置について説明する。
【0129】
前述の通り、利用者端末107からパケット選択ユニット105に画像生成に必要となるパケットを要求し、それから実際にパケットを受信するまでにはタイムラグがある為、その間に利用者端末107で所望する視点位置が移動することがあり得る。
【0130】
本実施形態では、パケットの伝送遅延とその間の視点移動を想定して、予め視点が移動する範囲を予測し、その範囲内の視点位置での画像を生成するのに必要なパケットを利用者端末107から要求する。パケット選択ユニット105では、利用者端末107からのパケット要求108を受け取り、前記予測された範囲内の視点位置での画像生成に必要なパケットを選択して伝送する。ここで前記予測処理をパケット選択ユニット105で行うものとしても良い。
【0131】
図17は本実施形態のパケットの伝送期間中に移動する視点の範囲を推定し、その範囲での画像生成に必要なパケットを算出して要求する処理の処理手順を示すフローチャートである。図中、ステップ1301では現時点での視点位置を取得し、ステップ1302でパケットの伝送遅延△tを実測若しくは推定により求め、ステップ1303で△tの間にされる視点移動の範囲を推定し、ステップ1304でその視点の範囲で画像を生成するのに必要なカメラの部分画像を含むパケットを算出し、ステップ1305で算出したパケットをパケット選択ユニットに要求する。
【0132】
ここで、ステップ1303における視点移動範囲の推定は、例えば以下に示すカルマンフィルタのアルゴリズムにより△t後の視点位置を推定することで求めることができる。
【0133】
まず、時刻tにおける仮想視点の状態を、数1に示す6つのパラメータからなるベクトルで表す。
【数1】

Figure 0004094942
【0134】
ここで、[x,y,z]Tは3次元デカルト座標系における仮想視点位置、[x,y,z]Tの変数x,y,zに記号“・”が付けられたものは、その速度を表している。このとき、状態量の最適な推定値と一期先予測値は、以下に述べるカルマンフィルタにより計算することができる。
【0135】
まず、システムモデルは数2で記述できるものとする。
【数2】
Figure 0004094942
【0136】
ここで、wtは系に加わる6次元の外乱ベクトルで、平均が0、共分散がQt、で既知であるものとする。また、Fは状態の推移行列を表し、次の6×6の行列であるものとする。
【0137】
【数3】
Figure 0004094942
【0138】
一方、時刻tでの観測値は次の数4で表される。
【数4】
Figure 0004094942
ここで、Hは6×6の単位行列とし、vtは6次元の推定誤差ベクトルで、平均が0、共分散がRtで既知であるものとする。
【0139】
t、vtは共に独立な離散化された正規白色雑音で、状態量Xtとも独立である場合、以上のモデルによるカルマンフィルタのアルゴリズムは、以下の様になる。
【0140】
すなわち、
[フィルタリング]
【数5】
Figure 0004094942
【数6】
Figure 0004094942
【数7】
Figure 0004094942
【0141】
[一期先予測]
【数8】
Figure 0004094942
【数9】
Figure 0004094942
【0142】
[初期値]
【数10】
Figure 0004094942
【0143】
数5〜数7により、状態量の最適な推定値更新処理を行う。また、一期先予測値を数8及び数9により計算する。
【0144】
以上がカルマンフィルタによる視点移動の推定法であるが、本発明は、このアルゴリズムを用いた推定法に限定されるものではないものとする。
【0145】
以上説明した様に本実施形態の任意視点画像伝送装置によれば、利用者の所望する視点位置の移動範囲を予測し、その範囲内の視点位置での画像生成に必要なパケットを選択するので、伝送帯域を必要最小限に節約することが可能である。
【0146】
【発明の効果】
本発明によれば、複数の領域の部分画像に分割された画像データの内、利用者の所望する視点位置の画像を生成するのに必要な部分画像を選択して伝送するので、実時間コミュニケーション、ライブ配信やストリーミング放送等、処理時間の要求が厳しいネットワーク・アプリケーションで利用者の所望する視点位置からの画像である任意視点画像を提供する場合において、伝送帯域を節約しつつも、利用者からの視点移動の要求に対する応答性を犠牲にすること無く、利用者の人数が増えても安定して、任意視点画像を生成する元となる複数の視点位置から操影した画像データを伝送することができる。
【図面の簡単な説明】
【図1】実施形態1の任意視点画像伝送装置の処理概要を示す図である。
【図2】実施形態1の任意視点画像伝送装置の概略構成を示す図である。
【図3】実施形態1の画像分割及びヘッダ付加処理の処理手順を示すフローチャートである。
【図4】実施形態1のパケット選択処理の処理手順を示すフローチャートである。
【図5】実施形態1のカメラと画像分割ユニットの接続の一形態を示す図である。
【図6】実施形態1の階層的なパケット選択処理の一例を示す図である。
【図7】実施形態1のOSI参照モデルにおける複数のレイヤへの通信ヘッダの付加処理の一例を示す図である。
【図8】実施形態1の通信ヘッダの付加処理を上位レイヤと下位レイヤで分割し、領域ヘッダ付加処理の前後にパケット選択処理を配置する場合の一例を示す図である。
【図9】実施形態1のパケット選択ユニット、ネットワーク、利用者端末に至る処理の流れの一例を示す図である。
【図10】実施形態1の利用者端末からの視点位置入力を元に必要なパケットを算出し、パケット選択ユニット701に要求する処理の一例を示す図である。
【図11】実施形態2の任意視点画像伝送装置の処理概要を示す図である。
【図12】実施形態2の伝送路における利用者端末905の間近で行われるパケット選択処理の一例を示す図である。
【図13】実施形態2の任意視点画像伝送装置900及び910の概略構成を示す図である。
【図14】実施形態2のパケット選択処理の処理手順を示すフローチャートである。
【図15】実施形態3の画像の分割・符号化処理の概要を示す図である。
【図16】実施形態3の画像の符号化における直交変換のブロックと、パケット分割における部分画像の関係の一例を示す図である。
【図17】実施形態4のパケットの伝送期間中に移動する視点の範囲を推定し、その範囲での画像生成に必要なパケットを算出して要求する処理の処理手順を示すフローチャートである。
【符号の説明】
101…カメラ、102…画像分割ユニット、103…領域ヘッダ付加ユニット、104…通信ヘッダ付加ユニット、105…パケット選択ユニット、106…ネットワーク、107…利用者端末、108…パケット要求、210…任意視点画像伝送装置、211…CPU、212…メモリ、213…磁気ディスク装置、214…入力装置、215…出力装置、216…CD−ROM装置、217…通信装置、218…パケット要求管理テーブル、201…カメラ、202…画像分割ユニット、401〜403…階層、501…領域ヘッダ付加ユニット、502及び503…通信ヘッダ付加ユニット、504…パケット選択ユニット、601…領域ヘッダ付加ユニット、602…下位レイヤ通信ヘッダ付加ユニット、603…パケット選択ユニット、604…上位レイヤ通信ヘッダ付加ユニット、701…パケット選択ユニット、702〜704…利用者端末、706…入力パケット、707及び708…選択パケット、709…破棄パケット、710及び711…ポート、712〜717…中継ノード、801…利用者端末、802…必要パケット算出ユニット、803…パケット選択ユニット、900及び910…任意視点画像伝送装置、901及び904…パケット選択ユニット、902及び903…中継ノード、905…利用者端末、908…パケット要求、1301…CPU、1302…メモリ、1303…磁気ディスク装置、1304…入力装置、1305…出力装置、1306…CD−ROM装置、1307…通信装置、1311…CPU、1312…メモリ、1313…磁気ディスク装置、1314…入力装置、1315…出力装置、1316…CD−ROM装置、1317…通信装置、1318…パケット要求管理テーブル、1101…ブロック化処理、1102…直交変換処理、1103…量子化処理、1104…領域ヘッダ付加処理、1201…ブロック、1202…パケット、1203…パケット。[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an arbitrary viewpoint image transmission apparatus that transmits an image from an arbitrary viewpoint position desired by a user, and in particular, an arbitrary viewpoint position desired by a user based on a two-dimensional image captured at a plurality of viewpoint positions. The present invention relates to a technique that is effective when applied to an arbitrary viewpoint image transmission apparatus that transmits image data in an image processing system that generates an image from the image.
[0002]
[Prior art]
Recent developments in computer graphics (CG) and virtual reality (VR) technologies have made it possible to observe realistic images of subjects not only from the viewpoint where the camera is installed, but also from the viewpoint desired by the user. I came.
[0003]
Such image generation technology is generally called Image-Based Rendering (IBR), and conventional CG technology required a precise geometric model of the subject, whereas IBR is a two-dimensional image of the subject taken from many positions. Based on the image, an image in which the subject is viewed from an arbitrary viewpoint position can be generated with little or no geometric model.
[0004]
Representative examples of IBR include light field rendering, Lumigraph, and a technique called ray space theory (see, for example, Non-Patent Documents 1 to 3).
[0005]
In these methods, a two-dimensional image taken by a camera from a large number of positions is regarded as data obtained by sampling the intensity of a bundle of rays (a group of rays) passing through the lens center of the camera. Then, a procedure is performed in which the light group data is once expressed in a multidimensional space called a light space or the like, and then a light group passing through a desired viewpoint position is resampled on the light space.
[0006]
However, since such a method requires two-dimensional image data (multi-view data) taken at a large number of viewpoint positions in order to construct a ray space, the amount of data required compared to a method using a geometric model Has enormous drawbacks. For this reason, an approach is often taken in which the amount of data is compressed by performing the encoding process using the redundancy included in the multiview data.
[0007]
For example, some reference images are set, and other images are encoded with the difference, or once a three-dimensional model is constructed and the model is viewed from the viewpoint position, There are methods such as encoding a prediction error with an image (see, for example, Patent Documents 1 and 2).
[0008]
However, although the amount of data decreases to some extent when these encoding processes are performed, it is enormous compared to a normal two-dimensional image.
[0009]
Therefore, when considering use on a network, it is realistic to download a huge amount of data to the terminal on the user side over time, and then browse the data stored on the terminal, but it is distributed continuously. In an application called streaming in which incoming data is immediately viewed on a terminal, the bandwidth of the transmission path is insufficient, which is difficult to realize.
[0010]
Even if an approach is adopted in which a higher compression rate encoding method is used to fit within the transmission band, the higher the compression rate, the higher the computer load and the processing time. For this reason, a delay occurs and it is not suitable for communication or live distribution where real-time characteristics are important.
[0011]
These problems are not limited to data transmission between remote locations, and become a problem when a large amount of multi-view data is transmitted between component devices even in a local system. Therefore, the conventional method of reducing the amount of data by encoding significantly limits the types of applications and services that can be applied.
[0012]
On the other hand, as an approach different from such a method, first, a request for the viewpoint position is transmitted from the user side, an image of the viewpoint position requested on the multi-view camera side is generated, and the generated image is transmitted to the user side. A method of transmitting is also conceivable. In this case, if the compression efficiency by encoding is not taken into account, the data amount is the same as that of an image for one camera, and therefore transmission can be performed in a band necessary for normal two-dimensional image communication.
[0013]
In this way, the above method can be said to be ideal when focusing only on the aspect of the transmission band, but there is a problem in responsiveness from when the user requests the change of the viewpoint position until the change is reflected in the presented image. That is, in order for the viewpoint movement instructed by the user to be reflected in the presented image, it takes a transmission time for the data to reciprocate between the user side and the multi-lens camera side, resulting in a delay in the response to the user. The operability of the system will be greatly deceived.
[0014]
Also, it is difficult to provide an arbitrary viewpoint image to a certain number of users or more by this method. This is because the viewpoint camera required by each user is created one by one on the multi-lens camera side, and the computer load and the amount of data transmission increase by the number of people.
[0015]
[Non-Patent Document 1]
Marc Levoy, Pat Hanrahan, “Light Field Rendering”, SIGGRAPH'96 Conference Proceedings, Association for Computing Machinery, 1996, p.31-41
[Non-Patent Document 2]
Steven J. Gortler et al., “The Lumigraph”, SIGGRAPH'96 Conference Proceedings, Association for Computing Machinery, 1996, p. 43-54
[Non-Patent Document 3]
Uchiyamagai, “Realization of a virtual environment by combining CG models of live-action data based on ray space theory”, 3D Image Conference '96, 3D Image Conference '96 Executive Committee, 1996, p. 13-18
[Patent Document 1]
Japanese Patent Laid-Open No. 10-111951 (page 5-6, FIG. 6)
[Patent Document 2]
Japanese Patent Laid-Open No. 11-18091 (page 7-10, FIG. 1)
[0016]
[Problems to be solved by the invention]
In the conventional method of the conventional IBR, since the data amount of multi-view data taken at a large number of viewpoint positions in order to construct a light space becomes enormous, when considering use in a network, in streaming applications There is a problem that the bandwidth of the transmission path is insufficient and it becomes difficult to realize.
[0017]
In addition, even if an approach is taken to fit the transmission band by taking a higher compression rate encoding method, the higher the compression rate, the higher the computer load and the processing time, resulting in delays. Therefore, there is a problem that it is not suitable for communication or live distribution where importance is placed on real time.
[0018]
On the other hand, in the method of generating the image of the viewpoint position requested from the user side on the multi-lens camera side and transmitting it to the user side, it takes a transmission time when data is reciprocated between the user side and the multi-lens camera side. Therefore, there is a problem that the operability as a system is remarkably deceived.
[0019]
Also, in this method, the viewpoint images required by each user are created one by one on the multi-lens camera side, and the computer load and the data transmission amount increase by the number of users, so a predetermined number or more There is a problem that it is difficult to provide arbitrary viewpoint images to users.
[0020]
The object of the present invention is to solve the above problems, save the transmission band for transmitting image data, and increase the number of users without sacrificing the responsiveness to the viewpoint movement request from the users. The present invention also provides a technique capable of stably transmitting image data captured from a plurality of viewpoint positions that are sources for generating an arbitrary viewpoint image. Another object of the present invention is to save image transmission bandwidth at the end close to the user and to generate image data for generating an arbitrary viewpoint image without sacrificing the responsiveness of the image generation to the user's viewpoint movement. To provide a technique capable of dividing an image without reducing the compression efficiency compared to the case where the entire image is encoded, and saving the transmission band to the minimum necessary. is there.
[0021]
[Means for Solving the Problems]
The present invention relates to an arbitrary viewpoint image transmission apparatus that transmits image data taken from a plurality of viewpoint positions from which an arbitrary viewpoint image is generated. Among image data divided into partial images of a plurality of areas, a user A partial image necessary for generating an image at a desired viewpoint position is selected and transmitted.
[0022]
In the present invention, when an image (arbitrary viewpoint image) from a viewpoint position desired by a user is provided in a network application that requires strict processing time, such as real-time communication, live distribution, and streaming broadcasting, the following is performed. The image data is transmitted.
[0023]
That is, after each image taken at different viewpoint positions is further divided into partial images of a plurality of areas, the area header information indicating which area of which viewpoint position the data of which is divided is divided. To the partial image data. Then, a header of a communication protocol is added to the data to form a packet, and after selecting a packet including a partial image necessary to generate an image at a viewpoint position desired by the user from the packet, The selected packet is routed by the communication protocol header and transmitted.
[0024]
In a general IBR image generation method, when an image at a certain viewpoint position is generated by a user terminal, original images taken at a plurality of different viewpoint positions are used, but not all of them are necessary. It becomes only a part for each original image of each viewpoint.
[0025]
Therefore, the data including the area necessary for generating an image from a desired viewpoint position at a certain point in time is obtained by further dividing the original image captured from a plurality of viewpoints into partial areas by the proposed method. The transmission band can be saved as compared with the case of generating the image after transmitting all the original images.
[0026]
In addition, since the process of adding a header indicating area information to the divided partial image data is very simple, the processing load is very small and little time overhead occurs.
[0027]
On the other hand, since the selection processing can be determined by the header portion regardless of the content of the partial image, it can be processed with high throughput by hardware generally called a switch.
[0028]
Further, by adding a communication protocol header to the image data including the area header to form a packet, even an existing network device that does not support the area header can transmit the packet.
[0029]
Even if the number of users increases and different users need the same packet, copying such packets in the process of selection processing, without burdening the side that provides the original image, A system with excellent scalability can be realized.
[0030]
In the packet selection process of the present invention, packets may be selected step by step on the transmission path between the transmission side and the reception side.
[0031]
When the viewpoint position of the user changes, the partial image necessary for image generation also changes. Therefore, if the user moves the viewpoint during the packet transmission period, the packet required at the time of transmission differs from the packet required at the time of arrival at the receiving side. For this reason, if only the necessary packets are selected and transmitted at the time of transmission, when the user moves the viewpoint, the packets necessary for image generation may not be acquired on the receiving side. May not be able to present a correct image, and the responsiveness to the user's operation may be impaired.
[0032]
On the other hand, when packets are transmitted excessively without strict selection of packets at the time of transmission, newly necessary packets can be selected at the reception stage, but a wide transmission band is required. In general, the closer the network is to the end user side, the narrower the band, so the amount of data that could be transmitted over a wide band on the route close to the transmitting side may not be transmitted to the receiving user side. .
[0033]
However, if the packet is roughly selected on the transmission side and the packet selection is made stricter sequentially as it approaches the user by relaying at a node on the route, the transmission bandwidth at the end close to the user is saved. be able to. And the closer the user is to the node, the shorter the time it takes for the packet to reach the user, so even if the range of movement of the viewpoint is narrow and the packet selection is strict, it is necessary when arriving at the user side. Since there is little risk of packet loss, the responsiveness of image generation to the user's viewpoint movement is not sacrificed.
[0034]
In the division into partial images according to the present invention, encoding including orthogonal transformation may be performed on a partial image generated using a minimum unit of encoding processing or a set thereof as a division unit.
[0035]
In the transform coding method generally used for coding a two-dimensional image, the compression efficiency is increased by actively using the two-dimensional correlation of the image. However, when the image is divided into partial images, the compression efficiency decreases for each data, and the data size as a whole may increase.
[0036]
However, in the transform coding method, orthogonal coding is performed by, for example, discrete cosine transform (DCT) for each partial image called a block, and therefore, by dividing the partial image for each block or each set, the entire image can be obtained. Compared to the case of encoding, the image can be divided without reducing the compression efficiency.
[0037]
Further, in the present invention, assuming that the viewpoint position desired by the user moves during the transmission period, the movement range is predicted, and a packet necessary for image generation at the viewpoint position within the range is selected. Also good.
[0038]
If the user moves the viewpoint during the packet transmission period, the packet required at the time of transmission differs from the packet required at the time of arrival at the receiving side. For this reason, if only the necessary packets are selected and transmitted at the time of transmission, the necessary packets may not be acquired on the receiving side when the user moves the viewpoint. If packet selection is roughly performed, the robustness with respect to viewpoint movement is improved, but the necessary transmission band is widened accordingly.
[0039]
Therefore, in the present invention, the viewpoint movement range of the user is specifically predicted, and a packet necessary for generating an image within the predicted viewpoint range is selected. By providing a general guideline, the transmission band can be saved to the minimum necessary.
[0040]
As described above, according to the arbitrary viewpoint image transmission apparatus of the present invention, the partial image necessary for generating the image at the viewpoint position desired by the user among the image data divided into the partial images of a plurality of regions is obtained. Selective transmission saves transmission bandwidth for image data transmission and is stable even when the number of users increases without sacrificing responsiveness to user requests for viewpoint movement. Thus, it is possible to transmit image data taken from a plurality of viewpoint positions from which arbitrary viewpoint images are generated.
[0041]
DETAILED DESCRIPTION OF THE INVENTION
(Embodiment 1)
Hereinafter, the arbitrary viewpoint image transmission apparatus according to the first embodiment that transmits image data captured from a plurality of viewpoint positions, which are sources for generating an arbitrary viewpoint image, will be described.
[0042]
FIG. 1 is a diagram showing an outline of processing of the arbitrary viewpoint image transmission apparatus of the present embodiment. As shown in FIG. 1, the arbitrary viewpoint image transmission apparatus according to the present embodiment further divides each image captured at a different viewpoint position by the camera 101 into partial images of a plurality of regions by the image dividing unit 102, and then The region header addition unit 103 adds header information indicating which region of which viewpoint position the data is to the divided partial image data. The communication header adding unit 104 adds a communication protocol header to the data to form a packet, receives the packet request 108 from the user terminal 107, and generates an image of the viewpoint position desired by the user. Then, the packet selection unit 105 selects a packet including a partial image necessary for transmission, and the selected packet is routed on the network 106 by the header of the communication protocol and transmitted to the user terminal 107.
[0043]
In FIG. 1, a camera 101 is a device that captures an image of a subject from a multi-viewpoint position, and records a subject that changes every moment, for example, as a two-dimensional image of 30 frames per second, and outputs the digital data. Note that the camera 101 may sequentially output captured image data in real time, or temporarily store the image data captured by the camera 101 in a storage device, and read and output the stored data later. It may be acceptable.
[0044]
The image division unit 102 is a unit responsible for image division processing, divides a two-dimensional image of a subject output from the camera 101 into a plurality of regions, and outputs the data as a plurality of partial images.
[0045]
The area header addition unit 103 is a header information (hereinafter, referred to as “the area image”) indicating which camera the partial image data was captured with, and which area of the partial image data divided by the image division unit 102. This is a unit to which an area header is added.
[0046]
The communication header adding unit 104 adds a header for communication protocol (hereinafter referred to as a communication header) to the partial image data to which the area header is added by the area header adding unit 103 to form a cluster of data called packets. , A unit to be sent to the network 106. Here, the communication protocol corresponds to all or part of the physical / data link layer, the network layer, and the transport layer in the OSI reference model, and the communication header corresponds to, for example, an Ethernet header, an IP header, and a TCP header. However, the present invention is not limited to these specific communication protocols.
[0047]
The packet selection unit 105 sends, to the network 106, a packet including a partial image required by the user terminal 107 which is a user's arbitrary viewpoint generation terminal among the many packets sent from the communication header addition unit 104. This is a unit that performs processing for discarding unnecessary packets based on the packet area header. It is assumed that a packet request 108 indicating a necessary packet is given from the user terminal 107 side and held by the packet selection unit 105. The information held in the packet selection unit 105 is updated when the viewpoint position of the image generated by the user terminal 107 moves and the required packet changes.
[0048]
The network 106 has a transmission medium or a relay node that becomes a packet transmission path, determines a path based on the packet communication header, and transmits the packet selected by the packet selection unit 105 to the user terminal 107.
[0049]
The user terminal 107 is a terminal device used by the user. The user terminal 107 calculates a partial image necessary for generating an image at a viewpoint position desired by the user, and sends a packet including the partial image to the packet selection unit 105. Based on the packet sent in response to the request, an image at the viewpoint position is generated and presented to the user.
[0050]
FIG. 2 is a diagram showing a schematic configuration of the arbitrary viewpoint image transmission apparatus of the present embodiment. As shown in FIG. 2, the arbitrary viewpoint image transmission apparatus 210 of this embodiment includes a CPU 211, a memory 212, a magnetic disk device 213, an input device 214, an output device 215, a CD-ROM device 216, and a communication device. 217 and a packet request management table 218.
[0051]
The CPU 211 is a device that controls the operation of the arbitrary viewpoint image transmission apparatus 210 as a whole. The memory 212 is a storage device that loads various processing programs and data for controlling the operation of the entire arbitrary viewpoint image transmission apparatus 210.
[0052]
The magnetic disk device 213 is a storage device that stores the various processing programs and data. The input device 214 is a device that performs various inputs for transmitting image data of an arbitrary viewpoint image. The output device 215 is a device that performs various outputs accompanying transmission of image data of an arbitrary viewpoint image.
[0053]
The CD-ROM device 216 is a device for reading the contents of the CD-ROM on which the various processing programs are recorded. The communication device 217 is a device that communicates with the user terminal 107 via a network such as the Internet or an intranet. The packet request management table 218 is a table that stores the port number that received the packet request 108 in association with the viewpoint position identification number in the packet request 108.
[0054]
The arbitrary viewpoint image transmission apparatus 210 according to the present embodiment can be realized by a computer and a program, and causes the computer to function as the image division unit 102, the area header addition unit 103, the communication header addition unit 104, and the packet selection unit 105. The program is recorded on a recording medium such as a CD-ROM and stored in a magnetic disk or the like, and then loaded into a memory and executed. The recording medium for recording the program may be a recording medium other than the CD-ROM. Further, the program may be used by installing it from a recording medium in a computer, or the program may be used by accessing the recording medium through a network.
[0055]
FIG. 3 is a flowchart showing a processing procedure of image division and header addition processing according to this embodiment. As shown in FIG. 3, the image division unit 102 of the present embodiment divides each piece of image data taken at different viewpoint positions by the camera 101 into partial images of a plurality of regions, and then the region header addition unit 103 performs the portion. The header information indicating which region of the viewpoint position the image data is added to, and the communication header addition unit 104 adds the header of the communication protocol to the partial image data and sends it to the packet selection unit 105. .
[0056]
When the arbitrary viewpoint image transmission apparatus 210 of this embodiment receives a request for transmission of an arbitrary viewpoint image from the user terminal 107, the image division unit 102 first starts processing of the image division unit 102. A camera identification number for identifying which camera was photographed and an area identification number for identifying the divided partial image data are initialized.
[0057]
In step 302, after receiving the image data of the subject output from the camera 101, in step 303, the received image data is temporarily stored in the memory 212. Here, the image data may be read from a storage device that temporarily stores the image data captured by the camera 101 and temporarily stored in the memory 212.
[0058]
In step 304, the size and reproduction time of the image data stored in the memory 212 as described above are checked, and it is determined whether or not the stored image data has reached a division unit for dividing into partial images. If the unit has been reached, the process proceeds to step 305.
[0059]
In step 305, the region header adding unit 103 adds a region header including the viewpoint identification number and the region identification number to the partial image data in the division unit, and then increments the region identification number and proceeds to step 306.
[0060]
In step 306, the communication header adding unit 104 generates a packet by adding a communication header for transmission to the user terminal 107 to the partial image data to which the region header is added. In step 307, the generated packet is transferred to the packet selection unit 105.
[0061]
In step 308, it is checked whether or not an instruction to end image division and header addition processing has been input and whether or not processing of all original images has been completed. If it still exists, the process returns to step 302 to divide the next image data.
[0062]
When image division and header addition processing are performed on the images at the respective viewpoint positions captured by the plurality of cameras 101 as described above, the images at the respective viewpoint positions are divided into a plurality of partial images, Packets of a plurality of partial images at the viewpoint position are transferred to the packet selection unit 105 in the order of division.
[0063]
FIG. 4 is a flowchart showing the processing procedure of the packet selection processing of this embodiment. As shown in FIG. 4, the packet selection unit 105 of this embodiment receives packets of a plurality of partial images at a plurality of viewpoint positions as described above, and generates an image at a viewpoint position desired by the user. A packet including a partial image necessary for transmission is selected and transmitted.
[0064]
In step 401, the packet selection unit 105 checks whether or not the packet request 108 indicating the viewpoint position desired by the user is received from the user terminal 107. If the packet request 108 is received, the process proceeds to step 402. .
[0065]
In step 402, the viewpoint position identification number is read from the packet request 108, and the port number that received the packet request 108 is associated with the read viewpoint position identification number and held in the packet request management table 218.
[0066]
In step 403, it is checked whether or not a packet is received from the communication header adding unit 104. If a packet is received, the process proceeds to step 404.
[0067]
In step 404, referring to the area header of the packet received from the communication header addition unit 104, it is determined whether the camera identification number in the area header corresponds to the viewpoint position identification number stored in the packet request management table 218. It is determined that the packet is a packet including a partial image required by the user terminal 107, and the process proceeds to step 405. Here, information indicating which viewpoint position identification number corresponds to a certain camera identification number, that is, information indicating which camera is required to generate an image at a certain viewpoint position, It is assumed that the packet selection unit 105 is set in advance.
[0068]
In step 405, a packet including a necessary partial image is transmitted to the network 106 from the port associated with the viewpoint position identification number in the packet request management table 218 and transmitted to the user terminal 107.
[0069]
The user terminal 107 receives the packet transmitted from the packet selection unit 105, refers to the area header, rearranges and synthesizes the image data in the area identification number order, generates an image at the viewpoint position, and displays it. The image is output to an output device such as a device or a speaker, and an arbitrary viewpoint image is provided to the user.
[0070]
If it is determined in step 404 that the packet does not include a partial image required by the user terminal 107, the process proceeds to step 406, where the unnecessary packet is discarded.
[0071]
As described above, in the present embodiment, an original image captured at a plurality of viewpoint positions is divided in parallel for each viewpoint position to generate partial image data, and a plurality of partial image data at the plurality of viewpoint positions is divided. Therefore, only partial image data including an area necessary for generating an image from a desired viewpoint position at a certain point in time can be transmitted, compared to the case of generating an image after transmitting all original images. Transmission bandwidth can be saved.
[0072]
For example, when five original images at the viewpoint positions 1 to 5 are transmitted and an image at the viewpoint position 3 desired by the user is generated at the user terminal 107, conventionally, the original images at the viewpoint positions 1 and 2 are If the transmission is all completed and the transmission at the viewpoint position 3 is not started, the image at the viewpoint position 3 cannot be generated by the user terminal 107. For this reason, in order to ensure the responsiveness at the user terminal 107, a wide band is required so that all images such as the viewpoint positions 1 and 2 can be transmitted within a predetermined response time.
[0073]
On the other hand, in the present embodiment, when the original images at the viewpoint positions 1 to 5 are transmitted, the partial image 1-1 at the viewpoint position 1, the partial image 2-1 at the viewpoint position 2,. −1, partial image 1-2 at viewpoint position 1, partial image 2-2 at viewpoint position 2,..., Partial image 5-2 at viewpoint position 5, and so on. Since the partial images 1-1 to 3-1 are transferred to the packet selection unit 105 after the partial images 1-1 to 3-1 are transferred, the viewpoint position is selected when the partial image 3-1 is selected and transmitted. The generation of the third image can be started at the user terminal 107. For this reason, in order to ensure the responsiveness at the user terminal 107, it is sufficient to prepare a band that can transmit the partial image such as the partial image 3-1 to the user terminal 107 within a predetermined response time. It is possible to save.
[0074]
In this embodiment, since the packet of the divided partial image is selected and transmitted, it is possible to transmit an arbitrary viewpoint image without sacrificing responsiveness to a request for moving the viewpoint from the user. .
[0075]
For example, when five original images of the viewpoint positions 1 to 5 are transmitted and the viewpoint is changed to the viewpoint position 5 while the image at the viewpoint position 3 is generated at the user terminal 107, conventionally, the viewpoint position 3 and If transmission of the original image 4 is completed and transmission of the viewpoint position 5 is not started, the viewpoint movement to the viewpoint position 5 cannot be performed at the user terminal 107.
[0076]
On the other hand, in the present embodiment, when the original images at the viewpoint positions 1 to 5 are transmitted, the partial images divided as described above are sequentially received and selected by the packet selection unit 105. After the transfer of the partial images 2 to 5-2 to the packet selection unit 105 is completed, the selected partial image is changed from the partial image 3-2 to the partial image 5-2, and the viewpoint position 3 is changed to the viewpoint position. The user can move the viewpoint to 5 at the user terminal 107. Therefore, it is possible to transmit an arbitrary viewpoint image without sacrificing responsiveness to a viewpoint movement request from a user.
[0077]
The outline of the present embodiment has been described above. Next, details of individual components will be described.
[0078]
FIG. 5 is a diagram showing one form of connection between the camera and the image division unit of the present embodiment. In FIG. 1, one camera 101 is connected to one image division unit 102 one by one. However, the present invention is not limited to such a connection form. As shown in FIG. It is also possible to take a form in which a plurality of cameras 201 are connected to the image division unit 202.
[0079]
Similarly, regarding the subsequent area header addition unit 103 and communication header addition unit 104, the units upstream and downstream of the data flow are not limited to the one-to-one connection form. .
[0080]
FIG. 6 is a diagram illustrating an example of a hierarchical packet selection process according to the present embodiment. Although only one packet selection unit 105 is shown in FIG. 1, the present invention is not limited to such a form. For example, as shown in FIG. 6, packet selection processing is divided into layers 401 to 403. In addition, it is possible to adopt a form in which stepwise selection processing is performed in each layer to reduce the load on each constituent unit.
[0081]
For example, in the packet selection process of FIG. 6, the camera identification number corresponding to the viewpoint position identification information in the packet request 108 is a necessary packet, but the camera identification number of the received packet is in the packet request 108. If the viewpoint position identification information within a certain range including the viewpoint position identification number is determined, the packet is determined to be a necessary packet, and the range is gradually narrowed as the process proceeds from the hierarchy 401 to the hierarchy 403. Process.
[0082]
FIG. 7 is a diagram showing an example of processing for adding communication headers to a plurality of layers in the OSI reference model of the present embodiment. More specifically, the communication header addition unit 104 in FIG. 1 includes an area header addition unit 501, one or more communication header addition units 502 and 503 for processing a plurality of layers in the OSI reference model, as shown in FIG. As the communication header adding units 502 and 503, which are composed of a packet selecting unit 504, for example, an Ethernet header as a lower layer and an IP header as an upper layer can be considered. However, the present invention does not depend on these specific protocols.
[0083]
FIG. 8 is a diagram illustrating an example in which the communication header addition processing according to the present embodiment is divided into an upper layer and a lower layer, and packet selection processing is arranged before and after the region header addition processing. As shown in FIG. 8, a packet selection unit 603 is arranged between the area header addition unit 601 and the lower layer communication header addition unit 602 and the upper layer communication header addition unit 604, and header addition processing in a plurality of layers is performed. Packet selection processing may be performed at an arbitrary stage.
[0084]
Next, the flow of processing from the packet selection unit 105, the network 106, and the user terminal 107 in FIG. 1 will be described in detail with reference to FIG.
[0085]
FIG. 9 is a diagram illustrating an example of a flow of processing from the packet selection unit, the network, and the user terminal according to the present embodiment. 9, a packet selection unit 701 is a unit corresponding to the packet selection unit 105 in FIG. 1, user terminals 702 to 704 are user terminals, and relay nodes 712 to 717 are apparatuses that relay packets on the network 106. The input packet 706 represents a packet input to the packet selection unit 701, the selection packets 707 and 708 represent packets selected by the packet selection unit 701, and the discard packet 709 represents a packet discarded by the packet selection unit 701.
[0086]
The packet selection unit 701 has one input port and two output ports 710 and 711, and a user terminal 702 and a user terminal 703 are connected to the port 710 of the two output ports on the extension of the network 106. A user terminal 704 is connected to the extension of the port 711.
[0087]
At this time, the packet selection unit 701 outputs, from the port 710, the selection packet 707 necessary for image generation of the user terminal 702 and the user terminal 703 among the input packets 706 arriving at the input port every moment. The packet is transmitted to each terminal via the relay nodes 712 to 715, and similarly, the selection packet 708 necessary for the image generation of the user terminal 704 is output from the port 711, thereby passing through the relay nodes 716 and 717 of the network 106. Then, the selection packet 708 is transmitted to the user terminal 704.
[0088]
At this time, the packet selection unit 701 performs a process of copying a packet that needs to be output from both the ports 710 and 711 and outputting the packet from both ports, and discarding a discard packet 709 that is not required by any terminal.
[0089]
FIG. 10 is a diagram illustrating an example of processing for calculating a required packet based on the viewpoint position input from the user terminal according to the present embodiment and requesting the packet selection unit 701. The packet selection process as described above is performed when the packet selection unit 701 receives a packet request 108 from the user terminals 702 to 704 indicating which packet is necessary. As shown in FIG. Can output a desired viewpoint position and pass the packet request 108 to the packet selection unit 803 via a necessary packet calculation unit 802 that calculates a packet necessary for image generation at the viewpoint position. . At this time, the installation position of the necessary packet calculation unit 802 may be on the user terminal 801 side, the packet selection unit 803 side, or an arbitrary network node with respect to the network 106.
[0090]
Of the selection packet 707 output from the port 710, a packet necessary for both the user terminal 702 and the user terminal 703 is copied by the relay node 713 in the route, and the packet selection unit 701-relay node 712- It is also possible to transmit while saving the bandwidth of the route of the relay node 713, copied in advance by the packet selection unit 701, output redundantly from the port 710, branched at the relay node 713, and sent to both terminals It is also possible to transmit.
[0091]
As described above, in this embodiment, even when the number of users increases and different users need the same packet, the original image can be copied by copying such a packet in the process of selection processing and relay processing. A system with excellent scalability can be realized without imposing a burden on the provider.
[0092]
The packet processing process from the packet selection unit to the user terminal has been described above using FIG. 9 as an example, but the present invention is not limited to such a connection form.
[0093]
As described above, according to the arbitrary viewpoint image transmission apparatus of the present embodiment, a part necessary for generating an image at a viewpoint position desired by a user among image data divided into partial images of a plurality of regions. Since images are selected and transmitted, even when the number of users increases without saving transmission bandwidth for transmitting image data and without sacrificing responsiveness to requests for viewpoint movement from users It is possible to stably transmit image data captured from a plurality of viewpoint positions from which an arbitrary viewpoint image is generated.
[0094]
(Embodiment 2)
The arbitrary viewpoint image transmission apparatus according to the second embodiment that performs packet selection processing stepwise on the transmission path will be described below.
[0095]
FIG. 11 is a diagram showing an outline of processing of the arbitrary viewpoint image transmission apparatus of this embodiment. In FIG. 11, when image data is transmitted from the arbitrary viewpoint image transmission apparatus 900 that performs image division processing and header addition processing to the user terminal 905 via the relay nodes 902 and 903, two packets of the arbitrary viewpoint image transmission apparatus 910 are transmitted. This shows that the selection units 901 and 904 perform packet selection processing step by step. Here, the stepwise selection process means that a rough selection process is once performed by the packet selection unit 901, and then a narrower selection process is performed by the packet selection unit 904.
[0096]
Here, as shown in FIG. 11, a one-way transmission delay from the user terminal 905 to the packet selection unit 904 is t1, and similarly, a one-way transmission delay to the packet selection unit 901 is t2 (t2> t1). If the delays are equal, the packet that reaches the user terminal 905 at time t0 is a packet selection unit at time t0-t2 based on the packet request 908 at time t0-2 × t2 from the user terminal 905. Among the packets selected at 901, the packet selection unit 904 selected at time t0-t1 based on the packet request 908 at time t0-2 × t1 from the user terminal 905.
[0097]
If the time lag from when the user terminal 905 issues a packet request 908 to the packet selection unit 904 and the packet selection unit 901 until the actual image generation processing is set to Δt1 and Δt2, respectively, Δt1 = 2 × t1, Since Δt2 = 2 × t2 and Δt1 <Δt2, the packet selection unit 904 closer to the user terminal 905 has less time lag than the packet selection unit 901 farther from the user terminal 905, and therefore, during the time lag period. Therefore, it is difficult to cause a situation in which a packet necessary for generating an image is discarded even if packet selection is made more strict.
[0098]
Therefore, even if the packet selection unit 901 and the packet selection unit 904 perform the stepwise selection process, the performance of the responsiveness to the viewpoint movement is not deteriorated as compared with the case where the selection process is performed only by the packet selection unit 901. . On the other hand, by further narrowing down by the packet selection unit 904, a necessary packet can be sufficiently transmitted even on the transmission path on the user terminal 905 side generally having a small transmission band.
[0099]
In the above example, there are two packet selection units, but it is also possible to select packets stepwise in the transmission path by two or more packet selection units.
[0100]
FIG. 12 is a diagram illustrating an example of a packet selection process performed near the user terminal 905 in the transmission path according to the present embodiment. In this embodiment, the transmission path (backbone) up to the user terminal 905 has a sufficient transmission band to transmit all packets, and the transmission path close to the user terminal 905 has a limited transmission band. If not, an embodiment in which the packet selection unit is not installed at the entrance of the transmission path as shown in FIG. 12 and the packet selection unit is installed only on the side closer to the user of the transmission path is possible. .
[0101]
FIG. 13 is a diagram illustrating a schematic configuration of arbitrary viewpoint image transmission apparatuses 900 and 910 according to the present embodiment. As shown in FIG. 13, the arbitrary viewpoint image transmission apparatus 900 of this embodiment includes a CPU 1301, a memory 1302, a magnetic disk device 1303, an input device 1304, an output device 1305, a CD-ROM device 1306, and a communication device. 1307.
[0102]
The CPU 1301 is a device that controls the operation of the arbitrary viewpoint image transmission apparatus 900 as a whole. The memory 1302 is a storage device that loads various processing programs and data for controlling the operation of the entire arbitrary viewpoint image transmission apparatus 900.
[0103]
A magnetic disk device 1303 is a storage device for storing the various processing programs and data. The input device 1304 is a device that performs various inputs for executing image division, region header addition, and communication header addition.
[0104]
The output device 1305 is a device that performs various outputs accompanying image division, region header addition, and communication header addition. A CD-ROM device 1306 is a device for reading the contents of a CD-ROM in which the various processing programs are recorded. The communication device 1307 is a device that communicates with the arbitrary viewpoint image transmission device 910 via a network such as the Internet or an intranet.
[0105]
The arbitrary viewpoint image transmission device 910 includes a CPU 1311, a memory 1312, a magnetic disk device 1313, an input device 1314, an output device 1315, a CD-ROM device 1316, a communication device 1317, and a packet request management table 1318. Have.
[0106]
The CPU 1311 is a device that controls the operation of the arbitrary viewpoint image transmission device 910 as a whole. The memory 1312 is a storage device that loads various processing programs and data for controlling the operation of the entire arbitrary viewpoint image transmission apparatus 910.
[0107]
The magnetic disk device 1313 is a storage device that stores the various processing programs and data. The input device 1314 is a device that performs various inputs for executing packet selection. The output device 1315 is a device that performs various outputs associated with packet selection.
[0108]
A CD-ROM device 1316 is a device for reading the contents of a CD-ROM in which the various processing programs are recorded. The communication device 1317 is a device that communicates with the arbitrary viewpoint image transmission device 900, the relay nodes 902 and 903, and the user terminal 905 via a network such as the Internet or an intranet. The packet request management table 1318 is a table that stores the port number that received the packet request 908 in association with the viewpoint position identification number in the packet request 908.
[0109]
The arbitrary viewpoint image transmission apparatus 900 of the present embodiment can be realized by a computer and a program. A program for causing a computer to function as the image division unit 102, the area header addition unit 103, and the communication header addition unit 104 is a CD- It is assumed that after being recorded on a recording medium such as a ROM and stored on a magnetic disk or the like, it is loaded into a memory and executed. The recording medium for recording the program may be a recording medium other than the CD-ROM. Further, the program may be used by installing it from a recording medium in a computer, or the program may be used by accessing the recording medium through a network.
[0110]
The arbitrary viewpoint image transmission apparatus 910 according to the present embodiment can also be realized by a computer and a program. A program for causing the computer to function as the packet selection unit 901 or the packet selection unit 904 is stored on a recording medium such as a CD-ROM. It is assumed that after being recorded and stored in a magnetic disk or the like, it is loaded into a memory and executed. The recording medium for recording the program may be a recording medium other than the CD-ROM. Further, the program may be used by installing it from a recording medium in a computer, or the program may be used by accessing the recording medium through a network.
[0111]
FIG. 14 is a flowchart showing the processing procedure of the packet selection processing of this embodiment. As shown in FIG. 14, the packet selection unit of the arbitrary viewpoint image transmission apparatus 910 according to the present embodiment receives packets of a plurality of partial images at a plurality of viewpoint positions from the arbitrary viewpoint image transmission apparatus 910 or the relay node 903 in the respective division orders. A packet including a partial image necessary for generating an image at a viewpoint position desired by the user is selected and transmitted.
[0112]
In step 1401, the packet selection unit of the arbitrary viewpoint image transmission apparatus 910 checks whether or not the packet request 908 indicating the viewpoint position desired by the user has been received from the user terminal 905, and has received the packet request 908. Then, go to Step 1402.
[0113]
In step 1402, the viewpoint position identification number is read from the packet request 908, and the port number that received the packet request 908 is associated with the read viewpoint position identification number and stored in the packet request management table 1318.
[0114]
In step 1403, it is checked whether a packet is received from the communication header addition unit 104 of the arbitrary viewpoint image transmission apparatus 910 or the relay node 903. If a packet is received, the process proceeds to step 1404.
[0115]
In step 1404, referring to the area header of the packet received from the communication header adding unit 104, the camera identification number in the area header is within a predetermined range including the viewpoint position identification number stored in the packet request management table 1318. If it is, it is determined that the packet is a packet including a partial image required by the user terminal 905, and the process proceeds to step 1405. Here, the predetermined range is set to a rough range in the packet selection unit 901, and a narrowed range is set in the packet selection unit 904. For example, the viewpoint in the packet request management table 1318 is set as a rough range. It is assumed that a range of several tens of percent before and after the position identification number and a range of several percent before and after the viewpoint position identification number in the packet request management table 1318 are set as a narrowed range.
[0116]
In step 1405, the packet determined to include the necessary partial image is transmitted from the port associated with the viewpoint position identification number in the packet request management table 1318, and the packet is transmitted to the relay node 902 or the user terminal. To 905.
[0117]
When a packet is transmitted from the packet selection unit 901 to the relay node 902, the relay node 902 receives the packet from the packet selection unit 901, determines the transmission path with reference to the communication header, and then transmits the packet to the relay node. The packet is transmitted to the packet selection unit 904 via 903.
[0118]
When a packet is transmitted from the packet selection unit 904 to the user terminal 905, the user terminal 905 receives the packet from the packet selection unit 904, sorts the image data in order of region identification numbers with reference to the region header. The image is synthesized at the viewpoint position and output to an output device such as a display device or a speaker to provide an arbitrary viewpoint image to the user.
[0119]
If it is determined in step 1404 that the packet is not a packet including a partial image required by the user terminal 905, the process proceeds to step 1406 to perform processing for discarding the unnecessary packet.
[0120]
As described above, according to the arbitrary viewpoint image transmission apparatus of the present embodiment, packets are selected step by step on the transmission path, so that the transmission band at the end close to the user is saved and the viewpoint of the user is moved. It is possible to transmit image data for generating an arbitrary viewpoint image without sacrificing the responsiveness of image generation with respect to.
[0121]
(Embodiment 3)
The arbitrary viewpoint image transmission apparatus according to the third embodiment will be described below in which the minimum unit of encoding processing including orthogonal transformation or a set thereof is a division unit of partial images.
[0122]
In the present embodiment, in the image division processing in the image division unit 102 in FIG. 1, not only the image is divided but also the encoding processing is performed, and the data size of the packet is compressed, thereby reducing the bandwidth required for transmission. .
[0123]
FIG. 15 is a diagram showing an outline of image division / encoding processing according to the present embodiment. In the figure, block processing 1101 divides the entire digital image into partial images called blocks, and orthogonal transform processing 1102 performs orthogonal transform by, for example, discrete Fourier transform (DFT) or discrete cosine transform (DCT) to quantize the image. In 1103, the number of encoded bits is adaptively distributed for each frequency component to the transform coefficient after the orthogonal transform, the region header is added in the region header addition processing 1104, and the result is output to the subsequent processing.
[0124]
FIG. 16 is a diagram showing an example of the relationship between the orthogonal transform block in the image coding of this embodiment and the partial image in the packet division. In FIG. 16, reference numeral 1201 denotes one block of orthogonal transform, and an encoding process is performed for each block, and a packet like 1202 is generated by adding a region header.
[0125]
Thus, by matching the unit of image segmentation for packetization with the block in orthogonal transform, the compression efficiency of encoding does not decrease even when compared with the case where the entire image is encoded by orthogonal transform. Can be.
[0126]
Note that the orthogonal transform in the present invention is not limited to the DFT and DCT shown in the above example, and includes an orthogonal transform using other bases. In addition, the present invention includes a case where one packet is generated for a plurality of blocks of orthogonal transform, and can take a form in which packets are collected, for example, 1203 in FIG. Furthermore, the encoding process in the present invention is not limited to orthogonal transformation, and is generally applied to a method of encoding an image by dividing it into partial areas.
[0127]
As described above, according to the arbitrary viewpoint image transmission apparatus of the present embodiment, the minimum unit of encoding processing including orthogonal transformation or a set thereof is used as a division unit of partial images, so that it is compared with the case where the entire image is encoded. Thus, it is possible to divide the image without reducing the compression efficiency.
[0128]
(Embodiment 4)
An arbitrary viewpoint image transmission apparatus according to the fourth embodiment that predicts a moving range of a viewpoint position desired by a user and selects a packet necessary for image generation at a viewpoint position within the range will be described below.
[0129]
As described above, there is a time lag between the user terminal 107 requesting the packet selection unit 105 a packet necessary for image generation and the actual reception of the packet. The position can move.
[0130]
In the present embodiment, assuming a packet transmission delay and viewpoint movement between them, a range in which the viewpoint moves is predicted in advance, and packets necessary for generating an image at a viewpoint position within the range are transmitted to the user terminal. Request from 107. The packet selection unit 105 receives the packet request 108 from the user terminal 107, selects and transmits a packet necessary for image generation at the viewpoint position within the predicted range. Here, the prediction process may be performed by the packet selection unit 105.
[0131]
FIG. 17 is a flowchart illustrating a processing procedure of processing for estimating and requesting a range of viewpoints that move during a packet transmission period, and calculating and requesting a packet necessary for image generation within the range. In the figure, in step 1301, the current viewpoint position is acquired, in step 1302, the packet transmission delay Δt is obtained by actual measurement or estimation, in step 1303, the range of viewpoint movement between Δt is estimated, In 1304, a packet including a partial image of the camera necessary for generating an image in the range of the viewpoint is calculated, and the packet calculated in step 1305 is requested to the packet selection unit.
[0132]
Here, the estimation of the viewpoint movement range in step 1303 can be obtained by estimating the viewpoint position after Δt using, for example, the following Kalman filter algorithm.
[0133]
First, the state of the virtual viewpoint at time t is represented by a vector composed of six parameters shown in Equation 1.
[Expression 1]
Figure 0004094942
[0134]
Where [x, y, z] T Is the virtual viewpoint position in the 3D Cartesian coordinate system, [x, y, z] T The variable “x”, “y”, “z” with the symbol “·” represents the speed. At this time, the optimum estimated value of the state quantity and the first predicted value can be calculated by the Kalman filter described below.
[0135]
First, the system model can be described by Equation 2.
[Expression 2]
Figure 0004094942
[0136]
Where w t Is a 6-dimensional disturbance vector applied to the system, the mean is 0, and the covariance is Q t , And are known. Further, F represents a state transition matrix, and is the following 6 × 6 matrix.
[0137]
[Equation 3]
Figure 0004094942
[0138]
On the other hand, the observed value at time t is expressed by the following equation (4).
[Expression 4]
Figure 0004094942
Here, H is a 6 × 6 unit matrix, and v t Is a 6-dimensional estimated error vector, with mean 0 and covariance R t Is known.
[0139]
w t , V t Are both discretized normal white noises with state quantity X t If both are independent, the algorithm of the Kalman filter based on the above model is as follows.
[0140]
That is,
[filtering]
[Equation 5]
Figure 0004094942
[Formula 6]
Figure 0004094942
[Expression 7]
Figure 0004094942
[0141]
[Forecast]
[Equation 8]
Figure 0004094942
[Equation 9]
Figure 0004094942
[0142]
[default value]
[Expression 10]
Figure 0004094942
[0143]
The optimal estimated value update processing of the state quantity is performed according to Equations 5 to 7. In addition, the predicted value for the first term is calculated by Equation 8 and Equation 9.
[0144]
The above is the viewpoint movement estimation method using the Kalman filter, but the present invention is not limited to the estimation method using this algorithm.
[0145]
As described above, according to the arbitrary viewpoint image transmission apparatus of the present embodiment, the movement range of the viewpoint position desired by the user is predicted, and packets necessary for image generation at the viewpoint position within the range are selected. It is possible to save the transmission band to the minimum necessary.
[0146]
【The invention's effect】
According to the present invention, since the partial image necessary for generating the image at the viewpoint position desired by the user is selected and transmitted from the image data divided into the partial images of a plurality of regions, real-time communication is performed. When providing an arbitrary viewpoint image, which is an image from a viewpoint position desired by the user, in a network application that requires strict processing time, such as live distribution or streaming broadcasting, while saving transmission bandwidth, Without sacrificing the responsiveness to the request to move the viewpoint, even if the number of users increases, image data manipulated from multiple viewpoint positions that are the basis for generating an arbitrary viewpoint image can be transmitted. Can do.
[Brief description of the drawings]
FIG. 1 is a diagram illustrating an outline of processing of an arbitrary viewpoint image transmission apparatus according to a first embodiment.
FIG. 2 is a diagram illustrating a schematic configuration of an arbitrary viewpoint image transmission apparatus according to the first embodiment.
FIG. 3 is a flowchart illustrating a processing procedure of image division and header addition processing according to the first exemplary embodiment.
FIG. 4 is a flowchart illustrating a processing procedure of packet selection processing according to the first embodiment.
FIG. 5 is a diagram illustrating one form of connection between the camera and the image division unit of the first embodiment.
FIG. 6 is a diagram illustrating an example of a hierarchical packet selection process according to the first embodiment.
7 is a diagram illustrating an example of processing for adding communication headers to a plurality of layers in the OSI reference model of Embodiment 1. FIG.
FIG. 8 is a diagram illustrating an example when the communication header addition processing according to the first embodiment is divided into an upper layer and a lower layer, and packet selection processing is arranged before and after the region header addition processing.
FIG. 9 is a diagram illustrating an example of a flow of processing from a packet selection unit, a network, and a user terminal according to the first embodiment.
FIG. 10 is a diagram illustrating an example of processing for calculating a required packet based on viewpoint position input from a user terminal according to the first embodiment and requesting the packet selection unit 701;
FIG. 11 is a diagram illustrating a processing outline of an arbitrary viewpoint image transmission apparatus according to a second embodiment.
FIG. 12 is a diagram illustrating an example of a packet selection process performed near the user terminal 905 in the transmission path according to the second embodiment.
FIG. 13 is a diagram illustrating a schematic configuration of arbitrary viewpoint image transmission apparatuses 900 and 910 according to the second embodiment.
FIG. 14 is a flowchart illustrating a processing procedure of packet selection processing according to the second embodiment.
FIG. 15 is a diagram illustrating an outline of image division / encoding processing according to the third embodiment;
FIG. 16 is a diagram illustrating an example of a relationship between an orthogonal transform block in image coding according to the third embodiment and a partial image in packet division;
FIG. 17 is a flowchart illustrating a processing procedure of processing for estimating a range of a viewpoint that moves during a packet transmission period and calculating and requesting a packet necessary for image generation in the range according to the fourth embodiment.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 101 ... Camera, 102 ... Image division unit, 103 ... Area header addition unit, 104 ... Communication header addition unit, 105 ... Packet selection unit, 106 ... Network, 107 ... User terminal, 108 ... Packet request, 210 ... Arbitrary viewpoint image Transmission device 211 ... CPU 212 ... Memory 213 ... Magnetic disk device 214 ... Input device 215 ... Output device 216 ... CD-ROM device 217 ... Communication device 218 ... Packet request management table 201 ... Camera 202: Image division unit, 401 to 403: Hierarchy, 501: Area header addition unit, 502 and 503 ... Communication header addition unit, 504 ... Packet selection unit, 601 ... Area header addition unit, 602 ... Lower layer communication header addition unit, 603 ... Packet selection unit 604 ... upper layer communication header addition unit, 701 ... packet selection unit, 702 to 704 ... user terminal, 706 ... input packet, 707 and 708 ... selection packet, 709 ... discard packet, 710 and 711 ... port, 712 717 ... Relay node, 801 ... User terminal, 802 ... Necessary packet calculation unit, 803 ... Packet selection unit, 900 and 910 ... Arbitrary viewpoint image transmission apparatus, 901 and 904 ... Packet selection unit, 902 and 903 ... Relay node, 905 ... User terminal, 908 ... Packet request, 1301 ... CPU, 1302 ... Memory, 1303 ... Magnetic disk device, 1304 ... Input device, 1305 ... Output device, 1306 ... CD-ROM device, 1307 ... Communication device, 1311 ... CPU , 1312... Memory, 13 3 ... Magnetic disk device, 1314 ... Input device, 1315 ... Output device, 1316 ... CD-ROM device, 1317 ... Communication device, 1318 ... Packet request management table, 1101 ... Blocking processing, 1102 ... Orthogonal transformation processing, 1103 ... Quantum 1104 ... area header addition processing, 1201 ... block, 1202 ... packet, 1203 ... packet.

Claims (15)

任意視点画像を生成する元となる複数の視点位置から撮影された画像データを伝送する任意視点画像伝送方法において、
カメラ識別番号がどの視点位置識別番号に該当するかを示す情報、すなわち、視点位置の画像を生成する際に、どのカメラで撮影した画像が必要であるかを示す情報を事前に設定する第Aの過程と、
利用者端末からのパケット要求の情報に含まれる視点位置識別番号をパケット要求管理テーブルに保持する第Bの過程と、
異なる視点位置で撮影されたそれぞれの画像データを複数の領域の部分画像に分割する第1の過程と、
撮影したカメラのカメラ識別番号と前記部分画像の領域識別番号を含む領域ヘッダ情報を前記分割された部分画像のデータに付加する第2の過程と、
前記領域ヘッダ情報の付加されたデータに対して通信用プロトコルのヘッダを付加してパケットとする第3の過程と、
前記パケットの領域ヘッダ情報中のカメラ識別番号、前記パケット要求管理テーブルに保持された視点位置識別番号、および前記事前に設定された情報に基づき、カメラ識別番号が視点位置識別番号に該当するかどうかを調べ、該当する場合にはそのパケットを部分画像に分割した順に前記利用者端末に伝送し、該当しない場合にはそのパケットを破棄する第4の過程とを有することを特徴とする任意視点画像伝送方法。
In an arbitrary viewpoint image transmission method for transmitting image data taken from a plurality of viewpoint positions, which is a source for generating an arbitrary viewpoint image,
Information indicating which viewpoint position identification number corresponds to the camera identification number, that is, information indicating which camera is necessary to generate an image at the viewpoint position is set in advance. And the process
A B-step of holding the viewpoint position identification number included in the packet request information from the user terminal in the packet request management table;
A first process of dividing each image data photographed at different viewpoint positions into partial images of a plurality of regions;
A second step of adding region header information including the camera identification number of the photographed camera and the region identification number of the partial image to the data of the divided partial images;
A third step of adding a communication protocol header to the data to which the region header information is added to form a packet;
Based on the realm header information in the camera identification number, the packet request management table held viewpoint location numbers, and the preset information of the packet, camera identification number corresponding to the viewpoint location numbers or examine whether, if applicable transmits to the user terminal in the order obtained by dividing the packet to the partial image, if not applicable any, characterized in that it comprises a fourth step of discarding the packet Viewpoint image transmission method.
送信側と受信側との間の伝送経路上で段階的に前記パケットの選択を行うことを特徴とする請求項1に記載された任意視点画像伝送方法。  The method for transmitting an arbitrary viewpoint image according to claim 1, wherein the packet is selected stepwise on a transmission path between a transmission side and a reception side. 符号化処理の最小単位若しくはその集合を分割単位として生成した部分画像に対して直交変換を含む符号化を行うことを特徴とする請求項1または請求項2のいずれかに記載された任意視点画像伝送方法。  3. The arbitrary viewpoint image according to claim 1, wherein encoding including orthogonal transformation is performed on a partial image generated by using a minimum unit of encoding processing or a set thereof as a division unit. Transmission method. 利用者の所望する視点位置の移動範囲を予測し、その範囲内の視点位置での画像生成に必要なパケットを選択することを特徴とする請求項1乃至請求項3のいずれか1項に記載された任意視点画像伝送方法。  4. The moving range of a viewpoint position desired by a user is predicted, and a packet necessary for generating an image at a viewpoint position within the range is selected. Arbitrary viewpoint image transmission method. 任意視点画像を生成する元となる複数の視点位置から撮影された画像データを伝送する任意視点画像伝送装置において、
カメラ識別番号がどの視点位置識別番号に該当するかを示す情報、すなわち、視点位置の画像を生成する際に、どのカメラで撮影した画像が必要であるかを示す情報を保持する手段と、
利用者端末からのパケット要求の情報に含まれる視点位置識別番号を保持するパケット要求管理テーブルと、
異なる視点位置で撮影されたそれぞれの画像データを複数の領域の部分画像に分割する画像分割ユニットと、
撮影したカメラのカメラ識別番号と前記部分画像の領域識別番号を含む領域ヘッダ情報を前記分割された部分画像のデータに付加する領域ヘッダ付加ユニットと、
前記領域ヘッダ情報の付加されたデータに対して通信用プロトコルのヘッダを付加してパケットとする通信ヘッダ付加ユニットと、
前記パケットの領域ヘッダ情報中のカメラ識別番号、前記パケット要求管理テーブルに保持された視点位置識別番号、および前記事前に設定された情報に基づき、カメラ識別番号が視点位置識別番号に該当するかどうかを調べ、該当する場合にはそのパケットを部分画像に分割した順に前記利用者端末に伝送し、該当しない場合にはそのパケットを破棄するパケット選択ユニットとを備えることを特徴とする任意視点画像伝送装置。
In an arbitrary viewpoint image transmission device that transmits image data taken from a plurality of viewpoint positions that are sources of arbitrary viewpoint images,
Information indicating which viewpoint position identification number corresponds to the camera identification number, that is, means for holding information indicating which camera image is necessary when generating an image of the viewpoint position;
A packet request management table that holds the viewpoint position identification number included in the packet request information from the user terminal;
An image dividing unit that divides each image data captured at different viewpoint positions into partial images of a plurality of regions;
An area header adding unit for adding area header information including the camera identification number of the photographed camera and the area identification number of the partial image to the data of the divided partial images;
A communication header addition unit that adds a communication protocol header to the data to which the region header information is added to form a packet;
The packets realm header information in the camera identification number, based on the packet request management table held viewpoint location numbers, and the preset information, the corresponding camera identification number to the viewpoint location numbers any or examined whether, if applicable transmits to the user terminal in the order obtained by dividing the packet to the partial image, if not applicable, characterized in that it comprises a packet selection unit to discard the packet to Viewpoint image transmission device.
任意視点画像を生成する元となる複数の視点位置から撮影された画像データを伝送する任意視点画像伝送装置において、
カメラ識別番号がどの視点位置識別番号に該当するかを示す情報、すなわち、視点位置の画像を生成する際に、どのカメラで撮影した画像が必要であるかを示す情報を保持する手段と、
利用者端末からのパケット要求の情報に含まれる視点位置識別番号を保持するパケット要求管理テーブルと、
画像を分割した部分画像、および撮影したカメラのカメラ識別番号と前記部分画像の領域識別番号を含む領域ヘッダ情報からなるパケットを受信する手段と、
前記パケットの領域ヘッダ情報中のカメラ識別番号、前記パケット要求管理テーブルに保持された視点位置識別番号、および前記事前に設定された情報に基づき、カメラ識別番号が視点位置識別番号に該当するかどうかを調べ、該当する場合にはそのパケットを部分画像に分割した順に前記利用者端末に伝送し、該当しない場合にはそのパケットを破棄するパケット選択ユニットを備えることを特徴とする任意視点画像伝送装置。
In an arbitrary viewpoint image transmission device that transmits image data taken from a plurality of viewpoint positions that are sources of arbitrary viewpoint images,
Information indicating which viewpoint position identification number corresponds to the camera identification number, that is, means for holding information indicating which camera image is necessary when generating an image of the viewpoint position;
A packet request management table that holds the viewpoint position identification number included in the packet request information from the user terminal;
Means for receiving a packet consisting of a partial image obtained by dividing the image, and a region header information including a camera identification number of the photographed camera and a region identification number of the partial image;
The packets realm header information in the camera identification number, based on the packet request management table held viewpoint location numbers, and the preset information, the corresponding camera identification number to the viewpoint location numbers or examine whether to, if applicable is transmitted to the user terminal in the order obtained by dividing the packet to the partial image, if not applicable arbitrary viewpoint, characterized in that it comprises a packet selection unit to discard the packet Image transmission device.
送信側と受信側との間の伝送経路上で段階的に前記パケットの選択を行うことを特徴とする請求項5または請求項6のいずれかに記載された任意視点画像伝送装置。  7. The arbitrary viewpoint image transmission apparatus according to claim 5, wherein the packet is selected stepwise on a transmission path between a transmission side and a reception side. 符号化処理の最小単位若しくはその集合を分割単位として生成した部分画像に対して直交変換を含む符号化を行うことを特徴とする請求項5乃至請求項7のいずれか1項に記載された任意視点画像伝送装置。  The encoding according to any one of claims 5 to 7, wherein encoding including orthogonal transformation is performed on a partial image generated by using a minimum unit of encoding processing or a set thereof as a division unit. Viewpoint image transmission device. 利用者の所望する視点位置の移動範囲を予測し、その範囲内の視点位置での画像生成に必要なパケットを選択することを特徴とする請求項5乃至請求項8のいずれか1項に記載された任意視点画像伝送装置。  9. The moving range of a viewpoint position desired by a user is predicted, and a packet necessary for generating an image at a viewpoint position within the range is selected. Arbitrary viewpoint image transmission device. 任意視点画像を生成する元となる複数の視点位置から撮影された画像データを伝送する任意視点画像伝送装置としてコンピュータを機能させる為のプログラムにおいて、
カメラ識別番号がどの視点位置識別番号に該当するかを示す情報、すなわち、視点位置の画像を生成する際に、どのカメラで撮影した画像が必要であるかを示す情報を保持する手段と、
利用者端末からのパケット要求の情報に含まれる視点位置識別番号を保持するパケット要求管理テーブルと、
異なる視点位置で撮影されたそれぞれの画像データを複数の領域の部分画像に分割する画像分割ユニットと、
撮影したカメラのカメラ識別番号と前記部分画像の領域識別番号を含む領域ヘッダ情報を前記分割された部分画像のデータに付加する領域ヘッダ付加ユニットと、
前記領域ヘッダ情報の付加されたデータに対して通信用プロトコルのヘッダを付加してパケットとする通信ヘッダ付加ユニットと、
前記パケットの領域ヘッダ情報中のカメラ識別番号、前記パケット要求管理テーブルに保持された視点位置識別番号、および前記事前に設定された情報に基づき、カメラ識別番号が視点位置識別番号に該当するかどうかを調べ、該当する場合にはそのパケットを部分画像に分割した順に前記利用者端末に伝送し、該当しない場合にはそのパケットを破棄するパケット選択ユニットとしてコンピュータを機能させることを特徴とするプログラム。
In a program for causing a computer to function as an arbitrary viewpoint image transmission device that transmits image data taken from a plurality of viewpoint positions that are sources for generating arbitrary viewpoint images,
Information indicating which viewpoint position identification number corresponds to the camera identification number, that is, means for holding information indicating which camera image is necessary when generating an image of the viewpoint position;
A packet request management table that holds the viewpoint position identification number included in the packet request information from the user terminal;
An image dividing unit that divides each image data captured at different viewpoint positions into partial images of a plurality of regions;
An area header adding unit for adding area header information including the camera identification number of the photographed camera and the area identification number of the partial image to the data of the divided partial images;
A communication header addition unit that adds a communication protocol header to the data to which the region header information is added to form a packet;
Based on the realm header information in the camera identification number, the packet request management table held viewpoint location numbers, and the preset information of the packet, camera identification number corresponding to the viewpoint location numbers or examine whether, if applicable transmits to the user terminal in the order obtained by dividing the packet to the partial image, if not applicable, characterized in that causes a computer to function as a packet selection unit that discards the packet program.
任意視点画像を生成する元となる複数の視点位置から撮影された画像データを伝送する任意視点画像伝送装置としてコンピュータを機能させる為のプログラムにおいて、
カメラ識別番号がどの視点位置識別番号に該当するかを示す情報、すなわち、視点位置の画像を生成する際に、どのカメラで撮影した画像が必要であるかを示す情報を保持する 手段と、
利用者端末からのパケット要求の情報に含まれる視点位置識別番号を保持するパケット要求管理テーブルと、
画像を分割した部分画像、および撮影したカメラのカメラ識別番号と前記部分画像の領域識別番号を含む領域ヘッダ情報からなるパケットを受信する手段と、
前記パケットの領域ヘッダ情報中のカメラ識別番号、前記パケット要求管理テーブルに保持された視点位置識別番号、および前記事前に設定された情報に基づき、カメラ識別番号が視点位置識別番号に該当するかどうかを調べ、該当する場合にはそのパケットを部分画像に分割した順に前記利用者端末に伝送し、該当しない場合にはそのパケットを破棄するパケット選択ユニットとしてコンピュータを機能させることを特徴とするプログラム。
In a program for causing a computer to function as an arbitrary viewpoint image transmission device that transmits image data taken from a plurality of viewpoint positions that are sources for generating arbitrary viewpoint images,
Information indicating which viewpoint position identification number corresponds to the camera identification number, that is, means for holding information indicating which camera image is necessary when generating an image of the viewpoint position ;
A packet request management table that holds the viewpoint position identification number included in the packet request information from the user terminal;
Means for receiving a packet consisting of a partial image obtained by dividing the image, and a region header information including a camera identification number of the photographed camera and a region identification number of the partial image;
Whether the camera identification number corresponds to the viewpoint position identification number based on the camera identification number in the area header information of the packet, the viewpoint position identification number held in the packet request management table, and the preset information investigated how, if applicable transmits to the user terminal in the order obtained by dividing the packet to the partial image, if not applicable program for causing a computer to function as a packet selection unit that discards the packet .
送信側と受信側との間の伝送経路上で段階的に前記パケットの選択を行うことを特徴とする請求項10または請求項11のいずれかに記載されたプログラム。  12. The program according to claim 10, wherein the packet is selected stepwise on a transmission path between a transmission side and a reception side. 符号化処理の最小単位若しくはその集合を分割単位として生成した部分画像に対して直交変換を含む符号化を行うことを特徴とする請求項10乃至請求項12のいずれか1項に記載されたプログラム。  The program according to any one of claims 10 to 12, wherein encoding including orthogonal transformation is performed on a partial image generated using a minimum unit of encoding processing or a set thereof as a division unit. . 利用者の所望する視点位置の移動範囲を予測し、その範囲内の視点位置での画像生成に必要なパケットを選択することを特徴とする請求項10乃至請求項13のいずれか1項に記載されたプログラム。  The range of movement of a viewpoint position desired by a user is predicted, and a packet necessary for generating an image at a viewpoint position within the range is selected. Program. 前記請求項10乃至請求項14のいずれか1項に記載のプログラムを記録したことを特徴とするコンピュータ読み取り可能な記録媒体。  A computer-readable recording medium on which the program according to any one of claims 10 to 14 is recorded.
JP2002359168A 2002-12-11 2002-12-11 Arbitrary viewpoint image transmission method, apparatus for implementing the method, processing program therefor, and recording medium Expired - Lifetime JP4094942B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002359168A JP4094942B2 (en) 2002-12-11 2002-12-11 Arbitrary viewpoint image transmission method, apparatus for implementing the method, processing program therefor, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002359168A JP4094942B2 (en) 2002-12-11 2002-12-11 Arbitrary viewpoint image transmission method, apparatus for implementing the method, processing program therefor, and recording medium

Publications (2)

Publication Number Publication Date
JP2004193941A JP2004193941A (en) 2004-07-08
JP4094942B2 true JP4094942B2 (en) 2008-06-04

Family

ID=32758644

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002359168A Expired - Lifetime JP4094942B2 (en) 2002-12-11 2002-12-11 Arbitrary viewpoint image transmission method, apparatus for implementing the method, processing program therefor, and recording medium

Country Status (1)

Country Link
JP (1) JP4094942B2 (en)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100713415B1 (en) 2004-12-10 2007-05-04 삼성전자주식회사 Mobile phone modifying image view
JP5029062B2 (en) * 2007-02-26 2012-09-19 富士通株式会社 Multi-view video transmission system
JP2010183305A (en) * 2009-02-05 2010-08-19 Sony Corp System and method for signal processing
JP5449241B2 (en) * 2011-03-29 2014-03-19 日本電信電話株式会社 Video decoding apparatus, video transmission / reception apparatus, video decoding method, and video transmission / reception method
EP3520414A1 (en) * 2016-09-29 2019-08-07 Koninklijke Philips N.V. Image processing
JP6479062B2 (en) * 2017-02-06 2019-03-06 セコム株式会社 Data distribution system and data distribution method
JP7104504B2 (en) * 2017-10-18 2022-07-21 キヤノン株式会社 Image processing system, image processing device, image transmission method, and program
AU2019262147A1 (en) 2018-05-02 2020-12-10 Quidient, Llc A codec for processing scenes of almost unlimited detail
JP7403723B1 (en) 2023-03-31 2023-12-22 三菱電機株式会社 Image processing device, image processing method, and image processing program

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05130528A (en) * 1991-11-05 1993-05-25 Oki Electric Ind Co Ltd Visual point variable television system
JPH06125364A (en) * 1992-10-12 1994-05-06 Hitachi Ltd Connection device and method between lan and broad area network
JPH07336676A (en) * 1994-06-08 1995-12-22 Oki Electric Ind Co Ltd Image transmitter, image receiver, distributed image communication system and centralized image communication system
JPH0962861A (en) * 1995-08-21 1997-03-07 Matsushita Electric Ind Co Ltd Panoramic video device
JPH09261522A (en) * 1996-03-27 1997-10-03 Nippon Telegr & Teleph Corp <Ntt> Video image distribution method and system to obtain variable area
JPH09307893A (en) * 1996-05-17 1997-11-28 Canon Inc Image communication system, image communication equipment display device
JPH1079878A (en) * 1996-09-05 1998-03-24 Sharp Corp Still image-pickup device
JP3642923B2 (en) * 1996-11-14 2005-04-27 富士通株式会社 Video generation processing apparatus and structured data creation apparatus for creating structured data used in the apparatus
JPH10322680A (en) * 1997-05-16 1998-12-04 Nippon Telegr & Teleph Corp <Ntt> Chained multiple viewpoint video reproducing method
JPH11346214A (en) * 1998-06-02 1999-12-14 Nec Corp Multi-address distribution system
JP2000078614A (en) * 1998-09-02 2000-03-14 Sony Corp Picture recording device
JP2000078573A (en) * 1998-09-03 2000-03-14 Hitachi Ltd Hierarchical encoded data distribution device
JP3810943B2 (en) * 1999-05-06 2006-08-16 株式会社東芝 Image processing apparatus, image processing method, and recording medium recording image processing program
JP3550046B2 (en) * 1999-05-13 2004-08-04 日本電信電話株式会社 Camera image transmission method and camera image transmission system
CA2309459A1 (en) * 1999-06-10 2000-12-10 International Business Machines Corporation System for personalized field of view in a broadcast environment
JP3449541B2 (en) * 1999-12-22 2003-09-22 日本電気株式会社 Data packet transfer network and data packet transfer method
JP2001309342A (en) * 2000-04-25 2001-11-02 Nec Corp System and method for providing program
JP3791304B2 (en) * 2000-06-23 2006-06-28 株式会社日立製作所 Gateway device and multicast communication system
JP3269056B2 (en) * 2000-07-04 2002-03-25 松下電器産業株式会社 Monitoring system
JP2002077255A (en) * 2000-08-29 2002-03-15 Fujitsu Ltd Method for distributing image, and device for transmitting image and router device thereof
JP2002083286A (en) * 2000-09-06 2002-03-22 Telecommunication Advancement Organization Of Japan Method and device for generating avatar, and recording medium recorded with program therefor
JP2002135641A (en) * 2000-10-27 2002-05-10 Nippon Telegr & Teleph Corp <Ntt> Camera system of freely moving view point and visual line
JP4747410B2 (en) * 2000-11-10 2011-08-17 ソニー株式会社 Video switching display device and video switching display method
JP3951695B2 (en) * 2001-12-11 2007-08-01 ソニー株式会社 Image distribution system and method, image distribution apparatus and method, image reception apparatus and method, recording medium, and program

Also Published As

Publication number Publication date
JP2004193941A (en) 2004-07-08

Similar Documents

Publication Publication Date Title
Dai et al. A view synthesis-based 360° VR caching system over MEC-enabled C-RAN
JP4013286B2 (en) Image encoding device and image decoding device
Park et al. Volumetric media streaming for augmented reality
CN106464906B (en) Depth look-up table sender method in 3D Video coding based on high efficiency video encoding standard
CN108432202B (en) Method and system for optimized routing of data flows in a telecommunications network
Hamza et al. Adaptive streaming of interactive free viewpoint videos to heterogeneous clients
JP4094942B2 (en) Arbitrary viewpoint image transmission method, apparatus for implementing the method, processing program therefor, and recording medium
WO2013059301A1 (en) Distributed real-time video processing
Taleb et al. Extremely interactive and low-latency services in 5G and beyond mobile systems
Darabkh et al. Improving UDP performance using intermediate QoD‐aware hop system for wired/wireless multimedia communication systems
CN109040786A (en) Transmission method, device, system and the storage medium of camera data
JP2019050451A (en) Image processing apparatus and method for controlling the same, and program, and image processing system
Yoo et al. Real-time parallel remote rendering for mobile devices using graphics processing units
Ramanathan et al. Rate-distortion analysis for light field coding and streaming
JP2008061223A (en) Communication apparatus and communication control method
Chakareski In-network packet scheduling and rate allocation: a content delivery perspective
CN116134474A (en) Method and apparatus for performing rendering using delay-compensated gesture prediction with respect to three-dimensional media data in a communication system supporting mixed reality/augmented reality
CN116232984A (en) Routing method and system aiming at minimizing network end-to-end delay
Pan et al. 5g mobile edge assisted metaverse light field video system: Prototype design and empirical evaluation
Ravuri et al. Partially reliable transport layer for QUICker interactive Immersive media delivery
JP2019140483A (en) Image processing system, image processing system control method, transmission device, transmission method, and program
Ramanathan et al. Receiver-driven rate-distortion optimized streaming of light fields
JPH11161800A (en) Multiple viewpoint picture encoding/decoding device, multiple viewpoint picture encoding/decoding method and picture encoding/decoding device for three-dimensional object
Chang et al. Receiver-based rate-distortion optimized interactive streaming for scalable bitstreams of light fields
CN116668779B (en) Virtual reality view field distribution method, system, device, equipment and medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050124

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070911

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070925

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071126

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20071218

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080214

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080304

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080306

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110314

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110314

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120314

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130314

Year of fee payment: 5