JP2018191251A - Information processing system, information processing method, and program - Google Patents

Information processing system, information processing method, and program Download PDF

Info

Publication number
JP2018191251A
JP2018191251A JP2017094856A JP2017094856A JP2018191251A JP 2018191251 A JP2018191251 A JP 2018191251A JP 2017094856 A JP2017094856 A JP 2017094856A JP 2017094856 A JP2017094856 A JP 2017094856A JP 2018191251 A JP2018191251 A JP 2018191251A
Authority
JP
Japan
Prior art keywords
data
information processing
transmission target
target data
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017094856A
Other languages
Japanese (ja)
Other versions
JP6971624B2 (en
Inventor
孝之 小峰
Takayuki Komine
孝之 小峰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2017094856A priority Critical patent/JP6971624B2/en
Priority to US15/973,805 priority patent/US20180332291A1/en
Publication of JP2018191251A publication Critical patent/JP2018191251A/en
Application granted granted Critical
Publication of JP6971624B2 publication Critical patent/JP6971624B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • H04N19/15Data rate or code amount at the encoder output by monitoring actual compressed data size at the memory before deciding storage at the transmission buffer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • H04N21/234363Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements by altering the spatial resolution, e.g. for clients with a lower screen resolution
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/115Selection of the code volume for a coding unit prior to coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/218Source of audio or video content, e.g. local disk arrays
    • H04N21/21805Source of audio or video content, e.g. local disk arrays enabling multiple viewpoints, e.g. using a plurality of cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • H04N21/23439Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements for generating different versions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/24Monitoring of processes or resources, e.g. monitoring of server load, available bandwidth, upstream requests
    • H04N21/2402Monitoring of the downstream path of the transmission network, e.g. bandwidth available
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • H04N23/661Transmitting camera control signals through networks, e.g. control via the Internet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

PROBLEM TO BE SOLVED: To suppress shortage of a communication band for transmission of a captured image.SOLUTION: When there is a restriction in a communication band and it is required to select data to be transmitted, camera adapters 120a to 120z determine to transmit the selected data, and store unselected data. Thereafter, the camera adapters 120a to 120z transmit the stored data when the communication band is available.SELECTED DRAWING: Figure 1

Description

本発明は、情報処理システム、情報処理方法、およびプログラムに関するものである。   The present invention relates to an information processing system, an information processing method, and a program.

相互に異なる位置に設置された複数のカメラが同期して撮影を行い、当該撮影により得られる複数の視点で撮影された画像を用いて仮想視点コンテンツを生成する技術がある。かかる技術によれば、例えば、サッカーやバスケットボールのハイライトシーンを様々な角度から視聴することが出来るため、通常の画像と比較してユーザに高臨場感を与えることが出来る。   There is a technique in which a plurality of cameras installed at different positions perform shooting synchronously, and virtual viewpoint content is generated using images taken from a plurality of viewpoints obtained by the shooting. According to such a technique, for example, since a highlight scene of soccer or basketball can be viewed from various angles, it is possible to give the user a higher sense of realism than a normal image.

一方、複数の視点で撮影された画像に基づく仮想視点コンテンツの生成および閲覧を行う際には、まず、複数のカメラで撮影された画像をサーバ等の画像処理部に集約する。次に、画像処理部は、複数のカメラで撮影された画像を用いて、三次元モデルの生成と、レンダリング等の処理とを行うことにより仮想視点コンテンツを生成し、ユーザ端末に伝送する。   On the other hand, when generating and viewing virtual viewpoint content based on images taken from a plurality of viewpoints, first, images taken by a plurality of cameras are collected in an image processing unit such as a server. Next, the image processing unit generates a virtual viewpoint content by performing processing such as generation of a three-dimensional model and rendering using images taken by a plurality of cameras, and transmits the virtual viewpoint content to the user terminal.

複数のカメラで撮影された画像を集約する技術として、特許文献1に記載の技術がある。特許文献1には、次の技術が開示されている。即ち、複数のカメラを、当該カメラとペアとなる制御ユニットを介して光ファイバで相互に接続する。制御ユニットは、当該制御ユニットとペアとなるカメラで撮影された画像フレームを蓄積する。画像生成部は、各制御ユニットに蓄積された画像フレームを使って連続的な動きを表現する画像を出力する。   As a technique for aggregating images taken by a plurality of cameras, there is a technique described in Patent Document 1. Patent Document 1 discloses the following technique. That is, a plurality of cameras are connected to each other by an optical fiber via a control unit paired with the camera. The control unit accumulates image frames taken by a camera paired with the control unit. The image generation unit outputs an image expressing continuous motion using the image frames stored in each control unit.

米国特許第7106361号明細書US Pat. No. 7,106,361

仮想視点コンテンツの生成には、複数のカメラでそれぞれ撮影されたオブジェクトの画像が必要になる。従って、撮影対象となるオブジェクトが増えた場合、その数に応じてネットワークの伝送負荷が増加しうる。よって、各カメラで撮影された画像等のデータを伝送する際に、システムの状況により通信帯域が不足し、仮想視点コンテンツの生成に必要なデータの伝送ができない虞がある。
本発明は、このような問題点に鑑みてなされたものであり、撮影画像の伝送のための通信帯域が不足することを抑制することを目的とする。
To generate the virtual viewpoint content, images of objects photographed by a plurality of cameras are required. Therefore, when the number of objects to be imaged increases, the transmission load of the network can increase according to the number of objects. Therefore, when transmitting data such as images captured by each camera, there is a possibility that the communication band is insufficient depending on the system status, and data necessary for generating virtual viewpoint content cannot be transmitted.
The present invention has been made in view of such a problem, and an object thereof is to suppress a shortage of a communication band for transmitting a captured image.

本発明の情報処理システムは、撮影画像に含まれる被写体の画像を含むデータであって、外部装置に伝送する対象となるデータである伝送対象データを調整する調整手段と、前記調整手段により調整された前記伝送対象データを元の前記伝送対象データに近づけるためのデータを記憶媒体に記憶する記憶手段と、前記外部装置にデータを伝送する伝送手段と、を有し、前記伝送手段は、前記調整手段により調整された前記伝送対象データを伝送した後に、前記調整手段により調整された当該伝送対象データを元の当該伝送対象データに近づけるためのデータを伝送することを特徴とする。   An information processing system according to the present invention is an adjustment unit that adjusts transmission target data that is data including an image of a subject included in a captured image and that is to be transmitted to an external device, and is adjusted by the adjustment unit. Storage means for storing data for making the transmission target data close to the original transmission target data in a storage medium, and transmission means for transmitting the data to the external device, wherein the transmission means includes the adjustment After transmitting the transmission target data adjusted by the means, data for transmitting the transmission target data adjusted by the adjusting means to be close to the original transmission target data is transmitted.

本発明によれば、撮影画像の伝送のための通信帯域が不足することを抑制することが出来る。   ADVANTAGE OF THE INVENTION According to this invention, it can suppress that the communication band for transmission of a picked-up image is insufficient.

画像処理システムの構成を示す図である。It is a figure which shows the structure of an image processing system. カメラアダプタの構成を示す図である。It is a figure which shows the structure of a camera adapter. 画像処理システムの設置例を示す図である。It is a figure which shows the example of installation of an image processing system. カメラアダプタ間のデータの流れを示す図である。It is a figure which shows the flow of the data between camera adapters. データ選択処理部の処理を説明するフローチャートである。It is a flowchart explaining the process of a data selection process part. データ量の時間変化の第1の例を示す図である。It is a figure which shows the 1st example of the time change of data amount. データベースに送信されるデータの変化の第1の例を説明する図である。It is a figure explaining the 1st example of the change of the data transmitted to a database. データベースに送信されるデータの変化の第2の例を説明する図である。It is a figure explaining the 2nd example of the change of the data transmitted to a database. 図5のS5015の処理を説明するフローチャートである。It is a flowchart explaining the process of S5015 of FIG. データ量の時間変化の第2の例を示す図である。It is a figure which shows the 2nd example of the time change of data amount.

以下に図面を参照して、実施形態を詳細に説明する。
<第1の実施形態>
まず、第1の実施形態を説明する。
図1は、画像処理システム100の構成の一例を示す図である。本実施形態では、競技場(スタジアム)やコンサートホール等の施設に、複数のカメラおよび複数のマイクを設置する場合を例に挙げて説明する。画像処理システム100は、複数のカメラおよび複数のマイクを用いて、撮影および集音を行う。画像処理システム100は、センサシステム110a〜110z、画像コンピューティングサーバ200、コントローラ300、スイッチングハブ180、およびエンドユーザ端末190を有する。本実施形態では、例えば、画像処理システム100により情報処理システムの一例が実現される。
Hereinafter, embodiments will be described in detail with reference to the drawings.
<First Embodiment>
First, the first embodiment will be described.
FIG. 1 is a diagram illustrating an example of the configuration of the image processing system 100. In this embodiment, a case where a plurality of cameras and a plurality of microphones are installed in a facility such as a stadium (stadium) or a concert hall will be described as an example. The image processing system 100 performs shooting and sound collection using a plurality of cameras and a plurality of microphones. The image processing system 100 includes sensor systems 110a to 110z, an image computing server 200, a controller 300, a switching hub 180, and an end user terminal 190. In the present embodiment, for example, an example of an information processing system is realized by the image processing system 100.

コントローラ300は、制御ステーション310と仮想カメラ操作UI330とを有する。制御ステーション310は、画像処理システム100を構成するそれぞれのブロックに対して、ネットワーク310a〜310c、180a〜180b、170a〜170yを通じて、動作状態の管理およびパラメータの設定等を行う。ここで、ネットワークは、ローカルエリアネットワークでも良いし、インターコネクト(Infiniband等)を組み合せて構成されても良い。また、ネットワークは、これらに限定されず、他の種別のネットワークであっても良い。   The controller 300 includes a control station 310 and a virtual camera operation UI 330. The control station 310 performs operation state management, parameter setting, and the like through the networks 310 a to 310 c, 180 a to 180 b, and 170 a to 170 y for each block constituting the image processing system 100. Here, the network may be a local area network, or may be configured by combining interconnects (such as Infiniband). Further, the network is not limited to these, and may be another type of network.

最初に、センサシステム110a〜110zの26セットで得られる画像および音声を、センサシステム110zから画像コンピューティングサーバ200へ送信する動作の一例を説明する。本実施形態では、センサシステム110a〜110zがデイジーチェーンで相互に接続される場合を例に挙げて説明する。
本実施形態において、特別な説明がない場合には、センサシステム110a〜110zの26セットを区別せず、センサシステム110と記載する。各センサシステム110内の装置やネットワークについても同様に、特別な説明がない場合には、これらを区別せず、マイク111、カメラ112、雲台113、カメラアダプタ120、ネットワーク170と記載する。
First, an example of an operation for transmitting images and sounds obtained from 26 sets of the sensor systems 110a to 110z from the sensor system 110z to the image computing server 200 will be described. In the present embodiment, a case where the sensor systems 110a to 110z are connected to each other in a daisy chain will be described as an example.
In the present embodiment, when there is no special description, the 26 sets of the sensor systems 110a to 110z are not distinguished and are described as the sensor system 110. Similarly, devices and networks in each sensor system 110 are described as a microphone 111, a camera 112, a camera platform 113, a camera adapter 120, and a network 170, unless they are specially described, unless otherwise described.

尚、本実施形態では、センサシステム110の数を26セットとするが、これは一例であり、センサシステム110の数は26セットに限定されない。また、本実施形態では、特に断りがない限り、画像は、動画および静止画の概念を含むものとして説明する。即ち、本実施形態の画像処理システム100は、静止画および動画の何れについても処理することが可能である。また、本実施形態では、画像処理システム100により提供される仮想視点コンテンツに、仮想視点画像と仮想視点音声とが含まれる例を中心に説明する。しかしながら、仮想視点コンテンツは、これに限定されない。例えば、仮想視点コンテンツに音声が含まれていなくても良い。また、例えば、仮想視点コンテンツに含まれる音声が、仮想視点に最も近い位置にあるマイクにより集音された音声であっても良い。また、本実施形態では、説明の簡略化のため、部分的に音声についての詳細な説明を省略するが、基本的に音声は画像と共に処理されるものとする。   In the present embodiment, the number of sensor systems 110 is 26 sets, but this is an example, and the number of sensor systems 110 is not limited to 26 sets. In the present embodiment, unless otherwise specified, an image is described as including a concept of a moving image and a still image. That is, the image processing system 100 according to the present embodiment can process both still images and moving images. In the present embodiment, an example in which the virtual viewpoint content provided by the image processing system 100 includes a virtual viewpoint image and a virtual viewpoint sound will be mainly described. However, the virtual viewpoint content is not limited to this. For example, audio may not be included in the virtual viewpoint content. Further, for example, the sound included in the virtual viewpoint content may be a sound collected by a microphone located closest to the virtual viewpoint. Further, in the present embodiment, for the sake of simplification of explanation, detailed explanation of the sound is partially omitted, but the sound is basically processed together with the image.

センサシステム110a〜110zは、それぞれ1台ずつのカメラ112a〜112zを有する。即ち、画像処理システム100は、被写体を複数の方向から撮影するための複数のカメラを有する。複数のセンサシステム110同士は、デイジーチェーンで相互に接続される。
尚、複数のセンサシステム110の接続形態は、デイジーチェーンに限定されない。例えば、スター型のネットワークを用いて良い。スター型のネットワークを用いる場合、全てのセンサシステム110a〜110zがスイッチングハブ180に接続される。この場合、スイッチングハブ180を経由してセンサシステム110a〜110z間のデータ送受信が行われる。
Each of the sensor systems 110a to 110z includes one camera 112a to 112z. That is, the image processing system 100 includes a plurality of cameras for photographing the subject from a plurality of directions. The plurality of sensor systems 110 are connected to each other in a daisy chain.
The connection form of the plurality of sensor systems 110 is not limited to the daisy chain. For example, a star type network may be used. When a star network is used, all the sensor systems 110a to 110z are connected to the switching hub 180. In this case, data transmission / reception is performed between the sensor systems 110a to 110z via the switching hub 180.

また、図1では、デイジーチェーン接続となるようにセンサシステム110a〜110zの全てがカスケード接続される構成を示した。しかしながら、必ずしも、センサシステム110a〜110zの全てがカスケード接続される必要はない。例えば、複数のセンサシステム110を複数のグループに分割しても良い。このようにする場合、分割したグループ単位でデイジーチェーン接続となるようにセンサシステム110を接続しても良い。また、分割したグループ単位の終端となるカメラアダプタ120がスイッチングハブ180に接続し、スイッチングハブ180が、各カメラ112で撮影された画像を画像コンピューティングサーバ200に出力しても良い。このような構成は、画像処理システム100をスタジアムに適用する場合に特に有効である。例えば、スタジアムが複数のフロアを有し、フロア毎にセンサシステム110を配備する場合が考えられる。このような場合に前述した構成を採用すれば、例えば、フロア毎、或いは、スタジアムの半周毎に、カメラ112で撮影された画像を画像コンピューティングサーバ200へ入力することが出来る。従って、全てのセンサシステム110を1つのデイジーチェーンで接続する配線が困難な場所でも、センサシステム110の設置の簡便化と、システムの柔軟化とを図ることが出来る。   Further, FIG. 1 shows a configuration in which all of the sensor systems 110a to 110z are cascade-connected so as to be daisy chain connected. However, not all of the sensor systems 110a to 110z need be cascaded. For example, the plurality of sensor systems 110 may be divided into a plurality of groups. In this case, the sensor system 110 may be connected so as to be daisy chain connected in divided group units. Further, the camera adapter 120 that is the terminal of the divided group unit may be connected to the switching hub 180, and the switching hub 180 may output an image captured by each camera 112 to the image computing server 200. Such a configuration is particularly effective when the image processing system 100 is applied to a stadium. For example, a case where a stadium has a plurality of floors and the sensor system 110 is provided for each floor can be considered. If the above-described configuration is employed in such a case, for example, an image captured by the camera 112 can be input to the image computing server 200 for each floor or for each half of the stadium. Therefore, it is possible to simplify the installation of the sensor system 110 and make the system flexible even in a place where wiring for connecting all the sensor systems 110 with one daisy chain is difficult.

また、デイジーチェーンで接続されて画像コンピューティングサーバ200へ画像を出力するカメラアダプタ120が1つであるか2つ以上であるかに応じて、画像コンピューティングサーバ200での画像処理の制御が切り替えられる。即ち、センサシステム110が複数のグループに分割されているか否かに応じて、画像コンピューティングサーバ200での画像処理の制御が切り替えられる。画像コンピューティングサーバ200へ画像を出力するカメラアダプタ120が1つの場合、デイジーチェーンで接続されたセンサシステム110間で画像が伝送され、終端のカメラアダプタ120から画像コンピューティングサーバ200に画像が伝送される。そして、画像コンピューティングサーバ200で競技場の全周の画像が生成される。このため、画像コンピューティングサーバ200において競技場の全周の画像データが揃うタイミングは同期がとられている。即ち、センサシステム110がグループに分割されていなければ、画像コンピューティングサーバ200において必要な画像データが揃うタイミングの同期をとることが出来る。   Also, the control of image processing in the image computing server 200 is switched depending on whether the number of camera adapters 120 connected to each other in a daisy chain and outputting images to the image computing server 200 is one or more. It is done. That is, control of image processing in the image computing server 200 is switched depending on whether or not the sensor system 110 is divided into a plurality of groups. When there is one camera adapter 120 that outputs an image to the image computing server 200, an image is transmitted between the sensor systems 110 connected in a daisy chain, and an image is transmitted from the terminal camera adapter 120 to the image computing server 200. The Then, the image computing server 200 generates an image of the entire circumference of the stadium. For this reason, the timing at which the image data of the entire circumference of the stadium is gathered in the image computing server 200 is synchronized. That is, if the sensor system 110 is not divided into groups, the timing at which necessary image data is prepared in the image computing server 200 can be synchronized.

一方、画像コンピューティングサーバ200へ画像を出力するカメラアダプタ120が複数になる(センサシステム110がグループに分割される)場合、其々のデイジーチェーンのレーン(経路)によって、伝送時の画像データの遅延が異なる場合がある。そのため、画像コンピューティングサーバ200は、競技場の全周の画像データが揃うまで待って、各画像データの同期をとることによって、画像データの集結をチェックしながら後段の画像処理を行う必要がある。   On the other hand, when there are a plurality of camera adapters 120 that output images to the image computing server 200 (the sensor system 110 is divided into groups), the daisy chain lanes (routes) of the image data at the time of transmission The delay may be different. For this reason, the image computing server 200 needs to perform subsequent image processing while checking the concentration of the image data by waiting until the image data of the entire circumference of the stadium are gathered and synchronizing each image data. .

本実施形態では、センサシステム110aは、マイク111a、カメラ112a、雲台113a、およびカメラアダプタ120aを有する。尚、センサシステム110aの構成は、この構成に限定されない。センサシステム110aは、少なくとも1台のカメラアダプタ120aと、少なくとも1台のカメラ112aとを有していれば良い。例えば、センサシステム110aは、1台のカメラアダプタ120aと、複数のカメラ112aとで構成されても良いし、1台のカメラ112aと複数のカメラアダプタ120aとで構成されても良い。即ち、画像処理システム100内の少なくとも1つのカメラ112と少なくとも1つのカメラアダプタ120は、N対M(NとMは共に1以上の整数)で対応する。また、センサシステム110は、マイク111a、カメラ112a、雲台113a、およびカメラアダプタ120a以外の装置を含んでいても良い。また、カメラ112aとカメラアダプタ120aとが一体となって構成されていても良い。更に、カメラアダプタ120aの機能の少なくとも一部をフロントエンドサーバ230が有していても良い。本実施形態では、センサシステム110b〜110zの構成は、センサシステム110aの構成と同じであるので、センサシステム110b〜110zの詳細な説明を省略する。尚、センサシステム110b〜110zは、センサシステム110aと同じ構成に限定されず、其々のセンサシステム110が異なる構成でも良い。   In the present embodiment, the sensor system 110a includes a microphone 111a, a camera 112a, a pan head 113a, and a camera adapter 120a. Note that the configuration of the sensor system 110a is not limited to this configuration. The sensor system 110a only needs to include at least one camera adapter 120a and at least one camera 112a. For example, the sensor system 110a may be configured with one camera adapter 120a and a plurality of cameras 112a, or may be configured with one camera 112a and a plurality of camera adapters 120a. That is, at least one camera 112 and at least one camera adapter 120 in the image processing system 100 correspond to N to M (N and M are both integers of 1 or more). Further, the sensor system 110 may include devices other than the microphone 111a, the camera 112a, the pan head 113a, and the camera adapter 120a. Further, the camera 112a and the camera adapter 120a may be configured integrally. Furthermore, the front end server 230 may have at least a part of the functions of the camera adapter 120a. In the present embodiment, the configuration of the sensor systems 110b to 110z is the same as the configuration of the sensor system 110a, and thus a detailed description of the sensor systems 110b to 110z is omitted. The sensor systems 110b to 110z are not limited to the same configuration as the sensor system 110a, and may be configured differently.

カメラ112aにて撮影された画像は、カメラアダプタ120aにおいて後述の画像処理が施された後、ネットワーク170aを通してセンサシステム110bのカメラアダプタ120bに伝送される。マイク111aにて集音された音声も、ネットワーク170aを介してセンサシステム110bのカメラアダプタ120bに伝送される。センサシステム110bは、マイク111bにて集音された音声と、カメラ112bにて撮影された画像とを、センサシステム110aから取得した画像および音声と合わせてセンサシステム110cに伝送する。   An image photographed by the camera 112a is subjected to image processing described later in the camera adapter 120a, and then transmitted to the camera adapter 120b of the sensor system 110b through the network 170a. The sound collected by the microphone 111a is also transmitted to the camera adapter 120b of the sensor system 110b via the network 170a. The sensor system 110b transmits the sound collected by the microphone 111b and the image taken by the camera 112b to the sensor system 110c together with the image and sound acquired from the sensor system 110a.

センサシステム110c〜110zでも前述した動作を続ける。これにより、センサシステム110a〜110zで取得された画像および音声は、センサシステム110zからネットワーク180bを介してスイッチングハブ180に伝送され、スイッチングハブ180から画像コンピューティングサーバ200へ伝送される。
尚、本実施形態では、カメラ112a〜112zとカメラアダプタ120a〜120zとが分離された構成を例に挙げて示す。しかしながら、これらは、同一筺体で一体化されていても良い。その場合、マイク111a〜111zは、カメラアダプタ120a〜120zと一体化されたカメラ112a〜112zに内蔵されていても良いし、カメラ112a〜112zの外部に接続されていても良い。
The operation described above is continued in the sensor systems 110c to 110z. As a result, the images and sounds acquired by the sensor systems 110a to 110z are transmitted from the sensor system 110z to the switching hub 180 via the network 180b, and then transmitted from the switching hub 180 to the image computing server 200.
In the present embodiment, a configuration in which the cameras 112a to 112z and the camera adapters 120a to 120z are separated is described as an example. However, these may be integrated in the same casing. In that case, the microphones 111a to 111z may be built in the cameras 112a to 112z integrated with the camera adapters 120a to 120z, or may be connected to the outside of the cameras 112a to 112z.

次に、画像コンピューティングサーバ200の構成および動作の一例について説明する。本実施形態の画像コンピューティングサーバ200は、センサシステム110zから取得したデータの処理を行う。画像コンピューティングサーバ200は、フロントエンドサーバ230、データベース250、バックエンドサーバ270、およびタイムサーバ290を有する。   Next, an example of the configuration and operation of the image computing server 200 will be described. The image computing server 200 of this embodiment processes data acquired from the sensor system 110z. The image computing server 200 includes a front end server 230, a database 250, a back end server 270, and a time server 290.

タイムサーバ290は、時刻および同期信号を配信する機能を有する。タイムサーバ290は、スイッチングハブ180を介してセンサシステム110a〜110zに時刻および同期信号を配信する。時刻および同期信号を受信したカメラアダプタ120a〜120zは、時刻および同期信号に基づいてカメラ112a〜112zにより撮影された画像データをGenlockさせ画像データのフレーム同期を行う。即ち、タイムサーバ290は、複数のカメラ112a〜112zの撮影タイミングを同期させる。また、画像処理システム100は、複数のカメラ112a〜112zで撮影された画像データにタイムコード等の情報を付加することにより、同じタイミングで撮影された複数の撮影画像に基づいて仮想視点画像を生成することが出来る。このため、撮影タイミングのずれによる仮想視点画像の品質の低下を抑制することが出来る。尚、本実施形態では、タイムサーバ290が複数のカメラ112の時刻同期を管理するものとする。しかしながら、必ずしも、タイムサーバ290が複数のカメラ112の時刻同期を管理する必要はない。例えば、時刻同期のための処理を各カメラ112または各カメラアダプタ120が独立して行っても良い。   The time server 290 has a function of distributing time and synchronization signals. The time server 290 distributes the time and the synchronization signal to the sensor systems 110a to 110z via the switching hub 180. The camera adapters 120a to 120z that have received the time and the synchronization signal Genlock the image data photographed by the cameras 112a to 112z based on the time and the synchronization signal to perform frame synchronization of the image data. That is, the time server 290 synchronizes the shooting timings of the plurality of cameras 112a to 112z. Further, the image processing system 100 generates a virtual viewpoint image based on a plurality of photographed images photographed at the same timing by adding information such as a time code to image data photographed by the plurality of cameras 112a to 112z. I can do it. For this reason, it is possible to suppress a decrease in the quality of the virtual viewpoint image due to a shift in shooting timing. In the present embodiment, it is assumed that the time server 290 manages time synchronization of the plurality of cameras 112. However, the time server 290 does not necessarily have to manage time synchronization of the plurality of cameras 112. For example, each camera 112 or each camera adapter 120 may perform processing for time synchronization independently.

フロントエンドサーバ230は、センサシステム110zから取得した画像データおよび音声データから、セグメント化された伝送パケットを再構成してデータ形式を変換する。フロントエンドサーバ230は、データ形式を変換した画像データおよび音声データを、カメラの識別子、データ種別、およびフレーム番号等と関連付けてデータベース250に書き込む。   The front-end server 230 reconstructs a segmented transmission packet from the image data and audio data acquired from the sensor system 110z and converts the data format. The front-end server 230 writes the image data and audio data converted in data format in the database 250 in association with the camera identifier, data type, frame number, and the like.

データベース250は、センサシステム110zから取得した、各センサシステム110からの各画像データ(フレーム)および当該画像データの受信状況を状態管理テーブルで管理する。例えば、情報管理テーブルは、時刻毎およびカメラ112毎にフラグを記憶する。フロントエンドサーバ230は、各時刻と各カメラ112について、画像データが届いていなければ0、届いていれば1のフラグを立てる。また、情報管理テーブルは、所定の時間毎(例えば、1秒間)およびカメラ112毎にフラグを記憶するものでも良い。この場合、フロントエンドサーバ230は、所定の時間毎にカメラ112から全ての画像データが届いていれば1、届いていなければ0のフラグを立てる。   The database 250 manages each image data (frame) from each sensor system 110 acquired from the sensor system 110z and the reception status of the image data in a state management table. For example, the information management table stores a flag for each time and for each camera 112. The front-end server 230 sets a flag of 0 for each time and each camera 112 if the image data has not arrived and 1 if it has arrived. The information management table may store a flag for each predetermined time (for example, one second) and for each camera 112. In this case, the front-end server 230 sets a flag of 1 if all the image data has arrived from the camera 112 every predetermined time, and 0 if not.

バックエンドサーバ270は、仮想カメラ操作UI330から仮想的な視点の指定を受け付ける。バックエンドサーバ270は、仮想カメラ操作UI330から受け付けられた視点に基づいて、仮想カメラ操作UI330から受け付けられた視点に対応する画像データおよび音声データをデータベース250から読み出す。バックエンドサーバ270は、データベース250から読み出した画像データおよび音声データに対してレンダリング処理を行って仮想視点画像を生成する。このとき、データベース250は、バックエンドサーバ270からの読み出し要求に対して、状態管理テーブルに記憶されている受信状況に合わせてバックエンドサーバ270に画像データおよび音声データを提供する。   The back-end server 270 receives a virtual viewpoint designation from the virtual camera operation UI 330. The back-end server 270 reads image data and audio data corresponding to the viewpoint received from the virtual camera operation UI 330 from the database 250 based on the viewpoint received from the virtual camera operation UI 330. The back-end server 270 performs a rendering process on the image data and audio data read from the database 250 to generate a virtual viewpoint image. At this time, the database 250 provides image data and audio data to the back-end server 270 in response to a read request from the back-end server 270 in accordance with the reception status stored in the state management table.

レンダリング処理された仮想視点画像および仮想視点音声は、バックエンドサーバ270からエンドユーザ端末190に送信される。エンドユーザ端末190を操作するユーザは、視点の指定に応じた画像の閲覧および音声の視聴が出来る。即ち、バックエンドサーバ270は、複数のカメラ112により撮影された画像(複数の仮想視点画像)と仮想視点情報とに基づく仮想視点コンテンツを生成する。   The rendered virtual viewpoint image and virtual viewpoint sound are transmitted from the back-end server 270 to the end user terminal 190. A user who operates the end user terminal 190 can view an image and view audio according to the designation of the viewpoint. That is, the back-end server 270 generates virtual viewpoint content based on images (a plurality of virtual viewpoint images) taken by a plurality of cameras 112 and virtual viewpoint information.

本実施形態における仮想視点コンテンツは、仮想的な視点から被写体を撮影した場合に得られる画像としての仮想視点画像を含むコンテンツである。言い換えると、仮想視点画像は、仮想カメラ操作UI330により指定された視点における見えを表す画像であるとも言える。視点は、ユーザにより指定されても良いし、画像解析の結果等に基づいて自動的に指定されても良い。   The virtual viewpoint content in the present embodiment is content including a virtual viewpoint image as an image obtained when a subject is photographed from a virtual viewpoint. In other words, it can be said that the virtual viewpoint image is an image representing the appearance at the viewpoint designated by the virtual camera operation UI 330. The viewpoint may be specified by the user, or may be automatically specified based on the result of image analysis or the like.

また、バックエンドサーバ270は、仮想視点画像をH.264やHEVCに代表される標準技術により圧縮符号化したうえで、MPEG−DASHプロトコルを使ってエンドユーザ端末190へ送信しても良い。
このように、画像処理システム100は、映像収集ドメイン、データ保存ドメイン、および映像生成ドメインという3つの機能ドメインを有する。映像収集ドメインは、センサシステム110a〜110zを含む。データ保存ドメインは、データベース250、フロントエンドサーバ230、およびバックエンドサーバ270を含む。映像生成ドメインは、仮想カメラ操作UI330およびエンドユーザ端末190を含む。尚、画像処理システム100の構成は、このような構成に限定されない。例えば、仮想カメラ操作UI330が直接センサシステム110a〜110zから画像データを取得する事も可能である。しかしながら、本実施形態では、センサシステム110a〜110zから直接画像データを取得する方法ではなく、映像収集ドメインと映像生成ドメインとの間にデータ保存ドメインを配置する。具体的に、フロントエンドサーバ230は、センサシステム110a〜110zで生成された画像データ、音声データ、およびそれらのデータのメタ情報を、データベース250の共通スキーマおよびデータ型に変換する。
Further, the back-end server 270 converts the virtual viewpoint image into the H.264 format. The data may be compressed and encoded by a standard technique represented by H.264 or HEVC and then transmitted to the end user terminal 190 using the MPEG-DASH protocol.
As described above, the image processing system 100 has three functional domains: a video collection domain, a data storage domain, and a video generation domain. The video collection domain includes sensor systems 110a-110z. The data storage domain includes a database 250, a front end server 230, and a back end server 270. The video generation domain includes a virtual camera operation UI 330 and an end user terminal 190. Note that the configuration of the image processing system 100 is not limited to such a configuration. For example, the virtual camera operation UI 330 can directly acquire image data from the sensor systems 110a to 110z. However, in the present embodiment, a data storage domain is arranged between the video collection domain and the video generation domain, instead of a method of directly acquiring image data from the sensor systems 110a to 110z. Specifically, the front-end server 230 converts image data, audio data, and meta information of these data generated by the sensor systems 110a to 110z into a common schema and data type of the database 250.

また、本実施形態では、仮想カメラ操作UI330は、直接データベース250にアクセスせずにバックエンドサーバ270を介してアクセスする。画像生成処理に係わる共通処理をバックエンドサーバ270で行い、操作UIに係わるアプリケーションの差分部分の処理を仮想カメラ操作UI330で行う。このことにより、仮想カメラ操作UI330を開発する際に、UI(ユーザインターフェース)となる操作デバイスや、生成したい仮想視点画像を操作するUIの機能に対する開発に注力する事が出来る。また、バックエンドサーバ270は、仮想カメラ操作UI330からの要求に応じて画像生成処理に係わる共通処理を追加または削除することも可能である。このことによって仮想カメラ操作UI330からの要求に柔軟に対応することが出来る。   In the present embodiment, the virtual camera operation UI 330 is accessed via the back-end server 270 without directly accessing the database 250. Common processing related to the image generation processing is performed by the back-end server 270, and processing of the difference portion of the application related to the operation UI is performed by the virtual camera operation UI 330. As a result, when developing the virtual camera operation UI 330, it is possible to focus on development of an operation device serving as a UI (user interface) and a UI function for operating a virtual viewpoint image to be generated. Further, the back-end server 270 can add or delete common processing related to image generation processing in response to a request from the virtual camera operation UI 330. This makes it possible to flexibly respond to requests from the virtual camera operation UI 330.

このように、画像処理システム100においては、被写体を複数の方向から撮影するための複数のカメラ112により撮影された画像データに基づいて、バックエンドサーバ270により仮想視点画像が生成される。尚、本実施形態における画像処理システム100は、前述した物理的な構成に限定される訳ではなく、論理的に構成されていても良い。なお、画像処理システム100は、複数の装置により構成されても、1台の装置により構成されてもよい。   As described above, in the image processing system 100, the virtual viewpoint image is generated by the back-end server 270 based on the image data captured by the plurality of cameras 112 for capturing the subject from a plurality of directions. Note that the image processing system 100 in the present embodiment is not limited to the physical configuration described above, and may be logically configured. The image processing system 100 may be configured by a plurality of devices or a single device.

本実施形態では、例えば、カメラアダプタ120a〜120zを用いることにより、複数の情報処理装置の一例が実現される。また、仮想カメラ操作UI330は、被写体に対する視点を設定する。また、バックエンドサーバ270は、複数の方向から撮影された複数の撮影画像に含まれる被写体の領域の画像を用いて、仮想カメラ操作UI330により設定された視点から見た場合の当該被写体の画像を生成する。   In this embodiment, for example, an example of a plurality of information processing apparatuses is realized by using the camera adapters 120a to 120z. Further, the virtual camera operation UI 330 sets a viewpoint for the subject. Further, the back-end server 270 uses the image of the subject area included in the plurality of photographed images photographed from the plurality of directions, and displays the image of the subject when viewed from the viewpoint set by the virtual camera operation UI 330. Generate.

(カメラアダプタ)
次に、本実施形態におけるカメラアダプタ120の機能ブロックの一例について図2を利用して説明する。図2は、カメラアダプタ120の機能的な構成の一例を示す図である。尚、カメラアダプタ120の機能ブロック間でのデータの流れの詳細は図3を用いて後述する。
(Camera adapter)
Next, an example of functional blocks of the camera adapter 120 in the present embodiment will be described with reference to FIG. FIG. 2 is a diagram illustrating an example of a functional configuration of the camera adapter 120. Details of the data flow between the functional blocks of the camera adapter 120 will be described later with reference to FIG.

カメラアダプタ120は、ネットワークアダプタ6110、伝送部6120、画像処理部6130、および、外部機器制御部6140を有する。
ネットワークアダプタ6110は、データ送受信部6111および時刻制御部6112を有する。
データ送受信部6111は、ネットワーク170、291、310aを介して、他のカメラアダプタ120、フロントエンドサーバ230、タイムサーバ290、および制御ステーション310とデータ通信を行う。例えば、データ送受信部6111は、カメラ112により撮影された画像から前景背景分離部6131により分離された前景画像と背景画像とを、別のカメラアダプタ120に対して出力する。前景画像および背景画像の出力先となるカメラアダプタ120は、画像処理システム100内のカメラアダプタ120のうち、予め定められた順序において当該カメラアダプタ120の次の順序のカメラアダプタ120である。各カメラアダプタ120が前景画像と背景画像とを出力することで、複数の視点から撮影された前景画像と背景画像に基づいて仮想視点画像が生成される。尚、撮影画像から分離された前景画像を出力して背景画像は出力しないカメラアダプタ120が存在しても良い。また、前景画像と背景画像との分離は後述する画像コンピューティングサーバ200の内部で行っても良い。
The camera adapter 120 includes a network adapter 6110, a transmission unit 6120, an image processing unit 6130, and an external device control unit 6140.
The network adapter 6110 includes a data transmission / reception unit 6111 and a time control unit 6112.
The data transmission / reception unit 6111 performs data communication with other camera adapters 120, the front-end server 230, the time server 290, and the control station 310 via the networks 170, 291 and 310a. For example, the data transmission / reception unit 6111 outputs the foreground image and the background image separated by the foreground / background separation unit 6131 from the image taken by the camera 112 to another camera adapter 120. The camera adapter 120 that is the output destination of the foreground image and the background image is the camera adapter 120 in the next order of the camera adapter 120 in a predetermined order among the camera adapters 120 in the image processing system 100. Each camera adapter 120 outputs a foreground image and a background image, thereby generating a virtual viewpoint image based on the foreground image and the background image taken from a plurality of viewpoints. There may be a camera adapter 120 that outputs a foreground image separated from a captured image and does not output a background image. Further, the separation of the foreground image and the background image may be performed inside the image computing server 200 described later.

時刻制御部6112は、例えばIEEE1588規格のOrdinay Clockに準拠し、タイムサーバ290との間で送受信したデータのタイムスタンプを保存する機能と、タイムサーバ290と時刻同期を行う機能とを有する。尚、時刻同期のためのプロトコルは、IEEE1588に限定されず、例えば、他のEtherAVB規格や、独自のプロトコルでも良い。本実施形態では、ネットワークアダプタ6110としてNIC(Network Interface Card)を利用するが、ネットワークアダプタ6110は、NICに限定されず、他のInterfaceを利用しても良い。また、IEEE1588は、IEEE1588−2002、IEEE1588−2008のように標準規格として更新されている。後者は、PTPv2(Precision Time Protocol Version2)とも呼ばれる。   The time control unit 6112 is based on, for example, the IEEE 1588 standard Ordinary Clock, and has a function of storing a time stamp of data transmitted to and received from the time server 290 and a function of performing time synchronization with the time server 290. Note that the protocol for time synchronization is not limited to IEEE 1588. For example, another EtherAVB standard or a unique protocol may be used. In the present embodiment, a network interface card (NIC) is used as the network adapter 6110. However, the network adapter 6110 is not limited to the NIC, and other interfaces may be used. IEEE 1588 has been updated as a standard, such as IEEE 1588-2002 and IEEE 1588-2008. The latter is also called PTPv2 (Precision Time Protocol Version 2).

伝送部6120は、ネットワークアダプタ6110を介してスイッチングハブ180等に対するデータの伝送を制御する機能を有し、以下の機能部を有する。
時刻同期制御部6121は、IEEE1588規格のPTP(Precision Time Protocol)に準拠し、タイムサーバ290と時刻同期に係わる処理を行う機能を有する。尚、時刻同期を行うためのプロトコルは、PTPに限定されず、他の同様のプロトコルを利用して時刻同期を行っても良い。
The transmission unit 6120 has a function of controlling transmission of data to the switching hub 180 and the like via the network adapter 6110, and includes the following functional units.
The time synchronization control unit 6121 conforms to the IEEE 1588 standard PTP (Precision Time Protocol) and has a function of performing processing related to time synchronization with the time server 290. Note that the protocol for performing time synchronization is not limited to PTP, and time synchronization may be performed using other similar protocols.

画像・音声伝送処理部6122は、画像データおよび音声データを、データ送受信部6111を介して他のカメラアダプタ120またはフロントエンドサーバ230へ転送するためのメッセージを作成する機能を有する。メッセージには、画像データおよび音声データと、各データのメタ情報とが含まれる。本実施形態のメタ情報には、画像の撮影をした時および音声のサンプリングをした時のタイムコードまたはシーケンス番号と、データ種別と、カメラ112、マイク111の個体を示す識別子等が含まれる。また、画像・音声伝送処理部6122は、他のカメラアダプタ120からデータ送受信部6111を介してメッセージを受け取る。そして、画像・音声伝送処理部6122は、他のカメラアダプタ120から受け取ったメッセージに含まれるデータ種別に応じて、伝送プロトコルに規定されるパケットサイズにフラグメントされたデータ情報を画像データ、音声データに復元する。   The image / audio transmission processing unit 6122 has a function of creating a message for transferring image data and audio data to another camera adapter 120 or the front-end server 230 via the data transmission / reception unit 6111. The message includes image data and audio data, and meta information of each data. The meta information of this embodiment includes a time code or sequence number when an image is taken and when audio is sampled, a data type, an identifier indicating the individual of the camera 112 and the microphone 111, and the like. The image / sound transmission processing unit 6122 receives a message from another camera adapter 120 via the data transmission / reception unit 6111. Then, the image / audio transmission processing unit 6122 converts the data information fragmented into the packet size specified in the transmission protocol into image data and audio data according to the data type included in the message received from the other camera adapter 120. Restore.

帯域監視部6123は、自身が属するカメラアダプタ120よりもネットワーク170の上流から送信されるデータのデータ量を監視し、この結果を後述する画像処理部6130に通知する。
画像処理部6130は、カメラ制御部6141の制御によりカメラ112が撮影した画像データに対して処理を行う機能を有し、以下の機能部を有する。
The bandwidth monitoring unit 6123 monitors the amount of data transmitted from the upstream side of the network 170 rather than the camera adapter 120 to which it belongs, and notifies the image processing unit 6130 described later of the result.
The image processing unit 6130 has a function of processing image data captured by the camera 112 under the control of the camera control unit 6141, and includes the following functional units.

前景背景分離部6131は、カメラ112が撮影した画像データを前景画像と背景画像とに分離する機能を有する。即ち、前景背景分離部6131は、自身が属するカメラアダプタ120に対応するカメラ112により撮影された画像データから所定領域を抽出する。所定領域は、例えば、撮影画像に対するオブジェクトの検出結果として得られる前景画像の領域である。前景背景分離部6131は、この所定領域の抽出結果に基づいて、撮影画像を前景画像と背景画像とに分離する。尚、オブジェクトとは、例えば、人物などの被写体である。ただし、オブジェクトは、特定人物(選手、監督、及び/又は審判等)であっても良いし、ボールやゴール等、画像パターンが予め定められている物体であっても良い。また、オブジェクトとして、動体が検出されるようにしても良い。人物等の重要なオブジェクトを含む前景画像と、そのようなオブジェクトを含まない背景領域とを分離して処理することで、画像処理システム100において生成される仮想視点画像のオブジェクトに該当する部分の画像の品質を向上することが出来る。また、前景画像と背景画像との分離を複数のカメラアダプタ120それぞれが行うことで、複数のカメラ112を備えた画像処理システム100における負荷を分散させることが出来る。尚、所定領域は、前景画像に限定されず、例えば背景画像であっても良い。   The foreground / background separator 6131 has a function of separating image data captured by the camera 112 into a foreground image and a background image. That is, the foreground / background separation unit 6131 extracts a predetermined area from the image data photographed by the camera 112 corresponding to the camera adapter 120 to which the foreground / background separation unit 6131 belongs. The predetermined area is, for example, an area of the foreground image obtained as a result of object detection for the captured image. The foreground / background separator 6131 separates the captured image into a foreground image and a background image based on the extraction result of the predetermined area. Note that an object is, for example, a subject such as a person. However, the object may be a specific person (player, manager, and / or referee, etc.), or may be an object with a predetermined image pattern, such as a ball or a goal. A moving object may be detected as the object. An image of a portion corresponding to an object of a virtual viewpoint image generated in the image processing system 100 by separating and processing a foreground image including an important object such as a person and a background area not including such an object Quality can be improved. Further, the foreground image and the background image are separated by each of the plurality of camera adapters 120, whereby the load on the image processing system 100 including the plurality of cameras 112 can be distributed. The predetermined area is not limited to the foreground image, and may be a background image, for example.

データ選択処理部6132は、前景背景分離部6131で分離された前景画像および背景画像のデータ量を計測する。データ選択処理部6132は、この計測したデータ量と、自身が属するカメラアダプタ120よりも上流のネットワーク170から送信されるデータのデータ量との和が所定のデータ量を超えるか否かを判定する。尚、自身が属するカメラアダプタ120よりも上流のネットワークから送信されるデータのデータ量は、帯域監視部6123から通知される。   The data selection processing unit 6132 measures the data amount of the foreground image and the background image separated by the foreground / background separation unit 6131. The data selection processing unit 6132 determines whether or not the sum of the measured data amount and the data amount of data transmitted from the network 170 upstream of the camera adapter 120 to which the data selection unit 6 belongs exceeds a predetermined data amount. . Note that the bandwidth monitoring unit 6123 notifies the data amount of data transmitted from a network upstream from the camera adapter 120 to which the camera adapter 120 belongs.

この判定の結果、このデータ量が所定のデータ量を超える場合、データ選択処理部6132は、このデータ量を当該所定のデータ量以下に制限する。そのために、まず、データ選択処理部6132は、前景背景分離部6131で分離された前景画像および背景画像から、送信するデータを選択する。そして、データ選択処理部6132は、この選択したデータを伝送部6120へ送ると共に、送信しなかったデータを記憶部6133へ送る。一方、このデータ量が所定のデータ量を超えない場合、データ選択処理部6132は、記憶部6133に記憶されているデータを読み出し、これを加えて伝送部6120へ送る。データ選択処理部6132の処理の詳細に関しては後述する。   As a result of this determination, when the data amount exceeds the predetermined data amount, the data selection processing unit 6132 limits the data amount to the predetermined data amount or less. For this purpose, first, the data selection processing unit 6132 selects data to be transmitted from the foreground image and background image separated by the foreground / background separation unit 6131. Then, the data selection processing unit 6132 sends the selected data to the transmission unit 6120 and sends data that has not been sent to the storage unit 6133. On the other hand, when the data amount does not exceed the predetermined data amount, the data selection processing unit 6132 reads out the data stored in the storage unit 6133, adds it, and sends it to the transmission unit 6120. Details of the processing of the data selection processing unit 6132 will be described later.

外部機器制御部6140は、カメラアダプタ120に接続される機器を制御する機能を有し、以下の機能部を有する。
カメラ制御部6141は、カメラ112と接続し、カメラ112の制御、カメラ112で撮影された画像データの取得、同期信号の提供、および時刻設定等を行う機能を有する。
The external device control unit 6140 has a function of controlling devices connected to the camera adapter 120, and includes the following functional units.
The camera control unit 6141 is connected to the camera 112 and has functions of controlling the camera 112, obtaining image data captured by the camera 112, providing a synchronization signal, and setting a time.

カメラ112の制御には、例えば、撮影パラメータ(画素数、色深度、フレームレート、およびホワイトバランスの設定等)の設定および参照が含まれる。さらに、カメラ112の制御には、カメラ112の状態(撮影中、停止中、同期中、およびエラー等)の取得と、撮影の開始および停止と、ピント調整等が含まれる。
同期信号の提供は、時刻同期制御部6121で得られる、タイムサーバ290と同期した時刻を利用し、撮影タイミング(制御クロック)をカメラ112に提供することで行われる。
時刻設定は、時刻同期制御部6121で得られる、タイムサーバ290と同期した時刻を、例えばSMPTE12Mのフォーマットに準拠したタイムコードで提供することで行われる。これにより、カメラ112から受け取る画像データに、カメラ制御部6141から提供されるタイムコードが付与されることになる。尚、タイムコードのフォーマットはSMPTE12Mに限定されず、他のフォーマットであっても良い。また、カメラ制御部6141は、カメラ112に対するタイムコードの提供をせず、カメラ112から受け取った画像データに自身がタイムコードを付与しても良い。
The control of the camera 112 includes, for example, setting and reference of shooting parameters (such as setting of the number of pixels, color depth, frame rate, and white balance). Furthermore, the control of the camera 112 includes acquisition of the state of the camera 112 (during shooting, stop, synchronization, error, etc.), start and stop of shooting, and focus adjustment.
The synchronization signal is provided by providing the camera 112 with a photographing timing (control clock) using a time synchronized with the time server 290 obtained by the time synchronization control unit 6121.
The time setting is performed by providing the time synchronized with the time server 290 obtained by the time synchronization control unit 6121 using a time code conforming to the format of SMPTE12M, for example. As a result, the time code provided from the camera control unit 6141 is added to the image data received from the camera 112. Note that the format of the time code is not limited to SMPTE12M, and other formats may be used. Further, the camera control unit 6141 may provide the time code to the image data received from the camera 112 without providing the time code to the camera 112.

マイク制御部6142は、マイク111と接続し、マイク111の制御と、マイク111での収音の開始および停止と、マイク111で収音された音声データの取得等を行う機能を有する。
雲台制御部6143は、雲台113と接続し、雲台113の制御を行う機能を有する。雲台113の制御には、例えば、パン・チルト制御や、雲台113の状態の取得等が含まれる。
本実施形態の画像処理システム100においては、前景画像および背景画像が、デイジーチェーンで接続された複数のカメラアダプタ120間を伝送してフロントエンドサーバ230に入力される。ここで、撮影画像内で前景領域が極端に多くなる場合には、伝送される前景画像のデータ量が膨大になる。
The microphone control unit 6142 is connected to the microphone 111 and has a function of controlling the microphone 111, starting and stopping sound collection by the microphone 111, obtaining audio data collected by the microphone 111, and the like.
The pan head control unit 6143 is connected to the pan head 113 and has a function of controlling the pan head 113. The control of the pan head 113 includes, for example, pan / tilt control, acquisition of the state of the pan head 113, and the like.
In the image processing system 100 of the present embodiment, the foreground image and the background image are transmitted between the plurality of camera adapters 120 connected in a daisy chain and input to the front end server 230. Here, when the foreground area is extremely large in the captured image, the amount of data of the foreground image to be transmitted becomes enormous.

本実施形態の画像処理システム100をサッカースタジアムに設置した例を、図3を用いて説明する。図3において、カメラアダプタ120をデイジーチェーンで接続するネットワーク170は、ネットワーク170A、170Bの2系統に分けられる。それぞれのネットワーク170A、170Bに接続されたカメラアダプタ120に対応するカメラ112は、それぞれのゴール前をカバーするように注目領域3010Aまたは3010Bを撮影するように設置される。図3に示す例では、それぞれの注目領域3010A、3010Bに対して、画像処理システム100が1つずつ設置される。サッカー等の団体スポーツの性格として、ボール3020のあるサイドに位置するプレーヤの数は多くなる。このことから、ボール3020のあるサイドの注目領域3010Aを撮影しているセンサシステム110では、前景画像となるオブジェクトが多くなり、送信するデータのデータ量は増加する。一方、ボール3020のないサイドに位置するプレーヤの数は少なくなる。このことから、ボールのないサイドの注目領域3010Bを撮影しているセンサシステム110では、前景画像となるオブジェクトが少なくなり、送信するデータのデータ量は減少する。注目領域内の選手の数が増えた場合、当該注目領域を撮影するセンサシステム110から出力されるデータのデータ量は増加する。このため、センサシステム110がこのままデータを送信すると、デイジーチェーンで接続されたネットワーク170の下流に接続されたセンサシステム110では、上流から送信されるデータで通信帯域が飽和してしまい、データを送信できない状態となる。   An example in which the image processing system 100 of this embodiment is installed in a soccer stadium will be described with reference to FIG. In FIG. 3, the network 170 that connects the camera adapters 120 in a daisy chain is divided into two systems, networks 170A and 170B. The cameras 112 corresponding to the camera adapters 120 connected to the respective networks 170A and 170B are installed so as to capture the attention area 3010A or 3010B so as to cover the front of each goal. In the example shown in FIG. 3, one image processing system 100 is installed for each of the attention areas 3010A and 3010B. As a characteristic of group sports such as soccer, the number of players located on the side where the ball 3020 is located increases. For this reason, in the sensor system 110 that captures the attention area 3010A on the side where the ball 3020 is located, the number of objects that become foreground images increases, and the amount of data to be transmitted increases. On the other hand, the number of players located on the side without the ball 3020 is reduced. For this reason, in the sensor system 110 that captures the attention area 3010B on the side without the ball, the number of objects that become foreground images decreases, and the amount of data to be transmitted decreases. When the number of players in the attention area increases, the amount of data output from the sensor system 110 that captures the attention area increases. For this reason, when the sensor system 110 transmits data as it is, the sensor system 110 connected downstream of the network 170 connected in a daisy chain saturates the communication band with the data transmitted from the upstream, and transmits the data. It becomes impossible.

そこで、本実施形態では、注目領域に選手が集まり、センサシステム110から出力されるデータのデータ量が増加した場合に、デイジーチェーンで伝送されるデータのデータ量が予め設定された伝送帯域を超過しないようにする。例えば、センサシステム110毎に送信可能な帯域を割り当てることにより、データ量が予め設定された伝送帯域を超過しないようにする。このようにする方法の一例を、図4および図5を用いて説明する。
図4は、カメラアダプタ120a、120bおよび120c間のデータの流れの一例を示す図である。カメラアダプタ120aとカメラアダプタ120bとが相互に接続され、カメラアダプタ120bとカメラアダプタ120cとが相互に接続される。また、カメラアダプタ120bにはカメラ112bが接続されており、カメラアダプタ120cは、フロントエンドサーバ230と相互に接続される。以下に、カメラアダプタ120bの画像処理部6130のデータ出力処理の一例を説明する。
Therefore, in this embodiment, when players gather in the attention area and the amount of data output from the sensor system 110 increases, the amount of data transmitted in the daisy chain exceeds the preset transmission band. Do not. For example, by assigning a transmittable band for each sensor system 110, the amount of data is prevented from exceeding a preset transmission band. An example of this method will be described with reference to FIGS.
FIG. 4 is a diagram illustrating an example of a data flow between the camera adapters 120a, 120b, and 120c. The camera adapter 120a and the camera adapter 120b are connected to each other, and the camera adapter 120b and the camera adapter 120c are connected to each other. A camera 112b is connected to the camera adapter 120b, and the camera adapter 120c is connected to the front-end server 230. Hereinafter, an example of data output processing of the image processing unit 6130 of the camera adapter 120b will be described.

カメラアダプタ120bの伝送部6120には、カメラ112bで撮影された画像データ6720に対して画像処理部6130で画像処理およびデータ量の調整が行われたデータと、カメラアダプタ120aから送信されたデータ6721とが入力される。また、伝送部6120には、画像データ6720に対するタイムコードを含むメタ情報が入力される。伝送部6120は、入力された画像データやメタ情報に対して、パケット化等の処理を行って、当該処理を行ったデータをネットワークアダプタ6110に出力する。   The transmission unit 6120 of the camera adapter 120b includes data obtained by performing image processing and data amount adjustment on the image data 6720 captured by the camera 112b and data 6721 transmitted from the camera adapter 120a. Are entered. In addition, meta information including a time code for the image data 6720 is input to the transmission unit 6120. The transmission unit 6120 performs processing such as packetization on the input image data and meta information, and outputs the processed data to the network adapter 6110.

図4に示すカメラ112bで撮影された画像データ6720は、当該情報処理装置に接続される撮影装置により撮影された撮影画像に含まれる被写体の画像を含むデータの一例である。また、例えば、カメラアダプタ120aにより、予め決められた順序において当該情報処理装置の1つ前の順序になる前記情報処理装置の一例が実現される。また、例えば、カメラアダプタ120aから送信されたデータ6721により、予め決められた順序において当該情報処理装置の1つ前の順序になる前記情報処理装置から伝送された被写体の画像を含むデータの一例が実現される。また、例えば、カメラアダプタ120cにより、予め決められた順序において当該情報処理装置の次の順序になる前記情報処理装置の一例が実現される。   Image data 6720 photographed by the camera 112b illustrated in FIG. 4 is an example of data including an image of a subject included in a photographed image photographed by a photographing apparatus connected to the information processing apparatus. In addition, for example, the camera adapter 120a realizes an example of the information processing apparatus that is in the order immediately preceding the information processing apparatus in a predetermined order. In addition, for example, an example of data including an image of a subject transmitted from the information processing apparatus that is in the order immediately preceding the information processing apparatus in a predetermined order based on the data 6721 transmitted from the camera adapter 120a. Realized. In addition, for example, the camera adapter 120c realizes an example of the information processing apparatus that becomes the next order of the information processing apparatus in a predetermined order.

次に、図5のフローチャートを参照しながら、カメラアダプタ120bから出力するデータを選択する際のデータ選択処理部6132の処理の一例を説明する。図5のフローチャートは、カメラアダプタ120bから出力するデータ毎に繰り返し実行される。
データ選択処理部6132は、前景背景分離部6131から出力されるデータのデータ量を取得する(S5001)。次に、データ選択処理部6132は、カメラアダプタ120aから送信されるデータ6721のデータ量を帯域監視部6123から取得する(S5002)。次に、データ選択処理部6132は、S5001、S5002で取得したデータ量に基づいて、カメラアダプタ120cへ出力するデータのデータ量を導出する(S5003)。
Next, an example of processing of the data selection processing unit 6132 when selecting data to be output from the camera adapter 120b will be described with reference to the flowchart of FIG. The flowchart of FIG. 5 is repeatedly executed for each data output from the camera adapter 120b.
The data selection processing unit 6132 acquires the amount of data output from the foreground / background separation unit 6131 (S5001). Next, the data selection processing unit 6132 acquires the data amount of the data 6721 transmitted from the camera adapter 120a from the bandwidth monitoring unit 6123 (S5002). Next, the data selection processing unit 6132 derives the data amount of data to be output to the camera adapter 120c based on the data amount acquired in S5001 and S5002 (S5003).

本実施形態では、データ選択処理部6132は、S5001、S5002において、撮影画像に含まれる被写体の画像を含むデータであって、外部装置に伝送する対象となるデータである伝送対象データのデータ量を取得する。伝送対象データは、例えば、前景背景分離部6131から出力されるデータと、カメラアダプタ120aから送信されるデータ6721とである。   In the present embodiment, the data selection processing unit 6132 determines the data amount of the transmission target data that is data including the image of the subject included in the photographed image and to be transmitted to the external device in S5001 and S5002. get. The transmission target data is, for example, data output from the foreground / background separation unit 6131 and data 6721 transmitted from the camera adapter 120a.

次に、データ選択処理部6132は、S5003で導出されたデータ量と、予め指定された伝送帯域制約量とを比較し、伝送可能性を確認する。具体的にデータ選択処理部6132は、伝送部6120へ出力するデータ量が予め指定された伝送帯域制約量を超えるか否かを判定する(S5004)。尚、S5003で導出されたデータ量と、予め指定された伝送帯域制約量との比較はデータ種別毎(ここでは、例えば、前景画像、背景画像)に行っても良い。
本実施形態では、データ選択処理部6132は、S500において、前記伝送対象データのデータ量が閾値を超えるか否かを判定する。また、S5004でYesの場合が、前記伝送対象データのデータ量が閾値を超える場合の一例であり、S5004でNoの場合が、前記伝送対象データのデータ量が閾値を超えない場合の一例である。また、例えば、伝送帯域制約量により、閾値の一例が実現される。
Next, the data selection processing unit 6132 compares the data amount derived in S5003 with the transmission band restriction amount specified in advance, and confirms the transmission possibility. Specifically, the data selection processing unit 6132 determines whether or not the amount of data to be output to the transmission unit 6120 exceeds a transmission band restriction amount specified in advance (S5004). Note that the comparison between the data amount derived in S5003 and the transmission bandwidth restriction amount specified in advance may be performed for each data type (here, foreground image, background image, for example).
In the present embodiment, the data selection processing unit 6132 determines in S500 whether the data amount of the transmission target data exceeds a threshold value. The case of Yes in S5004 is an example when the data amount of the transmission target data exceeds a threshold value, and the case of No in S5004 is an example of the case where the data amount of the transmission target data does not exceed the threshold value. . Further, for example, an example of a threshold value is realized by a transmission band restriction amount.

S5004の判定の結果、S5003で導出されたデータ量が、予め指定された伝送帯域制約量を超える場合(S5004でYesの場合)、データ選択処理部6132は、出力データ量オーバ時の処理方法の選択設定を取得する(S5005)。この選択設定は、コントローラ300から設定されても良い。また、選択設定は、対象とするエンドユーザ端末190の種別や、競技の種別によって決定されても良い。例えば、エンドユーザ端末190の種別が、解像度の低い種別であれば解像度を落とす処理が選択設定として決定される。データ選択処理部6132は、S5005で取得した出力データ量オーバ時の処理方法の選択設定に基づいて、以下で説明する複数の処理の何れかを選択する(S5006)。   As a result of the determination in S5004, when the amount of data derived in S5003 exceeds the transmission bandwidth constraint amount specified in advance (in the case of Yes in S5004), the data selection processing unit 6132 sets the processing method when the output data amount exceeds The selection setting is acquired (S5005). This selection setting may be set from the controller 300. In addition, the selection setting may be determined according to the type of the target end user terminal 190 or the type of competition. For example, if the type of the end user terminal 190 is a type with a low resolution, a process for reducing the resolution is determined as the selection setting. The data selection processing unit 6132 selects one of a plurality of processes described below based on the selection setting of the processing method when the output data amount exceeds that acquired in S5005 (S5006).

選択設定が、フレームレートを落とす設定を示す場合、データ選択処理部6132は、画像データを出力するフレームレートを落として伝送部6120に出力する処理を行う(S5007)。この処理では、前景画像と背景画像とを含むフレームを間引いて伝送することによりデータ量が削減される。伝送部6120は、ネットワークアダプタ6110を介して、S5007で処理されたデータの送信を行う。そして、データ選択処理部6132は、間引かれたフレームのデータを、メタ情報と共に、記憶部6133に記憶する(S5008)。   When the selection setting indicates a setting for reducing the frame rate, the data selection processing unit 6132 performs processing for reducing the frame rate for outputting the image data and outputting it to the transmission unit 6120 (S5007). In this process, the data amount is reduced by thinning and transmitting frames including the foreground image and the background image. The transmission unit 6120 transmits the data processed in S5007 via the network adapter 6110. Then, the data selection processing unit 6132 stores the thinned frame data together with the meta information in the storage unit 6133 (S5008).

選択設定が、解像度を落とす設定を示す場合、データ選択処理部6132は、画像データの解像度を落として伝送部6120に出力する処理を行う(S5009)。伝送部6120は、ネットワークアダプタ6110を介して、S5009で処理されたデータの送信を行う。そして、データ選択処理部6132は、解像度を落とす前の画像データと解像度を落とした画像データとの差分をメタ情報と共に記憶部6133に記憶する(S5010)。
選択設定が、圧縮処理を行う設定を示す場合、データ選択処理部6132は、画像データに対して圧縮処理を行って伝送部6120に出力する処理を行う(S5011)。伝送部6120は、ネットワークアダプタ6110を介して、S5011で処理されたデータの送信を行う。データ選択処理部6132は、通常は可逆圧縮を行い画像データのデータ量を削減するが、S5003で導出されたデータ量が、予め指定された伝送帯域制約量を超える場合、圧縮率を上げるために非可逆圧縮に切り替えてデータ量を削減する。非可逆圧縮が行われた場合、データ選択処理部6132は、元画像に復元するための情報(例えば非圧縮画像)をメタ情報と共に記憶部6133に記憶する(S5012)。元画像に復元するための情報はこれに限定されず、非可逆圧縮を行った結果、その劣化を補正するデータを符号化した情報でも構わない。また、データ選択処理部6132は、可逆圧縮した画像を記憶部6133に記憶しても良い。
When the selection setting indicates a setting for reducing the resolution, the data selection processing unit 6132 performs a process of reducing the resolution of the image data and outputting it to the transmission unit 6120 (S5009). The transmission unit 6120 transmits the data processed in S5009 via the network adapter 6110. Then, the data selection processing unit 6132 stores the difference between the image data before the resolution is lowered and the image data after the resolution is lowered in the storage unit 6133 together with the meta information (S5010).
When the selection setting indicates a setting for performing compression processing, the data selection processing unit 6132 performs processing for compressing the image data and outputting it to the transmission unit 6120 (S5011). The transmission unit 6120 transmits the data processed in S5011 via the network adapter 6110. The data selection processing unit 6132 normally performs lossless compression to reduce the data amount of the image data. However, when the data amount derived in S5003 exceeds the transmission bandwidth constraint amount specified in advance, in order to increase the compression rate. Switch to lossy compression to reduce the amount of data. When the lossy compression is performed, the data selection processing unit 6132 stores information (for example, an uncompressed image) for restoring the original image in the storage unit 6133 together with the meta information (S5012). The information for restoring the original image is not limited to this, and may be information obtained by encoding data for correcting the deterioration as a result of irreversible compression. The data selection processing unit 6132 may store the reversibly compressed image in the storage unit 6133.

選択設定が、重要度の高い画像データを選択する設定を示す場合、データ選択処理部6132は、次の処理を行う。即ち、データ選択処理部6132は、前景画像および背景画像の重要度に応じて、送信する前景画像および背景画像の少なくとも何れか一方を選択してメタ情報と共に伝送部6120に出力する処理を行う(S5013)。伝送部6120は、ネットワークアダプタ6110を介して、S5013で処理されたデータの送信を行う。そして、データ選択処理部6132は、S5013で選択しなかった前景画像・背景画像の画像データをメタ情報と共に記憶部6133に記憶する(S5014)。   When the selection setting indicates a setting for selecting image data with high importance, the data selection processing unit 6132 performs the following processing. That is, the data selection processing unit 6132 performs processing for selecting at least one of the foreground image and the background image to be transmitted according to the importance of the foreground image and the background image and outputting the selected image together with the meta information to the transmission unit 6120 ( S5013). The transmission unit 6120 transmits the data processed in S5013 via the network adapter 6110. Then, the data selection processing unit 6132 stores the image data of the foreground image / background image not selected in S5013 in the storage unit 6133 together with the meta information (S5014).

本実施形態では、データ選択処理部6132は、S5007、S5009、S5011、S5013において、前記伝送対象データを調整する。また、S5007、S5009、S5013において、前記伝送対象データから、前記外部装置に伝送するデータが選択される。また、例えば、S5007、S5009、S5013が、それぞれ、フレームの単位、画素の単位、オブジェクトに基づいて定まる領域の単位で、前記伝送対象データから、前記外部装置に伝送するデータを選択することの一例である。オブジェクトに基づいて定まる領域は、例えば、前景画像、背景画像の領域に対応する。また、例えば、S5011が、前記伝送対象データを圧縮することの一例である。また、本実施形態では、データ選択処理部613は、S5008、S5010、S5012、S5014において、調整された前記伝送対象データを元の前記伝送対象データに近づけるためのデータを記憶する。   In the present embodiment, the data selection processing unit 6132 adjusts the transmission target data in S5007, S5009, S5011, and S5013. In S5007, S5009, and S5013, data to be transmitted to the external device is selected from the transmission target data. Also, for example, examples where S5007, S5009, and S5013 select data to be transmitted to the external device from the transmission target data in units of frames, pixels, and regions determined based on objects, respectively. It is. The regions determined based on the objects correspond to, for example, foreground image and background image regions. Further, for example, S5011 is an example of compressing the transmission target data. In this embodiment, the data selection processing unit 613 stores data for bringing the adjusted transmission target data closer to the original transmission target data in S5008, S5010, S5012, and S5014.

データ選択処理部6132での処理および記憶部6133に記憶するデータは、前述した例に限定されない。例えば、データ選択処理部6132は、予め指定されたデータ量の閾値N内に、送信するデータ量に抑える選択処理を行い、送信したデータを選択前のデータに復元可能な、またはできるだけ復元可能なデータを、メタ情報と共に記憶部6133に記憶すれば良い。また、データ選択処理部6132は、送信したデータを使用して復元が不可能な場合には、元のデータの全てを記憶部6133に記憶しても良い。   The processing in the data selection processing unit 6132 and the data stored in the storage unit 6133 are not limited to the example described above. For example, the data selection processing unit 6132 performs a selection process that suppresses the amount of data to be transmitted within a threshold value N of a data amount that is specified in advance, and the transmitted data can be restored to the data before selection or can be restored as much as possible. The data may be stored in the storage unit 6133 together with the meta information. In addition, the data selection processing unit 6132 may store all of the original data in the storage unit 6133 when restoration using the transmitted data is impossible.

一方、S5003で導出されたデータ量が、予め指定された伝送帯域制約量を超えない場合(S5004でNoの場合)、データ選択処理部6132は、次の処理を行う。即ち、データ選択処理部6132は、S5003で導出されたデータ量と、予め指定された伝送帯域制約量との差に収まるデータを記憶部6133から読み出す(S5015)。そして、データ選択処理部6132は、伝送部6120に読み出したデータを出力する。伝送部6120は、ネットワークアダプタ6110を介して、S5015で読み出されたデータと、伝送帯域制約量を超えないデータ(S5001、S5002でデータ量が取得されたデータ)の送信を行う。   On the other hand, when the data amount derived in S5003 does not exceed the transmission bandwidth restriction amount specified in advance (No in S5004), the data selection processing unit 6132 performs the following processing. In other words, the data selection processing unit 6132 reads out from the storage unit 6133 data that falls within the difference between the data amount derived in S5003 and the transmission bandwidth constraint amount specified in advance (S5015). Then, the data selection processing unit 6132 outputs the read data to the transmission unit 6120. The transmission unit 6120 transmits, via the network adapter 6110, the data read in S5015 and the data that does not exceed the transmission bandwidth restriction amount (data whose data amount has been acquired in S5001 and S5002).

本実施形態では、例えば、伝送部6120およびネットワークアダプタ6110は、S5015において、調整された前記伝送対象データを伝送した後に、調整された当該伝送対象データを元の当該伝送対象データに近づけるためのデータを伝送する。   In the present embodiment, for example, the transmission unit 6120 and the network adapter 6110 transmit the adjusted transmission target data in S5015, and then make the adjusted transmission target data close to the original transmission target data. Is transmitted.

図6は、データ量の時間変化の一例を示す図である。具体的に図6は、前景背景分離部6131から出力されるデータのデータ量と、ネットワークの上流から送信されるデータのデータ量とを加えた値の時間変化の一例を示す図である。図6では、予め指定された伝送帯域制約量をNで表す。各カメラアダプタ120における伝送帯域制約量Nを、例えば、以下の値にすることが出来る。即ち、デイジーチェーンにおける伝送量を、画像処理システム100に設置したセンサシステム110の台数で割った値に、自身よりもデイジーチェーンの上流に接続されたセンサシステム110の台数+1を掛けた値にすることが出来る。ただし、各カメラアダプタ120における伝送帯域制約量Nは、これに限定されない。尚、デイジーチェーンにおける伝送量とは、ネットワークに伝送することが出来る所定のデータ量であり、例えば、ネットワークに伝送することが出来る最大のデータ量である。   FIG. 6 is a diagram illustrating an example of a temporal change in the data amount. Specifically, FIG. 6 is a diagram illustrating an example of a time change of a value obtained by adding the data amount of data output from the foreground / background separation unit 6131 and the data amount of data transmitted from the upstream side of the network. In FIG. 6, the transmission bandwidth restriction amount designated in advance is represented by N. The transmission band restriction amount N in each camera adapter 120 can be set to the following value, for example. That is, a value obtained by dividing the transmission amount in the daisy chain by the number of sensor systems 110 installed in the image processing system 100 is multiplied by the number of sensor systems 110 connected upstream of the daisy chain +1. I can do it. However, the transmission band restriction amount N in each camera adapter 120 is not limited to this. The transmission amount in the daisy chain is a predetermined amount of data that can be transmitted to the network, for example, the maximum amount of data that can be transmitted to the network.

各カメラアダプタ120から出力されるデータのデータ量が予め指定された伝送帯域制約量Nを超える場合、そのままデータを出力してしまうと通信帯域がデイジーチェーンの下流側で飽和してしまう可能性が高い。このため、ネットワークの下流に接続されたセンサシステム110ではデータを送信できない状態となる。そこで、データ選択処理部6132は、自身が属するカメラアダプタ120から出力されるデータのデータ量が伝送帯域制約量N以内に収まるよう、出力するデータを選択する。このようにしてデータ選択処理部6132から伝送部6120に出力されるデータは、データ610からデータ620に削減される。そして、データ選択処理部6132は、自身が属するカメラアダプタ120から出力されなかったデータを記憶部6133に記憶する。そして、データ選択処理部6132は、出力するデータのデータ量が予め指定された伝送帯域制約量Nを超えないと判定すると、この空いている帯域(図6の斜線部分)を利用して記憶部6133からデータを読み出し、それらのデータを一緒に送信する。   If the data amount of data output from each camera adapter 120 exceeds the transmission bandwidth restriction amount N specified in advance, if the data is output as it is, the communication bandwidth may be saturated on the downstream side of the daisy chain. high. For this reason, the sensor system 110 connected downstream of the network cannot transmit data. Therefore, the data selection processing unit 6132 selects data to be output so that the data amount of data output from the camera adapter 120 to which the data selection processing unit 6132 belongs is within the transmission bandwidth restriction amount N. In this way, the data output from the data selection processing unit 6132 to the transmission unit 6120 is reduced from the data 610 to the data 620. Then, the data selection processing unit 6132 stores the data not output from the camera adapter 120 to which the data selection processing unit 6132 belongs in the storage unit 6133. If the data selection processing unit 6132 determines that the amount of data to be output does not exceed the transmission bandwidth restriction amount N designated in advance, the data selection processing unit 6132 uses this vacant band (shaded portion in FIG. 6) to store the data. Data is read from 6133 and the data is transmitted together.

次に、図7および図8を用いて、前述したデータ選択処理の結果としてデータベース250に送信されるデータの変化を、時間経過も含めて説明する。
まず、図7を用いて、データ選択処理部6132で導出したデータが、予め指定された伝送帯域制約量Nを超えるため、フレームレートを4分の1に落としてデータを送信する場合を例に挙げて、データベース250に送信されるデータの変化の一例を説明する。尚、本説明は、図5のS5006で、S5007の処理が選定された場合の処理の説明である。図7において、A・B・C・Dはセンサシステム110を表し、t1・t2・t3・t4・t5は時刻を表す。丸は時刻t1〜t5でカメラ112により撮影されたフレームのデータを表す。
Next, changes in data transmitted to the database 250 as a result of the above-described data selection process will be described with reference to FIGS. 7 and 8, including the passage of time.
First, referring to FIG. 7, the data derived by the data selection processing unit 6132 exceeds the transmission bandwidth restriction amount N specified in advance, and therefore the case where the data is transmitted with the frame rate reduced to a quarter is taken as an example. As an example, an example of changes in data transmitted to the database 250 will be described. This description is a description of the processing when the processing of S5007 is selected in S5006 of FIG. In FIG. 7, A, B, C, and D represent the sensor system 110, and t1, t2, t3, t4, and t5 represent time. Circles represent frame data captured by the camera 112 at times t1 to t5.

データ選択処理部6132は、自身が属するカメラアダプタ120に接続されるカメラ112で撮影した際に、伝送部6120へ出力するデータのデータ量が伝送帯域制約量Nを超えると判定する(S5004のYesを参照)。そして、データ選択処理部6132は、図7の状態710の実線の丸で表すフレームデータを選択し(S5007)、伝送部6120へ出力する。また、データ選択処理部6132は、図7の状態710の破線の丸で表すフレームデータを記憶部6133に記憶する(S5008)。これによりデータ選択処理部6132から伝送部6120へ出力するデータのデータ量は、データ選択処理部6132から本来伝送部6120へ出力するデータのデータ量に対して4分の1に削減される。   The data selection processing unit 6132 determines that the amount of data to be output to the transmission unit 6120 exceeds the transmission bandwidth restriction amount N when the image is captured by the camera 112 connected to the camera adapter 120 to which the data selection unit 6132 belongs (Yes in S5004). See). The data selection processing unit 6132 selects frame data represented by a solid circle in the state 710 in FIG. 7 (S5007), and outputs the frame data to the transmission unit 6120. Further, the data selection processing unit 6132 stores the frame data represented by the broken-line circle in the state 710 in FIG. 7 in the storage unit 6133 (S5008). As a result, the data amount of data output from the data selection processing unit 6132 to the transmission unit 6120 is reduced to a quarter of the data amount of data originally output from the data selection processing unit 6132 to the transmission unit 6120.

その後、データ選択処理部6132は、伝送部6120へ出力するデータのデータ量が伝送帯域制約量Nを超えない(S5004でNo)と判定すると、記憶部6133に記憶した破線の丸で表すフレームデータを読み出す(S5015)。そして、データ選択処理部6132は、この読み出したフレームデータを前景背景分離部6131から出力されたデータに加えて伝送部6120へ出力する。この結果、伝送部6120から送信されるフレームデータ(実線の丸で表されるフレームデータ)は、時間の経過と共に徐々に増える(図7の状態710→状態720→状態730→状態740を参照)。そして、最終的には全てのフレームデータが伝送部6120から送信される。実際には、伝送帯域に空きがあるときに送信されるフレームデータの送信が完了するまでの時間には、センサシステム110間でばらつきがある。図7に示す例では、データ選択処理部6132は、時刻t1、t5のフレームデータ→t3のフレームデータ→t2のフレームデータ→t4のフレームデータの順番で、伝送部6120へ出力するフレームデータを選択する。このようにすれば、フレームデータを送信している途中で、送信が完了したフレームがなるべく均等となるようにすることが出来る。   After that, when the data selection processing unit 6132 determines that the data amount of the data to be output to the transmission unit 6120 does not exceed the transmission bandwidth restriction amount N (No in S5004), the frame data represented by the dotted circle stored in the storage unit 6133 Is read (S5015). Then, the data selection processing unit 6132 adds the read frame data to the transmission unit 6120 in addition to the data output from the foreground / background separation unit 6131. As a result, the frame data (frame data represented by a solid circle) transmitted from the transmission unit 6120 gradually increases with time (see state 710 → state 720 → state 730 → state 740 in FIG. 7). . Finally, all the frame data is transmitted from the transmission unit 6120. Actually, there is a variation between the sensor systems 110 in the time until transmission of frame data transmitted when there is a vacant transmission band. In the example shown in FIG. 7, the data selection processing unit 6132 selects frame data to be output to the transmission unit 6120 in the order of frame data at times t1 and t5 → frame data at t3 → frame data at t2 → frame data at t4. To do. In this way, the frames for which transmission has been completed can be made as even as possible during transmission of frame data.

データベース250では、各時刻で各センサシステム110からの1フレームのフレームデータの受信が完了したか否かと、その時刻の全てのセンサシステム110のフレームデータが揃っているか否かを、状態管理テーブルで管理する。そして、データベース250は、バックエンドサーバ270からのフレームデータの要求に対して、状態管理テーブルに沿って、そのフレームデータの提供を行うか否かを決定する。このため、バックエンドサーバ270で生成される仮想視点画像は、撮影直後には15fpsの画像となるが、時間が経過してデータが揃うことにより徐々にフレームレートが上がり、最終的には60fpsの仮想視点画像になる。   In the database 250, whether or not the reception of one frame of frame data from each sensor system 110 at each time is completed and whether or not the frame data of all the sensor systems 110 at that time are available are stored in the state management table. to manage. In response to the frame data request from the back-end server 270, the database 250 determines whether or not to provide the frame data along the state management table. For this reason, the virtual viewpoint image generated by the back-end server 270 is an image of 15 fps immediately after shooting, but as time passes, the frame rate gradually increases as the data is gathered, and finally the image of 60 fps. It becomes a virtual viewpoint image.

次に、図8を用いて、データ選択処理部6132で導出したデータが、予め指定された伝送帯域制約量Nを超えるため、解像度を縦横2分の1に落としてデータを送信する場合を例に挙げて、データベース250に送信されるデータの変化の一例を説明する。尚、本説明は、図5のS5006で、S5009の処理が選定された場合の処理の説明である。図8において、x1〜x5は画素のx座標を表し、y1〜y5は画素のy座標を表し、丸は各座標の画素データを表す。   Next, referring to FIG. 8, an example of a case where the data derived by the data selection processing unit 6132 exceeds the transmission bandwidth restriction amount N specified in advance, and the data is transmitted with the resolution reduced to a half length and width. An example of changes in data transmitted to the database 250 will be described. Note that this description is an explanation of the processing when the processing of S5009 is selected in S5006 of FIG. In FIG. 8, x1 to x5 represent the x coordinate of the pixel, y1 to y5 represent the y coordinate of the pixel, and the circle represents the pixel data of each coordinate.

データ選択処理部6132は、自身が属するカメラアダプタ120に接続されるカメラ112で撮影した時に、伝送部6120へ出力するデータのデータ量が伝送帯域制約量Nを超えると判定する(S5004のYesを参照)。そして、データ選択処理部6132は、図8の状態810の実線の丸で表す画素データを選択し(S5009)、伝送部6120へ出力する。また、データ選択処理部6132は、図8の状態810の破線の丸で表す画素データを記憶部6133に記憶する(S05010)。これによりデータ選択処理部6132から伝送部6120へ出力するデータのデータ量は、データ選択処理部6132から本来伝送部6120へ出力するデータのデータ量に対して4分の1に削減される。   The data selection processing unit 6132 determines that the amount of data to be output to the transmission unit 6120 exceeds the transmission bandwidth restriction amount N when the image is taken by the camera 112 connected to the camera adapter 120 to which it belongs (Yes in S5004). reference). Then, the data selection processing unit 6132 selects pixel data represented by a solid circle in the state 810 in FIG. 8 (S5009), and outputs it to the transmission unit 6120. Further, the data selection processing unit 6132 stores the pixel data represented by the broken-line circle in the state 810 of FIG. 8 in the storage unit 6133 (S05010). As a result, the data amount of data output from the data selection processing unit 6132 to the transmission unit 6120 is reduced to a quarter of the data amount of data originally output from the data selection processing unit 6132 to the transmission unit 6120.

その後、データ選択処理部6132は、伝送部6120へ出力するデータのデータ量が伝送帯域制約量Nを超えない(S5004でNo)と判定すると、記憶部6133に記憶した破線の丸で表す画素データ読み出す(S5015)。そして、データ選択処理部6132は、この読み出した画素データを、前景背景分離部6131から出力されたデータに加えて伝送部6120へ出力する。この結果、伝送部6120から送信される画素データ(実線の丸で表される画素データ)は、時間の経過と共に徐々に増える(図8の状態810→状態820→状態830→状態840を参照)。そして、最終的には全ての画素データが伝送部6120から送信される。実際には、伝送帯域に空きがあるときに送信される画素データの送信が完了するまでの時間には、センサシステム110間でばらつきがある。図8に示す例では、データ選択処理部6132は、奇数列・奇数行の画素データ→偶数列・偶数行の画素データ→偶数列・奇数行の画素データ→奇数列・偶数行の画素データの順番で、伝送部6120へ出力する画素データを選択する。このようにすれば、画素データを送信している途中で、送信が完了した画素がなるべく均等となるようにすることが出来る。   Thereafter, when the data selection processing unit 6132 determines that the data amount of the data to be output to the transmission unit 6120 does not exceed the transmission band restriction amount N (No in S5004), the pixel data represented by the dotted circle stored in the storage unit 6133 Read (S5015). Then, the data selection processing unit 6132 adds the read pixel data to the transmission unit 6120 in addition to the data output from the foreground / background separation unit 6131. As a result, pixel data (pixel data represented by a solid circle) transmitted from the transmission unit 6120 gradually increases as time passes (see state 810 → state 820 → state 830 → state 840 in FIG. 8). . Finally, all the pixel data is transmitted from the transmission unit 6120. Actually, the time required to complete transmission of pixel data transmitted when there is a vacant transmission band varies among sensor systems 110. In the example illustrated in FIG. 8, the data selection processing unit 6132 includes pixel data of odd columns / odd rows → pixel data of even columns / even rows → pixel data of even columns / odd rows → pixel data of odd columns / even rows. In order, pixel data to be output to the transmission unit 6120 is selected. In this way, it is possible to make the pixels for which transmission has been completed as uniform as possible during the transmission of the pixel data.

データベース250では、各センサシステム110からの各フレームの画素データの受信状況を状態管理テーブルで管理する。そして、データベース250は、バックエンドサーバ270からのフレームデータの要求に対して、不足している画素データがある場合には、状態管理テーブルに沿って必要となる画素を補完して、画素データを提供する。このため、バックエンドサーバ270で生成される仮想視点画像は、撮影直後には縦横の解像度が2分の1に低下しているが、時間が経過してデータが揃うことにより徐々に解像度が上がり、最終的には本来の解像度の仮想視点画像になる。   In the database 250, the reception status of pixel data of each frame from each sensor system 110 is managed by a state management table. When there is insufficient pixel data in response to the frame data request from the back-end server 270, the database 250 complements the necessary pixels along the state management table, and stores the pixel data. provide. For this reason, the virtual viewpoint image generated by the back-end server 270 has a vertical and horizontal resolution that has been reduced to one-half immediately after shooting, but the resolution gradually increases as time passes to gather the data. Eventually, a virtual viewpoint image with the original resolution is obtained.

図7および図8では、説明を分かり易くするために、データ量を4分の1に減らす場合を例に挙げて説明した。しかしながら、データを減らす量は、伝送部6120へ出力するデータのデータ量が、伝送帯域制約量N(カメラアダプタ120で送信可能なデータ量)をどのくらい超えるかによって決定される。
また、本実施形態では、デイジーチェーンで接続されたネットワーク170を例に挙げて説明した。しかしながら、カメラアダプタ120の接続形態は、デイジーチェーン接続に限定されない。例えば、スター型のネットワークでも各センサシステム110から出力されるデータのデータ量を制限する必要がある場合にも適用可能である。例えば、フロントエンドサーバ230のネットワークから入力するデータの帯域に上限がある場合や、データベース250で入力するデータの帯域に上限がある場合等が考えられる。この場合、上流からのデータのデータ量を帯域監視部6123で監視する必要がなくなるだけの違いで、前述したデイジーチェーン接続された場合と同様に、本実施形態の手法を適用することが可能である。
7 and 8, the case where the amount of data is reduced to a quarter has been described as an example for easy understanding. However, the amount of data to be reduced is determined by how much the data amount of data to be output to the transmission unit 6120 exceeds the transmission band restriction amount N (data amount that can be transmitted by the camera adapter 120).
In the present embodiment, the network 170 connected in a daisy chain has been described as an example. However, the connection form of the camera adapter 120 is not limited to the daisy chain connection. For example, even in a star type network, the present invention can be applied to a case where it is necessary to limit the amount of data output from each sensor system 110. For example, there may be a case where there is an upper limit in the bandwidth of data input from the network of the front-end server 230, or a case where there is an upper limit in the bandwidth of data input in the database 250. In this case, the method of the present embodiment can be applied in the same manner as in the case of the daisy chain connection described above, except that it is not necessary to monitor the data amount of the upstream data with the bandwidth monitoring unit 6123. is there.

また、本実施形態では、記憶部6133の容量が十分なものとして説明した。しかしながら、記憶部6133として、ある程度の容量のものを使用せざるを得ない状況になることがある。この場合、データ選択処理部6132は、記憶部6133の内容を消去して新たな画像データを格納する必要がある。このため、データ選択処理部6132は、例えば、タイムコードが古いものから順次消去する。ただし、容量に制限がある場合に記憶部6133に必要なデータを記憶するための手法は、これに限定されない。例えば、データ選択処理部6132は、背景画像から消去する等、画面内のデータの重要度に基づいて、記憶部6133から消去するデータを決定しても構わない。   In the present embodiment, the storage unit 6133 has been described as having a sufficient capacity. However, the storage unit 6133 may be in a situation where a certain amount of capacity must be used. In this case, the data selection processing unit 6132 needs to delete the contents of the storage unit 6133 and store new image data. For this reason, the data selection processing unit 6132 sequentially deletes the oldest time code, for example. However, the method for storing necessary data in the storage unit 6133 when the capacity is limited is not limited to this. For example, the data selection processing unit 6132 may determine data to be deleted from the storage unit 6133 based on the importance of the data in the screen, such as deleting from the background image.

以上のように本実施形態では、データ選択処理部6132は、通信帯域に制約があり送信するデータを選択する必要がある場合、選択したデータを送信すると決定すると共に、選択しなかったデータを記憶部6133に記憶する。その後、データ選択処理部6132は、通信帯域に空きがあるときに、記憶部6133に記憶しておいたデータを送信する。従って、仮想視点画像を生成するに際し、各カメラ112で撮影された画像の伝送のための通信帯域が不足すること乃至は圧迫することを抑制することが出来る。また、時間の経過と共に徐々に高画質な仮想視点画像を生成することが可能となる。   As described above, in the present embodiment, the data selection processing unit 6132 determines that the selected data is to be transmitted and stores the unselected data when there is a restriction on the communication band and it is necessary to select the data to be transmitted. Store in the unit 6133. Thereafter, the data selection processing unit 6132 transmits the data stored in the storage unit 6133 when there is a free communication band. Therefore, when generating a virtual viewpoint image, it is possible to suppress a shortage or compression of a communication band for transmitting an image captured by each camera 112. In addition, it is possible to gradually generate a high-quality virtual viewpoint image as time passes.

尚、本実施形態では、カメラアダプタ120から出力されるデータのデータ量が予め指定された伝送帯域制約量Nを超える場合の処理方法の選択を行う場合について説明したが、処理方法は、前述した方法に限定されない。図5に示したS5007〜S5008、S5009〜S5010、S5011〜S5012、S5013〜S5014の全ての処理を選択肢とする必要はなく、何れか一つを実施しても構わない。また、処理はこれらに限定されない。   In the present embodiment, the case where the processing method is selected when the data amount of the data output from the camera adapter 120 exceeds the transmission bandwidth restriction amount N designated in advance has been described. The method is not limited. It is not necessary to select all the processes of S5007 to S5008, S5009 to S5010, S5011 to S5012, and S5013 to S5014 shown in FIG. 5, and any one of them may be performed. Moreover, a process is not limited to these.

<第2の実施形態>
次に、第2の実施形態を説明する。第1の実施形態では、センサシステム110毎に通信帯域を監視して、送信する通信帯域に空きがあるときに送信するデータを決定する場合を例に挙げて説明した。しかしながら、記憶部6133に記憶されたデータ容量に対して、通信帯域の空きが少ない場合には、送信するデータの優先順位を指示し、優先度の高いデータから送信したい場合がある。本実施形態では、このような場合について説明する。このように本実施形態と、第1の実施形態とは、データ選択処理部6132により、伝送部6120へ出力するデータのデータ量が伝送帯域制約量Nを超えない(S5004でNo)と判定される場合の処理が主として異なる。従って、本実施形態の説明において、第1の実施形態と同一の部分については、図1〜図8に付した符号と同一の符号を付す等して詳細な説明を省略する。
<Second Embodiment>
Next, a second embodiment will be described. In the first embodiment, the case where the communication band is monitored for each sensor system 110 and the data to be transmitted is determined when there is a vacant communication band has been described as an example. However, when the communication capacity is small with respect to the data capacity stored in the storage unit 6133, there is a case where the priority order of the data to be transmitted is instructed and the data with higher priority is desired to be transmitted. In this embodiment, such a case will be described. As described above, in the present embodiment and the first embodiment, the data selection processing unit 6132 determines that the data amount of the data to be output to the transmission unit 6120 does not exceed the transmission band restriction amount N (No in S5004). The processing is different mainly. Therefore, in the description of the present embodiment, the same parts as those in the first embodiment are denoted by the same reference numerals as those in FIGS.

本実施形態の画像処理システムの構成の一例は、図1に示した構成と同じである。コントローラ300は、操作者が重要であると判断したシーンを選んで決定したり、画像を自動解析して、重要であると判断したシーンを決定したりする。ここでの重要なシーンとは、例えば、サッカースタジアムに画像処理システムを適用した場合、ゴールシーンやシュートシーン等、ユーザが振り返って見たいと思うようなシーンを指す。本実施形態では、撮影時のタイムコード(開始時刻と終了時刻)でシーンを指定する場合を例に挙げて説明する。
このようにしてコントローラ300で決定されたシーン情報が、ネットワーク310a、180a、170を経由してセンサシステム110内のデータ選択処理部6132に通知される。
本実施形態では、データ選択処理部6132が、シーン情報を取得する。
An example of the configuration of the image processing system of this embodiment is the same as the configuration shown in FIG. The controller 300 selects and determines a scene that is determined to be important by the operator, or automatically analyzes an image to determine a scene that is determined to be important. For example, when an image processing system is applied to a soccer stadium, an important scene here refers to a scene that the user wants to look back, such as a goal scene or a shot scene. In the present embodiment, a case where a scene is designated by time code (start time and end time) at the time of shooting will be described as an example.
The scene information determined by the controller 300 in this way is notified to the data selection processing unit 6132 in the sensor system 110 via the networks 310a, 180a, and 170.
In the present embodiment, the data selection processing unit 6132 acquires scene information.

次に、データの通信帯域に空きがある場合のデータ選択処理部6132の処理(図5のS5015の処理)の一例を、図9と図10とを用いて説明する。図9は、図5のS5015の処理の一例を説明するフローチャートである。図10は、データ量の時間変化の一例を示す図である。具体的に図10は、前景背景分離部6131から出力されるデータのデータ量と、ネットワークの上流から送信されるデータのデータ量とを加えた値の時間変化の一例を示す図である。図10では、予め指定された伝送帯域制約量をNで表す。   Next, an example of the process of the data selection processing unit 6132 (the process of S5015 in FIG. 5) when the data communication band is free will be described with reference to FIGS. FIG. 9 is a flowchart for explaining an example of the process of S5015 of FIG. FIG. 10 is a diagram illustrating an example of a temporal change in the data amount. Specifically, FIG. 10 is a diagram illustrating an example of a time change of a value obtained by adding the data amount of data output from the foreground / background separation unit 6131 and the data amount of data transmitted from the upstream side of the network. In FIG. 10, the transmission band restriction amount designated in advance is represented by N.

ここで、データ量が伝送帯域制約量Nを超える場合、データ選択処理部6132でデータの選択処理が行われ、この選択処理で選択されなかったデータが記憶部6133に記憶される。図10では、この記憶部6133に記憶される期間をD1〜D4で表し、データの通信帯域に余裕がある期間をE1〜E3で表す。また、コントローラ300は、重要なシーンを特定するためのシーン情報として、次の2つのシーン情報を指定する。まず、コントローラ300は、シーン情報P1を指定する。シーン情報P1には、最初の重要なシーンの開始時刻t1sおよび終了時刻t1eが含まれる。また、コントローラ300は、シーン情報P2を指定する。シーン情報P2には、次の重要なシーンの開始時刻t2sおよび終了時刻t2eが含まれる。   Here, when the data amount exceeds the transmission bandwidth restriction amount N, the data selection processing unit 6132 performs data selection processing, and the data not selected in this selection processing is stored in the storage unit 6133. In FIG. 10, the periods stored in the storage unit 6133 are represented by D1 to D4, and the periods in which there is a margin in the data communication band are represented by E1 to E3. In addition, the controller 300 designates the following two pieces of scene information as scene information for specifying an important scene. First, the controller 300 designates scene information P1. The scene information P1 includes the start time t1s and the end time t1e of the first important scene. Further, the controller 300 designates the scene information P2. The scene information P2 includes the start time t2s and the end time t2e of the next important scene.

期間D1(時刻t0〜時刻t1)、D2(時刻t2〜時刻t3)、D3(時刻t4〜時刻t5)、D4(時刻t6〜時刻t7)では、データ量が伝送帯域制約量Nを超える。このため、S5008、S5010、S5012、S5014において、データ選択処理部6132は、時間情報を付加してデータを記憶部6133に記憶する。次に、データ量が伝送帯域制約量Nを下回った期間E1(時刻t1〜時刻t2)では、シーン情報がコントローラ300から指示されていない。このため、データ選択処理部6132は、シーン情報がコントローラ300から指示されていないと判定する(図9のS9001でNoと判定される)。従って、データ選択処理部6132は、期間D1で記憶したデータを記憶部6133から読み出し、当該データを送信する(図9のS9003を参照)。期間D1で記憶したデータ量と比較して、期間E1で送信できるデータ量が少ないことから、時刻t2の時点ではまだ記憶部6133内に、期間D1に記憶したデータが残っている。次に、期間D2(時刻t2〜時刻t3)では、再びデータ量が伝送帯域制約量Nを超える。このため、データ選択処理部6132は、時間情報を付加してデータを記憶部6133に記憶する。ここで、コントローラ300から優先して送信するためのシーン情報(開始時刻:t1s、終了時刻:t1e、シーン情報P1)が通知される。   In periods D1 (time t0 to time t1), D2 (time t2 to time t3), D3 (time t4 to time t5), and D4 (time t6 to time t7), the data amount exceeds the transmission band constraint amount N. Therefore, in S5008, S5010, S5012, and S5014, the data selection processing unit 6132 adds the time information and stores the data in the storage unit 6133. Next, in a period E1 (time t1 to time t2) in which the data amount is less than the transmission band restriction amount N, no scene information is instructed from the controller 300. For this reason, the data selection processing unit 6132 determines that the scene information is not instructed from the controller 300 (determined No in S9001 of FIG. 9). Therefore, the data selection processing unit 6132 reads out the data stored in the period D1 from the storage unit 6133 and transmits the data (see S9003 in FIG. 9). Since the amount of data that can be transmitted in the period E1 is smaller than the amount of data stored in the period D1, the data stored in the period D1 still remains in the storage unit 6133 at the time t2. Next, in the period D2 (time t2 to time t3), the data amount again exceeds the transmission band restriction amount N. Therefore, the data selection processing unit 6132 adds the time information and stores the data in the storage unit 6133. Here, scene information (start time: t1s, end time: t1e, scene information P1) to be transmitted with priority from the controller 300 is notified.

時刻t3でデータ量が伝送帯域制約量Nを下回ると(S5004でNoと判定されると)、データ選択処理部6132は、シーン情報が指示されていると判定する(図9のS9001でYesと判定される)。そこで、データ選択処理部6132は、記憶部6133に記憶された順番(即ち時間的に古い順)で、期間D1に記憶されているデータではなく、シーン情報で指示されたデータを優先して記憶部6133から読み出す(図9のステップS9002、S9003)。具体的に、時刻t1s〜時刻t1eのデータが、記憶部6133から読み出される。本実施形態では、データ選択処理部6132は、S9002において、記憶されたデータから、データ特定情報により特定されるデータを選択する。   When the data amount falls below the transmission band restriction amount N at time t3 (when it is determined No in S5004), the data selection processing unit 6132 determines that the scene information is instructed (Yes in S9001 in FIG. 9). Determined). Therefore, the data selection processing unit 6132 preferentially stores the data indicated by the scene information in the order stored in the storage unit 6133 (that is, the oldest in time order), not the data stored in the period D1. The data is read from the unit 6133 (steps S9002 and S9003 in FIG. 9). Specifically, data from time t1s to time t1e is read from the storage unit 6133. In the present embodiment, the data selection processing unit 6132 selects data specified by the data specifying information from the stored data in S9002.

シーン情報で指示されたデータの読み出しが完了した後は、データ選択処理部6132は、再び記憶部6133に記憶されているデータを、記憶部6133に対する記憶が行われた順番で読み出す。また、時刻t7においても時刻t3と同様に、データ選択処理部6132は、データ量が伝送帯域制約量Nを下回ると判定する(S5004でNoと判定される)。この場合、データ選択処理部6132は、シーン情報で指示されたデータ(時刻t2s〜時刻t2eのデータ)を優先して記憶部6133から読み出す(図9のステップS9002、S9003)。   After the reading of the data instructed by the scene information is completed, the data selection processing unit 6132 reads the data stored in the storage unit 6133 again in the order in which the storage to the storage unit 6133 was performed. Also at time t7, similarly to time t3, the data selection processing unit 6132 determines that the data amount is less than the transmission bandwidth restriction amount N (determined No in S5004). In this case, the data selection processing unit 6132 preferentially reads the data instructed by the scene information (data from time t2s to time t2e) from the storage unit 6133 (steps S9002 and S9003 in FIG. 9).

以上のように本実施形態では、データ選択処理部6132は、データの通信帯域に空きがある場合、コントローラ300から指定したシーンのデータを優先して選択し、伝送部6120に出力する。従って、第1の実施形態で説明した効果に加え、より優先度の高いシーンの仮想視点画像をより少ない時間の遅延で生成することが可能となる。   As described above, in the present embodiment, the data selection processing unit 6132 preferentially selects scene data designated from the controller 300 and outputs the data to the transmission unit 6120 when there is an empty data communication band. Accordingly, in addition to the effects described in the first embodiment, it is possible to generate a virtual viewpoint image of a scene with higher priority with a smaller delay of time.

本実施形態では、撮影時のタイムコード(開始時刻と終了時刻)でシーンを指定する場合を例に挙げて説明した。しかしながら、シーンを指定する方法は、これに限定されず、シーンを特定することが出来ればよい。例えば、コントローラ300は、フレーム番号を指定しても良い。また、コントローラ300は、より重要度の高いシーンを優先して送信することが出来るように、重要なシーンを特定するためのシーン情報で特定される各シーンに対し優先度(優先順位)の情報を付加することが出来る。その他、本実施形態においても、第1の実施形態で説明した種々の変形例を採用することができる。本実施形態では、例えば、撮影時のタイムコードを用いることにより、データが得られた時刻情報の一例が実現され、フレーム番号を用いることにより、データの識別情報の一例が実現される。また、例えば、シーン情報P1、P2を用いることにより、複数のデータを特定するための情報の一例が実現される。また、例えば、シーン情報で特定される各シーンに対して付加される優先度(優先順位)の情報を用いることにより、記憶されたデータに対する優先順位を示す情報の一例が実現される。   In the present embodiment, the case where the scene is designated by the time code (start time and end time) at the time of shooting has been described as an example. However, the method for designating the scene is not limited to this, and it is sufficient that the scene can be specified. For example, the controller 300 may specify a frame number. Further, the controller 300 gives priority (priority) information for each scene specified by the scene information for specifying an important scene so that a scene with higher importance can be transmitted with priority. Can be added. In addition, also in the present embodiment, various modifications described in the first embodiment can be employed. In the present embodiment, for example, an example of time information at which data is obtained is realized by using a time code at the time of shooting, and an example of identification information of data is realized by using a frame number. In addition, for example, by using the scene information P1 and P2, an example of information for specifying a plurality of data is realized. Further, for example, by using information on the priority (priority order) added to each scene specified by the scene information, an example of information indicating the priority order for the stored data is realized.

尚、前述した実施形態は、何れも本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。すなわち、本発明はその技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。   The above-described embodiments are merely examples of implementation in carrying out the present invention, and the technical scope of the present invention should not be construed in a limited manner. That is, the present invention can be implemented in various forms without departing from the technical idea or the main features thereof.

(その他の実施例)
本発明は、前述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other examples)
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

110a〜110z:センサシステム、112a〜112z:カメラ、120a〜120z:カメラアダプタ、170a〜170y:ネットワーク   110a to 110z: sensor system, 112a to 112z: camera, 120a to 120z: camera adapter, 170a to 170y: network

Claims (24)

撮影画像に含まれる被写体の画像を含むデータであって、外部装置に伝送する対象となるデータである伝送対象データを調整する調整手段と、
前記調整手段により調整された前記伝送対象データを元の前記伝送対象データに近づけるためのデータを記憶媒体に記憶する記憶手段と、
前記外部装置にデータを伝送する伝送手段と、を有し、
前記伝送手段は、前記調整手段により調整された前記伝送対象データを伝送した後に、前記調整手段により調整された当該伝送対象データを元の当該伝送対象データに近づけるためのデータを伝送することを特徴とする情報処理システム。
Adjustment means for adjusting transmission target data, which is data including an image of a subject included in a captured image, and is data to be transmitted to an external device;
Storage means for storing, in a storage medium, data for bringing the transmission target data adjusted by the adjustment means closer to the original transmission target data;
Transmission means for transmitting data to the external device,
The transmission means transmits the data for adjusting the transmission target data adjusted by the adjustment means to be close to the original transmission target data after transmitting the transmission target data adjusted by the adjustment means. Information processing system.
撮影画像を処理する処理手段を更に有し、
前記伝送対象データは、前記処理手段により処理されたデータと、外部装置から受信されたデータとを含むことを特徴とする請求項1に記載の情報処理システム。
It further has a processing means for processing the captured image,
The information processing system according to claim 1, wherein the transmission target data includes data processed by the processing unit and data received from an external device.
前記調整手段は、前記伝送対象データのデータ量が閾値を超える場合に、当該伝送対象データを調整することを特徴とする請求項1または2に記載の情報処理システム。   The information processing system according to claim 1, wherein the adjustment unit adjusts the transmission target data when a data amount of the transmission target data exceeds a threshold value. 前記伝送手段は、前記伝送対象データのデータ量が閾値を超える場合に、前記調整手段により調整された当該伝送対象データを伝送することを特徴とする請求項1〜3の何れか1項に記載の情報処理システム。   The said transmission means transmits the said transmission object data adjusted by the said adjustment means, when the data amount of the said transmission object data exceeds a threshold value, The any one of Claims 1-3 characterized by the above-mentioned. Information processing system. 前記伝送手段は、前記伝送対象データのデータ量が閾値を超えない場合に、前記伝送対象データと、前記記憶手段により記憶されたデータの少なくとも一部とを含むデータを、前記外部装置に伝送することを特徴とする請求項1〜4の何れか1項に記載の情報処理システム。   The transmission unit transmits data including the transmission target data and at least a part of the data stored in the storage unit to the external device when a data amount of the transmission target data does not exceed a threshold value. The information processing system according to claim 1, wherein the information processing system is an information processing system. 前記伝送手段は、前記調整手段により調整された前記伝送対象データを元の前記伝送対象データに近づけるためのデータを、当該調整手段により調整された伝送対象データよりも後のタイミングで伝送される前記伝送対象データのデータ量が閾値を超えない場合に、当該データ量が閾値を超えない伝送対象データと共に伝送することを特徴とする請求項1〜5の何れか1項に記載の情報処理システム。   The transmission means transmits data for bringing the transmission target data adjusted by the adjustment means closer to the original transmission target data at a later timing than the transmission target data adjusted by the adjustment means. The information processing system according to any one of claims 1 to 5, wherein when the data amount of the transmission target data does not exceed a threshold value, the data is transmitted together with the transmission target data whose data amount does not exceed the threshold value. 前記調整手段により調整された前記伝送対象データを元の前記伝送対象データに近づけるためのデータは、前記調整手段により調整された前記伝送対象データを元の前記伝送対象データに復元するためのデータであることを特徴とする請求項1〜6の何れか1項に記載の情報処理システム。   The data for bringing the transmission target data adjusted by the adjustment unit closer to the original transmission target data is data for restoring the transmission target data adjusted by the adjustment unit to the original transmission target data. The information processing system according to claim 1, wherein the information processing system is provided. 前記調整手段は、前記伝送対象データから、前記外部装置に伝送するデータを選択することを特徴とする請求項1〜7の何れか1項に記載の情報処理システム。   The information processing system according to claim 1, wherein the adjustment unit selects data to be transmitted to the external device from the transmission target data. 前記調整手段は、フレーム、画素、またはオブジェクトに基づいて定まる領域の単位で、前記伝送対象データから、前記外部装置に伝送するデータを選択することを特徴とする請求項8に記載の情報処理システム。   9. The information processing system according to claim 8, wherein the adjustment unit selects data to be transmitted to the external device from the transmission target data in units of regions determined based on a frame, a pixel, or an object. . 前記記憶手段は、前記伝送対象データのうち、前記調整手段により選択されなかったデータを記憶媒体に記憶することを特徴とする請求項8または9に記載の情報処理システム。   The information processing system according to claim 8 or 9, wherein the storage unit stores, in a storage medium, data that is not selected by the adjustment unit among the transmission target data. 前記調整手段は、フレーム、画素、またはオブジェクトに基づいて定まる領域の単位で、前記伝送対象データから、前記外部装置に伝送するデータを選択し、
前記記憶手段は、前記伝送対象データのうち、前記調整手段により選択されなかったデータを、前記調整手段によるデータの選択の単位と同じ単位で記憶媒体に記憶することを特徴とする請求項10に記載の情報処理システム。
The adjusting unit selects data to be transmitted to the external device from the transmission target data in units of areas determined based on frames, pixels, or objects,
11. The storage unit stores data that is not selected by the adjustment unit in the transmission target data in a storage medium in the same unit as a unit of data selection by the adjustment unit. The information processing system described.
前記調整手段は、前記伝送対象データを圧縮することを特徴とする請求項1〜3の何れか1項に記載の情報処理システム。   The information processing system according to claim 1, wherein the adjustment unit compresses the transmission target data. 前記伝送対象データを元の前記伝送対象データに近づけるためのデータは、前記調整手段により圧縮が行われる際の圧縮率よりも低い圧縮率で圧縮された前記伝送対象データ、または、前記調整手段により圧縮が行われる前の前記伝送対象データであることを特徴とする請求項12に記載の情報処理システム。   Data for bringing the transmission target data closer to the original transmission target data is the transmission target data compressed at a compression rate lower than the compression rate when compression is performed by the adjustment unit, or by the adjustment unit. The information processing system according to claim 12, wherein the data is the transmission target data before being compressed. 前記記憶手段により記憶されたデータを特定するための情報であるデータ特定情報を取得する取得手段と、
前記記憶手段により記憶されたデータから、前記データ特定情報により特定されるデータを選択する選択手段と、を更に有し、
前記伝送手段は、前記選択手段により選択されたデータを伝送することを特徴とする請求項1〜13の何れか1項に記載の情報処理システム。
Acquisition means for acquiring data specifying information which is information for specifying data stored by the storage means;
Selecting means for selecting data specified by the data specifying information from the data stored by the storage means;
The information processing system according to claim 1, wherein the transmission unit transmits the data selected by the selection unit.
前記データ特定情報には、データが得られた時刻情報またはデータの識別情報が含まれることを特徴とする請求項14に記載の情報処理システム。   15. The information processing system according to claim 14, wherein the data specifying information includes time information when the data is obtained or identification information of the data. 前記データ特定情報には、複数のデータを特定するための情報が含まれることを特徴とする請求項14または15に記載の情報処理システム。   The information processing system according to claim 14, wherein the data specifying information includes information for specifying a plurality of data. 前記データ特定情報には、前記記憶手段により記憶されたデータに対する優先順位を示す情報が含まれることを特徴とする請求項14〜16の何れか1項に記載の情報処理システム。   The information processing system according to any one of claims 14 to 16, wherein the data specifying information includes information indicating a priority order for the data stored by the storage unit. 前記伝送対象データのデータ量が閾値を超えるか否かを判定する判定手段を更に有することを特徴とする請求項1〜17の何れか1項に記載の情報処理システム。   The information processing system according to any one of claims 1 to 17, further comprising a determination unit that determines whether or not a data amount of the transmission target data exceeds a threshold value. 前記調整手段、前記記憶手段、および前記伝送手段をそれぞれが有する複数の情報処理装置を更に有することを特徴とする請求項1〜18の何れか1項に記載の情報処理システム。   The information processing system according to any one of claims 1 to 18, further comprising a plurality of information processing apparatuses each including the adjustment unit, the storage unit, and the transmission unit. 前記情報処理装置が有する前記調整手段は、予め決められた順序において当該情報処理装置の次の順序になる前記情報処理装置に伝送する前記伝送対象データを調整し、
前記情報処理装置が有する前記伝送手段は、予め決められた順序において当該情報処理装置の次の順序になる前記情報処理装置にデータを伝送し、
前記情報処理装置が有する前記調整手段により調整される前記伝送対象データは、当該情報処理装置に接続される撮影手段により撮影された撮影画像に含まれる被写体の画像を含むデータと、予め決められた順序において当該情報処理装置の1つ前の順序になる前記情報処理装置から伝送された被写体の画像を含むデータと、を含むことを特徴とする請求項19に記載の情報処理システム。
The adjustment unit included in the information processing apparatus adjusts the transmission target data to be transmitted to the information processing apparatus that is the next order of the information processing apparatus in a predetermined order,
The transmission means included in the information processing apparatus transmits data to the information processing apparatus that is in the next order of the information processing apparatus in a predetermined order,
The transmission target data adjusted by the adjustment unit included in the information processing apparatus is determined in advance as data including an image of a subject included in a captured image captured by an imaging unit connected to the information processing apparatus. The information processing system according to claim 19, further comprising: data including an image of a subject transmitted from the information processing apparatus that is in the order immediately preceding the information processing apparatus in the order.
前記複数の情報処理装置は、デイジーチェーン接続されることを特徴とする請求項19または20に記載の情報処理システム。   21. The information processing system according to claim 19, wherein the plurality of information processing apparatuses are daisy chain connected. 前記被写体に対する視点を設定する設定手段と、
複数の方向から撮影された複数の撮影画像に含まれる被写体の画像を用いて、前記設定手段により設定された視点から見た場合の当該被写体の画像を生成する生成手段と、を更に有することを特徴とする請求項1〜21の何れか1項に記載の情報処理システム。
Setting means for setting a viewpoint for the subject;
And generating means for generating an image of the subject when viewed from the viewpoint set by the setting means, using images of the subject included in the plurality of captured images taken from a plurality of directions. The information processing system according to any one of claims 1 to 21, wherein the information processing system is characterized in that:
撮影画像に含まれる被写体の画像を含むデータであって、外部装置に伝送する対象となるデータである伝送対象データを調整する調整工程と、
前記調整工程により調整された前記伝送対象データを元の前記伝送対象データに近づけるためのデータを記憶媒体に記憶する記憶工程と、
前記外部装置にデータを伝送する伝送工程と、を有し、
前記伝送工程は、前記調整工程により調整された前記伝送対象データを伝送した後に、前記調整工程により調整された当該伝送対象データを元の当該伝送対象データに近づけるためのデータを伝送することを特徴とする情報処理方法。
An adjustment process for adjusting transmission target data, which is data including an image of a subject included in a captured image, and is data to be transmitted to an external device;
A storage step of storing, in a storage medium, data for bringing the transmission target data adjusted in the adjustment step closer to the original transmission target data;
A transmission step of transmitting data to the external device,
In the transmission step, after transmitting the transmission target data adjusted in the adjustment step, data for transmitting the transmission target data adjusted in the adjustment step to the original transmission target data is transmitted. Information processing method.
請求項1〜22の何れか1項に記載の情報処理システムとしてコンピュータを機能させることを特徴とするプログラム。   A program that causes a computer to function as the information processing system according to any one of claims 1 to 22.
JP2017094856A 2017-05-11 2017-05-11 Information processing equipment, control methods, and programs Active JP6971624B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017094856A JP6971624B2 (en) 2017-05-11 2017-05-11 Information processing equipment, control methods, and programs
US15/973,805 US20180332291A1 (en) 2017-05-11 2018-05-08 Information processing system and information processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017094856A JP6971624B2 (en) 2017-05-11 2017-05-11 Information processing equipment, control methods, and programs

Publications (2)

Publication Number Publication Date
JP2018191251A true JP2018191251A (en) 2018-11-29
JP6971624B2 JP6971624B2 (en) 2021-11-24

Family

ID=64097475

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017094856A Active JP6971624B2 (en) 2017-05-11 2017-05-11 Information processing equipment, control methods, and programs

Country Status (2)

Country Link
US (1) US20180332291A1 (en)
JP (1) JP6971624B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020145559A (en) * 2019-03-05 2020-09-10 キヤノン株式会社 Information processor, information processing method, and program

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019125303A (en) * 2018-01-19 2019-07-25 キヤノン株式会社 Information processing device, information processing method, and program
JP2022049599A (en) * 2020-09-16 2022-03-29 キオクシア株式会社 Communication system, device, and communication method

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6064438A (en) * 1994-10-24 2000-05-16 Intel Corporation Video indexing protocol
JP2002094962A (en) * 2000-09-12 2002-03-29 Matsushita Electric Ind Co Ltd Video data transmission reception system, video data transmission reception method and recording medium
JP2003189274A (en) * 2001-12-14 2003-07-04 Hitachi Ltd Video conference system and signal transmitting device
JP2003209593A (en) * 2002-01-11 2003-07-25 Marine System Associates Inc Storage type and streaming-combined data transmission method, transmission system, delivery device, and transmission program
KR20040079596A (en) * 2003-03-08 2004-09-16 주식회사 성진씨앤씨 Network camera embedded with hub
JP2006067225A (en) * 2004-08-26 2006-03-09 Matsushita Electric Works Ltd Emergency reporting system
JP2007150407A (en) * 2005-11-24 2007-06-14 Funai Electric Co Ltd Data transmitting device
JP2009064445A (en) * 2007-09-05 2009-03-26 Sony United Kingdom Ltd Image processor and method
JP2009296286A (en) * 2008-06-05 2009-12-17 Hitachi Ltd Bit rate converting device and converting method
JP2013239860A (en) * 2012-05-14 2013-11-28 Nippon Telegr & Teleph Corp <Ntt> Sink node device, storage server device, data collection system, data collection method, and program
JP2016517672A (en) * 2013-03-15 2016-06-16 グーグル インコーポレイテッド Generating video with multiple viewpoints

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7996495B2 (en) * 2006-04-06 2011-08-09 General Electric Company Adaptive selection of image streaming mode
KR20080039315A (en) * 2006-10-31 2008-05-07 삼성전자주식회사 Apparatus and method for header suppression/compression for providing mbs in broadband wireless access system
JP5196893B2 (en) * 2007-07-10 2013-05-15 キヤノン株式会社 COMMUNICATION SYSTEM, COMMUNICATION DEVICE, AND COMMUNICATION METHOD FOR COMMUNICATION SYSTEM
US20090195382A1 (en) * 2008-01-31 2009-08-06 Sensormatic Electronics Corporation Video sensor and alarm system and method with object and event classification
US9788054B2 (en) * 2011-05-04 2017-10-10 Verint Americas Inc. Systems and methods for managing video transmission and storage
US20130251261A1 (en) * 2012-03-23 2013-09-26 Marvell World Trade Ltd. Method And Apparatus For Image Data Compression
US20140005506A1 (en) * 2012-06-29 2014-01-02 Zoll Medical Corporation Rescue scene video transmission
JP6299492B2 (en) * 2014-07-03 2018-03-28 ソニー株式会社 Information processing apparatus, information processing method, and program
US10285187B2 (en) * 2015-05-05 2019-05-07 Qualcomm Incorporated Methods and apparatus for multiple user uplink

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6064438A (en) * 1994-10-24 2000-05-16 Intel Corporation Video indexing protocol
JP2002094962A (en) * 2000-09-12 2002-03-29 Matsushita Electric Ind Co Ltd Video data transmission reception system, video data transmission reception method and recording medium
JP2003189274A (en) * 2001-12-14 2003-07-04 Hitachi Ltd Video conference system and signal transmitting device
JP2003209593A (en) * 2002-01-11 2003-07-25 Marine System Associates Inc Storage type and streaming-combined data transmission method, transmission system, delivery device, and transmission program
KR20040079596A (en) * 2003-03-08 2004-09-16 주식회사 성진씨앤씨 Network camera embedded with hub
JP2006067225A (en) * 2004-08-26 2006-03-09 Matsushita Electric Works Ltd Emergency reporting system
JP2007150407A (en) * 2005-11-24 2007-06-14 Funai Electric Co Ltd Data transmitting device
JP2009064445A (en) * 2007-09-05 2009-03-26 Sony United Kingdom Ltd Image processor and method
JP2009296286A (en) * 2008-06-05 2009-12-17 Hitachi Ltd Bit rate converting device and converting method
JP2013239860A (en) * 2012-05-14 2013-11-28 Nippon Telegr & Teleph Corp <Ntt> Sink node device, storage server device, data collection system, data collection method, and program
JP2016517672A (en) * 2013-03-15 2016-06-16 グーグル インコーポレイテッド Generating video with multiple viewpoints

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020145559A (en) * 2019-03-05 2020-09-10 キヤノン株式会社 Information processor, information processing method, and program
JP7258605B2 (en) 2019-03-05 2023-04-17 キヤノン株式会社 Information processing device, information processing method and program

Also Published As

Publication number Publication date
US20180332291A1 (en) 2018-11-15
JP6971624B2 (en) 2021-11-24

Similar Documents

Publication Publication Date Title
US11750792B2 (en) Information processing apparatus, image generation method, control method, and storage medium
US11689706B2 (en) Method for generating virtual viewpoint image and image processing apparatus
JP6894687B2 (en) Image processing system, image processing device, control method, and program
KR102129792B1 (en) Information processing device, image generation method, control method and program
JP7121470B2 (en) Image processing system, control method, and program
RU2713238C1 (en) Control device, control method and program
US20200322584A1 (en) Control device, control method, and storage medium
US11677925B2 (en) Information processing apparatus and control method therefor
JP6871801B2 (en) Image processing equipment, image processing method, information processing equipment, imaging equipment and image processing system
JP2019036791A (en) Image processing apparatus, image processing system, control method, and program
JP2019050451A (en) Image processing apparatus and method for controlling the same, and program, and image processing system
JP6971624B2 (en) Information processing equipment, control methods, and programs
JP2019008429A (en) Image processing apparatus, image processing system, image processing method and program
US20230162435A1 (en) Information processing apparatus, information processing method, and storage medium
JP2019140483A (en) Image processing system, image processing system control method, transmission device, transmission method, and program
JP2020092301A (en) Image processing device, image processing system, image processing method, and program
JP7104504B2 (en) Image processing system, image processing device, image transmission method, and program
JP2021077120A (en) Image processing system, controller and control method therefor, image transmission method and program
JP7134636B2 (en) Control device, control method and program
JP2018191236A (en) Information processing system, information processing method, apparatus, and program
JP2021068373A (en) Control apparatus, image processing system, control method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200428

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201224

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210302

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210428

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211005

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211102

R151 Written notification of patent or utility model registration

Ref document number: 6971624

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151