JP7467130B2 - Information processing device, information processing method, and program - Google Patents

Information processing device, information processing method, and program Download PDF

Info

Publication number
JP7467130B2
JP7467130B2 JP2020007623A JP2020007623A JP7467130B2 JP 7467130 B2 JP7467130 B2 JP 7467130B2 JP 2020007623 A JP2020007623 A JP 2020007623A JP 2020007623 A JP2020007623 A JP 2020007623A JP 7467130 B2 JP7467130 B2 JP 7467130B2
Authority
JP
Japan
Prior art keywords
time information
imaging
image
camera
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020007623A
Other languages
Japanese (ja)
Other versions
JP2021114245A (en
Inventor
昭彦 熊取谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2020007623A priority Critical patent/JP7467130B2/en
Publication of JP2021114245A publication Critical patent/JP2021114245A/en
Application granted granted Critical
Publication of JP7467130B2 publication Critical patent/JP7467130B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Generation (AREA)
  • Processing Or Creating Images (AREA)

Description

本発明は、情報処理装置、情報処理方法及びプログラムに関する。 The present invention relates to an information processing device, an information processing method, and a program.

昨今、複数の撮像装置を異なる位置に設置して被写体を多視点で同期して撮像し、当該撮像により得られた複数の視点からの画像群(以下、複数視点画像)を用いて仮想視点映像を生成する技術が注目されている。このような複数視点画像から仮想視点映像を生成する技術を用いることによって、例えば、サッカーやバスケットボールのハイライトシーンを様々な角度から視聴することができるため、通常の画像と比較してユーザに高臨場感を与えることができる。 Recently, a technology that has attracted attention is one in which multiple imaging devices are installed in different positions to synchronously capture images of a subject from multiple viewpoints, and a virtual viewpoint video is generated using a group of images from the multiple viewpoints (hereinafter, multiple viewpoint images) obtained by the capture. By using such a technology that generates a virtual viewpoint video from multiple viewpoint images, for example, it is possible to view highlight scenes of a soccer or basketball game from various angles, providing the user with a higher sense of realism than with normal images.

一方、複数視点画像に基づく仮想視点映像は、複数のカメラで撮像した画像をサーバなどの画像処理部に集約し、当該画像処理部にて、三次元モデル生成、レンダリングなどの処理を施して生成され、ユーザ端末に伝送される。このような仮想視点映像を生成するシステムでは、複数のカメラが高精度に同期撮像した複数視点画像を取得することが必要であり、十分な同期撮像の精度が確保できないと、生成する仮想視点映像の画質劣化を招くことになる。 On the other hand, virtual viewpoint videos based on multiple viewpoint images are generated by collecting images captured by multiple cameras in an image processing unit such as a server, where the images are processed by the image processing unit to generate a three-dimensional model, render, and transmit the generated video to a user terminal. In a system that generates such virtual viewpoint videos, it is necessary to acquire multiple viewpoint images captured by multiple cameras with high accuracy and synchronized capture. Failure to ensure sufficient accuracy in synchronized capture will result in degradation of image quality in the generated virtual viewpoint video.

そこで特許文献1には、異なる位置に設置され、デイジーチェーン接続された複数のカメラにおいて、IEEE1588のような標準規格を用いて高精度に時刻を同期させ、多視点で同期撮像する手法が記載されている。 Patent document 1 describes a method for synchronizing the time of multiple cameras installed in different locations and connected in a daisy chain with high precision using a standard such as IEEE 1588, and capturing images synchronously from multiple viewpoints.

特開2017-211828号公報JP 2017-211828 A

しかしながら、特許文献1に記載の手法では、標準規格の時刻同期手法により高精度の同期撮像ができるものの、一部の撮像装置が同期ずれを起こすと生成する仮想視点映像の画質が著しく劣化する。そして同期ずれを起こした撮像装置以外の撮像装置の撮像した画像のみを使って十分な品質の仮想視点映像を生成できる場合でも画質を維持するためにはシステム全体をリセットして全ての撮像装置の同期を取り直す必要があった。 However, with the method described in Patent Document 1, although highly accurate synchronized imaging is possible using a standard time synchronization method, if some of the imaging devices become out of sync, the image quality of the generated virtual viewpoint video deteriorates significantly. And even if a virtual viewpoint video of sufficient quality can be generated using only images captured by imaging devices other than the imaging device with the out-of-sync error, it was necessary to reset the entire system and resynchronize all imaging devices in order to maintain image quality.

本発明は前述の問題点に鑑み、仮想視点映像を生成する撮像システムにおいて、同期ずれした撮像画像を仮想視点映像の生成に用いられないようにすることを目的としている。 In consideration of the above-mentioned problems, the present invention aims to prevent out-of-sync captured images from being used to generate a virtual viewpoint video in an imaging system that generates a virtual viewpoint video.

本発明に係る情報処理装置は、複数の撮像装置の撮像に基づく画像を用いて仮想視点映像を生成する撮像システムにおける情報処理装置であって、前記複数の撮像装置の中の第1の撮像装置の撮像に基づく第1の画像を外部装置に出力する出力手段と、前記第1の画像に係る第1の時刻情報を取得し、前記複数の撮像装置の中の前記第1の撮像装置とは異なり、前記第1の撮像装置と同期して撮像する第2の撮像装置の撮像に基づく第2の画像に係る第2の時刻情報を取得する取得手段と、前記第1の時刻情報が示す時刻と前記第2の時刻情報が示す時刻とが異なる場合に、前記第1の画像を前記外部装置に出力しないように前記出力手段を制御する制御手段と、を有することを特徴とする。 The information processing device of the present invention is an information processing device in an imaging system that generates a virtual viewpoint video using images based on imaging by multiple imaging devices, and is characterized in having an output means for outputting a first image based on imaging by a first imaging device among the multiple imaging devices to an external device, an acquisition means for acquiring first time information related to the first image and acquiring second time information related to a second image based on imaging by a second imaging device that is different from the first imaging device among the multiple imaging devices and captures images in synchronization with the first imaging device, and a control means for controlling the output means so as not to output the first image to the external device when the time indicated by the first time information and the time indicated by the second time information are different.

本発明によれば、仮想視点映像を生成する撮像システムにおいて、同期ずれした撮像画像を仮想視点映像の生成に用いられないようにすることができる。 According to the present invention, in an imaging system that generates a virtual viewpoint video, it is possible to prevent an out-of-sync captured image from being used to generate the virtual viewpoint video.

実施形態に係る撮像システムの構成例を示す図である。FIG. 1 is a diagram illustrating an example of the configuration of an imaging system according to an embodiment. 注視点と複数のカメラとの配置関係を説明するための図である。FIG. 2 is a diagram for explaining the positional relationship between a gaze point and a plurality of cameras. カメラアダプタのハードウェア構成例を示すブロック図である。2 is a block diagram showing an example of the hardware configuration of a camera adapter. カメラアダプタの機能構成例を示すブロック図である。2 is a block diagram showing an example of a functional configuration of a camera adapter. 時刻情報保持部に保持されている時刻情報の一例を示す図である。4 is a diagram showing an example of time information stored in a time information storage unit; FIG. 第1の実施形態における撮像システムの動作シーケンスを示す図である。FIG. 4 is a diagram showing an operation sequence of the imaging system according to the first embodiment. 第1の実施形態において、カメラアダプタがフレームデータを送信するか否かを判定する処理手順の一例を示すフローチャートである。11 is a flowchart illustrating an example of a processing procedure for determining whether or not the camera adapter transmits frame data in the first embodiment. フレームデータの転送及び送信のタイミングを説明するための図である。10A and 10B are diagrams for explaining the timing of transfer and transmission of frame data. 第2の実施形態における撮像システムの動作シーケンスを示す図である。FIG. 11 is a diagram showing an operation sequence of an imaging system according to a second embodiment. 第2の実施形態において、カメラアダプタがフレームデータを送信するか否かを判定する処理手順の一例を示すフローチャートである。13 is a flowchart illustrating an example of a processing procedure for determining whether or not the camera adapter transmits frame data in the second embodiment. エラーパケットの一例を示す図である。FIG. 13 illustrates an example of an error packet. フレームデータの転送及び送信のタイミングを説明するための図である。10A and 10B are diagrams for explaining the timing of transfer and transmission of frame data. サーバによる仮想視点映像の生成可否を判定する手順を説明するための図である。11 is a diagram for explaining a procedure for determining whether or not a virtual viewpoint video can be generated by a server. 同期ずれを起こしたカメラの位置を説明するための図である。FIG. 13 is a diagram for explaining the position of a camera that has become out of sync.

(第1の実施形態)
以下、本発明の第1の実施形態について、図面を参照しながら説明する。本実施形態では、競技場(スタジアム)やコンサートホールなどの施設に複数のカメラを設置して撮像を行う場合など、1つの注視点を複数のカメラで撮像する例について説明する。
First Embodiment
Hereinafter, a first embodiment of the present invention will be described with reference to the drawings. In this embodiment, an example will be described in which a single gaze point is captured by a plurality of cameras, such as a case in which a plurality of cameras are installed in a facility such as a sports stadium or a concert hall to capture images.

図1は、本実施形態に係る撮像システム100の構成例を示す図である。本実施形態に係る撮像システム100は、8台のカメラ112a~h、これらに対応するカメラアダプタ120a~h、スイッチングハブ180、サーバ200、タイムサーバ290、及びコントローラ300を有する。なお、カメラとカメラアダプタは一体で構成されていてもよい。また、カメラは複数の撮像素子を有していてもよい。 Figure 1 is a diagram showing an example of the configuration of an imaging system 100 according to this embodiment. The imaging system 100 according to this embodiment has eight cameras 112a-h, corresponding camera adapters 120a-h, a switching hub 180, a server 200, a time server 290, and a controller 300. The cameras and camera adapters may be configured as one unit. The cameras may also have multiple imaging elements.

本実施形態の撮像システム100では、スイッチングハブ180にコントローラ300、サーバ200、タイムサーバ290、カメラアダプタ120a、及びカメラアダプタ120hが接続されている。また、カメラアダプタ120a~hは互いにデイジーチェーン接続されている。本実施形態では、撮像装置であるカメラ112a~hは、それぞれ1台ずつのカメラアダプタ120a~hと接続されているが、接続形態はこれに限定されない。例えば、カメラアダプタ120a~hがそれぞれスイッチングハブ180に接続され、スイッチングハブ180を経由してカメラアダプタ120a~h間のデータ送受信を行うスター型のネットワーク構成としてもよい。 In the imaging system 100 of this embodiment, the controller 300, server 200, time server 290, camera adapter 120a, and camera adapter 120h are connected to the switching hub 180. The camera adapters 120a-h are connected to each other in a daisy chain. In this embodiment, the cameras 112a-h, which are imaging devices, are each connected to one camera adapter 120a-h, but the connection form is not limited to this. For example, a star-type network configuration may be used in which the camera adapters 120a-h are each connected to the switching hub 180, and data is sent and received between the camera adapters 120a-h via the switching hub 180.

カメラアダプタ120aは、カメラ112aと接続されており、カメラ112aの制御や、撮像画像の取得、同期信号の提供、及び時刻設定などを行う機能を有している。カメラ112aの制御には、例えば撮像パラメータ(画素数、色深度、フレームレート、及びホワイトバランスの設定など)を設定したり参照したりすること、カメラ112aの状態(撮像中、停止中、同期中、及びエラーなど)を取得することが含まれる。さらに、カメラ112aの制御には、撮像の開始及び停止を指示したり、ピント調整などを指示したりすることも含まれる。 The camera adapter 120a is connected to the camera 112a, and has functions such as controlling the camera 112a, acquiring captured images, providing synchronization signals, and setting the time. Controlling the camera 112a includes, for example, setting and referencing imaging parameters (such as the number of pixels, color depth, frame rate, and white balance settings), and acquiring the status of the camera 112a (capturing, stopped, synchronizing, error, etc.). Controlling the camera 112a also includes issuing instructions to start and stop imaging, and to adjust the focus, etc.

カメラアダプタ120aがタイムサーバ290と同期した時刻を、撮像タイミング(制御クロック)をカメラ112aに提供することにより撮像時刻を同期させる。時刻設定は、カメラアダプタ120aがタイムサーバ290と同期した時刻を、例えばSMPTE12Mのフォーマットに準拠したタイムコードで提供することで行われる。これにより、カメラ112aから受け取る撮像画像にタイムコードが付与されることになる。なお、タイムコードのフォーマットはSMPTE12Mに限定されるわけではなく、他のフォーマットであってもよい。また、カメラアダプタ120b~hも、カメラアダプタ120aと同様の機能を有しているものとする。 The camera adapter 120a synchronizes the imaging time by providing the imaging timing (control clock) to the camera 112a, which is the time synchronized with the time server 290. The time is set by the camera adapter 120a providing the time synchronized with the time server 290, for example, in a time code that conforms to the SMPTE12M format. This causes a time code to be added to the captured image received from the camera 112a. Note that the time code format is not limited to SMPTE12M, and other formats may be used. Also, it is assumed that the camera adapters 120b-h have the same functions as the camera adapter 120a.

コントローラ300は、撮像システム100のネットワークを介してカメラアダプタ120a~hに制御信号を送ることによりカメラ112a~hの撮像を制御する。また、ネットワークを介してカメラ112a~hが撮像した画像がサーバ200に転送されると、コントローラ300はサーバ200から画像を選択して取り出す。 The controller 300 controls the imaging of the cameras 112a-h by sending control signals to the camera adapters 120a-h via the network of the imaging system 100. In addition, when images captured by the cameras 112a-h are transferred to the server 200 via the network, the controller 300 selects and extracts the images from the server 200.

サーバ200は、カメラアダプタ120a~hから送信される撮像画像をそれぞれ受信して保持する。また、サーバ200は、カメラアダプタ120a~hの何れかから撮像画像が送信されなかった場合に、仮想視点画像を生成することが可能か否かを判定し、その結果をコントローラ300へ通知する。サーバ200は、転送された画像を基に、画像に含まれる被写体の3次元形状データを形成し、さらに、仮想視点映像を生成するように構成されていてもよい。仮想視点映像は、仮想視点の位置及び仮想視点からの方向を示す情報を取得して、その情報に応じて、仮想視点に対応する仮想視点映像を生成する。 The server 200 receives and stores the captured images transmitted from the camera adaptors 120a-h. If no captured images are transmitted from any of the camera adaptors 120a-h, the server 200 determines whether or not it is possible to generate a virtual viewpoint image, and notifies the controller 300 of the result. The server 200 may be configured to form three-dimensional shape data of the subject contained in the image based on the transferred image, and further to generate a virtual viewpoint video. The virtual viewpoint video is generated by acquiring information indicating the position of the virtual viewpoint and the direction from the virtual viewpoint, and generating a virtual viewpoint video corresponding to the virtual viewpoint according to the information.

図2は、図1に示した撮像システム100における注視点201とカメラ112a~hとの配置関係を説明するための図である。図2に示すように、カメラ112a~hおよびカメラアダプタ120a~hはフィールド210を取り囲むように設置され、カメラ112a~hは各々光軸が注視点201を向くようになっている。 Figure 2 is a diagram for explaining the positional relationship between the gaze point 201 and the cameras 112a-h in the imaging system 100 shown in Figure 1. As shown in Figure 2, the cameras 112a-h and the camera adapters 120a-h are installed to surround the field 210, and the optical axis of each of the cameras 112a-h is directed toward the gaze point 201.

次に、情報処理装置であるカメラアダプタ120aのハードウェア構成について、図3を用いて説明する。なお、カメラアダプタ120b~hのハードウェア構成も、以下で説明するカメラアダプタ120aの構成と同様である。カメラアダプタ120aは、CPU311、ROM312、RAM313、補助記憶装置314、通信I/F317、及びバス318を有する。 Next, the hardware configuration of the camera adapter 120a, which is an information processing device, will be described with reference to FIG. 3. The hardware configurations of the camera adapters 120b-h are the same as the configuration of the camera adapter 120a described below. The camera adapter 120a has a CPU 311, a ROM 312, a RAM 313, an auxiliary storage device 314, a communication I/F 317, and a bus 318.

CPU311は、ROM312やRAM313に格納されているコンピュータプログラムやデータを用いてカメラアダプタ120aの全体を制御することで、後述の図4に示すカメラアダプタ120aの各機能を実現する。なお、カメラアダプタ120aがCPU311とは異なる1又は複数の専用のハードウェアを有し、CPU311による処理の少なくとも一部を専用のハードウェアが実行してもよい。専用のハードウェアの例としては、ASIC(特定用途向け集積回路)、FPGA(フィールドプログラマブルゲートアレイ)、およびDSP(デジタルシグナルプロセッサ)などがある。ROM312は、変更を必要としないプログラムなどを格納する。RAM313は、補助記憶装置314から供給されるプログラムやデータ、及び通信I/F317を介して外部から供給されるデータなどを一時記憶する。補助記憶装置314は、例えばハードディスクドライブ等で構成され、画像データや音声データなどの種々のデータを記憶する。 The CPU 311 realizes the various functions of the camera adapter 120a shown in FIG. 4 described below by controlling the entire camera adapter 120a using computer programs and data stored in the ROM 312 and the RAM 313. The camera adapter 120a may have one or more dedicated hardware components different from the CPU 311, and at least a part of the processing by the CPU 311 may be executed by the dedicated hardware components. Examples of the dedicated hardware components include an ASIC (application specific integrated circuit), an FPGA (field programmable gate array), and a DSP (digital signal processor). The ROM 312 stores programs that do not require modification. The RAM 313 temporarily stores programs and data supplied from the auxiliary storage device 314, and data supplied from the outside via the communication I/F 317. The auxiliary storage device 314 is composed of, for example, a hard disk drive, and stores various data such as image data and audio data.

通信I/F317は、カメラアダプタ120aの外部の装置との通信に用いられる。例えば、カメラアダプタ120aが外部の装置と有線で接続される場合には、通信用のケーブルが通信I/F317に接続される。カメラアダプタ120aが外部の装置と無線通信する機能を有する場合には、通信I/F317はアンテナを備える。バス318は、カメラアダプタ120aの各部をつないで情報を伝達する。 The communication I/F 317 is used for communication between the camera adapter 120a and an external device. For example, if the camera adapter 120a is connected to an external device via a wired connection, a communication cable is connected to the communication I/F 317. If the camera adapter 120a has a function for wireless communication with an external device, the communication I/F 317 is equipped with an antenna. The bus 318 connects each part of the camera adapter 120a to transmit information.

図4は、カメラアダプタ120aの機能構成例を示すブロック図である。なお、カメラアダプタ120b~hの機能構成も、以下で説明するカメラアダプタ120aの構成と同様である。カメラアダプタ120aは、パケット生成部421、受信部422、送信部423、および送信判定部430を有する。 Figure 4 is a block diagram showing an example of the functional configuration of camera adapter 120a. Note that the functional configurations of camera adapters 120b-h are similar to the configuration of camera adapter 120a described below. Camera adapter 120a has a packet generation unit 421, a receiving unit 422, a transmitting unit 423, and a transmission determination unit 430.

パケット生成部421は、カメラ112aで撮像された撮像画像を、通信I/F317を介して受信し、ペイロードデータとしてパケットを生成する。受信部422は、隣接するカメラアダプタから転送される撮像画像をパケット単位で通信I/F317を介して受信する。送信部423は、通信I/F317を介して撮像画像をパケット単位で隣接するカメラアダプタへ送信する。 The packet generation unit 421 receives the captured image captured by the camera 112a via the communication I/F 317 and generates a packet as payload data. The reception unit 422 receives the captured image transferred from the adjacent camera adapter in packet units via the communication I/F 317. The transmission unit 423 transmits the captured image in packet units to the adjacent camera adapter via the communication I/F 317.

送信判定部430は、送信部423により隣接するカメラアダプタへ撮像画像をパケット単位で送信するかどうかを判定する。送信判定部430は、さらに時刻情報取得部431、時刻情報保持部432、および時刻情報判定部433を有する。 The transmission determination unit 430 determines whether the captured image is to be transmitted in packets to the adjacent camera adapter by the transmission unit 423. The transmission determination unit 430 further includes a time information acquisition unit 431, a time information holding unit 432, and a time information determination unit 433.

時刻情報取得部431は、受信部422により隣接するカメラアダプタから受信したパケットから時刻情報を取得する。時刻情報保持部432は補助記憶装置314の一部として、時刻情報取得部431が取得した時刻情報を保持する。時刻情報判定部433は、パケット生成部421が生成したパケットの時刻情報が示す時刻について、受信部422が受信したパケットの時刻情報が示す時刻と比較することによって異常がないかどうかを判定する。 The time information acquisition unit 431 acquires time information from a packet received by the receiving unit 422 from an adjacent camera adapter. The time information storage unit 432 stores the time information acquired by the time information acquisition unit 431 as part of the auxiliary storage device 314. The time information determination unit 433 determines whether there is an abnormality by comparing the time indicated by the time information of the packet generated by the packet generating unit 421 with the time indicated by the time information of the packet received by the receiving unit 422.

図5は、時刻情報保持部432に保持されている時刻情報の一例を示す図である。なお、図5において、説明をわかりやすくするために、カメラIDは符号と同じものを用いている。図5に示す例では、カメラアダプタ120eの時刻情報保持部432がカメラ112a~dの撮像画像を受信して取得した時刻情報を示している。本実施形態では、後述するようにネットワークの上流側に位置するカメラアダプタ120a~dから転送された撮像画像の時刻情報のみを保持し、下流側のカメラアダプタ120f~hからは撮像画像が転送されない。したがって、カメラアダプタ120eの時刻情報保持部432は、カメラ112a~dの撮像画像の時刻情報のみを保持している。また、後述するように、パケット生成部421から受信する撮像画像の時刻情報は、時刻情報保持部432には保持されない。 Figure 5 is a diagram showing an example of time information stored in the time information storage unit 432. In order to make the explanation easier to understand, the camera ID is the same as the symbol in Figure 5. The example shown in Figure 5 shows time information acquired by the time information storage unit 432 of the camera adapter 120e receiving the captured images of the cameras 112a-d. In this embodiment, as described later, only the time information of the captured images transferred from the camera adapters 120a-d located on the upstream side of the network is stored, and the captured images are not transferred from the downstream camera adapters 120f-h. Therefore, the time information storage unit 432 of the camera adapter 120e stores only the time information of the captured images of the cameras 112a-d. Also, as described later, the time information of the captured images received from the packet generation unit 421 is not stored in the time information storage unit 432.

図6は、本実施形態における撮像システム100の動作シーケンスを示す図である。本実施形態では、カメラ112aで撮像した撮像画像がカメラアダプタ120aから、デイジーチェーン接続されたネットワークを介して下流側のカメラアダプタ120b~hに転送される。そして、スイッチングハブ180を介して撮像画像がサーバ200に蓄えられる。また、カメラ112bで撮像した撮像画像がカメラアダプタ120bから、デイジーチェーン接続されたネットワークを介して下流側のカメラアダプタ120c~hに転送される。そして、スイッチングハブ180を介して撮像画像がサーバ200に蓄えられる。そして、同様の手順により、各々のカメラ112c~hで撮像した撮像画像がサーバ200に蓄えられる。 Figure 6 is a diagram showing the operation sequence of the imaging system 100 in this embodiment. In this embodiment, an image captured by the camera 112a is transferred from the camera adapter 120a to the downstream camera adapters 120b-h via the daisy-chained network. The captured image is then stored in the server 200 via the switching hub 180. An image captured by the camera 112b is transferred from the camera adapter 120b to the downstream camera adapters 120c-h via the daisy-chained network. The captured image is then stored in the server 200 via the switching hub 180. Then, by a similar procedure, the captured images captured by each of the cameras 112c-h are stored in the server 200.

また、本実施形態では、時刻情報保持部432に保持される時刻情報は、基本的には受信部422が受信するパケットに含まれる時刻情報のみとする。なお、図6に示す例では、説明を簡略化するため、カメラ112a~c、カメラアダプタ120a~cでのシーケンスを例示しているが、さらにカメラ112d~hおよびカメラアダプタ120d~hを含む場合も同様である。 In addition, in this embodiment, the time information stored in the time information storage unit 432 is basically only the time information included in the packet received by the receiving unit 422. Note that in the example shown in FIG. 6, to simplify the explanation, a sequence for cameras 112a-c and camera adapters 120a-c is illustrated, but the same applies when cameras 112d-h and camera adapters 120d-h are also included.

まず、T601において、コントローラ300は、カメラアダプタ120a~hを介して、撮像条件であるカメラパラメータをカメラ112a~hに設定する。
続いて、T602において、コントローラ300は、カメラアダプタ120a~hに対して、カメラ112a~hが撮像した撮像画像の送信を開始するタイミングを決定する送信パラメータを設定する。
First, in T601, the controller 300 sets camera parameters, which are image capturing conditions, in the cameras 112a to 112h via the camera adapters 120a to 120h.
Next, in T602, the controller 300 sets, to the camera adapters 120a to 120h, transmission parameters that determine the timing for starting transmission of images captured by the cameras 112a to 112h.

次に、T603において、コントローラ300は、カメラアダプタ120a~hおよびカメラ112a~hの時刻同期を行う。例えば、時刻同期の標準規格であるIEEE1588-2008に準拠した時刻同期を行うことにより、カメラアダプタ120a~hおよびカメラ112a~hを高精度に同期させることができる。
次に、T604において、コントローラ300は、カメラアダプタ120a~hを介してカメラ112a~hの撮像開始を指示する。
Next, in T603, the controller 300 performs time synchronization of the camera adapters 120a-h and the cameras 112a-h. For example, by performing time synchronization in compliance with IEEE 1588-2008, which is a standard for time synchronization, the camera adapters 120a-h and the cameras 112a-h can be synchronized with high accuracy.
Next, in T604, the controller 300 instructs the cameras 112a to 112h to start capturing images via the camera adapters 120a to 120h.

T605において、カメラ112a~hは、それぞれ1フレーム期間の撮像を行う。
そして、T606において、カメラ112a~hは、それぞれ対応するカメラアダプタ120a~hに対して、1フレーム分の撮像画像(以下、フレームデータ)を伝送する。そして、カメラアダプタ120a~hは、パケット生成部421においてフレームデータを取得し、パケットを生成する。
At T605, each of the cameras 112a to 112h captures an image for one frame period.
Then, in T606, the cameras 112a-h transmit one frame of captured image (hereinafter, frame data) to the corresponding camera adapters 120a-h, respectively. The camera adapters 120a-h then obtain the frame data in the packet generation units 421 and generate packets.

T607において、カメラアダプタ120aは、カメラ112aから取得したフレームデータを、デイジーチェーン接続されたネットワークによりカメラアダプタ120b~hを介してサーバ200に送信する。なお、本実施形態では、カメラアダプタ120aはデイジーチェーン接続されたネットワークの最上流に位置するため、時刻情報が正しいかどうかを判定せず、常に正しいものとして必ずフレームデータの送信を行う。また、カメラアダプタ120aでは、カメラ112aからのフレームデータから時刻情報を取得して時刻情報保持部432に保持し、時刻情報判定部433が過去の時刻情報との整合性から時刻情報の異常の有無を判定してもよい。 At T607, camera adapter 120a transmits the frame data acquired from camera 112a to server 200 via camera adapters 120b-h through the daisy-chained network. In this embodiment, camera adapter 120a is located at the top of the daisy-chained network, so it does not determine whether the time information is correct, but always transmits the frame data assuming that it is correct. Camera adapter 120a may also acquire time information from the frame data from camera 112a and store it in time information storage unit 432, and time information determination unit 433 may determine whether there is an anomaly in the time information based on its consistency with past time information.

一方、T608において、カメラアダプタ120b~hは、受信部422においてカメラアダプタ120aから転送されるフレームデータを受信し、時刻情報取得部431においてそのフレームデータから時刻情報を取得する。そして、時刻情報取得部431が取得した時刻情報は時刻情報保持部432に保持される。なお、受信部422において受信されるカメラ112aで撮像されたフレームデータは、時刻情報の異常の判定の対象ではないため、そのまま送信部423により隣接するカメラアダプタへ常に転送され、最終的にサーバ200へ送信される。 On the other hand, at T608, the camera adapters 120b-h receive the frame data transferred from the camera adapter 120a at the receiving unit 422, and acquire time information from the frame data at the time information acquiring unit 431. The time information acquired by the time information acquiring unit 431 is then stored in the time information holding unit 432. Note that the frame data captured by the camera 112a received at the receiving unit 422 is not subject to the time information anomaly check, and is therefore always transferred as is by the transmitting unit 423 to the adjacent camera adapter, and is ultimately transmitted to the server 200.

次に、T609において、カメラアダプタ120bは、カメラ112bからのフレームデータから時刻情報を取得し、送信判定部430においてカメラ112bからのフレームデータの時刻情報の異常の有無を判定する。この判定では、時刻情報保持部432に保持されているカメラ112aからのフレームデータからT608で取得した時刻情報と、パケット生成部421を介してT609で取得した時刻情報とが一致するか否か(撮像された時刻が同じか否か)を判定する。そして、時刻情報が一致しない(撮像された時刻が異なる)場合は、T609で取得した時刻情報に異常があると判定する。時刻情報が一致する場合は、T610において、カメラアダプタ120bの送信部423は、カメラ112bから取得したフレームデータを、デイジーチェーン接続されたネットワークによりカメラアダプタ120c~hを介してサーバ200に送信する。なお、時刻情報が一致しない場合は、送信部423からカメラ112bからのフレームデータを送信せずに破棄する。 Next, in T609, the camera adapter 120b acquires time information from the frame data from the camera 112b, and the transmission judgment unit 430 judges whether or not there is an anomaly in the time information of the frame data from the camera 112b. In this judgment, it is judged whether or not the time information acquired in T608 from the frame data from the camera 112a stored in the time information storage unit 432 matches the time information acquired in T609 via the packet generation unit 421 (whether or not the image capture times are the same). If the time information does not match (the image capture times are different), it is judged that there is an anomaly in the time information acquired in T609. If the time information matches, in T610, the transmission unit 423 of the camera adapter 120b transmits the frame data acquired from the camera 112b to the server 200 via the camera adapters 120c-h through the daisy-chained network. Note that if the time information does not match, the transmission unit 423 discards the frame data from the camera 112b without transmitting it.

T611において、カメラアダプタ120c~hは、受信部422においてカメラアダプタ120bから転送されるフレームデータを受信し、時刻情報取得部431においてそのフレームデータから時刻情報を取得する。そして、時刻情報取得部431が取得した時刻情報は時刻情報保持部432に保持される。なお、受信部422において受信されるカメラ112bで撮像されたフレームデータも同様に、時刻情報の異常の判定の対象ではないため、そのまま送信部423により隣接するカメラアダプタへ常に転送され、最終的にサーバ200へ送信される。 At T611, camera adapters 120c-h receive the frame data transferred from camera adapter 120b at the receiving unit 422, and acquire time information from the frame data at the time information acquiring unit 431. The time information acquired by the time information acquiring unit 431 is then stored in the time information holding unit 432. Similarly, the frame data captured by camera 112b received at the receiving unit 422 is not subject to the time information anomaly check, and is therefore always transferred directly by the transmitting unit 423 to the adjacent camera adapter, and is ultimately sent to the server 200.

次に、T612において、カメラアダプタ120cは、カメラ112cからのフレームデータから時刻情報を取得し、送信判定部430においてカメラ112cからのフレームデータの時刻情報の異常の有無を判定する。この判定では、T608及びT611で取得したカメラ112aおよびカメラ112bからのフレームデータの時刻情報と、T612で取得したカメラ112cからのフレームデータの時刻情報とが一致するか否かを判定する。そして、時刻情報が一致しない場合は、T612で取得した時刻情報に異常があると判定する。時刻情報が一致する場合は、T613において、カメラアダプタ120cの送信部423は、カメラ112cから取得したフレームデータを、デイジーチェーン接続されたネットワークによりカメラアダプタ120d~hを介してサーバ200に送信する。なお、時刻情報が一致しない場合は、送信部423からカメラ112cからのフレームデータを送信せずに破棄する。 Next, at T612, the camera adapter 120c acquires time information from the frame data from the camera 112c, and the transmission judgment unit 430 judges whether or not there is an anomaly in the time information of the frame data from the camera 112c. In this judgment, it is judged whether or not the time information of the frame data from the cameras 112a and 112b acquired at T608 and T611 matches the time information of the frame data from the camera 112c acquired at T612. If the time information does not match, it is judged that there is an anomaly in the time information acquired at T612. If the time information matches, at T613, the transmission unit 423 of the camera adapter 120c transmits the frame data acquired from the camera 112c to the server 200 via the camera adapters 120d-h through the daisy-chained network. Note that if the time information does not match, the transmission unit 423 discards the frame data from the camera 112c without transmitting it.

以上のような流れで、カメラアダプタ120d~hでも同様に、それぞれカメラ112d~hからのフレームデータから時刻情報を取得し、時刻情報保持部432に保持されている時刻情報が示す時刻と比較し、一致している場合はそのフレームデータを送信する。 Following the above process, the camera adapters 120d-h similarly obtain time information from the frame data sent by the cameras 112d-h, compare it with the time indicated by the time information stored in the time information storage unit 432, and if there is a match, transmit the frame data.

T614において、カメラ112a~hはT605と同様に、それぞれ次の1フレーム期間の撮像を行う。そして、T615において、カメラ112a~hは、それぞれ対応するカメラアダプタ120a~hに対して1フレーム分のフレームデータを伝送する。そして、カメラアダプタ120a~hは、パケット生成部421においてフレームデータを取得し、パケットを生成する。その後、T607~T613と同様の動作を行う。以上のように、2フレーム以降も1フレーム目と同様の動作を繰り返す。 At T614, the cameras 112a-h each capture the next frame period in the same way as in T605. Then, at T615, the cameras 112a-h transmit one frame's worth of frame data to their corresponding camera adapters 120a-h. The camera adapters 120a-h then acquire the frame data in the packet generation unit 421 and generate packets. Thereafter, the same operations as in T607-T613 are performed. As described above, the same operations as in the first frame are repeated for the second and subsequent frames.

図7は、本実施形態において、カメラアダプタ120b~hがフレームデータの送信を行うか否かを判定する処理手順の一例を示すフローチャートである。
ステップS701において、パケット生成部421においてフレームデータを取得するまで待機する。そして、フレームデータを取得すると、次のステップS702に進む。
FIG. 7 is a flowchart showing an example of a processing procedure for determining whether or not the camera adapters 120b-h transmit frame data in this embodiment.
In step S701, the process waits until frame data is acquired in the packet generating unit 421. Then, when the frame data is acquired, the process proceeds to the next step S702.

ステップS702において、時刻情報判定部433は、コントローラ300によって設定された送信パラメータに基づいて、フレームデータを送信する時刻に到達するまで待機する。そして、フレームデータを送信する時刻に到達すると、次のステップS703に進む。 In step S702, the time information determination unit 433 waits until it is time to transmit the frame data based on the transmission parameters set by the controller 300. Then, when it is time to transmit the frame data, the process proceeds to the next step S703.

ステップS703において、時刻情報判定部433は、パケット生成部421において取得したフレームデータから時刻情報を取得し、時刻情報保持部432に保持された他のカメラの時刻情報と一致するか否かを判定する。この判定の結果、時刻情報が一致している場合はステップS704に進み、時刻情報が一致していない場合はステップS705に進む。 In step S703, the time information determination unit 433 obtains time information from the frame data obtained by the packet generation unit 421, and determines whether or not the time information matches the time information of other cameras stored in the time information storage unit 432. If the result of this determination is that the time information matches, the process proceeds to step S704, and if the time information does not match, the process proceeds to step S705.

ステップS704において、送信部423は、パケット生成部421において取得したフレームデータをデイジーチェーン接続されたネットワーク上にパケット単位で送信する。そして、ステップS701に戻る。
一方、ステップS705においては、時刻情報判定部433は、パケット生成部421において取得したフレームデータを破棄し、ステップS701に戻る。
In step S704, the transmitting unit 423 transmits the frame data acquired in the packet generating unit 421 onto the daisy-chained network in packet units, and then the process returns to step S701.
On the other hand, in step S705, the time information determination unit 433 discards the frame data acquired in the packet generation unit 421, and the process returns to step S701.

図8は、本実施形態におけるフレームデータの転送及び送信のタイミングを説明するための図である。図8では、フレームNからフレームN+6までの同期撮像と1フレーム後のフレームデータの転送及び送信のタイミングを示し、以下、カメラアダプタ120eでの処理を例に説明する。 Figure 8 is a diagram for explaining the timing of frame data transfer and transmission in this embodiment. Figure 8 shows the timing of synchronous imaging from frame N to frame N+6 and the transfer and transmission of frame data one frame later, and will be explained below using the processing in the camera adapter 120e as an example.

フレームNを同期撮像した次のフレーム(フレームN+1)の同期撮像が行われる際、カメラアダプタ120eの受信部422で、転送されたカメラ112a~dのフレームデータ(フレームN)をデイジーチェーン接続されたネットワーク上から受信する。その際、転送されたフレームデータに付随する時刻情報を時刻情報取得部431で取得し、取得した時刻情報が時刻情報保持部432に保持される。つまり、図6のT607、T610などで送信されたフレームデータを受信し、T608、T611などで時刻情報を取得する。なお、図8に示すフレームデータ転送の期間は、カメラアダプタ120eの場合を示しているが、カメラアダプタ120bの場合は、フレームデータ転送の期間がより短くなり、カメラアダプタ120hの場合は、フレームデータ転送の期間がより長くなる。 When synchronous imaging of the next frame (frame N+1) following synchronous imaging of frame N is performed, the receiving unit 422 of the camera adapter 120e receives the transferred frame data (frame N) of the cameras 112a-d from the daisy-chained network. At that time, the time information acquisition unit 431 acquires time information associated with the transferred frame data, and the acquired time information is stored in the time information storage unit 432. In other words, the frame data transmitted at T607, T610, etc. in FIG. 6 is received, and the time information is acquired at T608, T611, etc. Note that the frame data transfer period shown in FIG. 8 is for the camera adapter 120e, but the frame data transfer period is shorter in the case of the camera adapter 120b, and longer in the case of the camera adapter 120h.

次に、コントローラ300により設定された送信パラメータに基づく送信開始信号により、送信部423はカメラ112eからのフレームデータを送信する。このとき、時刻情報判定部433がカメラ112eのフレームデータの時刻情報が時刻情報保持部432に保持されている時刻情報と一致するか否かを判定し、一致するときのみ送信する。その後、カメラ112f~hのフレームデータがサーバ200に転送されるが、カメラアダプタ120eは転送経路とならない。 Next, the transmitting unit 423 transmits frame data from camera 112e in response to a transmission start signal based on the transmission parameters set by the controller 300. At this time, the time information determining unit 433 determines whether the time information of the frame data from camera 112e matches the time information stored in the time information storing unit 432, and transmits only if they match. After that, the frame data from cameras 112f-h is transferred to the server 200, but the camera adapter 120e does not become a transfer path.

以上説明したように本実施形態によれば、デイジーチェーン接続されたネットワーク上で自身よりも上流側に位置するカメラのフレームデータを受信して時刻情報を取得する。そして、自身に接続されたカメラからのフレームデータの時刻情報と一致するときのみ、下流側に位置するカメラアダプタを経由してサーバにフレームデータを送信するようにした。一部のカメラに撮像の同期ずれが起こった場合でも、上流側のカメラの時刻情報と異なる場合はフレームデータを破棄して送信しないようにするため、同期ずれが発生したフレームデータがサーバに送信されるのを防ぐことができる。 As described above, according to this embodiment, the frame data of a camera located upstream of the camera itself on a daisy-chained network is received to obtain time information. Then, only when the time information matches that of the frame data from the camera connected to the camera itself, the frame data is transmitted to the server via the downstream camera adapter. Even if some cameras experience image capture synchronization issues, the frame data is discarded and not transmitted if it differs from the time information of the upstream camera, so that it is possible to prevent frame data that has become out of sync from being transmitted to the server.

ここで、フレームデータが破棄された場合には、仮想視点画像を生成できなくなる可能性がある。そこで、一部のカメラに撮像の同期ずれが起こった場合にサーバ200で行われる処理の概要について説明する。 Here, if frame data is discarded, it may not be possible to generate a virtual viewpoint image. Therefore, we will explain the outline of the processing performed by the server 200 when a synchronization error occurs in the imaging of some of the cameras.

一部のカメラアダプタからフレームデータが送信されなかった場合に、サーバ200は、そのフレームデータを用いずに仮想視点映像を生成することが可能か否かを判定する。この判定は、フレームデータが送信されなかったカメラの位置などに基づいて行われる。 If frame data is not transmitted from some camera adapters, the server 200 determines whether it is possible to generate a virtual viewpoint video without using that frame data. This determination is made based on factors such as the position of the camera from which frame data was not transmitted.

カメラ台数が十分多い場合には、カメラ1台分のフレームデータがなくても仮想視点映像の生成に影響がほとんどない。しかしながら、隣接して配置されたカメラが連続して同期ずれを起こした場合、例えば図14に示すように、カメラ112dとカメラ112eにおいて撮像の同期ずれが発生した場合は、仮想視点映像の画質が著しく劣化するか生成できない場合が多い。したがって、図14に示す例の場合は、仮想視点映像を生成できないと判定することとなる。また、同期ずれを起こしたカメラの位置だけでなく、フィールドや注視点に対する位置や時刻のずれ量なども考慮してもよい。 When there are a sufficient number of cameras, the generation of the virtual viewpoint image is hardly affected even if frame data from one camera is missing. However, if adjacently placed cameras continuously lose synchronization, for example, as shown in FIG. 14, if a synchronization loss occurs in the imaging of cameras 112d and 112e, the image quality of the virtual viewpoint image will often deteriorate significantly or it will not be possible to generate it. Therefore, in the example shown in FIG. 14, it will be determined that the virtual viewpoint image cannot be generated. Furthermore, in addition to the position of the camera that has lost synchronization, the amount of deviation in position and time relative to the field or point of interest may also be taken into consideration.

このように仮想視点映像を生成することができないとサーバ200が判定した場合には、その旨をコントローラ300に通知する。仮想視点映像を生成できない旨が通知されると、コントローラ300は撮像システム100全体をリセットしたり、同期ずれを起こしたカメラおよびそのカメラに直接接続されたカメラアダプタをリセットしたりして対応する。 When the server 200 determines that a virtual viewpoint image cannot be generated in this way, it notifies the controller 300 of that fact. When notified that a virtual viewpoint image cannot be generated, the controller 300 responds by resetting the entire imaging system 100, or by resetting the camera that has become out of sync and the camera adapter directly connected to that camera.

(第2の実施形態)
以下、本発明の第2の実施形態について説明する。本実施形態では、第1の実施形態と同様に、カメラ112a~hで撮像したフレームデータが、デイジーチェーン接続されたネットワークを介して下流側のカメラアダプタに転送され、スイッチングハブ180を介してサーバ200に蓄えられる。また、本実施形態では、カメラアダプタからフレーム毎に最初に時刻情報を含むパケットを他の全てのカメラアダプタに送信する。なお、本実施形態に係る撮像システムの構成、カメラアダプタの内部構成については図1~図4と同様であるため、説明は省略する。以下、第1の実施形態と異なる点について説明する。
Second Embodiment
A second embodiment of the present invention will be described below. In this embodiment, similar to the first embodiment, frame data captured by cameras 112a-h is transferred to a downstream camera adapter via a daisy-chained network and stored in server 200 via switching hub 180. Also, in this embodiment, a packet including time information is transmitted from the camera adapter to all other camera adapters for each frame. Note that the configuration of the imaging system and the internal configuration of the camera adapters according to this embodiment are the same as those shown in Figs. 1-4, and therefore description thereof will be omitted. Below, differences from the first embodiment will be described.

図9は、本実施形態における撮像システム100の動作シーケンスを示す図である。以下、図9を参照しながら本実施形態におけるシーケンスについて説明する。なお、図9に示す例では、説明を簡略化するため、カメラ112a~c、カメラアダプタ120a~cでのシーケンスを例示しているが、さらにカメラ112d~hおよびカメラアダプタ120d~hを含む場合も同様である。 Figure 9 is a diagram showing the operation sequence of the imaging system 100 in this embodiment. The sequence in this embodiment will be described below with reference to Figure 9. Note that in the example shown in Figure 9, in order to simplify the explanation, a sequence for cameras 112a-c and camera adapters 120a-c is illustrated, but the same applies when cameras 112d-h and camera adapters 120d-h are further included.

T901からT906までは、第1の実施形態で説明した図6のT601からT606までと同様である。 T901 to T906 are the same as T601 to T606 in Figure 6 described in the first embodiment.

T907において、カメラアダプタ120aは、カメラ112aからのフレームデータから取得した時刻情報を含むパケット(以下、時刻情報パケット)を、他のカメラアダプタ120b~hに送信する。ここで、カメラアダプタ120aはデイジーチェーン接続されたネットワーク上で最上流に位置するので、フレームデータを転送する場合と同様に、一方向に送信すれば順次全ての他のカメラアダプタ120b~hに到達する。 At T907, the camera adapter 120a transmits a packet (hereafter referred to as the time information packet) containing time information obtained from the frame data from the camera 112a to the other camera adapters 120b-h. Here, since the camera adapter 120a is located at the most upstream position on the daisy-chained network, if it is transmitted in one direction, it will reach all the other camera adapters 120b-h in sequence, just like when transferring frame data.

一方、カメラアダプタ120bは、デイジーチェーン接続されたネットワーク上で上流から2番目に位置する。そこで、カメラアダプタ120bは、カメラ112bからのフレームデータから取得した時刻情報パケットを、上流側のカメラアダプタ120aと下流側のカメラアダプタ120c~hとの2方向に送信する。同様に、カメラアダプタ120cは、カメラ112cからのフレームデータから取得した時刻情報パケットを、上流側のカメラアダプタ120a~bと下流側のカメラアダプタ120d~hとの2方向に送信する。以下同様に、カメラアダプタ120d~hも時刻情報パケットを送信する。 On the other hand, camera adapter 120b is located second from the upstream on the daisy-chained network. Camera adapter 120b transmits time information packets obtained from frame data from camera 112b in two directions: to upstream camera adapter 120a and downstream camera adapters 120c-h. Similarly, camera adapter 120c transmits time information packets obtained from frame data from camera 112c in two directions: to upstream camera adapters 120a-b and downstream camera adapters 120d-h. Similarly, camera adapters 120d-h also transmit time information packets.

T908において、カメラアダプタ120a~hは、受信部422において他のカメラアダプタから送信された時刻情報パケットを受信し、時刻情報取得部431においてそのパケットから時刻情報を取得する。そして時刻情報取得部431が取得した時刻情報は時刻情報保持部432に保持される。
次にT909において、最上流のカメラアダプタ120aおよび最下流のカメラアダプタ120hは、時刻情報パケットを破棄する。
At T908, the camera adapters 120a-h receive the time information packet transmitted from the other camera adapters at the receiving unit 422, and acquire the time information from the packet at the time information acquisition unit 431. The time information acquired by the time information acquisition unit 431 is then held in the time information holding unit 432.
Next, at T909, the most upstream camera adapter 120a and the most downstream camera adapter 120h discard the time information packet.

次にT910において、カメラアダプタ120a~hは、パケット生成部421を介して取得したフレームデータから時刻情報を取得する。そして、送信判定部430においてパケット生成部421を介して取得したフレームデータの時刻情報の異常の有無を判定する。この判定では、時刻情報保持部432に保持されているT908で取得した時刻情報とパケット生成部421を介してT910で取得した時刻情報とが一致するか否かを判定する。時刻情報が一致する場合は、T911において、送信部423はパケット生成部421を介して取得したフレームデータを、下流側のカメラアダプタを介してサーバ200に送信する。なお、時刻情報が一致しない場合は、送信部423はフレームデータを送信せずに破棄し、代わりにエラーパケットをサーバ200に送信する。以上のように、2フレーム以降も1フレーム目と同様の動作を繰り返す。 Next, at T910, the camera adapters 120a-h acquire time information from the frame data acquired via the packet generation unit 421. Then, the transmission determination unit 430 judges whether or not there is an abnormality in the time information of the frame data acquired via the packet generation unit 421. In this judgment, it is judged whether or not the time information acquired at T908, which is held in the time information holding unit 432, matches the time information acquired at T910 via the packet generation unit 421. If the time information matches, at T911, the transmission unit 423 transmits the frame data acquired via the packet generation unit 421 to the server 200 via the downstream camera adapter. Note that if the time information does not match, the transmission unit 423 discards the frame data without transmitting it, and instead transmits an error packet to the server 200. As described above, the same operation as for the first frame is repeated for the second and subsequent frames.

図10は、本実施形態において、カメラアダプタ120a~hがフレームデータの送信を行うか否かを判定する処理手順の一例を示すフローチャートである。
ステップS1001において、パケット生成部421においてフレームデータを取得するまで待機する。そして、フレームデータを取得すると、次のステップS1002に進む。
FIG. 10 is a flowchart showing an example of a processing procedure for determining whether or not the camera adapters 120a to 120h transmit frame data in this embodiment.
In step S1001, the process waits until frame data is acquired in the packet generating unit 421. Then, when the frame data is acquired, the process proceeds to the next step S1002.

ステップS1002において、送信部423は、時刻情報パケットを他のカメラアダプタに送信する。そして、ステップS1003において、受信部422は、他のカメラアダプタから時刻情報パケットを受信し、時刻情報取得部431においてそのパケットから時刻情報を取得する。このとき、取得した時刻情報は時刻情報保持部432に保持される。 In step S1002, the transmitting unit 423 transmits a time information packet to the other camera adapter. Then, in step S1003, the receiving unit 422 receives the time information packet from the other camera adapter, and the time information acquiring unit 431 acquires the time information from the packet. At this time, the acquired time information is stored in the time information storing unit 432.

次に、ステップS1004において、時刻情報判定部433は、パケット生成部421において取得したフレームデータから時刻情報を取得し、時刻情報保持部432に保持された他のカメラの時刻情報と一致するか否かを判定する。この判定の結果、時刻情報が一致している場合はステップS1005に進み、時刻情報が一致していない場合はステップS1006に進む。 Next, in step S1004, the time information determination unit 433 obtains time information from the frame data obtained by the packet generation unit 421, and determines whether or not it matches the time information of other cameras stored in the time information storage unit 432. If the result of this determination is that the time information matches, the process proceeds to step S1005, and if the time information does not match, the process proceeds to step S1006.

ステップS1005において、送信部423は、パケット生成部421において取得したフレームデータをデイジーチェーン接続されたネットワーク上にパケット単位で送信する。そして、ステップS1001に戻る。
一方、ステップS1006においては、時刻情報判定部433は、パケット生成部421において取得したフレームデータを破棄し、エラーパケットを生成する。そして、ステップS1007において、送信部423は、エラーパケットをサーバ200に送信し、ステップS1001に戻る。なお、図11には、カメラアダプタ120aの時刻情報判定部433が生成するエラーパケットの例を示しており、エラーパケットにはカメラIDとエラー情報とが含まれている。
In step S1005, the transmitting unit 423 transmits the frame data acquired in the packet generating unit 421 onto the daisy-chained network in packet units, and then returns to step S1001.
On the other hand, in step S1006, the time information determination unit 433 discards the frame data acquired by the packet generation unit 421 and generates an error packet. Then, in step S1007, the transmission unit 423 transmits the error packet to the server 200, and the process returns to step S1001. Note that Fig. 11 shows an example of an error packet generated by the time information determination unit 433 of the camera adapter 120a, and the error packet includes a camera ID and error information.

図12は、本実施形態におけるフレームデータの転送及び送信および転送のタイミングを説明するための図である。第1の実施形態では、カメラアダプタ120a~hのうち、順次1台ずつフレームデータの転送及び送信を行っていたが、本実施形態では、フレームデータの転送及び送信が全てのカメラアダプタ120a~hにおいてほぼ同じタイミングで行われる。なお、第1の実施形態と同様に順次1台ずつフレームデータの転送及び送信を行ってもよい。 Figure 12 is a diagram for explaining the transfer and transmission of frame data and the timing of the transfer in this embodiment. In the first embodiment, frame data was transferred and transmitted sequentially from one of the camera adapters 120a-h to another, but in this embodiment, frame data is transferred and transmitted at approximately the same timing for all of the camera adapters 120a-h. Note that frame data may also be transferred and transmitted sequentially from one camera adapter to another, as in the first embodiment.

また、本実施形態においては、エラーパケットをサーバ200が受信すると、第1の実施形態と同様に仮想視点画像を生成できるか否かを判定する。図13には、本実施形態において、サーバ200による仮想視点映像の生成可否を判定する手順を説明するための図である。図13に示すように、カメラアダプタ120a~hからフレームデータを受信し、その後、一部のカメラアダプタからエラーパケットを受信すると、サーバ200は仮想視点画像を生成できるか否かを判定する。この判定基準は第1の実施形態と同様である。 In addition, in this embodiment, when the server 200 receives an error packet, it determines whether or not a virtual viewpoint image can be generated, similar to the first embodiment. Figure 13 is a diagram for explaining the procedure by which the server 200 determines whether or not a virtual viewpoint image can be generated in this embodiment. As shown in Figure 13, when the server 200 receives frame data from the camera adapters 120a-h and then receives an error packet from some of the camera adapters, the server 200 determines whether or not a virtual viewpoint image can be generated. The criteria for this determination are the same as in the first embodiment.

そして、サーバ200が仮想視点映像の生成が不可であると判定した場合は、その旨をコントローラ300に通知する。仮想視点映像を生成できない旨が通知されると、コントローラ300は撮像システム100全体をリセットしたり、エラーパケットを送信したカメラアダプタおよび対応するカメラをリセットしたりして対応する。 If the server 200 determines that it is not possible to generate a virtual viewpoint video, it notifies the controller 300 accordingly. When notified that it is not possible to generate a virtual viewpoint video, the controller 300 responds by resetting the entire imaging system 100, or by resetting the camera adapter that sent the error packet and the corresponding camera.

また、図13に示すように、エラーパケットを受信しなかった場合、もしくはエラーパケットを受信したが仮想視点映像の生成が可能であると判定した場合は、仮想視点映像の生成が可能である旨をコントローラ300に通知してもよい。これにより、コントローラ300は撮像システム100として仮想視点映像の生成に問題がないことを確認できる。 Also, as shown in FIG. 13, if an error packet is not received, or if an error packet is received but it is determined that a virtual viewpoint video can be generated, the controller 300 may be notified that a virtual viewpoint video can be generated. This allows the controller 300 to confirm that there is no problem with generating a virtual viewpoint video as the imaging system 100.

以上のように本実施形態によれば、デイジーチェーン接続されたネットワーク上で他のカメラアダプタから時刻情報パケットを受信して他のカメラの時刻情報を保持する。そして、自身に接続されたカメラからのフレームデータの時刻情報と一致するときのみ、フレームデータをサーバに送信するようにした。一部のカメラに同期ずれが起こった場合でも、他のカメラの時刻情報と異なる場合はフレームデータを破棄し、代わりにエラーパケットを送信するため、同期ずれの発生したフレームデータがサーバに送信されるのを防ぐことができる。 As described above, according to this embodiment, the time information packets are received from other camera adapters on a daisy-chained network, and the time information of the other cameras is stored. Then, frame data is sent to the server only when the time information matches that of the frame data from the camera connected to the adapter itself. Even if some cameras become out of sync, if the time information differs from that of the other cameras, the frame data is discarded and an error packet is sent instead, so that out-of-sync frame data can be prevented from being sent to the server.

(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
Other Embodiments
The present invention can also be realized by a process in which a program for implementing one or more of the functions of the above-described embodiments is supplied to a system or device via a network or a storage medium, and one or more processors in a computer of the system or device read and execute the program. The present invention can also be realized by a circuit (e.g., ASIC) that implements one or more of the functions.

421 パケット生成部、422 受信部、423 送信部、431 時刻情報取得部、433 時刻情報判定部 421 packet generation unit, 422 receiving unit, 423 transmitting unit, 431 time information acquisition unit, 433 time information determination unit

Claims (11)

複数の撮像装置の撮像に基づく画像を用いて仮想視点映像を生成する撮像システムにおける情報処理装置であって、
前記複数の撮像装置の中の第1の撮像装置の撮像に基づく第1の画像を外部装置に出力する出力手段と、
前記第1の画像に係る第1の時刻情報を取得し、前記複数の撮像装置の中の前記第1の撮像装置とは異なり、前記第1の撮像装置と同期して撮像する第2の撮像装置の撮像に基づく第2の画像に係る第2の時刻情報を取得する取得手段と、
前記第1の時刻情報が示す時刻と前記第2の時刻情報が示す時刻とが異なる場合に、前記第1の画像を前記外部装置に出力しないように前記出力手段を制御する制御手段と、を有することを特徴とする情報処理装置。
An information processing device in an imaging system that generates a virtual viewpoint video using images based on imaging by a plurality of imaging devices,
an output unit that outputs a first image based on an image captured by a first imaging device among the plurality of imaging devices to an external device;
an acquisition means for acquiring first time information related to the first image , and acquiring second time information related to a second image based on imaging by a second imaging device that is different from the first imaging device among the plurality of imaging devices and captures images in synchronization with the first imaging device;
An information processing device characterized by having a control means for controlling the output means so as not to output the first image to the external device when the time indicated by the first time information and the time indicated by the second time information are different.
前記取得手段は、他の情報処理装置から出力された前記第2の画像を取得し、前記取得した第2の画像から前記第2の時刻情報を取得することを特徴とする請求項1に記載の情報処理装置。 2 . The information processing apparatus according to claim 1 , wherein the acquisition means acquires the second image output from another information processing apparatus, and acquires the second time information from the acquired second image . 前記出力手段は、前記第2の画像を前記外部装置に転送することを特徴とする請求項2に記載の情報処理装置。 3. The information processing apparatus according to claim 2, wherein the output means transfers the second image to the external device. 前記取得手段は、前記第2の画像に係る第2の時刻情報をパケットから取得することを特徴とする請求項1に記載の情報処理装置。 2 . The information processing apparatus according to claim 1 , wherein the acquiring means acquires the second time information related to the second image from a packet. 前記取得手段は、他の複数の情報処理装置から出力された複数の画像に係る複数の時刻情報を取得し、
前記制御手段は、前記複数の画像に係る複数の時刻情報が示す時刻と、前記第1の時刻情報が示す時刻とを比較することに基づいて、前記第1の画像を前記外部装置に出力しないように前記出力手段を制御することを特徴とする請求項1に記載の情報処理装置。
the acquiring means acquires a plurality of pieces of time information related to a plurality of images output from a plurality of other information processing devices;
The information processing device according to claim 1, characterized in that the control means controls the output means so as not to output the first image to the external device based on a comparison between the time indicated by the multiple time information relating to the multiple images and the time indicated by the first time information.
比較の結果、前記第1の時刻情報が示す時刻が前記複数の時刻情報が示す時刻と異なる場合に、前記出力手段は、エラー情報を前記外部装置に出力することを特徴とする請求項に記載の情報処理装置。 6. The information processing apparatus according to claim 5 , wherein, when the comparison result shows that the time indicated by the first time information is different from the times indicated by the plurality of time information, the output means outputs error information to the external device. 前記出力手段は、デイジーチェーン接続された前記外部装置に前記第1の画像を出力することを特徴とする請求項1から6の何れか1項に記載の情報処理装置。 7. The information processing apparatus according to claim 1, wherein the output unit outputs the first image to the external device connected in a daisy chain. 前記外部装置は、他の情報処理装置であることを特徴とする請求項1に記載の情報処理装置。 The information processing device according to claim 1, characterized in that the external device is another information processing device. 前記外部装置は、被写体の3次元形状データを生成する装置であることを特徴とする請求項1に記載の情報処理装置。 The information processing device according to claim 1, characterized in that the external device is a device that generates three-dimensional shape data of a subject. 複数の撮像装置の撮像に基づく画像を用いて仮想視点映像を生成する撮像システムにおける情報処理装置の情報処理方法であって、
前記複数の撮像装置の中の第1の撮像装置の撮像に基づく第1の画像を外部装置に出力する出力工程と、
前記第1の画像に係る第1の時刻情報を取得し、前記複数の撮像装置の中の前記第1の撮像装置とは異なり、前記第1の撮像装置と同期して撮像する第2の撮像装置の撮像に基づく第2の画像に係る第2の時刻情報を取得する取得工程と、
前記第1の時刻情報が示す時刻と前記第2の時刻情報が示す時刻とが異なる場合に、前記第1の画像を前記外部装置に出力しないように前記出力工程を制御する制御工程と、を有することを特徴とする情報処理方法。
An information processing method of an information processing device in an imaging system that generates a virtual viewpoint video using images based on imaging by a plurality of imaging devices, comprising:
an output step of outputting a first image based on imaging by a first imaging device among the plurality of imaging devices to an external device;
an acquisition step of acquiring first time information related to the first image , and acquiring second time information related to a second image based on imaging by a second imaging device that is different from the first imaging device among the plurality of imaging devices and captures images in synchronization with the first imaging device;
and a control step of controlling the output step so as not to output the first image to the external device when the time indicated by the first time information is different from the time indicated by the second time information.
コンピュータを、請求項1から9の何れか1項に記載の情報処理装置の各手段として機能させるためのプログラム。 A program for causing a computer to function as each of the means of an information processing device according to any one of claims 1 to 9.
JP2020007623A 2020-01-21 2020-01-21 Information processing device, information processing method, and program Active JP7467130B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020007623A JP7467130B2 (en) 2020-01-21 2020-01-21 Information processing device, information processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020007623A JP7467130B2 (en) 2020-01-21 2020-01-21 Information processing device, information processing method, and program

Publications (2)

Publication Number Publication Date
JP2021114245A JP2021114245A (en) 2021-08-05
JP7467130B2 true JP7467130B2 (en) 2024-04-15

Family

ID=77077094

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020007623A Active JP7467130B2 (en) 2020-01-21 2020-01-21 Information processing device, information processing method, and program

Country Status (1)

Country Link
JP (1) JP7467130B2 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017211828A (en) 2016-05-25 2017-11-30 キヤノン株式会社 Image processing system, image processor, control method, and program
JP2018063500A (en) 2016-10-11 2018-04-19 キヤノン株式会社 Image processing system, image processing apparatus, control method, and program
JP2019168966A (en) 2018-03-23 2019-10-03 キヤノン株式会社 Information processing device and control method thereof
JP2019191915A (en) 2018-04-25 2019-10-31 キヤノン株式会社 Video generation device, and control method and program therefor
JP2020010300A (en) 2018-07-12 2020-01-16 キヤノン株式会社 Video generating device and control method therefor and program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017211828A (en) 2016-05-25 2017-11-30 キヤノン株式会社 Image processing system, image processor, control method, and program
JP2018063500A (en) 2016-10-11 2018-04-19 キヤノン株式会社 Image processing system, image processing apparatus, control method, and program
JP2019168966A (en) 2018-03-23 2019-10-03 キヤノン株式会社 Information processing device and control method thereof
JP2019191915A (en) 2018-04-25 2019-10-31 キヤノン株式会社 Video generation device, and control method and program therefor
JP2020010300A (en) 2018-07-12 2020-01-16 キヤノン株式会社 Video generating device and control method therefor and program

Also Published As

Publication number Publication date
JP2021114245A (en) 2021-08-05

Similar Documents

Publication Publication Date Title
JP6894687B2 (en) Image processing system, image processing device, control method, and program
WO2018228352A1 (en) Synchronous exposure method and apparatus and terminal device
WO2017200847A1 (en) Intelligent interface for interchangeable sensors
KR101821145B1 (en) Video live streaming system
JP2019103067A (en) Information processing device, storage device, image processing device, image processing system, control method, and program
US20160088210A1 (en) Photographing control apparatus that controls synchronous photographing by plurality of image capture apparatus
US20180376131A1 (en) Image processing apparatus, image processing system, and image processing method
TWI449418B (en) Camera system, signal delay amount adjusting method and program
JP7467130B2 (en) Information processing device, information processing method, and program
JP6821398B2 (en) Image processing equipment, image processing methods and programs
JP2013048333A (en) Image processor, image processing method and image processing system
US11956344B2 (en) Communication apparatus, method for controlling communication apparatus, and storage medium
JP4254637B2 (en) Shooting system
CN114866829A (en) Synchronous playing control method and device
US20240107094A1 (en) Communication apparatus, control method, and storage medium
JP7104504B2 (en) Image processing system, image processing device, image transmission method, and program
JP7492331B2 (en) IMAGE PROCESSING APPARATUS, CONTROL METHOD AND PROGRAM FOR IMAGE PROCESSING APPARATUS
JP2019140643A (en) Transmission equipment
JP2020077997A (en) Image processing apparatus, system, information processing method, and program
JP2006203817A (en) Multicamera system
US20240072919A1 (en) Communication apparatus and control method therefor
US20240072990A1 (en) Synchronous control apparatus, synchronous imaging apparatus, synchronous control method, and storage medium
US11622101B2 (en) Transmission processing apparatus, transmission processing method, and storage medium
US20230032204A1 (en) Communication apparatus, communication method, and storage medium
JP2019003325A (en) Image processing system, image processing method and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230116

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231212

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240207

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240305

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240403

R150 Certificate of patent or registration of utility model

Ref document number: 7467130

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150