JP2019050463A - Image processing system and method for controlling image processing system - Google Patents
Image processing system and method for controlling image processing system Download PDFInfo
- Publication number
- JP2019050463A JP2019050463A JP2017172735A JP2017172735A JP2019050463A JP 2019050463 A JP2019050463 A JP 2019050463A JP 2017172735 A JP2017172735 A JP 2017172735A JP 2017172735 A JP2017172735 A JP 2017172735A JP 2019050463 A JP2019050463 A JP 2019050463A
- Authority
- JP
- Japan
- Prior art keywords
- image
- frame
- read
- recording
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Television Signal Processing For Recording (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、画像処理システム及び画像処理システムの制御方法に関する。 The present invention relates to an image processing system and a control method of the image processing system.
昨今、複数のカメラを異なる位置に設置して多視点で同期撮影し、撮影により得られた複数視点画像を用いて仮想視点コンテンツを生成する技術が注目されている。上記の技術によれば、例えば、サッカーやバスケットボールなどの特定シーン(例えばゴールシーンなど)を様々な角度から視聴することができるため、通常の画像と比較してユーザに高臨場感を与えることができる。複数のカメラは、画像を撮影する。サーバなどの画像処理部は、複数のカメラが撮影した画像を集約し、三次元モデル生成及びレンダリングなどの処理を施し、ユーザ端末に伝送を行う。これにより、複数視点画像に基づく仮想視点コンテンツの生成及び閲覧を実現できる。 Recently, attention has been focused on a technique of setting a plurality of cameras at different positions and synchronously photographing with multiple viewpoints, and generating virtual viewpoint content using a plurality of viewpoint images obtained by photographing. According to the above-mentioned technology, for example, it is possible to view a specific scene (for example, a goal scene) such as soccer or basketball from various angles, thereby providing the user with a high sense of reality as compared with a normal image. it can. Multiple cameras capture images. An image processing unit such as a server aggregates images captured by a plurality of cameras, performs processing such as three-dimensional model generation and rendering, and transmits the processed image to a user terminal. Thereby, generation and browsing of virtual viewpoint content based on a plurality of viewpoint images can be realized.
このとき、サーバに集約される画像枚数は、膨大である。サーバは、同時刻に撮影された画像を複数のカメラで撮影された画像群の中から抽出するのに長時間を要してしまう。その抽出時間は、仮想視点コンテンツが閲覧可能になるまでの時間に影響を与える。例えば、カメラ台数が100台、映像フレームレートが60fpsである場合、サッカーの試合の90分間の撮影では、約3240万枚の画像がサーバに集約される。また、画像解析部が、選手などの前景と背景を分離し、それぞれの画像を別々に管理する場合、更に画像枚数が膨れ上がる。このような状況下で、仮想視点コンテンツを短時間で生成し閲覧できるようにすることが重要となる。 At this time, the number of images collected on the server is enormous. The server takes a long time to extract images taken at the same time from a group of images taken by a plurality of cameras. The extraction time affects the time until the virtual viewpoint content becomes viewable. For example, when the number of cameras is 100 and the video frame rate is 60 fps, about 90 minutes of soccer match shooting, approximately 32.4 million images are collected on the server. In addition, when the image analysis unit separates the foreground and the background of a player or the like and separately manages the respective images, the number of images further increases. Under such circumstances, it is important to be able to generate and view virtual viewpoint content in a short time.
特許文献1には、複数のカメラで撮影した画像に対してタイムコードを付加し、同一タイムコードの画像を抽出し繋ぎ合せてパノラマ画像を生成する技術が開示されている。
しかし、特許文献1の技術は、タイムコードを用いた画像検索として、画像一枚ずつに対してタイムコード比較を行うため、処理時間が非常に長くなる。
However, in the technique of
本発明の目的は、複数の撮像手段で撮影された複数の画像の中から特定の時刻に撮影されたフレームを短時間に読み出すことができる方法を提供することである。 An object of the present invention is to provide a method capable of reading out a frame captured at a specific time in a short time from among a plurality of images captured by a plurality of imaging means.
本発明の画像処理システムは、被写体に対して複数の方向から複数の画像をそれぞれ撮影する複数の撮像手段と、前記複数の撮像手段により撮影された複数の画像の各フレームに重畳される時間情報及び録画指示を基に、前記複数の撮像手段により撮影された複数の画像の各フレームに付加する制御情報を生成する制御情報生成手段と、前記制御情報を基に、前記複数の撮像手段により撮影された複数の画像の各フレームを記憶手段に書き込む書き込み制御手段と、前記制御情報を基に、前記記憶手段から前記複数の画像のフレームを読み出す読み出し制御手段と、前記読み出し制御手段により読み出された前記複数の画像のフレームを用いて、仮想視点画像を生成する仮想視点画像生成手段とを有する。 In the image processing system according to the present invention, a plurality of image pickup means for respectively photographing a plurality of images from a plurality of directions with respect to a subject, and time information superimposed on each frame of the plurality of images photographed by the plurality of image pickup means And control information generating means for generating control information to be added to each frame of the plurality of images taken by the plurality of imaging means based on the recording instruction and the plurality of imaging means based on the control information Write control means for writing each frame of the plurality of images into the storage means, read control means for reading the frames of the plurality of images from the storage means based on the control information, and read by the read control means Virtual viewpoint image generation means for generating a virtual viewpoint image using the frames of the plurality of images.
本発明によれば、複数の撮像手段で撮影された複数の画像の中から特定の時刻に撮影されたフレームを短時間に読み出すことができる。 According to the present invention, a frame captured at a specific time can be read out in a short time from among a plurality of images captured by a plurality of imaging means.
図1は、本発明の実施形態による画像処理システム100の構成例を示す図である。画像処理システム100は、競技場(スタジアム)又はコンサートホールなどの施設に複数のカメラ及びマイクを設置し、撮影及び集音を行う。画像処理システム100は、複数のセンサシステム110a〜110z、画像コンピューティングサーバ200、コントローラ300、スイッチングハブ180、及びエンドユーザ端末190を有する。
FIG. 1 is a diagram showing an exemplary configuration of an
コントローラ300は、制御ステーション310及び仮想カメラ操作UI330を有する。制御ステーション310は、画像処理システム100を構成するそれぞれのブロックに対して、ネットワーク310a〜310c、180a、180b、及び170a〜170yを介して、動作状態の管理及びパラメータ設定制御などを行う。ここで、ネットワークは、IEEE標準準拠のGbE(ギガビットイーサーネット)又は10GbEでもよいし、インターコネクトInfiniband、産業用イーサーネット等を組み合せてもよい。また、ネットワークは、これらに限定されず、他の種別のネットワークであってもよい。
The
センサシステム110a〜110zは、ネットワーク170a〜170yのデイジーチェーンにより接続される。センサシステム110zは、26セットのセンサシステム110a〜110zの26セットの画像及び音声を画像コンピューティングサーバ200へ送信する。本実施形態では、特別な説明がない場合は、26セットのセンサシステム110a〜110zを区別せず、センサシステム110と記載する。センサシステム110aは、マイク111a、カメラ112a、雲台113a、外部センサ114a及びカメラアダプタ120aを有する。センサシステム110b〜110zは、センサシステム110aと同様の構成を有する。各センサシステム110内の装置についても、特別な説明がない場合は区別しない。なお、センサシステム110の台数は26に限定されない。また、例えばカメラ112とカメラアダプタ120が一体の装置として構成されていても良いし、外部センサ114が存在しなくても良いなど、種々の変形例が存在する。
Sensor systems 110a-110z are connected by a daisy chain of
本実施形態では、特に断りがない限り、画像は、動画と静止画を含むものとして説明する。すなわち、画像処理システム100は、静止画及び動画の何れについても処理可能である。また、画像処理システム100により提供される仮想視点コンテンツには、仮想視点画像と仮想視点音声が含まれる例を説明するが、これに限らない。例えば、仮想視点コンテンツに音声が含まれていなくてもよい。また、例えば、仮想視点コンテンツに含まれる音声が、仮想視点に最も近いマイクにより集音された音声であってもよい。また、本実施形態では、説明の簡略化のため、部分的に音声についての記載を省略しているが、基本的に画像と音声は共に処理される。
In the present embodiment, the image is described as including a moving image and a still image unless otherwise noted. That is, the
センサシステム110a〜110zは、それぞれ、1台のカメラ112a〜112zを有する。すなわち、画像処理システム100は、被写体に対して複数の方向から複数の画像をそれぞれ撮影するための複数のカメラ(撮像手段)112a〜112zを有する。複数のセンサシステム110同士は、ネットワーク170a〜170yのデイジーチェーンにより接続される。なお、接続形態は、各センサシステム110a〜110zが、スイッチングハブ180に接続され、スイッチングハブ180を経由して相互にデータ送受信を行うスター型のネットワーク構成でもよい。
Each of the sensor systems 110a to 110z has one
マイク111aは、音声を集音する。カメラ112aは、画像を撮影する。カメラアダプタ120aは、マイク111aにより集音された音声と、カメラ112aにより撮影された画像に対して、処理を行う。そして、カメラアダプタ120aは、処理後の音声及び画像を、デイジーチェーンのネットワーク170aを介して、センサシステム110bのカメラアダプタ120bに伝送する。同様に、センサシステム110bは、集音された音声と撮影された画像を、センサシステム110aから取得した画像及び音声と合わせてセンサシステム110cに伝送する。前述した動作を続けることにより、センサシステム110zは、センサシステム110a〜110zが取得した画像及び音声を、ネットワーク180b及びスイッチングハブ180を介して、画像コンピューティングサーバ200へ伝送する。
The microphone 111a collects voice. The
次に、画像コンピューティングサーバ200の構成及び動作について説明する。画像コンピューティングサーバ200は、センサシステム110zから取得したデータの処理を行う。画像コンピューティングサーバ200は、フロントエンドサーバ230、データベース(以下、DBとも記載する。)250、バックエンドサーバ270、及びタイムサーバ290を有する。
Next, the configuration and operation of the
タイムサーバ290は、複数のカメラ112の撮影タイミングを同期させる。これにより、画像処理システム100は、同じタイミングで撮影された複数の撮影画像に基づいて仮想視点画像を生成できるため、撮影タイミングのずれによる仮想視点画像の品質低下を抑制できる。なお、タイムサーバ290が複数のカメラ112の時刻同期を管理する場合に限定されず、各カメラ112又は各カメラアダプタ120が時刻同期のための処理を独立して行ってもよい。
The
フロントエンドサーバ230は、センサシステム110zから取得した画像及び音声を基に、セグメント化された伝送パケットを再構成してデータ形式を変換した後に、カメラの識別子、データ種別、及びフレーム番号に応じて、データベース250に書き込む。
The
次に、バックエンドサーバ270は、仮想カメラ操作UI330から視点の指定を受け付け、受け付けられた視点に基づいて、データベース250から対応する画像及び音声データを読み出し、レンダリング処理を行って仮想視点画像を生成する。より具体的には、バックエンドサーバ270は、例えば複数のカメラ112による撮影画像から抽出された前景領域の画像データと、ユーザ操作により指定された視点に基づいて、仮想視点コンテンツを生成する。カメラアダプタ120が前景領域を抽出する方法については後述する。
Next, the
バックエンドサーバ270は、レンダリング処理された画像及び音声を、エンドユーザ端末190に出力する。エンドユーザ端末190は、ユーザの操作に応じて、視点の指定に応じた画像閲覧及び音声視聴を行うことができる。
The
なお、画像コンピューティングサーバ200の構成は、これに限らない。例えば、フロントエンドサーバ230、データベース250、及びバックエンドサーバ270のうち少なくとも2つが一体となって構成されていてもよい。また、画像コンピューティングサーバ200は、フロントエンドサーバ230、データベース250、及びバックエンドサーバ270の少なくとも何れかを複数有していてもよい。また、画像コンピューティングサーバ200内の任意の位置に上記の装置以外の装置が含まれていてもよい。さらに、画像コンピューティングサーバ200の機能の少なくとも一部をエンドユーザ端末190又は仮想カメラ操作UI330が有していてもよい。
The configuration of the
また、画像処理システム100の構成は上記の構成に限らない。例えば、仮想カメラ操作UI330が直接センサシステム110a〜110zから画像を取得するようにしても良い。また、仮想カメラ操作UI330が、直接データベース250にアクセスするような構成であっても良い。また、画像処理システム100は、上記で説明した物理的な構成に限定されず、論理的に構成されていてもよい。
Further, the configuration of the
また、仮想視点画像は、仮想的な視点から被写体を撮影した場合に得られる画像である。言い換えると、仮想視点画像は、指定された視点における見えを表す画像である。仮想的な視点(仮想視点)は、ユーザにより指定されてもよいし、画像解析の結果等に基づいて自動的に指定されてもよい。 The virtual viewpoint image is an image obtained when the subject is photographed from a virtual viewpoint. In other words, the virtual viewpoint image is an image representing the appearance at the designated viewpoint. The virtual viewpoint (virtual viewpoint) may be designated by the user, or may be automatically designated based on the result of image analysis or the like.
図2は、図1のカメラアダプタ120の構成例を示す図である。カメラアダプタ120は、カメラ制御部121、マイク制御部122、データ送受信部123、時刻同期制御部124、前景背景分離部125、三次元モデル情報生成部126、タイムコード抽出部127、及び画像付加情報生成部128を有する。
FIG. 2 is a view showing a configuration example of the
カメラ制御部121は、カメラ112に接続され、カメラ112の制御、撮影画像取得、同期信号提供、及び時刻設定などを行う機能を有する。カメラ112の制御は、例えば、撮影パラメータ(画素数、色深度、フレームレート、及びホワイトバランスの設定など)の設定及び参照、カメラ112の状態(撮影中、停止中、同期中、及びエラーなど)の取得、撮影の開始及び停止、又はピント調整などである。なお、カメラ制御部121が、カメラ112に対してピント調整を行う場合に限定されない。取り外し可能なレンズがカメラ112に装着されている場合、カメラアダプタ120が、レンズに接続され、直接レンズの調整を行ってもよい。また、カメラアダプタ120がカメラ112を介してズーム等のレンズ調整を行ってもよい。同期信号提供は、時刻同期制御部124がタイムサーバ290と外部同期した時刻を利用し、撮影タイミング(制御クロック)をカメラ112に提供することで行われる。時刻設定は、時刻同期制御部124がタイムサーバ290と同期した時刻を例えばSMPTE12Mのフォーマットに準拠したタイムコード(時間情報)で提供することで行われる。時刻同期制御部124は、カメラ112から受け取る画像データの各フレームに重畳されタイムコードとして、外部同期によりタイムコードを生成する。なお、タイムコードのフォーマットは、SMPTE12Mに限定されるわけではなく、他のフォーマットであってもよい。また、カメラ制御部121は、カメラ112に対するタイムコードの提供をせず、カメラ112から受け取った画像データに自身がタイムコードを付与してもよい。
The
マイク制御部122は、マイク111に接続され、マイク111の制御、収音の開始及び停止、収音された音声データの取得などを行う機能を有する。マイク111の制御は、例えば、ゲイン調整、及び状態取得などである。また、マイク制御部122は、カメラ制御部121と同様に、マイク111に対して音声サンプリングするタイミングとタイムコードを提供する。音声サンプリングのタイミングとなるクロック情報としては、タイムサーバ290からの時刻情報が例えば48KHzのワードクロックに変換されてマイク111に供給される。
The
データ送受信部123は、ネットワーク170a〜170y、180a、180b、291及び310aを介して、他のカメラアダプタ120、フロントエンドサーバ230、タイムサーバ290、及び制御ステーション310とデータ通信を行う。
The data transmission /
時刻同期制御部124は、IEEE1588規格のPTP(Precision Time Protocol)に準拠し、タイムサーバ290と時刻同期に係わる処理を行う機能を有する。なお、時刻同期制御部124は、PTPに限定されず、他の同様のプロトコルを利用して時刻同期してもよい。
The time
前景背景分離部125は、カメラ112が撮影した画像データを前景画像と背景画像に分離する。すなわち、各カメラアダプタ120に含まれる前景背景分離部125は、複数のカメラ112のうちの対応するカメラ112による撮影画像から所定領域を抽出する。所定領域は、例えば撮影画像に対応するオブジェクト検出の結果により得られる前景画像である。この抽出により、前景背景分離部125は、撮影画像を前景画像と背景画像に分離する。なお、オブジェクトは、例えば人物である。ただし、オブジェクトが特定人物(選手、監督、及び/又は審判など)であってもよいし、ボールやゴールなどの画像パターンが予め定められている物体であってもよい。また、オブジェクトとして動体が検出されるようにしてもよい。前景背景分離部125は、人物等の重要なオブジェクトを含む前景画像とそのようなオブジェクトを含まない背景領域を分離して処理する。
The foreground /
三次元モデル情報生成部126は、前景背景分離部125で分離された前景画像及び他のカメラアダプタ120から入力した前景画像を利用し、例えばステレオカメラの原理を用いて三次元モデルに関わる画像情報を生成する。
The three-dimensional model
タイムコード抽出部127は、カメラ112が撮影した画像データに重畳される補助データを抽出する。補助データは、ズーム率、露出、色温度などのカメラパラメータ、及びタイムコード(以後、外部タイムコードと呼ぶ)などを含む。タイムコード抽出部127は、外部タイムコードが破綻しているか否かを判定した上で、正常なタイムコードを画像付加情報生成部128へ送信する。なお、外部タイムコードが破綻していた場合、タイムコード抽出部127は、内部で常時生成している予測タイムコードを画像付加情報生成部128へ送信する。予測タイムコードは、ひとつ前の外部タイムコード又は予測タイムコードを用いて算出される。その際、タイムコード抽出部127は、ドロップフレームを考慮して算出するのが望ましい。
The time
画像付加情報生成部128は、画像データ(前景画像、背景画像、三次元モデルなどのデータ)又は音声データに付加させる情報(以後、画像付加情報と呼ぶ)を生成する。画像付加情報は、画像データに重畳されるタイムコード、録画シーケンス番号、録画フラグ、フレーム番号、カメラアダプタ番号、及びデータ識別子などを含む。また、画像付加情報に含まれるパラメータの一部は、制御ステーション310から入力した録画指示に基づいて生成される。画像データ又は音声データに付加された画像付加情報は、データ送受信部123を介して、他のカメラアダプタ120又はフロントエンドサーバ230へ転送され、制御情報として使用される。
The image additional
図3は、図1の画像コンピューティングサーバ200の構成例を示す図である。画像コンピューティングサーバ200は、フロントエンドサーバ230、データベース250、及びバックエンドサーバ270を有する。フロントエンドサーバ230は、データ入力制御部202及び書き込み制御部203を有する。データベース250は、通信部201、SQ情報管理部204、及び記憶部205を有する。バックエンドサーバ270は、読み出し制御部206及び仮想視点画像生成部207を有する。
FIG. 3 is a view showing a configuration example of the
通信部201は、通信路を介して、制御ステーション310に接続され、制御ステーション310から受信した制御指示などを画像コンピューティングサーバ200の少なくとも1つ以上の機能ブロックへ転送する。
The
データ入力制御部202は、ネットワークとスイッチングハブ180を介して、カメラアダプタ120に接続されている。データ入力制御部202は、カメラアダプタ120から前景画像、背景画像、三次元モデル、及び音声データを取得する。また、データ入力制御部202は、順次送られてくるデータを後段の書き込み制御部203へ転送する。その際、データ入力制御部202は、画像データ又は音声データに付加されている画像付加情報についても、書き込み制御部203へ転送する。
The data
書き込み制御部203は、前段のデータ入力制御部202から受信したデータを記憶部205へ書き込む。書き込み制御部203は、制御ステーション310によって予め設定されたパラメータと画像付加情報に基づいて書き込みアドレスを生成し、書き込みアドレスが示す記憶部205の領域にデータを書き込む。その際、書き込み制御部203は、画像付加情報に含まれる録画フラグの状態に応じて、書き込みをするか否かを判断する。すなわち書き込み制御部203は、録画フラグが1(録画中)の場合は画像データを記憶部205に書き込み、録画フラグが0(録画停止中)の場合は画像データを記憶部205に書き込まない。また、書き込み制御部203は、画像付加情報をモニタリングし、録画開始位置を検出した時のタイムコード、録画シーケンス番号、カメラアダプタ番号、データ識別子、及び書き込みアドレスをひと塊にした録画開始情報をSQ情報管理部204へ転送する。
The
SQ情報管理部204は、書き込み制御部203から受信した録画開始情報を、録画シーケンス番号ごとに用意されたSQテーブルに振り分けて管理する。SQ情報管理部204は、読み出し制御部206からSQテーブル読み出し要求を受け付けた場合、要求と共に受信した録画シーケンス番号に該当するSQテーブルからすべての録画開始情報(SQテーブル情報)を読み出し、読み出し制御部206へ送信する。
The SQ
記憶部205は、SSD(Solid State Drive)等のストレージメディアである。記憶部205は、SSDを並列に接続した構成であり、大量データの読み出し及び書き込みを高速化できる。
The
読み出し制御部206は、前景画像、背景画像、三次元モデル、及び音声データを記憶部205から読み出して仮想視点画像生成部207へ転送する。読み出し制御部206は、通信部201を介して制御ステーション310から受信した指示及びパラメータとSQ情報管理部204から受信したSQテーブル情報に基づいて読み出しアドレスを生成する。そして、読み出し制御部206は、読み出しアドレスが示す記憶部205の領域から画像データ又は音声データを読み出す。
The
仮想視点画像生成部207は、読み出し制御部206から受信した前景画像、背景画像、三次元モデル、及び音声データを用いて、仮想視点画像を生成する。その際、仮想視点画像生成部207は、通信部201を介して制御ステーション310から受信した仮想視点の座標や視点方向などのパラメータに基づいて、仮想視点画像を生成する。仮想視点画像生成部207は、生成した仮想視点画像をエンドユーザ端末190へ出力する。以下、画像処理システム100の制御方法を説明する。
The virtual viewpoint
図4は、図2のタイムコード抽出部127の動作例を示すフローチャートである。タイムコード抽出部127は、画像データに重畳される補助データの中からタイムコードが含まれるデータパケットを抽出した際に、図4の処理を行う。データパケットは、SDI(Serial Digital Interface)のHANC(Horizontal Ancillary Data)に重畳されるVITC(Vertical Interval Time Code)データパケットである。
FIG. 4 is a flowchart showing an operation example of the time
ステップS401では、タイムコード抽出部127は、データパケットに含まれる誤り検出符号を検出する。誤り検出符号は、例えばパリティビット(Parity Bit)又はチェックサム(Check Sum)などである。また、ステップS401では、タイムコード抽出部127は、受信したデータパケットに含まれるデータ値に基づいて誤り検出符号を算出する。
In step S401, the time
次に、ステップS402では、タイムコード抽出部127は、ステップS401で検出した誤り検出符号と算出した誤り検出符号を比較し、補助データが破損しているか否かを判定する。タイムコード抽出部127は、両者の誤り検出符号が一致した場合(S402のYes)には、データパケットのエラーが検出されないので、外部タイムコードを用いた処理ステップS403に処理を進める。タイムコード抽出部127は、両者の誤り検出符号が一致しない場合(S402のNo)には、データパケットのエラーが検出されたので、予測タイムコードを用いた処理ステップS404に処理を進める。
Next, in step S402, the time
ステップS403では、タイムコード抽出部127は、データパケットから外部タイムコードを抽出し、その外部タイムコードを画像付加情報生成部128へ出力するタイムコード(以後、出力タイムコードと呼ぶ)として決定する。その後、タイムコード抽出部127は、ステップS405に処理を進める。
In step S403, the time
ステップS404では、タイムコード抽出部127は、内部で常時生成している予測タイムコードを出力タイムコードとして決定し、ステップS405に処理を進める。予測タイムコードは、ひとつ前の出力タイムコードのフレーム数に対して1加算した値である。ただし、タイムコード抽出部127は、ドロップフレームを考慮して、予測タイムコードを算出する必要がある。例えば、フレームレートが59.94fpsの場合、タイムコード抽出部127は、予測タイムコードを00:00:00:59から00:00:01:04へスキップさせるように、分の単位が繰り上がる度に4フレームだけスキップさせる必要がある。ただし、タイムコード抽出部127は、予測タイムコードが00:00:09:59から00:00:10:00へ繰り上がるように、分の単位が0、10、20、30、40、50の何れかへ繰り上がる場合はスキップさせる必要がない。
In step S404, the time
ステップS405では、タイムコード抽出部127は、決定された出力タイムコードを画像付加情報生成部128へ出力する。
In step S405, the time
図5は、図2の画像付加情報生成部128が生成する画像付加情報500の構造例を示す図である。画像付加情報500は、タイムコード501、録画シーケンス番号502、録画フラグ503、フレーム番号504、カメラアダプタ番号505、及びデータ識別子506などを有する。
FIG. 5 is a diagram showing an example of the structure of the image
タイムコード501は、HH(時間):MM(分):SS(秒):FF(フレーム)で構成された時間情報である。録画シーケンス番号502は、録画回数を示す情報であり、0以上の整数である。なお、録画シーケンス番号502が0の場合、カメラアダプタ120は、制御ステーション310から録画開始指示を一度も受け付けていないことを意味する。
The
録画フラグ503は、録画状態を示す情報である。録画フラグ503が1の場合、録画中を示し、録画フラグ503が0の場合、録画停止中を示す。フレーム番号504は、録画中のフレーム数を示す情報であり、0以上の整数である。
The
カメラアダプタ番号505は、カメラアダプタ120又はカメラ112を識別するための識別子であり、0以上の整数である。例えば、カメラアダプタ番号505は、すべてのカメラアダプタ120に対して0から始まる連番が割り振られている。
The
データ識別子506は、前景画像、背景画像、三次元データ、及び音声データを識別するための情報である。データ識別子506は、アルファベット一文字(前景画像=F、背景画像=B、3次元モデル=M、音声データ=A)である。なお、データ識別子506の構成は、これに限定されるものではなく、別の構成でもよい。
The
図6は、図2の画像付加情報生成部128の録画指示に基づいた画像付加情報500の生成方法を説明するための図である。画像付加情報生成部128は、録画指示及びパラメータに基づいて、画像付加情報500に含まれる録画シーケンス番号502、録画フラグ503、フレーム番号504を生成する。なお、タイムコード501は、録画指示に関係なく、タイムコード抽出部127から受信したタイムコードをそのまま用いる。画像付加情報生成部128は、制御情報生成手段であり、複数のカメラ112により撮影された複数の画像の各フレームに付加する画像付加情報(制御情報)500を生成する。
FIG. 6 is a diagram for explaining a method of generating the image
まず、時刻T1では、画像付加情報生成部128は、制御ステーション310から録画開始指示と録画開始時刻(09:20:45:00)を受け付ける。画像付加情報生成部128は、これを起点として、タイムコード抽出部127から受信するタイムコードのモニタリングを開始し、録画開始時刻と一致するタイムコードを検索する。なお、録画開始時指示によって、録画シーケンス番号502、録画フラグ503、及びフレーム番号504の状態が変化することはない。
First, at time T1, the image additional
次に、時刻T2では、画像付加情報生成部128は、タイムコード抽出部127から受信したタイムコードの中から録画開始時刻と一致するタイムコードを検出する。画像付加情報生成部128は、一致するタイムコードを検出した場合、録画シーケンス番号502をインクリメントし、録画フラグ503を0(Low)から1(High)へ変更し、フレーム番号504を0に初期化する。その後、画像付加情報生成部128は、制御ステーション310から録画停止指示を受け付けるまで、録画シーケンス番号502及び録画フラグ503の値を保持する。また、画像付加情報生成部128は、タイムコード抽出部127からタイムコードを受け付ける度にフレーム番号504をインクリメントする。
Next, at time T2, the image additional
次に、時刻T3では、画像付加情報生成部128は、制御ステーション310から録画停止指示を受け付ける。画像付加情報生成部128は、録画停止指示を受け付けた場合、録画フラグ503を1(High)から0(Low)へ変更し、録画シーケンス番号502とフレーム番号504の値を保持する。その後、画像付加情報生成部128は、次の録画開始指示を受け付けるまで、録画シーケンス番号502、録画フラグ503、及びフレーム番号504の値を保持する。
Next, at time T3, the image additional
画像付加情報生成部128は、録画開始時刻に一致するタイムコード501が付加されたフレーム以降のフレームの録画フラグ503を1にする。そして、画像付加情報生成部128は、録画停止指示を入力した場合には、複数のカメラ112のフレーム付加される録画フラグ503を0にする。
The image additional
図7は、メモリ構造パラメータ700を説明するための図である。制御ステーション310は、通信部201を介して、書き込み制御部203又は読み出し制御部206へメモリ構造パラメータ700を送信する。メモリ構造パラメータ700は、BASE_ADDR701、CAM_OFST_ADDR702、BG_OFST_ADDR703、ML_OFST_ADDR704、及びAD_OFST_ADDR705を有する。さらに、メモリ構造パラメータ700は、PRIM_FG_OFST_ADDR706、PRIM_BG_OFST_ADDR707、PRIM_ML_OFST_ADDR708、及びPRIM_AD_OFST_ADDR709等を有する。メモリ構造パラメータ700は、画像データ又は音声データを記憶部205の予め決められた領域へ書き込むために使用される。
FIG. 7 is a diagram for explaining the
BASE_ADDR701は、すべてのカメラ112が撮影した画像データ及びすべてのマイク111が収音した音声データを記録するために確保された領域の先頭アドレスである。 BASE_ADDR 701 is the head address of the area secured for recording the image data captured by all the cameras 112 and the audio data collected by all the microphones 111.
CAM_OFST_ADDR702は、格納領域A(720a〜720z)の各々の先頭位置を特定するための相対アドレスである。CAM_OFST_ADDR702は、記憶部205の全領域をカメラ112の台数で均等に分割し、それぞれの格納領域A(720a〜720z)の先頭位置を特定するために用いられる。また、CAM_OFST_ADDR702は、前景画像を格納する格納領域B(730)の先頭位置を特定するためにも用いられる。
The CAM_OFST_ADDR 702 is a relative address for specifying the start position of each of the storage areas A (720 a to 720 z). The CAM_OFST_ADDR 702 is used to equally divide the entire area of the
BG_OFST_ADDR703は、背景画像を格納する格納領域C(740)の先頭位置を特定するための相対アドレスである。BG_OFST_ADDR703は、前景画像、背景画像、三次元モデル、及び音声データのデータ種別ごとに格納領域A(720a〜720z)の各々を分割し、その中で背景画像を格納する格納領域C(740)の先頭位置を特定するために用いられる。
ML_OFST_ADDR704は、三次元モデルを格納する格納領域D(750)の先頭位置を特定するための相対アドレスである。ML_OFST_ADDR704は、前景画像、背景画像、三次元モデル、及び音声データのデータ種別ごとに格納領域A(720a〜720z)の各々を分割し、その中で三次元モデルを格納する格納領域D(750)の先頭位置を特定するために用いられる。 The ML_OFST_ADDR 704 is a relative address for specifying the start position of the storage area D (750) storing the three-dimensional model. The ML_OFST_ADDR 704 divides each of the storage areas A (720a to 720z) according to the data type of the foreground image, background image, 3D model, and audio data, and stores the 3D model in the storage area D (750). It is used to specify the beginning position of.
AD_OFST_ADDR705は、音声データを格納する格納領域E(760)の先頭位置を特定するための相対アドレスである。AD_OFST_ADDR705は、前景画像、背景画像、三次元モデル、及び音声データのデータ種別ごとに格納領域A(720a〜720z)の各々を分割し、その中で音声データを格納する格納領域E(760)の先頭位置を特定するために用いられる。 AD_OFST_ADDR 705 is a relative address for specifying the start position of the storage area E (760) storing audio data. The AD_OFST_ADDR 705 divides each of the storage areas A (720a to 720z) according to the data type of the foreground image, background image, three-dimensional model, and audio data, and stores the audio data in the storage area E (760). It is used to identify the start position.
PRIM_FG_OFST_ADDR706は、1フレームの前景画像を格納する格納領域F(731a〜731z)の各々の先頭位置を特定するための相対アドレスである。PRIM_FG_OFST_ADDR706は、格納領域B(730)の先頭位置から順次書き込まれた各前景画像フレームの先頭位置を特定するために用いられる。
The
PRIM_BG_OFST_ADDR707は、1フレームの背景画像を格納する格納領域G(741a〜741z)の各々の先頭位置を特定するための相対アドレスである。PRIM_BG_OFST_ADDR707は、格納領域C(740)の先頭位置から順次書き込まれた各背景画像フレームの先頭位置を特定するために用いられる。 PRIM_BG_OFST_ADDR 707 is a relative address for specifying the head position of each of the storage areas G (741a to 741z) storing the background image of one frame. The PRIM_BG_OFST_ADDR 707 is used to specify the start position of each background image frame sequentially written from the start position of the storage area C (740).
PRIM_ML_OFST_ADDR708は、1フレームの三次元モデルを格納する格納領域H(751a〜751z)の各々の先頭位置を特定するための相対アドレスである。PRIM_ML_OFST_ADDR708は、格納領域D(750)の先頭位置から順次書き込まれた各三次元モデルフレームの先頭位置を特定するために用いられる。
The
PRIM_AD_OFST_ADDR709は、1フレームの音声データを格納する格納領域I(761a〜761z)の各々の先頭位置を特定するための相対アドレスである。PRIM_AD_OFST_ADDR709は、格納領域E(760)の先頭位置から順次書き込まれた各音声データフレームの先頭位置を特定するために用いられる。
フレームは、複数のデータ種別のデータを含み、例えば、前景画像、背景画像、三次元モデル及び音声データのうちの2以上のデータである。画像付加情報生成部128は、各フレームの複数のデータ種別のデータ毎に、画像付加情報500を付加する。
A frame includes data of a plurality of data types, and is, for example, two or more data of a foreground image, a background image, a three-dimensional model, and audio data. The image additional
図8は、図3の書き込み制御部203の動作例を示すフローチャートである。書き込み制御部203は、前段のデータ入力制御部202から1フレーム分の画像データ又は音声データを受信するたびに、図8の処理を行う。ただしこの例に限らず、例えば、GOP(Group Of Picture)に対応する画像データが入力されるたびに図8の処理が行われるようにしても良いし、1秒分の画像データや音声データが入力されるたびに図8の処理が行われるようにしても良い。
FIG. 8 is a flowchart showing an operation example of the
ステップS801では、書き込み制御部203は、データ入力制御部202から受信した画像データ又は音声データに付加されている画像付加情報500を取得する。次に、ステップS802では、書き込み制御部203は、画像付加情報500に含まれる録画フラグ503の状態に応じて、画像データを記憶部205へ書き込むか否かを判断する。書き込み制御部203は、録画フラグ503が1(録画中)の場合(S802のYes)、画像データ及び音声データを記憶部205へ書き込む必要があるため、ステップS803に処理を進める。書き込み制御部203は、録画フラグ503が0(録画停止中)の場合(S802のNo)、画像データ及び音声データを記憶部205へ書き込む必要がないため、処理を終了する。
In step S801, the
ステップS803では、書き込み制御部203は、メモリ構造パラメータ700と画像付加情報500に基づいて、書き込みアドレスWRITE_ADDRを生成する。すなわち、書き込み制御部203は、入力された画像データに付加された録画フラグ503が1である場合、当該画像データを格納するための記憶部205の記憶領域を示すアドレスWRITE_ADDRを生成する。書き込み制御部203は、式(1)、(2)、(3)を用いて、書き込みアドレスWRITE_ADDRを生成する。
In step S 803, the
まず、式(1)のOFST_ADDRを説明する。書き込み制御部203は、データ識別子506がFである場合、OFST_ADDRとして0を設定する。書き込み制御部203は、データ識別子506がBである場合、OFST_ADDRとしてBG_OFST_ADDR703を設定する。書き込み制御部203は、データ識別子506がMである場合、OFST_ADDRとしてML_OFST_ADDR704を設定する。書き込み制御部203は、データ識別子506がAである場合、OFST_ADDRとしてAD_OFST_ADDR705を設定する。
First, OFST_ADDR in equation (1) will be described. When the
次に、式(2)のPRIM_OFST_ADDRを説明する。書き込み制御部203は、データ識別子506がFである場合、PRIM_OFST_ADDRとしてPRIM_FR_OFST_ADDR706を設定する。書き込み制御部203は、データ識別子506がBである場合、PRIM_OFST_ADDRとしてPRIM_BG_OFST_ADDR707を設定する。書き込み制御部203は、データ識別子506がMである場合、PRIM_OFST_ADDRとしてPRIM_ML_OFST_ADDR708を設定する。書き込み制御部203は、データ識別子506がAである場合、PRIM_OFST_ADDRとしてPRIM_AD_OFST_ADDR709を設定する。
Next, PRIM_OFST_ADDR of Formula (2) is demonstrated. When the
その後、書き込み制御部203は、式(3)により、書き込みアドレスWRITE_ADDRを生成する。
Thereafter, the
次に、ステップS804では、書き込み制御部203は、画像付加情報500をモニタリングし、対象フレームの画像データ又は音声データが録画開始位置であるか否かを判定する。書き込み制御部203は、対象フレームが録画開始位置である場合(S804のYes)には、録画開始情報をSQ情報管理部204へ送る必要があるため、ステップS805に処理を進める。書き込み制御部203は、対象フレームが録画開始位置でない場合(S804のNo)には、録画開始情報をSQ情報管理部204へ送る必要がないため、ステップS806に処理を進める。書き込み制御部203は、録画フラグ503が1(録画中)であり、かつフレーム番号504が0のときに、対象フレームが録画開始位置であると判定する。ただし、書き込み制御部203は、録画フラグ503を用いた判定については、ステップS802で既に行っているため、ステップS804では、フレーム番号504のみを用いて判定すればよい。
Next, in step S804, the
ステップS805では、書き込み制御部203は、録画開始位置を検出した際のタイムコード501、録画シーケンス番号502、カメラアダプタ番号505、データ識別子506及び書き込みアドレスを一塊にした録画開始情報をSQ情報管理部204へ送信する。なお、書き込み制御部203がSQ情報管理部204へ送信する録画開始情報の内容は、図7を用いて説明したメモリ構造等に応じて異なる。また、例えば、録画開始情報にデータ識別子506が含まれていなかったとしても、従来技術より高速にデータ読み出しが可能になるという効果は得られる。
In step S805, the
次に、ステップS806では、書き込み制御部203は、ステップS803において生成された書き込みアドレスWRITE_ADDRが示す記憶部205の領域へ、画像データ又は音声データのフレームを書き込む。書き込み制御部203は、複数のカメラ112の各フレームの複数のデータ種別のデータ(前景画像、背景画像、三次元モデル及び音声データ)を書き込む。
Next, in step S806, the
図9は、図3のSQ情報管理部204のSQテーブルで管理するSQテーブル情報900の構造を示す図である。SQテーブル情報900は、カメラ番号901、録画開始時刻902、及びベースアドレス903を有する。
FIG. 9 is a diagram showing the structure of
カメラ番号901は、カメラアダプタ120に割り振られた番号である。カメラ番号901には、書き込み制御部203から受信した録画開始情報に含まれるカメラアダプタ番号505が設定される。
The
録画開始時刻902は、HH(時間):MM(分):SS(秒):FF(フレーム)で構成された時間情報である。録画開始時刻902には、書き込み制御部203から受信した録画開始情報に含まれる録画開始フレームのタイムコード501が設定される。
The
ベースアドレス903は、記憶部205に書き込まれた録画シーケンスの先頭画像のアドレスである。ベースアドレス903には、書き込み制御部203から受信した録画開始情報に含まれる録画開始フレームの書き込みアドレスが設定される。
The
SQテーブル情報900は、ひとつの録画シーケンス番号502につき、前景画像、背景画像、三次元モデル、及び音声データのそれぞれのSQテーブル情報900が生成される。したがって、録画シーケンス数とデータ種別の組み合わせに応じた数のSQテーブル情報900が存在する。SQ情報管理部204は、書き込み制御部203から受信した録画開始情報をSQテーブル情報900へエントリする場合、録画開始情報に含まれる録画シーケンス番号502とデータ識別子506に基づいて、エントリ先となるSQテーブル情報900を選択する。SQ情報管理部204は、録画シーケンス番号502とデータ識別子506を基に、カメラ番号901毎(カメラ識別子毎)に、録画開始時刻902及びベースアドレス903を登録する。
The
図10は、図3の読み出し制御部206の動作例を示すフローチャートである。読み出し制御部206は、通信部201を介して制御ステーション310から読み出し指示を受信した際に、図10の処理を行う。
FIG. 10 is a flowchart showing an operation example of the read
ステップS1001では、読み出し制御部206は、読み出し指示と共に受信した読み出しパラメータとメモリ構造パラメータ700を取得する。読み出しパラメータは、特定シーン(例えば、サッカーのゴールシーン)に該当する画像データ又は音声データを記憶部205から読み出すためのパラメータである。読み出しパラメータには、特定シーンに該当する画像データ又は音声データが含まれる録画シーケンス番号、特定シーンの開始時刻及び終了時刻などのうち、少なくとも何れか1つが含まれる。つまり読み出しパラメータは、録画シーケンス番号を特定するための情報であれば良い。
In step S1001, the
次に、ステップS1002では、読み出し制御部206は、読み出しパラメータから特定される録画シーケンス番号を基に、SQ情報管理部204からSQテーブル情報900を取得する。読み出し制御部206は、SQ情報管理部204へ録画シーケンス番号を送信することにより、該当する録画シーケンス番号に対応する前景画像、背景画像、三次元モデル、及び音声データのそれぞれのSQテーブル情報900を順次取得する。
Next, in step S1002, the
次に、ステップS1003では、読み出し制御部206は、読み出しパラメータに含まれる特定シーンの開始時刻、メモリ構造パラメータ700、及びSQテーブル情報900に基づいて、読み出しベースアドレスを生成する。読み出しベースアドレスは、記憶部205上のカメラごとに設けられた前景画像、背景画像、三次元モデル、及び音声データのそれぞれの格納領域に対して生成される。したがって、データ種別(前景画像、背景画像、三次元モデル、音声データ)の数とカメラアダプタ120の台数を掛け合わせた数の読み出しベースアドレスが生成される。例えば、カメラアダプタ120が100台設置されている場合、400個の読み出しベースアドレスが生成される。読み出し制御部206は、式(4)、(5)、(6)により、読み出しベースアドレスREAD_BASE_ADDRを算出する。式(5)及び(6)中の録画開始時刻902とベースアドレス903は、処理対象となるカメラ番号901に応じて、SQテーブル情報900から該当するデータが読み出される。
Next, in step S1003, the
まず、式(4)のPRIM_OFST_ADDRを説明する。読み出し制御部206は、データ種別が前景画像である場合、PRIM_OFST_ADDRとしてPRIM_FR_OFST_ADDR706を設定する。読み出し制御部206は、データ種別が背景画像である場合、PRIM_OFST_ADDRとしてPRIM_BG_OFST_ADDR707を設定する。読み出し制御部206は、データ種別が三次元モデルである場合、PRIM_OFST_ADDRとしてPRIM_ML_OFST_ADDR708を設定する。読み出し制御部206は、データ種別が音声データである場合、PRIM_OFST_ADDRとしてPRIM_AD_OFST_ADDR709を設定する。
First, PRIM_OFST_ADDR of equation (4) will be described. When the data type is a foreground image, the
また、読み出し制御部206は、ドロップフレームを考慮し、式(5)により、特定シーンの開始時刻と録画開始時刻902との差分を、差分フレーム数DIFF_FRAME_NUMとして算出する。その後、読み出し制御部206は、式(6)により、読み出しベースアドレスREAD_BASE_ADDRを算出する。
Further, the
次に、ステップS1004では、読み出し制御部206は、特定シーンのフレーム総数を算出する。具体的には、読み出し制御部206は、特定シーンの終了時刻から開始時刻を減算し、特定シーンのフレーム総数を算出する。ただし、読み出し制御部206は、ドロップフレームを考慮し、フレーム総数を算出する。
Next, in step S1004, the
次に、ステップS1005では、読み出し制御部206は、変数Nを0で初期化する。変数Nは、処理中のフレーム番号を示す。
Next, in step S1005, the
次に、ステップS1006では、読み出し制御部206は、メモリ構造パラメータ700と変数Nに基づいて、読み出しオフセットアドレスREAD_OFST_ADDRを生成する。読み出しオフセットアドレスは、記憶部205上に設けられた前景画像、背景画像、三次元モデル、及び音声データのそれぞれの格納領域に対して生成される。したがって、データ種別(前景画像、背景画像、三次元モデル、音声データ)の数だけ読み出しオフセットアドレスが生成される。読み出し制御部206は、式(7)により、読み出しオフセットアドレスREAD_OFST_ADDRを算出する。
Next, in step S1006, the
次に、ステップS1007では、読み出し制御部206は、式(6)の読み出しベースアドレスREAD_BASE_ADDRと、式(7)の読み出しオフセットアドレスREAD_OFST_ADDRを用いて、読み出しアドレスを生成する。読み出しアドレスは、ステップS1003で生成された各読み出しベースアドレスREAD_BASE_ADDRに対し、読み出しオフセットアドレスREAD_OFST_ADDRを加算して生成される。読み出しアドレスは、読み出しベースアドレスREAD_BASE_ADDRの数だけ生成される。読み出しオフセットアドレスREAD_OFST_ADDRは、読み出しベースアドレスREAD_BASE_ADDRと同一データ種別のオフセットアドレスが選択される。読み出し制御部206は、式(8)により、読み出しアドレスREAD_ADDRを算出する。
Next, in step S1007, the
次に、ステップS1008では、読み出し制御部206は、読み出しアドレスREAD_ADDRが示す記憶部205の領域から画像データ又は音声データを読み出す。読み出し制御部206は、読み出しアドレスREAD_ADDRを用いて、記憶部205上のカメラ112ごとに設けられた前景画像、背景画像、三次元モデル、及び音声データのそれぞれの格納領域から1フレーム単位のデータを読み出す。
Next, in step S1008, the
次に、ステップS1009では、読み出し制御部206は、変数Nをインクリメントする。次に、ステップS1010では、読み出し制御部206は、変数Nがフレーム総数より小さいか否かを判定する。読み出し制御部206は、変数Nがフレーム総数より小さい場合には、すべてのフレームを記憶部205から読み出していないので、ステップS1006に処理を戻し、次のフレームの処理を行う。読み出し制御部206は、変数Nがフレーム総数より小さくない場合には、すべてのフレームを記憶部205から読み出しているので、図10の処理を終了する。
Next, in step S1009, the
読み出し制御部206は、記憶部205から複数のカメラ112の特定シーンの開始時刻以降のフレームを読み出す。読み出し制御部206は、複数のカメラ112の各フレームの複数のデータ種別のデータ(前景画像、背景画像、三次元モデル及び音声データ)を読み出す。仮想視点画像生成部207は、読み出し制御部206により読み出された複数のカメラ112のフレームを用いて、仮想視点画像を生成する。
The
以上述べたように、書き込み制御部203及び読み出し制御部206は、カメラアダプタ120が生成した画像付加情報500に基づいて、記憶部205の書き込み制御及び読み出し制御を行う。これにより、画像コンピューティングサーバ200は、複数のカメラ112で撮影された画像群の中から同時刻に撮影された画像を短時間に抽出し、仮想視点コンテンツを閲覧するまでの時間を短縮することができる。
As described above, the
(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読み出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other embodiments)
The present invention supplies a program that implements one or more functions of the above-described embodiments to a system or apparatus via a network or storage medium, and one or more processors in a computer of the system or apparatus read and execute the program. Can also be realized. It can also be implemented by a circuit (eg, an ASIC) that implements one or more functions.
なお、上記実施形態は、何れも本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。すなわち、本発明はその技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。 In addition, the said embodiment only shows the example of embodiment in the case of implementing this invention, and the technical scope of this invention should not be limitedly interpreted by these. That is, the present invention can be implemented in various forms without departing from the technical concept or the main features thereof.
121 カメラ制御部、122 マイク制御部、123 データ送受信部、124 時刻同期制御部、125 前景背景分離部、126 三次元モデル情報生成部、127 タイムコード抽出部、128 画像付加情報生成部、202 データ入力部、203 書き込み制御部、204 SQ情報管理部、205 記憶部、206 読み出し制御部、207 仮想視点画像生成部
121
Claims (10)
前記複数の撮像手段により撮影された複数の画像の各フレームに重畳される時間情報及び録画指示を基に、前記複数の撮像手段により撮影された複数の画像の各フレームに付加する制御情報を生成する制御情報生成手段と、
前記制御情報を基に、前記複数の撮像手段により撮影された複数の画像の各フレームを記憶手段に書き込む書き込み制御手段と、
前記制御情報を基に、前記記憶手段から前記複数の画像のフレームを読み出す読み出し制御手段と、
前記読み出し制御手段により読み出された前記複数の画像のフレームを用いて、仮想視点画像を生成する仮想視点画像生成手段と
を有することを特徴とする画像処理システム。 A plurality of image pickup means for respectively photographing a plurality of images from a plurality of directions with respect to the subject;
Based on time information and a recording instruction superimposed on each frame of the plurality of images photographed by the plurality of imaging units, control information to be added to each frame of the plurality of images photographed by the plurality of imaging units is generated Control information generation means for
Writing control means for writing each frame of a plurality of images taken by the plurality of imaging means into the storage means based on the control information;
Reading control means for reading the frames of the plurality of images from the storage means based on the control information;
And a virtual viewpoint image generation unit configured to generate a virtual viewpoint image using the frames of the plurality of images read by the read control unit.
前記書き込み制御手段は、前記録画状態が録画中を示すフレームを前記フレーム番号及び前記撮像手段の識別子に応じた前記記憶手段のアドレスに書き込み、前記撮像手段の識別子毎に前記録画の開始フレームの書き込みアドレスを登録し、
前記読み出し制御手段は、前記撮像手段の識別子毎に登録された書き込みアドレスを基に、前記記憶手段から前記複数の画像のフレームを読み出すことを特徴とする請求項1に記載の画像処理システム。 The control information includes a recording state, a frame number, and an identifier of the imaging unit.
The writing control means writes a frame indicating that the recording state is in recording to the address of the storage means according to the frame number and the identifier of the imaging means, and writes the start frame of the recording for each identifier of the imaging means Register the address,
The image processing system according to claim 1, wherein the read control unit reads the frames of the plurality of images from the storage unit based on a write address registered for each identifier of the imaging unit.
前記制御情報生成手段は、録画開始時刻に一致する時間情報が付加されたフレーム以降のフレームの前記録画状態を録画中にすることを特徴とする請求項2に記載の画像処理システム。 The control information includes the time information,
3. The image processing system according to claim 2, wherein the control information generation unit sets the recording state of frames subsequent to a frame to which time information coincident with the recording start time is added.
前記読み出し制御手段は、前記撮像手段の識別子毎に登録されている録画の開始フレームに付加されている時間情報と読み出し指示の開始時刻との差分に応じたアドレスを基に、前記記憶手段から前記複数の画像の前記読み出し指示の開始時刻以降のフレームを読み出すことを特徴とする請求項3又は4に記載の画像処理システム。 The writing control means registers the time information added to the start frame of the recording for each identifier of the imaging means,
The read control means is configured to read from the storage means based on an address corresponding to a difference between time information added to a recording start frame registered for each identifier of the imaging means and a start time of a read instruction. The image processing system according to claim 3 or 4, wherein a frame after the start time of the read instruction of a plurality of images is read out.
前記同期制御手段により生成された時間情報のエラーが検出された場合には、内部で生成した時間情報を前記制御情報生成手段に出力する時間情報生成手段とをさらに有することを特徴とする請求項3〜5のいずれか1項に記載の画像処理システム。 Synchronization control means for generating time information by external synchronization as time information to be superimposed on each frame;
The information processing apparatus further comprises: time information generating means for outputting internally generated time information to the control information generating means when an error of the time information generated by the synchronization control means is detected. The image processing system according to any one of 3 to 5.
前記制御情報は、前記データ種別を含み、
前記制御情報生成手段は、前記各フレームの複数のデータ種別のデータ毎に付加される前記制御情報を生成し、
前記書き込み制御手段は、前記データ種別に応じた前記記憶手段のアドレスに前記フレームの複数のデータ種別のデータを書き込み、
前記読み出し制御手段は、前記撮像手段の識別子毎に登録された書き込みアドレスと前記データ種別に応じたアドレスを基に、前記記憶手段から前記フレームの複数のデータ種別のデータを読み出すことを特徴とする請求項2〜6のいずれか1項に記載の画像処理システム。 The frame includes data of a plurality of data types,
The control information includes the data type,
The control information generation unit generates the control information to be added for each of data of a plurality of data types of each frame,
The write control means writes data of a plurality of data types of the frame to an address of the storage means according to the data type,
The read control means may read data of a plurality of data types of the frame from the storage means based on a write address registered for each identifier of the imaging means and an address corresponding to the data type. The image processing system according to any one of claims 2 to 6.
前記書き込み制御手段は、前記録画シーケンス番号を基に、前記撮像手段の識別子毎に前記録画の開始フレームの書き込みアドレスを登録し、
前記読み出し制御手段は、読み出し指示の録画シーケンス番号に対応する前記撮像手段の識別子毎に登録された書き込みアドレスを基に、前記記憶手段から前記複数の画像のフレームを読み出すことを特徴とする請求項2〜8のいずれか1項に記載の画像処理システム。 The control information includes a recording sequence number,
The write control means registers a write address of the recording start frame for each identifier of the imaging means based on the recording sequence number,
The read control means reads frames of the plurality of images from the storage means on the basis of a write address registered for each identifier of the imaging means corresponding to the recording sequence number of the read instruction. The image processing system of any one of 2-8.
制御情報生成手段により、前記複数の撮像手段により撮影された複数の画像の各フレームに重畳される時間情報及び録画指示を基に、前記複数の撮像手段により撮影された複数の画像の各フレームに付加する制御情報を生成する制御情報生成ステップと、
書き込み制御手段により、前記制御情報を基に、前記複数の撮像手段により撮影された複数の画像の各フレームを記憶手段に書き込む書き込みステップと、
読み出し制御手段により、前記制御情報を基に、前記記憶手段から前記複数の画像のフレームを読み出す読み出しステップと、
仮想視点画像生成手段により、前記読み出された前記複数の画像のフレームを用いて、仮想視点画像を生成する仮想視点画像生成ステップと
を有することを特徴とする画像処理システムの制御方法。 A control method of an image processing system having an image having a plurality of image pickup means for respectively photographing a plurality of images from a plurality of directions with respect to a subject.
Based on time information and a recording instruction superimposed on each frame of the plurality of images photographed by the plurality of imaging units by the control information generation unit, to each frame of the plurality of images photographed by the plurality of imaging units A control information generation step of generating control information to be added;
A writing step of writing each frame of a plurality of images captured by the plurality of imaging units into the storage unit based on the control information by the writing control unit;
Reading out the frames of the plurality of images from the storage means based on the control information by the readout control means;
And a virtual viewpoint image generation step of generating a virtual viewpoint image by using the frames of the plurality of read out images by the virtual viewpoint image generation means.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017172735A JP2019050463A (en) | 2017-09-08 | 2017-09-08 | Image processing system and method for controlling image processing system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017172735A JP2019050463A (en) | 2017-09-08 | 2017-09-08 | Image processing system and method for controlling image processing system |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2019050463A true JP2019050463A (en) | 2019-03-28 |
Family
ID=65906314
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017172735A Pending JP2019050463A (en) | 2017-09-08 | 2017-09-08 | Image processing system and method for controlling image processing system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2019050463A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20220007172A (en) * | 2021-09-16 | 2022-01-18 | 센스타임 인터내셔널 피티이. 리미티드. | Image synchronization method and device, device, computer storage medium |
-
2017
- 2017-09-08 JP JP2017172735A patent/JP2019050463A/en active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20220007172A (en) * | 2021-09-16 | 2022-01-18 | 센스타임 인터내셔널 피티이. 리미티드. | Image synchronization method and device, device, computer storage medium |
KR102585604B1 (en) | 2021-09-16 | 2023-10-05 | 센스타임 인터내셔널 피티이. 리미티드. | Image synchronization methods and devices, devices, computer storage media |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109275358B (en) | Method and apparatus for generating virtual images from an array of cameras having a daisy chain connection according to a viewpoint selected by a user | |
US11095871B2 (en) | System that generates virtual viewpoint image, method and storage medium | |
JP2017212592A (en) | Controller, control method, and program | |
JP2017212593A (en) | Information processing device, image processing system, information processing method, and program | |
JP2017211827A (en) | Information processing unit, control method and program | |
US10623715B2 (en) | Information processing apparatus and control method therefor | |
JP6871801B2 (en) | Image processing equipment, image processing method, information processing equipment, imaging equipment and image processing system | |
JP2017212591A (en) | Control apparatus, control method, and program | |
WO2019033970A1 (en) | Method for image virtualization, mobile device, and storage device | |
JP2019022151A (en) | Information processing apparatus, image processing system, control method, and program | |
JP2019047431A (en) | Image processing device, control method thereof, and image processing system | |
JP2019050451A (en) | Image processing apparatus and method for controlling the same, and program, and image processing system | |
US20180376131A1 (en) | Image processing apparatus, image processing system, and image processing method | |
JP2009103980A (en) | Photographic device, image processor, and photographic ystem | |
JP2018191251A (en) | Information processing system, information processing method, and program | |
US10552980B2 (en) | Image processing apparatus, image processing method, and storage medium | |
JP2019050463A (en) | Image processing system and method for controlling image processing system | |
JP2019134428A (en) | Control device, control method, and program | |
JP2021119459A (en) | Generation device and generation method | |
JP2019075740A (en) | Image processing system, image processing apparatus, image transmission method, and program | |
JP2019003325A (en) | Image processing system, image processing method and program | |
TW201631949A (en) | Method and apparatus for generating lens-related metadata | |
JP2016036081A (en) | Image processing device, method and program, and recording medium | |
JP2019071650A (en) | Control device, control method, and program | |
JP2020005150A (en) | Video recording and playback device and program |