JP7208530B2 - 同期制御装置、同期制御方法及び同期制御プログラム - Google Patents

同期制御装置、同期制御方法及び同期制御プログラム Download PDF

Info

Publication number
JP7208530B2
JP7208530B2 JP2019102905A JP2019102905A JP7208530B2 JP 7208530 B2 JP7208530 B2 JP 7208530B2 JP 2019102905 A JP2019102905 A JP 2019102905A JP 2019102905 A JP2019102905 A JP 2019102905A JP 7208530 B2 JP7208530 B2 JP 7208530B2
Authority
JP
Japan
Prior art keywords
frame
data
time
frame data
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019102905A
Other languages
English (en)
Other versions
JP2020198509A (ja
Inventor
正人 小野
高秀 星出
靖 松原
真二 深津
憲一 南
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2019102905A priority Critical patent/JP7208530B2/ja
Priority to US17/611,340 priority patent/US20220210295A1/en
Priority to PCT/JP2020/019464 priority patent/WO2020241308A1/ja
Priority to CN202080040390.9A priority patent/CN113906734A/zh
Publication of JP2020198509A publication Critical patent/JP2020198509A/ja
Application granted granted Critical
Publication of JP7208530B2 publication Critical patent/JP7208530B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/04Synchronising
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/218Source of audio or video content, e.g. local disk arrays
    • H04N21/21805Source of audio or video content, e.g. local disk arrays enabling multiple viewpoints, e.g. using a plurality of cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/242Synchronization processes, e.g. processing of PCR [Program Clock References]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/63Control signaling related to video distribution between client, server and network components; Network processes for video distribution between server and clients or between remote clients, e.g. transmitting basic layer and enhancement layers over different transmission paths, setting up a peer-to-peer communication via Internet between remote STB's; Communication protocols; Addressing
    • H04N21/643Communication protocols
    • H04N21/64322IP
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • H04N21/8547Content authoring involving timestamps for synchronizing content
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Security & Cryptography (AREA)
  • Databases & Information Systems (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Television Signal Processing For Recording (AREA)

Description

本発明は、映像・音声データを同期制御する技術に関する。
エンタープライズ分野では、複数の監視拠点を集約化する傾向にあり、複数の監視拠点を遠隔地で映像監視する遠隔映像監視技術の需要が拡大している。例えば、複数の空港を一拠点で監視可能な航空管制、空港ロビー・駅・スタジアムを一括監視可能な公共空間監視、土石流・津波・ダムを遠隔監視可能な防災監視を実現する遠隔映像監視システムが切望されている。
当該遠隔映像監視システムは、複数の監視拠点を統合監視するだけでなく、監視拠点個々の広い監視エリアを効果的に状況把握するため、例えばテロ対策の強化や大規模な自然災害の未然防止を迅速に実現するため、高精細かつ広視野角な映像をリアルタイムに監視側に伝送する機能を持つ。
例えば、拠点側の遠隔映像監視装置は、複数の撮像系機器から複数のカメラ映像(映像・音声データ)をそれぞれ受信し、受信した複数の映像・音声データを合成して、合成したパノラマ映像の映像・音声データと、映像データから検出したオブジェクト情報とを、MMT(MPEG Media Transport)プロトコルを用いて、IPネットワーク経由で、監視側の遠隔映像監視装置へ同期伝送する。IPネットワークの伝送区間では、NTP(Network Time Protocol)を用いるため、映像・音声データとオブジェクト情報との同期制御を担保可能である(非特許文献1)。
"デジタル放送におけるMMTによるメディアトランスポート方式"、標準規格、ARIB STD-B60、1.13版、一般社団法人電波産業会、2018年10月
しかしながら、複数の撮像系機器と拠点側の遠隔映像監視装置との間では、各撮像系機器からそれぞれ受信する複数の映像・音声データを完全に同期制御することは難しいという課題がある。
複数の撮像系機器には、撮影処理の遅延・ゆらぎ、撮影後に所定の映像処理を行う場合等、差分がある。また、拠点側の遠隔映像監視装置においても、内部時刻のゆらぎ等、各映像・音声データをそれぞれ受信する当該遠隔映像監視装置内の複数の集信用デバイス(集信用ボード)間に差分がある。
そのため、図8に示すように、複数の撮像系機器2でそれぞれ同じ映像を撮影していた場合でも、複数の映像・音声データにそれぞれ付与されるフレームタイムスタンプにズレが発生する場合がある。これにより、拠点側の遠隔映像監視装置Aで合成処理を行う際に合成対象の映像・音声フレームを特定できない事態が発生し、IPネットワークの伝送区間及び監視側の提示系デバイス(出力用ボード)間で同期を担保したとしても再生時に同期ズレが発生する事態が発生してしまう。
それ故、映像・音声データ間で同期制御を行う必要があるが、映像・音声データに付与されたフレームタイムスタンプのズレを把握するためには、一般に、集信系デバイスのログの確認、MMTプロトコルのパケットデータの確認が必要となり、非常に煩雑な処理を必要とする。また、フレームタイムスタンプのズレは集信系デバイスの状況(内部時刻のゆらぎ等)によって一定でない可能性もあり、そのズレを完全に同期させることは難しい。
本発明は、上記事情を鑑みてなされたものであり、複数の撮像系機器からの映像・音声データをより確実に同期制御することを目的とする。
上記課題を解決するため、本発明の同期制御装置は、複数の撮像系機器から送信される複数のデータを同期する同期制御装置において、前記データは、映像データ、音声データ、又は、映像及び音声データであり、前記データ毎に、前記データから複数のフレームデータを取得し、取得時刻を基にしたフレームタイムスタンプを前記複数のフレームデータにそれぞれ付与するフレーム取得部と、前記フレームタイムスタンプの値を基に、前記複数のデータ間で時間的に近い複数のフレームデータが同時刻となり、前記複数のフレームデータ間の時間間隔が等間隔となるように、前記複数のフレームデータに新たなフレームタイムスタンプを付与するフレーム整形部と、を備えることを特徴とする。
上記同期制御装置において、前記フレーム整形部は、所定の基準時刻から起算して前記データのフレーム時間間隔で刻んだ時刻を前記新たなフレームタイムスタンプとすることを特徴とする。
上記同期制御装置において、前記フレームデータの欠損を検出した場合、前記欠損したフレームデータの次のフレームデータを前記欠損したフレームデータとして複製して挿入する欠損フレーム検出部を更に備えることを特徴とする。
上記同期制御装置において、前記フレームデータの重複又は余剰を検出した場合、前記重複又は余剰であるフレームデータを削除する余剰フレーム検出部を更に備えることを特徴とする。
また、本発明の同期制御方法は、複数の撮像系機器から送信される複数のデータを同期する同期制御装置で行う同期制御方法において、前記データは、映像データ、音声データ、又は、映像及び音声データであり、前記データ毎に、前記データから複数のフレームデータを取得し、取得時刻を基にしたフレームタイムスタンプを前記複数のフレームデータにそれぞれ付与するステップと、前記フレームタイムスタンプの値を基に、前記複数のデータ間で時間的に近い複数のフレームデータが同時刻となり、前記複数のフレームデータ間の時間間隔が等間隔となるように、前記複数のフレームデータに新たなフレームタイムスタンプを付与するステップと、を行うことを特徴とする。
また、本発明の同期制御プログラムは、上記同期制御方法をコンピュータに実行させることを特徴とする。
本発明によれば、複数の撮像系機器からの映像・音声データをより確実に同期制御できる。
遠隔映像監視システムの構成例を示す図である。 合成処理装置の構成例を示す図である。 映像データの同期制御処理フローを示す図である。 同期処理後のフレームデータのイメージを示す図である。 同期及び複製処理後のフレームデータのイメージを示す図である。 同期及び削除処理後のフレームデータのイメージを示す図である。 フレームタイムスタンプの付与例を示す図である。 課題のイメージを示す図である。
以下、本発明を実施する一実施形態について図面を用いて説明する。
本実施形態では、上記課題を解決するため、同期制御装置、同期制御方法、及び同期制御プログラム(以下、本段落で単に「同期制御装置」という)を開示する。本実施形態では、当該同期制御装置を遠隔映像監視システムに適用する場合を例に説明する。但し、当該同期制御装置は、例えば、エンターテイメント分野のパブリックビューイングで用いられる情報処理システム等、遠隔監視以外の用途にも適用可能である。
[遠隔映像監視システム]
最初に、本実施形態に係る遠隔映像監視システムについて説明する。
遠隔映像監視システムは、拠点側の遠隔映像監視装置が、複数のカメラ映像(映像・音声データ)を合成したパノラマ映像の映像・音声データと、映像データから検出したオブジェクト情報とを、MMTプロトコルを用いて、IPネットワーク経由で、監視側の遠隔映像監視装置へ同期伝送するシステムである。IPネットワークの伝送区間では、NTPを用いて、映像・音声データとオブジェクト情報との同期制御を低遅延に実現する。
図1は、本実施形態に係る遠隔映像監視システム1の構成例を示す図である。当該遠隔映像監視システム1は、拠点側に配置された拠点側の遠隔映像監視装置Aと、監視側に配置された監視側の遠隔映像監視装置Bと、を備える。
まず、拠点側の遠隔映像監視装置Aについて説明する。拠点側の遠隔映像監視装置Aは、図1に示したように、例えば、合成処理装置10と、オブジェクト情報統合装置20と、を備える。
合成処理装置10は、拠点側に配置された複数の撮像系機器2から複数の映像・音声データをそれぞれ受信し、受信した複数の映像データを合成してパノラマ映像を生成して、受信した映像データから1以上のオブジェクトを検出してトラッキングを行うとともに、生成したパノラマ映像の映像データと音声データをエンコード処理して、エンコード処理後の映像・音声データを、MMTプロトコルを用いてIPネットワーク4経由で監視側の遠隔映像監視装置Bへ伝送する機能を備える。この機能を実行するため、合成処理装置10は、図1に示したように、例えば、合成処理部11と、エンコード処理部12と、オブジェクト検出・トラッキング処理部13と、を備える。
合成処理部11は、複数の撮像系機器2から例えば最大4Kサイズの映像・音声データをそれぞれSDIインタフェースより入力し、入力したタイミングで同期を行い、同期した複数の映像データをリアルタイムに合成する。複数の映像データを合成する際には、撮像系機器2間の視差の影響を低減するため、合成処理部11は、複数の映像データ間で同期している各映像データのつなぎ目(seam)を動的に変更するとともに、所定のオブジェクトを追跡したトラッキング処理結果を活用することにより、合成品質の向上を図る。
エンコード処理部12は、合成により得たパノラマ映像の映像・音声データに対してエンコード処理を行い、監視側の遠隔映像監視装置Bを構成するデコード装置30で受信可能なMMTPパケットに変換して、IPネットワーク4経由で、当該デコード装置30へ送出する。例えば、エンコード処理部12は、入力された映像非圧縮データをHEVC(High Efficiency Video Coding)コーデック又はAVC(Advanced Video Coding)コーデックでエンコードし、音声非圧縮データをAAC(Advanced Audio Coding)コーデックでエンコードして、MMTPストリームに変換して送出する。その際、MMTPストリームのタイムコードを管理することにより、オブジェクト情報統合装置20から送出されるオブジェクト情報との同期を担保する。
オブジェクト検出・トラッキング処理部13は、複数の映像データから1つ以上のオブジェクトを検出してトラッキングを行い、当該オブジェクトの検出及びトラッキングの実行結果をオブジェクト情報としてオブジェクト情報統合装置20にWebsocketで送信する。尚、オブジェクトの検出及びトラッキング方法は、公知の技術を用いて実現可能である。
オブジェクト情報統合装置20は、オブジェクト検出・トラッキング処理部13からオブジェクト情報をWebsocketで受け取り、受け取ったオブジェクト情報に含まれるオブジェクトのカメラ映像上の座標をサラウンド映像上の座標へ変換する。また、オブジェクト情報統合装置20は、重複領域に同時に表れるオブジェクトについては統合して1つのオブジェクトとする。そして、オブジェクト情報統合装置20は、オブジェクト情報内のトラッキング情報に所定の連携キーを付加して図示しない所定の外部サーバへ問い合わせを行い、得られた任意の付加情報をトラッキング情報に追加する。その後、オブジェクト情報統合装置20は、トラッキング情報からシグナリングメッセージを生成し、MMTPパケット化してMMTPストリームに変換して、MMTプロトコルを用いて、IPネットワーク4経由で、監視側の遠隔映像監視装置Bを構成する統合オブジェクト情報受信装置40へ送出する。
次に、監視側の遠隔映像監視装置Bについて説明する。監視側の遠隔映像監視装置Bは、図1に示したように、例えば、デコード装置30と、統合オブジェクト情報受信装置40と、を備える。
デコード装置30は、IPネットワーク4を介して合成処理装置10のエンコード処理部12からMMTPストリームを受信し、受信したMMTPストリーム内のMMTPパケットに含まれる映像・音声データに対してデコード処理を行い、デコード処理により復号化された映像・音声データを図示しない複数の出力用デバイス間で同期制御して複数の表示系機器3へそれぞれ出力する機能を備える。
統合オブジェクト情報受信装置40は、IPネットワーク4を介してオブジェクト情報統合装置20からMMTPストリームを受信し、受信したMMTPストリーム内のMMTPパケットに含まれるオブジェクト情報を取得し、当該オブジェクト情報内のオブジェクトの座標を、映像・音声のコンポーネントを識別するアセット毎の座標へ変換して、複数の表示系機器3へそれぞれ出力する。尚、アセットに関する詳細については、非特許文献1に記載されている。
尚、実際の運用では、デコード装置30及び統合オブジェクト情報受信装置40と表示系機器3との間に、映像・音声データとオブジェクト情報とを重畳する付加情報重畳装置が設けられるが、当該付加情報重畳装置はデータ情報の重畳機能であることから、デコード装置30、統合オブジェクト情報受信装置40、表示系機器3のうちいずれかに実装可能である。また、撮像系機器2とは、例えば、4Kカメラである。表示系機器3とは、例えば、ディスプレイであり、複数の表示系機器3は、マルチスクリーンである。
[合成処理装置]
合成処理装置10の機能は、上述した通りであるが、本実施形態では、複数の撮像系機器2からそれぞれ受信する複数の映像・音声データを完全に同期制御することは難しいという課題を解決するため、合成処理装置10に同期制御部(同期制御装置)を更に備える。
図2は、同期制御部を更に備えた合成処理装置10の構成例を示す図である。当該合成処理装置10は、複数の撮像系機器2から概ね同じタイミングでそれぞれ送信される複数の映像・音声データの同期精度を向上させる制御を行う。例えば、合成処理装置10は、カメラ映像受信部14と、同期制御部15と、合成処理部11と、を備える。図2では、図1に示したエンコード処理部12及びオブジェクト検出・トラッキング処理部13については、省略している。
カメラ映像受信部14は、複数の撮像系機器2から出力される複数のカメラ映像を複数の集信用デバイスでそれぞれ受信し、受信した複数の映像・音声データを同期制御部15にそれぞれ送出する機能を備える。
同期制御部15は、カメラ映像受信部14と合成処理部11との間で機能し、カメラ映像受信部14から送出された複数の映像・音声データについて同期制御を行い、同期制御後の複数の映像・音声データを合成処理部11にそれぞれ送出する機能を備える。この機能を実行するため、同期制御部15は、図2に示したように、例えば、フレーム取得部151と、フレーム整形部152と、欠損フレーム検出部153と、余剰フレーム検出部154と、を備える。
フレーム取得部151は、映像・音声データ毎に、映像・音声データから複数のフレームデータを取得し、取得時刻を基にしたフレームタイムスタンプを当該複数のフレームデータにそれぞれ付与する機能を備える。
フレーム整形部152は、付与されたフレームタイムスタンプの値を基に、複数の映像・音声データ間で時間的に近い複数のフレームデータが同時刻となり、複数のフレームデータ間の時間間隔が等間隔となるように、複数のフレームデータに新たなフレームタイムスタンプを付与する機能を備える。
欠損フレーム検出部153は、複数の映像・音声データについて、フレームデータに欠損があるか否を判定し、フレームデータの欠損を検出した場合、欠損したフレームデータの次のフレームデータを当該欠損したフレームデータとして複製して欠損位置に挿入する機能を備える。
余剰フレーム検出部154は、複数の映像・音声データについて、フレームデータに重複又は余剰があるか否かを判定し、フレームデータの重複又は余剰を検出した場合、重複又は余剰であるフレームデータを削除する機能を備える。
合成処理部11の機能については、上述した通りである。同期制御部15は、合成処理装置10と同様に、CPU、メモリ、入出力インタフェース、通信インタフェース等を備えたコンピュータで実現可能である。また、同期制御部15としてコンピュータを機能させるための同期制御プログラム、当該同期制御プログラムの記憶媒体の作成も可能である。
[同期制御方法]
次に、複数のカメラ映像を同期制御する同期制御方法について説明する。当該同期制御方法では、カメラ映像に含まれる映像・音声データのうち、映像データを例に説明する。音声データ、又は、映像及び音声データの場合でも、当該同期制御方法を適用できる。図3は、映像データの同期制御処理フローを示す図である。
ステップS1;
最初に、カメラ映像受信部14は、複数の撮像系機器2から概ね同じタイミングでそれぞれ出力された複数の映像データをそれぞれ受信し、受信した複数の映像データを同期制御部15にそれぞれ送出する。その後、同期制御部15は、複数の映像データについて、各映像データに含まれる各フレームデータに対して後述するステップS2~ステップS7を実行する。
ステップS2;
まず、フレーム取得部151は、各映像データから各フレームデータをそれぞれ取得し、取得した各フレームデータの各取得時刻を基にしたフレームタイムスタンプを各フレームデータにそれぞれ付与する。
例えば、フレームレートが60fpsの映像であれば、フレーム時間間隔は約16.66msecとなるので、第1カメラから、先頭フレームデータを「2019/4/1/12:00.052」に取得し、第2フレームデータを「2019/4/1/12:00.070」に取得した場合、フレーム取得部151は、それらの取得時刻を先頭フレームデータと第2フレームデータとにそれぞれ付与する。他のカメラからのフレームデータについても同様である。
尚、フレーム取得部151は、フレームデータの取得時刻に代えて、フレームデータの受信時刻又は到着時刻を用いてもよい。特許請求の範囲に記載した「取得時刻」は、受信時刻及び到着時刻を包含する。
ステップS3;
次に、フレーム整形部152は、ステップS2で付与されたフレームタイムスタンプの値を基に、映像データのフレームレートに従い、複数の映像データ間で時間的に近い複数のフレームデータが同時刻となり、複数のフレームデータ間の時間間隔が等間隔となるように、複数のフレームデータに新たなフレームタイムスタンプを付与する。
つまり、フレーム整形部152は、フレームデータの取得時刻や到着時刻を基に付与したフレームタイムスタンプを、フレームレートに従い等間隔に整形する。このとき、新たなフレームタイムスタンプは、所定の基準時刻(1900/1/1/0:00.000=NTPv4 64bit表現における0)から起算してフレーム時間間隔毎に算出した値とする。これにより、複数の撮像系機器2に関わらずズレのないフレームタイムスタンプの付与を可能とする。
(新たなフレームタイムスタンプの付与例1)
例えば、フレームレートが60fpsの映像の場合、フレーム時間間隔は約16.66msecとなるので、フレーム整形部152は、まず、上記所定の基準時刻から起算した現在時刻(「2019/4/1/12:00.000」)以降におけるフレーム時間間隔毎の時刻を下記に示すように算出する。但し、毎秒ちょうどは、「.000」とする。尚、下記時刻の例は、小数点3桁で四捨五入した値である。
2019/4/1/12:00.000
2019/4/1/12:00.017
2019/4/1/12:00.033
2019/4/1/12:00.050
2019/4/1/12:00.067
・・・
そして、3つのカメラからの映像データの各到着時刻が下記に示す時刻から始まった場合、
第1カメラ(先頭フレームデータ) 2019/4/1/12:00.052
第2カメラ(先頭フレームデータ) 2019/4/1/12:00.055
第3カメラ(先頭フレームデータ) 2019/4/1/12:00.056
フレーム整形部152は、算出していた上記複数の「フレーム時間間隔毎の時刻」の中から当該各到着時刻に最も近い「2019/4/1/12:00.050」を選択し、選択した「2019/4/1/12:00.050」を3つ全ての映像データの先頭フレームデータにそれぞれ付与する。
尚、時刻の選択方法については、様々な方法が考えられる。例えば、フレーム処理を開始してから初回に受信したフレームデータに対しては、当該フレームデータの取得時刻を当該取得時刻の前後の「フレーム時間間隔毎の時刻」と比較し、近い方の時刻を選択する。フレームデータの取得時刻がフレーム時間間隔の中心であった場合、フレーム整形部152は、古い時刻を選択する。
その後、フレーム整形部152は、先頭フレームデータ以降のフレームデータに対しては、フレーム時間間隔(約16.66msec)毎の時刻を付与する。
これにより、上記例の場合、3つ全ての映像データに対して下記に示すフレームタイムスタンプが付与されることとなり、3つの映像データが完全に同期制御される。尚、下記で付与したフレームタイムスタンプの「00:00.017」は、「16.66msec」=「00:00.01666」を小数点3桁で四捨五入した値である。
先頭フレームデータ 2019/4/1/12:00.050
第2フレームデータ 2019/4/1/12:00.050+00:00.017×1
第3フレームデータ 2019/4/1/12:00.050+00:00.017×2
・・・
第nフレームデータ 2019/4/1/12:00.050+00:00.017×(n-1)
(新たなフレームタイムスタンプの付与例2)
付与例1では、先頭以外のフレームデータに対しては、フレーム時間間隔毎の時刻を付与する方法を説明した。一方、フレームデータに欠損又は余剰及び重複がある場合、付与例1のように先頭以外のフレームデータに対してフレーム時間間隔毎の時刻を一律付与してしまうと、複数の映像データ間で時間的に全く異なるフレームデータに同じフレームタイムスタンプが付与される可能性がある。
そこで、先頭フレームデータのみに限らず、先頭以外のフレームデータについても、その取得時刻を「フレーム時間間隔毎の時刻」と比較して選択するようにする。これにより、フレームデータの取得時刻に合致する時刻のフレームタイムスタンプが付与されるので、フレームデータに欠損又は重複がある場合でも、正しいフレームタイムスタンプを確実に付与可能となる。
ここまで説明したステップS1~ステップS3の処理を行うことで、図4に示すように、複数の撮像系機器2からの各カメラ映像を確実に同期制御できる。但し、前述したように、撮像系機器2によっては、その時々の状況や状態により撮影処理の遅延・ゆらぎが大きく生じ、フレームデータの欠損又は余剰及び重複が発生する可能性がある。
そこで、ステップS4以降では、フレームデータの過不足を確認し、フレームデータの複製又は削除を行うことで、フレームデータにゆらぎや欠損・余剰・重複があった場合にも、常に全てのカメラ映像のフレームタイムスタンプが同期した状態を実現するようにする。
ステップS4;
次に、欠損フレーム検出部153は、各映像データに係るフレームデータに欠損があるか否かを判定する。例えば、欠損フレーム検出部153は、ステップS3で付与された新たなフレームタイムスタンプの値を参照し、フレーム時間間隔で刻んだ時刻に対応するフレームタイムスタンプに一部漏れがある場合、フレームデータに欠損があると判定する。フレームデータに欠損がある場合、ステップS5へ進み、フレームデータに欠損がない場合、ステップS6へ進む。
ステップS5;
フレームデータに欠損がある場合、欠損フレーム検出部153は、図5に示すように、欠損したフレームデータの次のフレームデータを当該欠損したフレームデータとして複製して挿入する。つまり、欠損フレーム検出部153は、フレームの欠損を検知した時点で欠損フレームの次フレームを複製して追加入力するリピート処理を実行する。その後、ステップS6へ進む。
ステップS6;
次に、余剰フレーム検出部154は、フレームデータに重複又は余剰があるか否かを判定する。例えば、余剰フレーム検出部154は、ステップS3で付与されたフレームタイムスタンプの値を参照し、複数のフレームデータに同じフレームタイムスタンプが付与されている場合、フレームデータに重複又は余剰があると判定する。フレームデータに重複又は余剰がある場合、ステップS7へ進み、フレームデータに重複又は余剰がない場合、処理を終了する。
ステップS7;
フレームデータに重複又は余剰がある場合、余剰フレーム検出部154は、図6に示すように、重複又は余剰であるフレームデータを削除する。つまり、余剰フレーム検出部154は、フレームの重複又は余剰を検知した時点で重複又は余剰フレームを削除するスキップ処理を実行する。その後、処理を終了する。
最後に、フレームタイムスタンプの付与方法を纏める。
まず、フレーム取得部151が、複数の映像データについて、フレームデータの取得時刻を基にしたフレームタイムスタンプを各フレームデータにそれぞれ付与する。当該フレームタイムスタンプは、撮影処理の遅延・ゆらぎ等により、例えば、図7の白丸で示すようになる。
その後、フレーム整形部152が、映像データのフレームレート(60fps)に従い、基準時刻(「1900/1/1/0:00.000」)から起算した現在時刻(「2019/4/1/12:00.000」)からフレーム時間間隔(16.66msec)で刻んだ時刻(図7の斜線ハッチ入り丸)を算出し、当該「フレーム時間間隔で刻んだ時刻」を新たなフレームタイムスタンプとして各フレームデータにそれぞれ付与する。つまり、フレーム整形部152は、フレームデータの取得時刻を基にしたフレームタイムスタンプを、フレームレートに従い基準時刻から起算して算出した時刻に再割り当てする処理を行う。
このとき、図7に示したフレームタイムスタンプTS1のように、取得時刻を基にしたフレームタイムスタンプよりも過去の連続する2以上の付与予定フレームタイムスタンプに再割り当てが行われていない場合、1フレーム前までのフレームデータに対してリピート処理を実行する。また、フレームタイムスタンプTS2のように、取得時刻を基にしたフレームタイムスタンプよりも未来の付与予定フレームタイムスタンプに既に再割り当てが行われている場合、スキップ処理を実行する。
[実施形態の効果]
以上より、本実施形態によれば、複数の撮像系機器2から概ね同じタイミングでそれぞれ送信される複数の映像・音声データを同期する同期制御部15において、映像・音声データ毎に、映像・音声データから複数のフレームデータを取得し、取得時刻を基にしたフレームタイムスタンプを複数のフレームデータにそれぞれ付与するフレーム取得部151と、フレームタイムスタンプの値を基に、複数の映像・音声データ間で時間的に近い複数のフレームデータが同時刻となり、複数のフレームデータ間の時間間隔が等間隔となるように、複数のフレームデータに新たなフレームタイムスタンプを付与するフレーム整形部152と、を備えるので、遠隔映像監視システムにおいて複数の撮像系機器からの複数の映像・音声データをより確実に同期制御できる。
また、本実施形態によれば、フレーム整形部152は、1900/1/1/0:00.000から起算して映像・音声データのフレーム時間間隔で刻んだ時刻を新たなフレームタイムスタンプとするので、入力された全ての映像フレームに対してUTC(Coordinated Universal Time)に同期したフレームタイムスタンプの付与を実現できる。
また、本実施形態によれば、フレームデータの欠損を検出した場合、欠損したフレームデータの次のフレームデータを当該欠損したフレームデータとして複製して挿入する欠損フレーム検出部153を更に備えるので、複数の映像・音声データを更に確実に同期制御できる。
また、本実施形態によれば、フレームデータの重複又は余剰を検出した場合、重複又は余剰であるフレームデータを削除する余剰フレーム検出部154を更に備えるので、複数の映像・音声データを更に確実に同期制御できる。
1…遠隔映像監視システム
2…撮像系機器
3…表示系機器
4…IPネットワーク
10…合成処理装置
11…合成処理部
12…エンコード処理部
13…オブジェクト検出・トラッキング処理部
14…カメラ映像受信部
15…同期制御部
151…フレーム取得部
152…フレーム整形部
153…欠損フレーム検出部
154…余剰フレーム検出部
20…オブジェクト情報統合装置
30…デコード装置
40…統合オブジェクト情報受信装置
A…拠点側の遠隔映像監視装置
B…監視側の遠隔映像監視装置

Claims (5)

  1. 複数の撮像系機器から送信される複数のデータを同期する同期制御装置において、
    前記データは、映像データ、音声データ、又は、映像及び音声データであり、
    前記データ毎に、前記データから複数のフレームデータを取得し、取得時刻を基にしたフレームタイムスタンプを前記複数のフレームデータにそれぞれ付与するフレーム取得部と、
    前記フレームタイムスタンプの値を基に、前記複数のデータ間で時間的に近い複数のフレームデータが同時刻となり、前記複数のフレームデータ間の時間間隔が等間隔となるように、前記複数のフレームデータに新たなフレームタイムスタンプを付与するフレーム整形部と、を備え、
    前記フレーム整形部は、
    所定の基準時刻から起算して前記データのフレームレートで刻んだフレーム時間間隔毎の時刻の中から、前記複数のデータの各先頭フレームデータのフレームタイムスタンプに最も近い時刻を選択し、選択した時刻を前記各先頭フレームデータの新たなフレームタイムスタンプとすることを特徴とする同期制御装置。
  2. 前記フレームデータの欠損を検出した場合、前記欠損したフレームデータの次のフレームデータを前記欠損したフレームデータとして複製して挿入する欠損フレーム検出部と、
    前記フレームデータの重複又は余剰を検出した場合、前記重複又は余剰であるフレームデータを削除する余剰フレーム検出部と、を更に備え、
    前記フレーム整形部は、
    先頭フレームデータ以外の非先頭フレームデータについて、前記フレーム時間間隔毎の時刻の中から、前記複数のデータ間で時間的に近い複数の非先頭フレームデータのフレームタイムスタンプに最も近い時刻を選択し、選択した時刻を前記複数の非先頭フレームデータの新たなフレームタイムスタンプとすることを特徴とする請求項1に記載の同期制御装置。
  3. 複数の撮像系機器から送信される複数のデータを同期する同期制御装置で行う同期制御方法において、
    前記データは、映像データ、音声データ、又は、映像及び音声データであり、
    前記データ毎に、前記データから複数のフレームデータを取得し、取得時刻を基にしたフレームタイムスタンプを前記複数のフレームデータにそれぞれ付与する第1のステップと、
    前記フレームタイムスタンプの値を基に、前記複数のデータ間で時間的に近い複数のフレームデータが同時刻となり、前記複数のフレームデータ間の時間間隔が等間隔となるように、前記複数のフレームデータに新たなフレームタイムスタンプを付与する第2のステップと、を行い、
    前記第2のステップでは、
    所定の基準時刻から起算して前記データのフレームレートで刻んだフレーム時間間隔毎の時刻の中から、前記複数のデータの各先頭フレームデータのフレームタイムスタンプに最も近い時刻を選択し、選択した時刻を前記各先頭フレームデータの新たなフレームタイムスタンプとすることを特徴とする同期制御方法。
  4. 前記フレームデータの欠損を検出した場合、前記欠損したフレームデータの次のフレームデータを前記欠損したフレームデータとして複製して挿入するステップと、
    前記フレームデータの重複又は余剰を検出した場合、前記重複又は余剰であるフレームデータを削除するステップと、を更に行い、
    前記第2のステップでは、
    先頭フレームデータ以外の非先頭フレームデータについて、前記フレーム時間間隔毎の時刻の中から、前記複数のデータ間で時間的に近い複数の非先頭フレームデータのフレームタイムスタンプに最も近い時刻を選択し、選択した時刻を前記複数の非先頭フレームデータの新たなフレームタイムスタンプとすることを特徴とする請求項3に記載の同期制御方法。
  5. 請求項3又は4に記載の同期制御方法をコンピュータに実行させることを特徴とする同期制御プログラム。
JP2019102905A 2019-05-31 2019-05-31 同期制御装置、同期制御方法及び同期制御プログラム Active JP7208530B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2019102905A JP7208530B2 (ja) 2019-05-31 2019-05-31 同期制御装置、同期制御方法及び同期制御プログラム
US17/611,340 US20220210295A1 (en) 2019-05-31 2020-05-15 Synchronous control device, synchronous control method, and synchronous control program
PCT/JP2020/019464 WO2020241308A1 (ja) 2019-05-31 2020-05-15 同期制御装置、同期制御方法及び同期制御プログラム
CN202080040390.9A CN113906734A (zh) 2019-05-31 2020-05-15 同步控制装置、同步控制方法以及同步控制程序

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019102905A JP7208530B2 (ja) 2019-05-31 2019-05-31 同期制御装置、同期制御方法及び同期制御プログラム

Publications (2)

Publication Number Publication Date
JP2020198509A JP2020198509A (ja) 2020-12-10
JP7208530B2 true JP7208530B2 (ja) 2023-01-19

Family

ID=73553406

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019102905A Active JP7208530B2 (ja) 2019-05-31 2019-05-31 同期制御装置、同期制御方法及び同期制御プログラム

Country Status (4)

Country Link
US (1) US20220210295A1 (ja)
JP (1) JP7208530B2 (ja)
CN (1) CN113906734A (ja)
WO (1) WO2020241308A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022153385A1 (ja) * 2021-01-13 2022-07-21 日本電信電話株式会社 映像処理装置、映像処理方法、および、映像処理プログラム
CN116366780B (zh) * 2023-04-10 2024-04-02 小米汽车科技有限公司 用于帧同步的帧序号确定方法、装置及车辆
CN117119223B (zh) * 2023-10-23 2023-12-26 天津华来科技股份有限公司 基于多通道传输的视频流播放控制方法及系统
CN117528262B (zh) * 2023-12-29 2024-04-05 江西赛新医疗科技有限公司 一种医疗设备数据传输的控制方法及系统

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017212515A (ja) 2016-05-24 2017-11-30 日本電信電話株式会社 トランスコード装置、映像配信システム、トランスコード方法、映像配信方法及びトランスコードプログラム
WO2018088061A1 (ja) 2016-11-08 2018-05-17 ソニー株式会社 画像転送装置、画像転送方法、プログラム、動画像生成システム

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102510494B (zh) * 2011-10-09 2014-02-05 杭州华三通信技术有限公司 对i帧进行同步的方法及设备
US9280545B2 (en) * 2011-11-09 2016-03-08 Microsoft Technology Licensing, Llc Generating and updating event-based playback experiences
JP5940004B2 (ja) * 2013-03-04 2016-06-29 株式会社ドッドウエル ビー・エム・エス カメラ監視システム及びカメラ監視方法
US9912929B2 (en) * 2013-03-21 2018-03-06 Mediatek Inc. Video frame processing method
CN103414957A (zh) * 2013-07-30 2013-11-27 广东工业大学 一种音视频数据同步的方法和装置
CN103702013B (zh) * 2013-11-28 2017-02-01 北京航空航天大学 一种用于多路实时视频的帧同步方法
US9659598B2 (en) * 2014-07-21 2017-05-23 Avigilon Corporation Timeline synchronization control method for multiple display views
WO2016068768A1 (en) * 2014-10-31 2016-05-06 Telefonaktiebolaget L M Ericsson (Publ) Video stream synchronization
WO2016139808A1 (ja) * 2015-03-05 2016-09-09 三菱電機株式会社 データ処理装置及びデータ処理方法及びデータ処理プログラム
JP6820527B2 (ja) * 2015-06-25 2021-01-27 パナソニックIpマネジメント株式会社 映像同期装置及び映像同期方法
CN105049917B (zh) * 2015-07-06 2018-12-07 深圳Tcl数字技术有限公司 录制音视频同步时间戳的方法和装置
CN105430537B (zh) * 2015-11-27 2018-04-17 刘军 对多路数据进行合成的方法、服务器及音乐教学系统
US10063613B2 (en) * 2016-11-15 2018-08-28 Genvid Technologies, Inc. Systems and methods for utilizing client-side synchronization of video and overlay
CN106791899A (zh) * 2016-12-13 2017-05-31 飞狐信息技术(天津)有限公司 直播中减少观众端画面卡顿的方法及装置以及客户端
US10271074B2 (en) * 2016-12-30 2019-04-23 Facebook, Inc. Live to video on demand normalization

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017212515A (ja) 2016-05-24 2017-11-30 日本電信電話株式会社 トランスコード装置、映像配信システム、トランスコード方法、映像配信方法及びトランスコードプログラム
WO2018088061A1 (ja) 2016-11-08 2018-05-17 ソニー株式会社 画像転送装置、画像転送方法、プログラム、動画像生成システム

Also Published As

Publication number Publication date
WO2020241308A1 (ja) 2020-12-03
CN113906734A (zh) 2022-01-07
US20220210295A1 (en) 2022-06-30
JP2020198509A (ja) 2020-12-10

Similar Documents

Publication Publication Date Title
JP7208530B2 (ja) 同期制御装置、同期制御方法及び同期制御プログラム
CA3078998C (en) Embedded appliance for multimedia capture
US11895352B2 (en) System and method for operating a transmission network
CN110958466A (zh) 一种基于rtmp传输的sdi信号同步回传方法
CN112866733A (zh) 多直播设备的云导播同步系统及方法
JP7247707B2 (ja) 送信ノード、放送局システム、制御ノード及び送信制御方法
JP7208531B2 (ja) 同期制御装置、同期制御方法及び同期制御プログラム
WO2007110822A1 (en) Method and apparatus for synchronising recording of multiple cameras
JP2020005063A (ja) 処理装置及びその制御方法、出力装置、同期制御システム、並びにプログラム
JP7334442B2 (ja) 放送信号処理システム及び放送信号処理方法
Kim et al. Overview of Cloud-Based High Quality Media Production System
JP7247706B2 (ja) 送信ノード、放送局システム、制御ノード及び送信制御方法
JP5367771B2 (ja) 映像伝送システム
AU2016225817B2 (en) Embedded appliance for multimedia capture
KR20230103253A (ko) 다시점 영상을 전송하기 위한 시스템의 동작 방법 및 이를 수행하는 시스템
JP2016192741A (ja) 放送装置、マッピング情報送信装置、受信機、提示対象データ送信装置、放送通信データ同期システムおよびプログラム
AU2013254937A1 (en) Embedded Appliance for Multimedia Capture
CA2914803A1 (en) Embedded appliance for multimedia capture

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210823

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220719

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220831

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221206

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221219

R150 Certificate of patent or registration of utility model

Ref document number: 7208530

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150