JP7318809B2 - 映像分析装置、映像分析システム及び映像分析方法 - Google Patents
映像分析装置、映像分析システム及び映像分析方法 Download PDFInfo
- Publication number
- JP7318809B2 JP7318809B2 JP2022515228A JP2022515228A JP7318809B2 JP 7318809 B2 JP7318809 B2 JP 7318809B2 JP 2022515228 A JP2022515228 A JP 2022515228A JP 2022515228 A JP2022515228 A JP 2022515228A JP 7318809 B2 JP7318809 B2 JP 7318809B2
- Authority
- JP
- Japan
- Prior art keywords
- video analysis
- unit
- video
- detection
- analysis means
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/215—Motion-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
- G06T1/20—Processor architectures; Processor configuration, e.g. pipelining
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/12—Bounding box
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/234—Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs
- H04N21/2343—Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
- H04N21/234381—Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements by altering the temporal resolution, e.g. decreasing the frame rate by frame skipping
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/44—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs
- H04N21/44008—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
Description
本発明は、このような問題点を解決するためになされたものであり、映像分析精度を向上させた映像分析装置、映像分析システム及び映像分析方法を提供することを目的とする。
第1映像分析部と第2映像分析部とを備えた映像分析装置であって、
前記第1映像分析部は、
少なくとも2つのフレームを前記第1映像分析部か、前記第2映像分析部に振り分ける振り分け部と、
前記第1映像分析部に振り分けられたフレーム内の対象物を検出する第1検出部と、
前記検出された対象物に関連付けられた移動に関する情報を取得し、前記移動に関する情報と前記第1検出部での検出結果を前記第2映像分析部に送信する取得部と、
を備え、
前記第2映像分析部は、
前記振り分け部から受信したフレーム内の対象物を検出する第2検出部と、
前記第2検出部での検出結果と前記移動に関する情報に基づいて、前記第1検出部での検出結果を調整する調整部と、
を備える。
第1映像分析部と、第2映像分析部とを備えた映像分析システムであって、
前記第1映像分析部は、
少なくとも2つのフレームを前記第1映像分析部か、前記第2映像分析部に振り分ける振り分け部と、
前記第1映像分析部に振り分けられたフレーム内の対象物を検出する第1検出部と、
前記検出された対象物に関連付けられた移動に関する情報を取得し、前記移動に関する情報と前記第1検出部での検出結果を前記第2映像分析部に送信する取得部と、
を備え、
前記第2映像分析部は、
前記振り分け部から受信したフレーム内の対象物を検出する第2検出部と、
前記第2検出部での検出結果と前記移動に関する情報に基づいて、前記第1検出部での検出結果を調整する調整部と、
を備える。
一連のフレームに対して第1映像分析部と第2映像分析部で分散して映像分析を行う映像分析方法であって、
前記第1映像分析部において、
少なくとも2つのフレームを連続して受信し、前記第1映像分析部で分析するか、前記第2映像分析部で分析するかを振り分け、
前記第1映像分析部で分析すると振り分けられたフレーム内の対象物を検出し、
前記検出された対象物に関連付けられた移動に関する情報を取得し、前記移動に関する情報と前記第1映像分析部での検出結果を前記第2映像分析部に送信し、
前記第2映像分析部において、
前記第1映像分析部から受信したフレーム内の対象物を検出し、
前記第2映像分析部での検出結果と前記移動に関する情報に基づいて、前記第1映像分析部での検出結果を調整する。
以下、図面を参照して本発明の実施の形態について説明する。
図1は、実施の形態1にかかる映像分析装置の構成を示すブロック図である。
映像分析装置1は、少なくとも2つのフレームを分散して処理するために、第1映像分析部100と第2映像分析部200とを備える。映像分析装置1は、1つ又はそれ以上のコンピュータにより実現され得る。少なくとも2つのフレームは、連続する2つのフレームでもよいし、別のフレームを挟んだ2つのフレームでもよい。
実施の形態1にかかる映像分析方法は、少なくとも2つのフレームを第1映像分析部100と第2映像分析部200において分散して処理する。
図3は、実施の形態2にかかる映像分析装置の構成を示すブロック図である。
映像分析装置1aは、一連のフレーム(少なくとも2つのフレームを含む)を分散して処理するために、第1映像分析部100aと第2映像分析部200aとを備える。
第1検出部105aは、所定の映像分析プログラムを用いて、フレームから、予め指定された対象物を検出する。検出された対象物は、バウンディングボックスにより囲われ得る。移動情報取得部106aは、2つのフレーム間において、対象物が動いていることを認識し、バウンディングボックス内の対象物に関する移動情報を取得する。移動情報取得部106aは、第1映像分析部100a内の記憶部に一時的に格納された映像フレームと、第1検出部105aからの検出結果フレームとを比較して、移動情報を取得することができる。取得される移動情報は、対象物の移動する方向の情報又は移動ベクトルを含んでもよい。振り分け部103は、予め設定された振り分け率で、フレームを第1映像分析部100か、第2映像分析部200に振り分けることができる。例えば、振り分け率が10%と設定されている場合、振り分け部103は、連続して受信するフレームを振り分けカウンタを用いてカウントし、最初のフレームを第2映像分析部200に送信した後、残りの9枚のフレームを第1映像分析部100に振り分けることができる。振り分け率は、閾値以上に設定されている。
実施の形態2にかかる映像分析方法は、少なくとも2つのフレームを第1映像分析部100と第2映像分析部200において分散して処理する。
図5は、実施の形態3にかかる映像分析システムの構造を示すブロック図である。
映像分析システム1bは、第1映像分析部100bと、第2映像分析部200bと、を備える。第1映像分析部100bは、エッジ側に配置され、カメラと有線又は無線で接続されている。第1映像分析部100bとカメラが、例えば、Wi-Fi(登録商標)などの無線通信で接続される場合、接続台数が少ないので、4G、5G等の携帯電話網と比べて、安定した通信が可能となる。第1映像分析部100bは電源や設置スペースの制約から、十分な計算リソースを用意できず、計算コストの低い低精度モデルとなる場合が多い。一方、第2映像分析部200は、第1映像分析部100とLTE(登録商標)や5G、Wi-fi(登録商標)などの無線ネットワークを介して接続され、第1映像分析部100bに比べて、計算リソースが潤沢であるので、高精度な映像分析を実現する。
図9の上部には、時系列に沿って撮影された一連の映像フレームが示されている。実線で示したフレームは、クラウドに送信されたフレームを示す。破線で示したフレームは、エッジに振り分けられたフレームを示す。本例では、フレーム振り分け部103bが25%のフレーム送信割合で、クラウド側の第2映像分析部200にフレームを送信する。すなわち、時刻tに撮影されたフレーム(実線で示す)は、クラウド側の第2映像分析部200bに送られる。そして、当該フレームは、クラウド側の第2検出部205bの高精度モデルにより、対象物の検出が行われる。クラウド側で対象物の検出が行われたフレームを参照フレームと称する。
クラウド側の第2映像分析部200bの分析結果調整部207bは、時刻tに撮影されたフレームについてのクラウド検出結果と、時刻t+1に撮影されたフレームについてのエッジ検出結果および移動ベクトルから、時刻t+1における正確な結果を推定する。
第1映像分析部100bはまず、初期化を行う(ステップS301)。ここでは、フレームの振り分けカウンタ等が初期化される。映像フレーム受信部101bは、車載カメラ(図示せず)から、映像フレームを受信する(ステップS302)。フレーム振り分け部103bは、映像フレームを、クラウド側の第2映像分析部200bで分析するか、それともエッジ側の第1検出部105bで分析するかを振り分ける(ステップS303)。映像フレームを、クラウド側の第2映像分析部200bで分析する場合(ステップS303でYES)、エンコーダ108bは、当該映像フレームを所定の品質で符号化し、第2映像分析部200に送信する(ステップS304)。
図12は、実施の形態3にかかるクラウド側に配置された第2映像分析部の映像フレーム受信に関する動作を示すフローチャートである。
第2映像分析部200bは、映像フレームを受信する(ステップS401)。デコーダ201は、符号化された映像フレームを復号する。第2検出部205は、クラウドモデルを用いて、映像フレーム内の対象物を検出する(ステップS402)。クラウド検出物体を初期化する(ステップS403)。ここでは、後述するクラウド検出物体の未検出カウンタ値や位置が初期化される。最後に、第2映像分析部200の第2検出部205bは、クラウド検出結果を外部および分析結果調整部207bに出力する(ステップS404)。
分析結果調整部207bは、時刻tに撮影されたフレームについて、第2検出部205bからクラウド検出結果を受信し、参照フレームとして保持する(ステップS410)。分析結果調整部207bは、分析結果受信部203bから、時刻tに撮影された参照フレームの直後に撮影された時刻t+1のフレームについてのエッジ分析結果を受信する(ステップS411)。分析結果には、第1検出部105bでの検出結果と、移動ベクトル取得部106bで取得された、検出された各対象物の移動ベクトルを含む。この分析結果データの容量は、映像フレーム自体の容量に比べ、著しく小さい。分析結果調整部207bは、調整されていないクラウド検出対象物が参照フレーム内にある場合(ステップS412でYES)、クラウド検出対象物とエッジ検出対象物との重複が一番大きいものをそれぞれ取得する(ステップS414)。図10の例では、クラウド検出対象物を囲うバウンディングボックスB1とエッジ検出対象物を囲うバウンディングボックスB21との重複が一番大きいので、これらを取得する。
縦軸は対象物の検出精度を示し、横軸は、エッジとクラウドとの振り分け率を示すフレーム送信割合を示す。例えば、横軸の10-1は、連続するフレームのうち、10回に1回の割合でフレームをクラウド側の第2映像分析部200bに送ること、言い換えると、1回フレームをクラウド側の第2映像分析部200bに送った後、9回連続してエッジ側の第1映像分析部100で処理することを意味する。
図15から、車載カメラを用いた場合、本提案方法は、関連方法1よりもかなり精度が高く、関連方法2よりも著しく精度が高いことが分かる。特に、車載カメラを用いた場合では、カメラ自体が移動するため、フレーム間での検出位置ずれが大幅に生じる。そのため、直前のフレームについてのクラウド検出結果をそのまま使用する関連方法2では、精度が著しく低下する。また、図15から、本提案方法も、フレーム送信割合が低くなるにつれて、関連方法3と同程度まで精度が悪化することが分かる。これより、本提案方法も、フレーム送信割合が閾値以上(例えば、図15では1%以上)であれば、関連方法よりも高精度な映像分析を実現できる。
図16は、実施の形態4にかかる車両遠隔制御システムの構成を示すブロック図である。
車両遠隔制御システム3は、複数の自動運転車両10A、10Bと、これらの自動運転車両10A、10Bを監視し制御する遠隔監視装置50と、を備える。複数の自動運転車両10Aは、携帯電話網などのネットワーク30を介して遠隔監視装置50と接続されている。こうした携帯電話網では、可用帯域が変動し得るため、帯域不足により遠隔監視装置50における映像品質が悪化する場合がある。なお、図16では、2台の自動運転車両を図示しているが、車両の数はこれに限定されない。N台の自動運転車両(N以上の自然数)を備えてもよい。
(付記1)
第1映像分析部と第2映像分析部とを備えた映像分析装置であって、
前記第1映像分析部は、
少なくとも2つのフレームを前記第1映像分析部か、前記第2映像分析部に振り分ける振り分け部と、
前記第1映像分析部に振り分けられたフレーム内の対象物を検出する第1検出部と、
前記検出された対象物に関連付けられた移動に関する情報を取得し、前記移動に関する情報と前記第1検出部での検出結果を前記第2映像分析部に送信する取得部と、
を備え、
前記第2映像分析部は、
前記振り分け部から受信したフレーム内の対象物を検出する第2検出部と、
前記第2検出部での検出結果と前記移動に関する情報に基づいて、前記第1検出部での検出結果を調整する調整部と、
を備える、映像分析装置。
(付記2)
前記第1映像分析部は、
前記検出された対象物の検出領域内の移動に関する情報を取得する移動情報取得部と、
前記移動に関する情報と前記第1検出部での検出結果を、分析結果として前記第2映像分析部に送信する分析結果送信部と、
前記第2映像分析部で分析すると振り分けられたフレームを前記第2映像分析部に送信するフレーム送信部と、
を備える、付記1に記載の映像分析装置。
(付記3)
前記振り分け部は、連続的に受信する一連のフレームを所定のフレーム送信割合以上で、前記第2映像分析部で分析するように振り分ける、付記1又は2に記載の映像分析装置。
(付記4)
前記第1映像分析部から前記第2映像分析部へのネットワークが使用可能な帯域を推定する推定部と、
前記推定された前記使用可能な帯域に応じて前記所定のフレーム送信割合を変更する変更部と、を備える、付記3に記載の映像分析装置。
(付記5)
前記分析結果は、検出された対象物を囲むボックスの中心座標と、当該ボックスの幅及び高さと、前記検出された対象物を示す識別子と、を含む、付記2に記載の映像分析装置。
(付記6)
前記第1映像分析部に振り分けられたフレームは、前記第2映像分析部に振り分けられたフレームの後に撮影されたものである、付記1~5のいずれか一項に記載の映像分析装置。
(付記7)
前記移動に関する情報は、前記対象物の移動する方向の情報又は移動ベクトルを含む、付記1~6のいずれか一項に記載の映像分析装置。
(付記8)
第1映像分析部と、第2映像分析部とを備えた映像分析システムであって、
前記第1映像分析部は、
少なくとも2つのフレームを前記第1映像分析部か、前記第2映像分析部に振り分ける振り分け部と、
前記第1映像分析部に振り分けられたフレーム内の対象物を検出する第1検出部と、
前記検出された対象物に関連付けられた移動に関する情報を取得し、前記移動に関する情報と前記第1検出部での検出結果を前記第2映像分析部に送信する取得部と、
を備え、
前記第2映像分析部は、
前記振り分け部から受信したフレーム内の対象物を検出する第2検出部と、
前記第2検出部での検出結果と前記移動に関する情報に基づいて、前記第1検出部での検出結果を調整する調整部と、
を備える、映像分析システム。
(付記9)
前記第1映像分析部は、
前記検出された対象物の検出領域内の移動に関する情報を取得する移動情報取得部と、
前記移動に関する情報と前記第1検出部での検出結果を、分析結果として前記第2映像分析部に送信する分析結果送信部と、
前記第2映像分析部で分析すると振り分けられたフレームを前記第2映像分析部に送信するフレーム送信部と、
を備える、付記8に記載の映像分析システム。
(付記10)
前記振り分け部は、連続的に受信する一連のフレームを所定のフレーム送信割合以上で、前記第2映像分析部で分析するように振り分ける、付記8に記載の映像分析システム。
(付記11)
前記第1映像分析部から前記第2映像分析部へのネットワークが使用可能な帯域を推定する推定部と、
前記推定された前記使用可能な帯域に応じて前記所定のフレーム送信割合を変更する変更部と、を備える、付記10に記載の映像分析システム。
(付記12)
前記第1映像分析部に振り分けられたフレームは、前記第2映像分析部に振り分けられたフレームの後に撮影されたものである、付記8~11のいずれか一項に記載の映像分析システム。
(付記13)
前記第1映像分析部は、エッジ側に設けられ、前記第2映像分析部はクラウド側に設けられている、付記8~12のいずれか一項に記載の映像分析システム。
(付記14)
一連のフレームに対して第1映像分析部と第2映像分析部で分散して映像分析を行う映像分析方法であって、
前記第1映像分析部において、
受信した少なくとも2つのフレームを、前記第1映像分析部か、前記第2映像分析部に振り分け、
前記第1映像分析部で分析すると振り分けられたフレーム内の対象物を検出し、
前記検出された対象物に関連付けられた移動に関する情報を取得し、前記移動に関する情報と前記第1映像分析部での検出結果を前記第2映像分析部に送信し、
前記第2映像分析部において、
前記第1映像分析部から受信したフレーム内の対象物を検出し、
前記第2映像分析部での検出結果と前記移動に関する情報に基づいて、前記第1映像分析部での検出結果を調整する、映像分析方法。
(付記15)
前記第1映像分析部において、
連続的に受信する一連のフレームを所定のフレーム送信割合以上で、前記第2映像分析部で分析するように振り分ける、付記14に記載の映像分析方法。
(付記16)
前記第2映像分析部において、
前記第1映像分析部から前記第2映像分析部へのネットワークの使用可能な帯域を推定し、
前記第1映像分析部において、
前記推定された前記使用可能な帯域に応じてフレーム送信割合を変更する、付記14又は15に記載の映像分析方法。
(付記17)
検出された対象物を囲むボックスの中心座標と、当該ボックスの幅及び高さと、前記検出された対象物を示す識別子と、を含む分析結果を前記第2映像分析部に送信する、付記14に記載の映像分析方法。
(付記18)
前記第1映像分析部は、エッジ側に設けられ、前記第2映像分析部はクラウド側に設けられている、付記14~17のいずれか一項に記載の映像分析方法。
(付記19)
前記第1映像分析部に振り分けられたフレームは、前記第2映像分析部に振り分けられたフレームの後に撮影されたものである、付記14~18のいずれか一項に記載の映像分析方法。
(付記20)
前記移動に関する情報は、前記対象物の移動する方向の情報又は移動ベクトルを含む、付記14~19のいずれか一項に記載の映像分析方法。
3 車両遠隔制御システム
10 自動運転車両
30 ネットワーク
50 遠隔監視装置
100 第1映像分析部
101b 映像フレーム受信部
103 振り分け部
103b フレーム振り分け部
104b 変更部
105 第1検出部
105a、105b 第1検出部
106 取得部
106a 移動情報取得部
106b 移動ベクトル取得部
107a 分析結果送信部
108b エンコーダ
109a フレーム送信部
110b 記憶部(バッファ)
150 車体制御部
200 第2映像分析部
201b デコーダ
203b 分析結果受信部
205 第2検出部
207、207a 調整部
207b 分析結果調整部
212b 帯域推定部
250 車両制御部
260 表示部
Claims (20)
- 第1映像分析手段と第2映像分析手段とを備えた映像分析装置であって、
前記第1映像分析手段は、
少なくとも2つのフレームを前記第1映像分析手段か、前記第2映像分析手段に振り分ける振り分け手段と、
前記第1映像分析手段に振り分けられたフレーム内の対象物を検出する第1検出手段と、
前記検出された対象物に関連付けられた移動に関する情報を取得し、前記移動に関する情報と前記第1検出手段での検出結果を前記第2映像分析手段に送信する取得手段と、
を備え、
前記第2映像分析手段は、
前記振り分け部から受信したフレーム内の対象物を検出する第2検出手段と、
前記第2検出手段での検出結果と前記移動に関する情報に基づいて、前記第1検出手段での検出結果を調整する調整手段と、
を備える、映像分析装置。 - 前記第1映像分析手段は、
前記検出された対象物の検出領域内の移動に関する情報を取得する移動情報取得手段と、
前記移動に関する情報と前記第1検出手段での検出結果を、分析結果として前記第2映像分析手段に送信する分析結果送信手段と、
前記第2映像分析手段で分析すると振り分けられたフレームを前記第2映像分析手段に送信するフレーム送信手段と、
を備える、請求項1に記載の映像分析装置。 - 前記振り分け手段は、連続的に受信する一連のフレームを所定のフレーム送信割合以上で、前記第2映像分析手段で分析するように振り分ける、請求項1又は2に記載の映像分析装置。
- 前記第1映像分析手段から前記第2映像分析手段へのネットワークが使用可能な帯域を推定する推定手段と、
前記推定された前記使用可能な帯域に応じて前記所定のフレーム送信割合を変更する変更手段と、を備える、請求項3に記載の映像分析装置。 - 前記分析結果は、検出された対象物を囲むボックスの中心座標と、当該ボックスの幅及び高さと、前記検出された対象物を示す識別子と、を含む、請求項2に記載の映像分析装置。
- 前記第1映像分析手段に振り分けられたフレームは、前記第2映像分析手段に振り分けられたフレームの後に撮影されたものである、請求項1~5のいずれか一項に記載の映像分析装置。
- 前記移動に関する情報は、前記対象物の移動する方向の情報又は移動ベクトルを含む、請求項1~6のいずれか一項に記載の映像分析装置。
- 第1映像分析手段と、第2映像分析手段とを備えた映像分析システムであって、
前記第1映像分析手段は、
少なくとも2つのフレームを前記第1映像分析手段か、前記第2映像分析手段に振り分ける振り分け手段と、
前記第1映像分析手段に振り分けられたフレーム内の対象物を検出する第1検出手段と、
前記検出された対象物に関連付けられた移動に関する情報を取得し、前記移動に関する情報と前記第1検出手段での検出結果を前記第2映像分析手段に送信する取得手段と、
を備え、
前記第2映像分析手段は、
前記振り分け手段から受信したフレーム内の対象物を検出する第2検出手段と、
前記第2検出手段での検出結果と前記移動に関する情報に基づいて、前記第1検出手段での検出結果を調整する調整手段と、
を備える、映像分析システム。 - 前記第1映像分析手段は、
前記検出された対象物の検出領域内の移動に関する情報を取得する移動情報取得手段と、
前記移動に関する情報と前記第1検出手段での検出結果を、分析結果として前記第2映像分析手段に送信する分析結果送信手段と、
前記第2映像分析手段で分析すると振り分けられたフレームを前記第2映像分析手段に送信するフレーム送信手段と、
を備える、請求項8に記載の映像分析システム。 - 前記振り分け手段は、連続的に受信する一連のフレームを所定のフレーム送信割合以上で、前記第2映像分析手段で分析するように振り分ける、請求項8に記載の映像分析システム。
- 前記第1映像分析手段から前記第2映像分析手段へのネットワークが使用可能な帯域を推定する推定手段と、
前記推定された前記使用可能な帯域に応じて前記所定のフレーム送信割合を変更する変更手段と、を備える、請求項10に記載の映像分析システム。 - 前記第1映像分析手段に振り分けられたフレームは、前記第2映像分析手段に振り分けられたフレームの後に撮影されたものである、請求項8~11のいずれか一項に記載の映像分析システム。
- 前記第1映像分析手段は、エッジ側に設けられ、前記第2映像分析手段はクラウド側に設けられている、請求項8~12のいずれか一項に記載の映像分析システム。
- 一連のフレームに対して第1映像分析手段と第2映像分析手段で分散して映像分析を行う映像分析方法であって、
前記第1映像分析手段において、
受信した少なくとも2つのフレームを、前記第1映像分析手段か、前記第2映像分析手段に振り分け、
前記第1映像分析手段で分析すると振り分けられたフレーム内の対象物を検出し、
前記検出された対象物に関連付けられた移動に関する情報を取得し、前記移動に関する情報と前記第1映像分析手段での検出結果を前記第2映像分析手段に送信し、
前記第2映像分析手段において、
前記第1映像分析手段から受信したフレーム内の対象物を検出し、
前記第2映像分析手段での検出結果と前記移動に関する情報に基づいて、前記第1映像分析手段での検出結果を調整する、映像分析方法。 - 前記第1映像分析手段において、
連続的に受信する一連のフレームを所定のフレーム送信割合以上で、前記第2映像分析手段で分析するように振り分ける、請求項14に記載の映像分析方法。 - 前記第2映像分析手段において、
前記第1映像分析手段から前記第2映像分析手段へのネットワークの使用可能な帯域を推定し、
前記第1映像分析手段において、
前記推定された前記使用可能な帯域に応じてフレーム送信割合を変更する、請求項14又は15に記載の映像分析方法。 - 検出された対象物を囲むボックスの中心座標と、当該ボックスの幅及び高さと、前記検出された対象物を示す識別子と、を含む分析結果を前記第2映像分析手段に送信する、請求項14に記載の映像分析方法。
- 前記第1映像分析手段は、エッジ側に設けられ、前記第2映像分析手段はクラウド側に設けられている、請求項14~17のいずれか一項に記載の映像分析方法。
- 前記第1映像分析手段に振り分けられたフレームは、前記第2映像分析手段に振り分けられたフレームの後に撮影されたものである、請求項14~18のいずれか一項に記載の映像分析方法。
- 前記移動に関する情報は、前記対象物の移動する方向の情報又は移動ベクトルを含む、請求項14~19のいずれか一項に記載の映像分析方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020071448 | 2020-04-13 | ||
JP2020071448 | 2020-04-13 | ||
PCT/JP2021/006512 WO2021210269A1 (ja) | 2020-04-13 | 2021-02-19 | 映像分析装置、映像分析システム及び映像分析方法 |
Publications (3)
Publication Number | Publication Date |
---|---|
JPWO2021210269A1 JPWO2021210269A1 (ja) | 2021-10-21 |
JPWO2021210269A5 JPWO2021210269A5 (ja) | 2022-12-22 |
JP7318809B2 true JP7318809B2 (ja) | 2023-08-01 |
Family
ID=78083871
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022515228A Active JP7318809B2 (ja) | 2020-04-13 | 2021-02-19 | 映像分析装置、映像分析システム及び映像分析方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20230177701A1 (ja) |
JP (1) | JP7318809B2 (ja) |
WO (1) | WO2021210269A1 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024013936A1 (ja) * | 2022-07-14 | 2024-01-18 | 日本電気株式会社 | 映像処理システム、映像処理装置及び映像処理方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010136032A (ja) | 2008-12-04 | 2010-06-17 | Hitachi Ltd | 映像監視システム |
WO2018012084A1 (ja) | 2016-07-15 | 2018-01-18 | パナソニックIpマネジメント株式会社 | 画像認識システム |
-
2021
- 2021-02-19 WO PCT/JP2021/006512 patent/WO2021210269A1/ja active Application Filing
- 2021-02-19 JP JP2022515228A patent/JP7318809B2/ja active Active
- 2021-02-19 US US17/917,616 patent/US20230177701A1/en active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010136032A (ja) | 2008-12-04 | 2010-06-17 | Hitachi Ltd | 映像監視システム |
WO2018012084A1 (ja) | 2016-07-15 | 2018-01-18 | パナソニックIpマネジメント株式会社 | 画像認識システム |
Also Published As
Publication number | Publication date |
---|---|
WO2021210269A1 (ja) | 2021-10-21 |
JPWO2021210269A1 (ja) | 2021-10-21 |
US20230177701A1 (en) | 2023-06-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11748947B2 (en) | Display method and display device for providing surrounding information based on driving condition | |
KR102618662B1 (ko) | 자율 주행을 위한 3차원 특징 예측 | |
KR102605807B1 (ko) | 시계열 요소들로부터 머신 러닝을 위한 그라운드 트루스 생성 | |
JP6202367B2 (ja) | 画像処理装置、距離測定装置、移動体機器制御システム、移動体及び画像処理用プログラム | |
US11164051B2 (en) | Image and LiDAR segmentation for LiDAR-camera calibration | |
JP2019096072A (ja) | 物体検出装置、物体検出方法およびプログラム | |
JP2019008460A (ja) | 物体検出装置、物体検出方法およびプログラム | |
JP5663352B2 (ja) | 画像処理装置、画像処理方法、及び画像処理プログラム | |
JP6392572B2 (ja) | 画像受信装置、画像伝送システムおよび画像受信方法 | |
US9123133B1 (en) | Method and apparatus for moving object detection based on cerebellar model articulation controller network | |
JP2011071986A (ja) | 低解像度ビデオから高解像度ビデオを生成する方法 | |
US20210287387A1 (en) | Lidar point selection using image segmentation | |
JP7318809B2 (ja) | 映像分析装置、映像分析システム及び映像分析方法 | |
JP2022191249A (ja) | 通信制御方法、通信装置、及びプログラム | |
JP2016206801A (ja) | 物体検出装置、移動体機器制御システム及び物体検出用プログラム | |
JP2017219427A (ja) | 物体距離検出装置 | |
JPWO2017115732A1 (ja) | 画像処理装置、物体認識装置、機器制御システム、画像処理方法及び画像処理プログラム | |
JPWO2018016151A1 (ja) | 画像処理装置と画像処理方法 | |
JPWO2018016150A1 (ja) | 画像処理装置と画像処理方法 | |
US20220368860A1 (en) | Transmission method, transmission system, and system control device | |
US9953235B2 (en) | Image pickup device, vehicle number image pickup device, and image pickup method | |
JP6899673B2 (ja) | 物体距離検出装置 | |
WO2019049548A1 (ja) | 画像処理装置 | |
US20210174079A1 (en) | Method and apparatus for object recognition | |
CN111862226B (zh) | 用于车辆中的摄像机校准和图像预处理的硬件设计 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221005 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20221005 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230620 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230703 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7318809 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |