JP7271373B2 - 映像処理装置、映像処理システムおよび映像処理方法 - Google Patents
映像処理装置、映像処理システムおよび映像処理方法 Download PDFInfo
- Publication number
- JP7271373B2 JP7271373B2 JP2019162299A JP2019162299A JP7271373B2 JP 7271373 B2 JP7271373 B2 JP 7271373B2 JP 2019162299 A JP2019162299 A JP 2019162299A JP 2019162299 A JP2019162299 A JP 2019162299A JP 7271373 B2 JP7271373 B2 JP 7271373B2
- Authority
- JP
- Japan
- Prior art keywords
- recognition
- environment
- video processing
- information
- reliability
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Description
また、深層学習などによる映像認識技術の高度化、および高速に処理するハードウェアの普及につれて、映像認識技術はあらゆるサービスで活用されており、適用シーンは屋内・屋外を問わず多様である。このため、様々な撮影環境において高精度に認識することが求められる。
特許文献1に記載の発明は、カメラで撮影した画像を用いる顔認証システムである。このシステムは、撮影時刻、および映像から推定した天候情報に基づき発報するか否かを決定する閾値を切り替えることで、失報や誤報の発生を低減している。
以下に、本発明を実施する形態(実施形態)における映像処理装置を説明する。映像処理装置は、人やモノ、それらの動作の認識結果に応じて報知する。例えば、映像処理装置は、人の動作を認識または認識結果を取得し、異常行動を検知した場合に報知する。
映像処理装置には、撮影環境(カメラの設置位置・照度など)やカメラの仕様、認識対象の状態(顔の向き・姿勢など)などの認識環境要因と認識精度との対応(後記する認識環境要因データベース120(図1参照)に記憶される認識環境条件)が、予め設定されている。映像処理装置は、映像取得時の認識環境要因、および設定済みの認識環境条件を照合(参照)して、映像取得時における認識精度を算出する。続いて、映像処理装置は、認識結果(例えば、人の異常行動の確率)と、認識精度から算出する認識信頼度とから、発報(例えば、異常行動検出の発報)をするか否かを判断する。
図1は、第1の実施形態に係る映像処理装置100の機能構成図である。映像処理装置100は、カメラ200が接続されたコンピュータであり、不図示のCPU(Central Processing Unit)、RAM(Random Access Memory)やSSD(Solid State Drive)などからなる記憶部、ディスプレイやスピーカなどの出力部を備える。記憶部に記憶されたプログラム(不図示)をCPUが実行することで、認識環境取得部110、認識信頼度取得部130、認識部(認識結果取得部)140、発報判断部150、および発報部160が機能し、映像処理装置100は、後記する図14に示される認識発報処理を行う。
認識環境取得部110は、カメラ200から映像を取得し、例えば顔画像から個人を認識する際の認識精度に影響を与える認識環境情報を取得して、後記する認識信頼度取得部130に出力する。なお、以下では、認識環境取得部110が取得する認識環境情報を、認識環境要因の値ないしは単に認識環境要因とも記す。
カメラ配置情報取得部111は、カメラ200の位置情報や姿勢情報を取得する。位置情報(設置位置)としては、撮影範囲を平面地図で表現した際の撮影領域や、平面地図上のカメラ200の位置、カメラ200の高さなどがある。姿勢情報としては、平面地図でのカメラ200の撮影方向や俯角情報、仰角情報などがある。
これらカメラのスペック情報が公開されている製品仕様書などから人手で設定され記憶された情報を、カメラ性能情報取得部112が読み出して取得してもよい。または、カメラ性能情報取得部112が、カメラ200に問い合わせて取得するようにしてもよい。
照度情報の取得手法としては、撮影領域に設置された照度計から取得する手法、撮影画像全体の平均の輝度情報を算出する手法、または映像における認識対象の領域における輝度情報を算出する手法などがある。レンズ汚れ情報の取得手法としては、カメラ設置直後の画像と現在の画像との輝度値を比較して汚れ度合いを算出する手法などがある。天気情報の取得手法としては、ネットワーク経由でカメラ設置場所の天気情報を取得する手法などがある。床面情報の取得手法としては、設定済みの撮影領域の床面情報を、読み出す手法、床面の材質や鏡面反射率を画像処理により取得する手法などがある。
以上に説明した外乱情報以外に、外乱情報取得部113は、例えば、日光や照明、床の鏡面反射などにより発生する白飛び率など、外乱の影響から発生する撮影画像の特徴量を外乱情報として取得してもよい。
画像処理により人物の顔の向きを算出する手法としては、人物追跡処理により人物の進行方向を推定してその方向を顔の向きとして判定する手法や、目・口・鼻の中心点や端点などの特徴点の映像内における位置関係から判定する手法などがある。画像処理により姿勢情報を推定する手法としては、深層学習などの画像認識技術により骨格や関節角度などを撮影画像から推定する手法などがある。
なお、人物姿勢情報取得部114が取得する姿勢情報としては、1枚の撮影画像における姿勢情報だけでなく、複数枚の撮影画像における時系列の姿勢情報であってもよい。また、人物姿勢情報取得部114は、人物の位置(カメラ200からの距離)を取得してもよい。
認識環境要因データベース120(図1では認識環境要因DB(database)と記載)は、記憶部に記憶されるデータであって、認識精度に影響する認識環境要因と認識精度との対応(関係)を示す情報を含む。後記する認識信頼度取得部130は、認識環境要因と認識精度との関係を参照して、認識環境取得部110が取得した認識環境における認識精度を算出し、認識精度から認識信頼度を算出する。以下、図2~図9を参照しながら、認識環境要因データベース120に含まれる認識環境要因と認識精度との関係の例を説明する。
図5は、第1の実施形態に係る解像度と認識精度との関係を示すテーブル511である。テーブル511は、カメラ200の解像度がQVGA(Quarter Video Graphics Array)ならば認識精度は30%であり、VGA(Video Graphics Array)ならば60%であって、SXVGA(Super eXtended Video Graphics Array)ならば90%であることを示している。
図7は、第1の実施形態に係る認識精度が90%である姿勢の変化を示す時系列データ520である。時系列データ520は、時間間隔Tごとの人の姿勢を示す骨格情報を示しおり、認識時点より3T前の時刻t1においての姿勢が骨格情報521で示され、2T前の時刻t2においての姿勢が骨格情報522で示され、T前の時刻t3においての姿勢が骨格情報523で示されるならば、当該認識時点での認識精度は90%であることを示している。例えば、Tが1秒だとして、認識の3秒前の姿勢が骨格情報521であり、2秒前の姿勢が骨格情報522であって、1秒前の姿勢が骨格情報523であるならば、当該認識の精度は90%であることを示している。
図8は、第1の実施形態に係る認識精度が90%である姿勢の変化を示す時系列データのグラフ531である。グラフ531は、間接Aの角度の変化を示している。間接Aの角度が時刻t1から時刻t2にかけてグラフ531に示すように変化した場合、時刻t2における認識の精度は90%であることを示している。
図1に戻り、認識信頼度取得部130を説明する。認識信頼度取得部130は、認識環境取得部110が出力した認識環境情報と、認識環境要因データベース120から取得した認識環境条件とから、認識信頼度を算出する。認識信頼度取得部130は、認識環境条件取得部131、認識精度算出部132、および認識信頼度算出部133を備える。
認識環境条件取得部131は、認識環境取得部110が出力した認識環境情報に対応する認識環境条件(認識環境要因と認識精度との対応)を認識環境要因データベース120から取得する。
続いて、認識環境条件が時系列データで示される場合の認識精度算出部132の動作を説明する。
認識精度算出部132は、間接Bの角度の変化を示すグラフ541,571の類似度、および間接Cの角度の変化を示すグラフ542,572の類似度から、認識環境情報としての時系列データ570の認識精度を算出する。例えば、グラフ541,571の類似度が90%であり、グラフ542,572の類似度が96%とすると、単純平均による時系列データ540,570の類似度は93%となる。認識精度算出部132は、認識環境情報としての時系列データ570の認識精度を、90×0.93=84%と算出する。認識精度算出部132は、2つの類似度の加重平均から認識精度を算出するようにしてもよい。
図1に戻り、認識部140、発報判断部150、および発報部160を説明する。認識部140は、カメラ200の映像を解析して認識結果を出力する。認識部140が顔認識機能である場合には、認識対象の人物である確率が最も高い人物の識別情報と、その確率を出力する。例えば、認識部140は、Aさんである確率が95%と出力する。認識部140が異常行動検出機能である場合には、認識対象の人物が異常行動をしている確率を出力する。
認識部140は、認識結果取得部として機能してもよい。詳しくは、カメラ200自体が認識機能を備えており、カメラ200が出力した認識結果を認識結果取得部としての認識部140が取得するようにしてもよい。
図14は、第1の実施形態に係る映像処理装置100が実行する映像を認識して発報する認識発報処理のフローチャートである。
ステップS11において認識環境取得部110が、カメラ200から映像を取得し、認識環境情報を出力する。
ステップS13において、認識部140は、カメラ200の映像を解析して認識結果を出力する。なお、ステップS13は、ステップS11,S12と並行して実行される処理である。
ステップS15において発報部160は、発報する。
映像処理装置100は、認識環境における認識信頼度を算出し(図14に記載のステップS12参照)、認識結果の確率および認識信頼度に応じて発報するか否か判断する(ステップS14参照)。認識信頼度は、認識する場所の環境、認識対象のデータを取得する装置としてのカメラ200のスペック、認識対象の状態(姿勢)などから算出される認識結果の確からしさを示す値である。映像処理装置100は、様々な認識環境要因から認識信頼度を算出することができる。また、映像処理装置100は、認識結果の確率だけではなく、認識信頼度も含めて発報の可否を判断することにより、誤報や失報を減らすことができる。延いては発報の信頼度が向上する。
上記した実施形態において、認識結果には確率が含まれている。例えば、顔認識の結果が、Aさんである確率が95%、Bさんである確率が3%、その他の確率が2%という結果である。このような認識結果では、発報判断部150は、最も確率が高い認識結果について、その確率と認識信頼度との積が所定の閾値を超えるか否かを判断している。認識結果に確率が含まれない場合には、確率100%として、発報判断部150は、所定の閾値を超えるか否かを判断してもよい。
上記した実施形態において、認識環境条件取得部131は、認識環境取得部110が出力した認識環境情報に対応した認識環境条件を認識環境要因データベース120から取得している。認識環境条件取得部131は、認識部140が取得する認識内容に応じて認識環境条件を取得するようにしてもよい。例えば、人の転倒を認識する場合には、認識環境条件取得部131は、カメラ200の設置の高さや俯角の認識環境条件は取得するが、体の向きという認識環境条件は取得しないようにしてもよい。これは、転倒を認識する機能は、体の向きに拘らず転倒を認識するように実装されており、例えば顔画像による個人認識機能とは違って、体の向きは認識精度に与える影響が小さいからである。
認識部140が取得する認識内容に応じて、認識信頼度算出部133が、認識環境情報に含まれる認識環境要因に重みを付けて認識信頼レベルの総和を求め、認識信頼度を算出するようにしてもよい。
上記した実施形態において発報判断部150は、認識信頼度と認識結果の確率との積に基づいて発報の可否を判断している。発報判断部150は、認識信頼度が所定値以上であり、認識結果の確率も所定値以上である場合に、発報すると判断してもよい。または、発報判断部150は、認識信頼度および認識結果の確率の算術平均、幾何平均または調和平均が所定値以上ならば発報すると判断してもよい。
第1の実施形態では、認識信頼度は、発報の可否の判断に利用されている。認識信頼度を認識環境の適否の判断に利用してもよい。
図15は、第2の実施形態に係る映像処理装置100Aの機能構成図である。第1の実施形態における映像処理装置100(図1参照)と比較して、映像処理装置100Aは、認識信頼度保存部170と、認識環境異常検知部180とをさらに備える。
認識信頼度保存部170は、認識信頼度取得部130が出力した認識信頼度を保存する。認識信頼度保存部170は、認識環境要因ごとの認識信頼レベルを保存するようにしてよい。
なお、認識部140の異常の警告については、アルゴリズムの認識パラメータの変更、アルゴリズムが学習モデルを活用するものであれば学習データベースの追加、異なるアルゴリズムの採用などの改善案を伴って警告してもよい。
認識環境異常検知部180は、認識信頼度取得部130が算出する認識信頼度や認識信頼レベルを解析して、認識環境や認識部140の異常を検出する。さらに、認識環境異常検知部180は、異常があることを映像処理装置100Aの管理者に警告して対策を促したり、認識対象の人に顔の向きや姿勢を変えるように促したりする。このように映像処理装置100Aが動作することにより、映像処理装置100Aの管理者は、いち早く映像処理装置100Aの異常に気付き、対策を講じることができる。延いては、認識信頼度が向上し失報や誤報が減少する。
上記した第2の実施形態では、1つの映像処理装置100Aにおいて認識信頼度と認識結果を解析する。複数台の映像処理装置が出力する情報を解析し、認識部140のアルゴリズムの改善案を管理者に提供してもよい。
認識部140のアルゴリズムが機械学習技術を活用するものとする。認識信頼度が高いにも拘らず、発報結果が芳しくない(失報や誤報が多い)映像処理装置100Bがある場合には、監視装置400は、当該映像処理装置100Bの認識環境における学習データが不足していると判断し、認識環境要因の情報に近いデータを追加で学習するよう管理者に促してもよい。
第1の実施形態および第2の実施形態では、1つの映像処理装置100,100A,100Bが1つのカメラ200の映像を解析して発報している。複数のカメラ200の映像を解析して情報を生成するようにしてもよい。生成される情報の例として、自動車が走行する環境の情報である交通情報がある。交通情報には、自車周辺の車両の数、走行速度、渋滞の度合い、車線の制限、路面状況など、カメラ200の映像から認識された自動車の走行に影響を与える情報が含まれる。この場合、カメラ200は自動車に搭載され、映像情報とともに位置情報を送信する。また、インフラ(道路)にもカメラ200が設置されてもよい。
他の生成される情報の例として、施設内や地域における混雑情報がある。混雑情報には、地点ごとの人の混み具合や移動状況が含まれる。この場合、カメラ200は、施設内ないしは道路に設置される。
映像認識部310は、認識環境取得部110、認識信頼度取得部130、および認識部140を備える。認識環境取得部110、認識信頼度取得部130、および認識部140は、第1の実施形態と同様である。認識信頼度取得部130が出力する認識信頼度、および認識部140が出力する認識結果は、認識統合情報更新部320に出力される。
第4の実施形態においては、認識統合情報データベース330に蓄積され、更新される情報は、認識信頼度と認識結果の確率との積が所定の値以上である信頼度の高い情報である。このため、誤った情報が認識統合情報データベース330に蓄積されることを防ぐことができ、延いては、信頼度の高い情報が蓄積される。
上記した第4の実施形態では、1つの認識情報統合装置300が、複数のカメラ200の映像を認識したり、認識信頼度を算出したりしている。認識結果や認識信頼度の算出処理を分散するようにしてもよい。
映像処理装置100Cは、第1の実施形態(図1参照)と同様の認識環境取得部110、認識環境要因データベース120、認識信頼度取得部130、および認識部140を含む。映像処理装置100Cは、さらに、認識信頼度と認識結果とをネットワーク900経由で認識情報統合装置300Aに送信する通信部199を含む。
認識情報統合装置300に比べて認識情報統合装置300Aは、認識や信頼度の算出処理が映像処理装置100Cに分散されており、処理負荷が小さくなっている。また、ネットワーク900を流れるデータは、映像ではなく、認識結果と認識信頼度であるので、少量のデータとなっている。このため、処理や通信が高速化され、カメラ200で撮影してから認識統合情報データベース330を更新するまでの遅延が小さくなっている。また、より高頻度で更新することが可能となる。
複数の認識環境要因を組み合わせて、1つの認識環境要因としてもよい。例えば、顔認識機能については、顔の正面画像を取得する方が、認識精度が高く理想的である。このため、カメラ200の設置高さが人の身長ほどの高さならば俯角は小さい方が認識精度は高くなるが、天井など設置高さが高いときには俯角は大きい方が、認識精度が高くなる。複数の認識環境要因間に影響がある場合には、これらの認識環境要因の組み合わせを1つの認識環境要因と扱うようにしてもよい。
上記した実施形態において、映像処理装置100,100A,100B,100Cや認識情報統合装置300は、認識環境要因データベース120を備えている。これに対して、認識環境条件取得部131が、外部にある認識環境要因データベース120にアクセスして、認識環境条件を取得するようにしてもよい。
なお、本発明は、上記した実施形態に限定されることなく、その趣旨を逸脱しない範囲で変更することができる。例えば、カメラ200は、一般的なビデオカメラに限定されず、ステレオカメラ、3次元ライダーやミリ波レーダのような距離センサであってもよい。また、上記した実施形態では、カメラ200と映像処理装置100,100A,100B,100Cとは、別装置であったが、1つの装置であってもよい。
なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、その順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。
110 認識環境取得部
120 認識環境要因データベース
130 認識信頼度取得部
131 認識環境条件取得部
132 認識精度算出部
133 認識信頼度算出部
140 認識部(認識結果取得部)
150 発報判断部
160 発報部
170 認識信頼度保存部
180 認識環境異常検知部
198 通信部
200 カメラ(撮像装置)
300 認識情報統合装置
310 映像認識部
320 認識統合情報更新部
330 認識統合情報データベース
390,390A 映像処理システム
410 映像処理システム
Claims (10)
- 撮像装置が撮像した映像の認識精度に影響を与える撮像時における認識環境要因を取得する認識環境取得部と、
前記映像の認識精度と前記認識環境要因との対応である認識環境条件を記憶している認識環境要因データベースを参照して、前記認識環境取得部が取得した認識環境要因での認識精度を算出する認識精度算出部と、
算出された認識精度から認識信頼度を算出する認識信頼度算出部と、
前記撮像装置が撮像した映像から認識した結果である認識結果を取得する認識結果取得部と、
前記認識信頼度と前記認識結果とに応じて当該認識結果を発報するか否かを判断する発報判断部と、
前記認識信頼度を保存する認識信頼度保存部と、
他の映像処理装置における発報の結果を取得する通信部と、
前記認識信頼度保存部が保存した認識信頼度が所定のレベルを満たし、同じ認識対象についての前記他の映像処理装置と自身との発報の結果が異なる場合、前記認識結果に異常があると判断する認識環境異常検知部と
を備えることを特徴とする映像処理装置。 - 前記認識環境要因は、前記撮像装置の設置位置、前記撮像装置の設置角度、前記撮像装置の性能情報、外乱情報、人流情報、認識対象の姿勢、前記認識対象の位置の何れかを含む
ことを特徴とする請求項1に記載の映像処理装置。 - 前記認識環境異常検知部は、
前記認識信頼度が所定のレベルを満たさない場合には、前記映像を撮像する認識環境に異常があると判断する
ことを特徴とする請求項1に記載の映像処理装置。 - 前記認識環境異常検知部は、前記認識環境に異常があると判断した場合、当該認識環境の改善案を提示する
ことを特徴とする請求項3に記載の映像処理装置。 - 前記改善案は、前記撮像装置の設置位置、前記撮像装置の設置角度、前記撮像装置の性能情報、認識対象の姿勢、前記認識対象の位置の何れかを含む
ことを特徴とする請求項4に記載の映像処理装置。 - 前記認識環境異常検知部は、前記認識結果に異常があると判断した場合、当該認識結果を出力する機能の改善案を提示する
ことを特徴とする請求項1に記載の映像処理装置。 - 前記改善案は、前記認識結果を出力する機能のアルゴリズムの変更、パラメータの変更、学習データの追加の何れかを含む
ことを特徴とする請求項6に記載の映像処理装置。 - 前記認識環境条件は、2次元グラフ、テーブル、時系列データで示される
ことを特徴とする請求項1に記載の映像処理装置。 - 前記撮像装置は、カメラ、ステレオカメラ、および距離センサの何れかである
ことを特徴とする請求項1に記載の映像処理装置。 - 撮像装置が撮像した映像を処理する映像処理装置が実行する映像処理方法であって、
前記映像処理装置が、
前記撮像装置が撮像した映像の認識精度に影響を与える撮像時における認識環境要因を取得するステップと、
前記映像の認識精度と前記認識環境要因との対応である認識環境条件を記憶している認識環境要因データベースを参照して、取得された認識環境要因での認識精度を算出するステップと、
算出された認識精度から認識信頼度を算出するステップと、
前記撮像装置が撮像した映像から認識した結果である認識結果を取得するステップと、
前記認識信頼度と前記認識結果とに応じて当該認識結果を発報するか否かを判断するステップと、
前記認識信頼度を保存するステップと、
他の映像処理装置における発報の結果を取得するステップと、
前記認識信頼度が所定のレベルを満たし、同じ認識対象についての前記他の映像処理装置と自身との発報の結果が異なる場合、前記認識結果に異常があると判断するステップと
を実行することを特徴とする映像処理方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019162299A JP7271373B2 (ja) | 2019-09-05 | 2019-09-05 | 映像処理装置、映像処理システムおよび映像処理方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019162299A JP7271373B2 (ja) | 2019-09-05 | 2019-09-05 | 映像処理装置、映像処理システムおよび映像処理方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021039687A JP2021039687A (ja) | 2021-03-11 |
JP7271373B2 true JP7271373B2 (ja) | 2023-05-11 |
Family
ID=74848821
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019162299A Active JP7271373B2 (ja) | 2019-09-05 | 2019-09-05 | 映像処理装置、映像処理システムおよび映像処理方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7271373B2 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7042956B1 (ja) * | 2021-09-10 | 2022-03-28 | 株式会社エクサウィザーズ | 情報処理方法、情報処理装置、及びプログラム |
WO2024023906A1 (ja) * | 2022-07-26 | 2024-02-01 | 日立Astemo株式会社 | 外界センサの更新装置及び外界センサの更新方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005006255A (ja) | 2003-06-16 | 2005-01-06 | Sharp Corp | 画像撮像装置 |
JP2007179569A (ja) | 2007-03-09 | 2007-07-12 | Toshiba Corp | 人物認識装置、人物認識方法および通行制御装置 |
JP2008282288A (ja) | 2007-05-11 | 2008-11-20 | Honda Motor Co Ltd | 文字認識方法 |
JP2012117944A (ja) | 2010-12-01 | 2012-06-21 | Aisin Aw Co Ltd | ナビゲーション装置 |
WO2016199244A1 (ja) | 2015-06-10 | 2016-12-15 | 株式会社日立製作所 | 物体認識装置及び物体認識システム |
-
2019
- 2019-09-05 JP JP2019162299A patent/JP7271373B2/ja active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005006255A (ja) | 2003-06-16 | 2005-01-06 | Sharp Corp | 画像撮像装置 |
JP2007179569A (ja) | 2007-03-09 | 2007-07-12 | Toshiba Corp | 人物認識装置、人物認識方法および通行制御装置 |
JP2008282288A (ja) | 2007-05-11 | 2008-11-20 | Honda Motor Co Ltd | 文字認識方法 |
JP2012117944A (ja) | 2010-12-01 | 2012-06-21 | Aisin Aw Co Ltd | ナビゲーション装置 |
WO2016199244A1 (ja) | 2015-06-10 | 2016-12-15 | 株式会社日立製作所 | 物体認識装置及び物体認識システム |
Also Published As
Publication number | Publication date |
---|---|
JP2021039687A (ja) | 2021-03-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108053427B (zh) | 一种基于KCF与Kalman的改进型多目标跟踪方法、系统及装置 | |
JP7163945B2 (ja) | 移動状況推定装置、移動状況推定方法およびプログラム記録媒体 | |
US9646212B2 (en) | Methods, devices and systems for detecting objects in a video | |
US10311719B1 (en) | Enhanced traffic detection by fusing multiple sensor data | |
CN108052859B (zh) | 一种基于聚类光流特征的异常行为检测方法、系统及装置 | |
Faro et al. | Adaptive background modeling integrated with luminosity sensors and occlusion processing for reliable vehicle detection | |
CN110244322A (zh) | 基于多源传感器的路面施工机器人环境感知系统及方法 | |
EP2345999A1 (en) | Method for automatic detection and tracking of multiple objects | |
CN110264495B (zh) | 一种目标跟踪方法及装置 | |
KR102253989B1 (ko) | 딥러닝 객체 검출기를 이용한 cctv 영상의 객체 추적 방법 | |
JP7271373B2 (ja) | 映像処理装置、映像処理システムおよび映像処理方法 | |
CN114359714A (zh) | 基于事件相机的无人体避障方法、装置及智能无人体 | |
CN105354540A (zh) | 基于视频分析实现人员倒地行为检测的方法 | |
US20230394794A1 (en) | Information processing device, information processing method, and program recording medium | |
US20220366570A1 (en) | Object tracking device and object tracking method | |
JP2002074370A (ja) | 動画像による監視システム、方法及びコンピュータ読み取り可能な記録媒体 | |
CN114140745A (zh) | 施工现场人员属性检测方法、系统、装置及介质 | |
KR20120048958A (ko) | 객체 추적 및 위치 추정 방법 | |
JP2007028680A (ja) | 監視装置 | |
KR101840042B1 (ko) | 복합 가상 팬스 라인 설정 방법 및 이를 이용한 침입 감지 시스템 | |
JP7243372B2 (ja) | 物体追跡装置および物体追跡方法 | |
JP2021149687A (ja) | 物体認識装置、物体認識方法及び物体認識プログラム | |
JP2002074369A (ja) | 動画像による監視システム、方法及びコンピュータ読み取り可能な記録媒体 | |
KR101564760B1 (ko) | 범죄 사건의 예측을 위한 영상 처리 장치 및 방법 | |
Heo et al. | Autonomous reckless driving detection using deep learning on embedded GPUs |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211214 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20221208 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221220 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230209 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230411 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230426 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7271373 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |