JP2021108434A - 情報処理システム、情報処理装置、端末装置、情報処理方法及びプログラム - Google Patents
情報処理システム、情報処理装置、端末装置、情報処理方法及びプログラム Download PDFInfo
- Publication number
- JP2021108434A JP2021108434A JP2019239772A JP2019239772A JP2021108434A JP 2021108434 A JP2021108434 A JP 2021108434A JP 2019239772 A JP2019239772 A JP 2019239772A JP 2019239772 A JP2019239772 A JP 2019239772A JP 2021108434 A JP2021108434 A JP 2021108434A
- Authority
- JP
- Japan
- Prior art keywords
- detection
- information processing
- data
- detected
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 54
- 238000003672 processing method Methods 0.000 title claims description 4
- 238000001514 detection method Methods 0.000 claims abstract description 210
- 238000000034 method Methods 0.000 claims abstract description 62
- 230000008569 process Effects 0.000 claims abstract description 57
- 230000004044 response Effects 0.000 claims abstract description 6
- 238000012545 processing Methods 0.000 claims description 46
- 238000004364 calculation method Methods 0.000 abstract description 26
- 238000013500 data storage Methods 0.000 description 20
- 238000010586 diagram Methods 0.000 description 19
- 230000002159 abnormal effect Effects 0.000 description 18
- 230000006870 function Effects 0.000 description 12
- 238000012800 visualization Methods 0.000 description 10
- 238000013473 artificial intelligence Methods 0.000 description 7
- 238000003384 imaging method Methods 0.000 description 7
- 238000013523 data management Methods 0.000 description 6
- 238000005286 illumination Methods 0.000 description 6
- 239000011159 matrix material Substances 0.000 description 6
- 238000004891 communication Methods 0.000 description 5
- 230000005856 abnormality Effects 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 238000013459 approach Methods 0.000 description 3
- 238000006073 displacement reaction Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000010354 integration Effects 0.000 description 3
- 239000003550 marker Substances 0.000 description 3
- 238000012423 maintenance Methods 0.000 description 2
- 239000003086 colorant Substances 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Abstract
Description
例えば、監視カメラで撮影された映像において、異常な物体等を自動的に検知する技術が実用化されている。
また、AI(Artificial Intelligence)の発達に伴い、映像内における物体を、AIを用いた画像認識等によって検知する技術も開発されつつある。
なお、映像内における物体を検知する技術は、例えば、特許文献1に記載されている。
例えば、映像内における物体の特定方向への移動を検知する場合、外乱の影響により、物体の移動方向が誤検知される等の可能性がある。
また、屋外にカメラが設置されたような外乱が大きい場合等において、物体の特定方向への移動を、AIを用いて検知する方法では、演算処理負荷が大きくなったり、学習のためのサンプルデータを多数用意する必要が生じたりする等の問題から導入が困難となるケースがある。
また、検知したい対象をプログラムで表現するアプローチ(ルールベースアプローチ)では、多くの動作パラメータを最適に設定する必要があるが、パラメータ数が多く直感的に設定することが困難である。
ユーザによって使用される端末装置と、前記端末装置と通信可能に構成されたサーバとを含む情報処理システムであって、
前記端末装置は、
前記サーバに対し、検知対象となる映像において、設定された検知領域内で移動する物体を検知するための検知処理を要求する検知要求手段を備え、
前記サーバは、
前記端末装置の要求に応じて、前記検知対象となる映像において、異なる時間の前記映像のデータにおける前記検知領域内の画素及び当該画素周辺の画素のデータの相関に基づいて、前記検知領域内で移動する物体を検知する前記検知処理を実行する物体検知手段と、
前記物体検知手段による物体の検知結果を前記端末装置に提示する検知結果提示手段と、
を備えることを特徴とする。
本実施形態に係る情報処理システムは、AIへの応用のための膨大な学習サンプルを用意することなく、直感的な操作による設定で、映像内における任意のエリア内を指定の速度で一定の方向へ移動する物体を検知するものであり、例えば、高速道路等の入り口や、建物の入り口等において、特定方向に移動する物体を検知する。
また、本実施形態における情報処理システムでは、映像内において、特定方向へ移動する物体を選別して検知するための条件設定が可能であり、このような条件設定を容易に行うことが可能なユーザインターフェースを提供する。
これにより、本実施形態に係る情報処理システムは、映像内における物体の特定方向への移動を精度良く、より簡単に検知することを可能としている。
また、外乱に頑健(ロバスト)に映像内の物体速度を推定することができる。
[システム構成]
図1は、本発明に係る情報処理システム1全体のシステム構成を示す模式図である。
図1に示すように、情報処理システム1は、複数のユーザ端末10と、サーバ20と、撮像装置Cとを含んで構成され、複数のユーザ端末10とサーバ20とは、インターネット等のネットワーク30を介して通信可能に構成されている。なお、情報処理システム1には、ネットワークカメラ等からなる撮像装置Cを必要に応じて備えることができる。この撮像装置Cは、ネットワーク30を介して、ユーザ端末10及びサーバ20と通信可能に構成される。情報処理システム1においては、ユーザ端末10、サーバ20あるいは撮像装置Cによって取得(撮像あるいは読み出し等)された映像のいずれも、映像内における物体の特定方向への移動を検知する対象とすることが可能である。
撮像装置Cは、物体を検知する領域を撮像可能な位置に設置され、撮像した映像データを、ネットワーク30を介してユーザ端末10あるいはサーバ20に送信する。
次に、情報処理システム1における各装置のハードウェア構成を説明する。
情報処理システム1において、各装置はPC、サーバコンピュータあるいはタブレット端末等の情報処理装置によって構成され、その基本的構成は同様である。
図2に示すように、各装置を構成する情報処理装置800は、CPU(Central Processing Unit)811と、ROM(Read Only Memory)812と、RAM(Random Access Memory)813と、バス814と、入力部815と、出力部816と、記憶部817と、通信部818と、ドライブ819と、撮像部820と、を備えている。
RAM813には、CPU811が各種の処理を実行する上において必要なデータ等も適宜記憶される。
出力部816は、ディスプレイやスピーカ等で構成され、映像や音声を出力する。
なお、情報処理装置800がスマートフォンやタブレット端末として構成される場合には、入力部815と出力部816のディスプレイとを重ねて配置し、タッチパネルを構成することとしてもよい。
記憶部817は、ハードディスクあるいはDRAM(Dynamic Random Access Memory)等で構成され、各サーバで管理される各種データを記憶する。
通信部818は、ネットワーク30を介して他の装置との間で行う通信を制御する。
撮像部820は、レンズ及び撮像素子等を備えた撮像装置によって構成され、被写体のデジタル映像を撮像する。
なお、情報処理装置800がタブレット端末として構成される場合には、入力部815をタッチセンサによって構成し、出力部816のディスプレイに重ねて配置することにより、タッチパネルを備える構成とすることも可能である。
次に、情報処理システム1における各装置の機能的構成について説明する。
[サーバ20の構成]
図3は、サーバ20の機能的構成を示すブロック図である。
図3に示すように、サーバ20のCPU811においては、データ取得部211と、パラメータ設定部212と、画像フィルタ処理部213と、画像2値化処理部214と、画素値演算部215と、条件判定部216と、可視化処理部217と、検知結果提示部218と、が機能する。また、サーバ20の記憶部817には、映像データ記憶部271と、パラメータ記憶部272と、ログデータ記憶部273と、が形成される。
ログデータ記憶部273には、映像内における物体の検知が行われた検知結果のデータ(ログデータ)が記憶される。
ここで、時刻tに取得された濃淡化画像(グレースケール)のデータは、横方向Wピクセル、縦方向Hピクセルの2次元データで、その座標(x,y)に対する輝度値を、I(t,x,y)と定義する。なお、輝度値は0(黒)〜255(白)の値を取る。
さらに、画像2値化処理部214は、生成した2値化フレーム間差分画像において、ユーザによって設定された物体検知領域以外の画素の値を0に設定する。これにより、不要な情報を除去し、物体の検知における誤判定が生じることを抑制できる。
また、ユーザが指定した監視エリアを示すマスク情報と、2値化フレーム間差分画像のAND演算でI’(t,x,y)を更新することで指定のエリア内の動きにのみ着目することができる。
着目画素周辺のN×N画素内の相関値を算出する場合、フレームの画像内の2次元座標に対する変位(dx,dy)の組み合わせがNの2乗パターン存在することから、特徴量はN×N次元の行列r(t)となる。
図4の例のように、自転車が接近するシーンに対して計算された移動平均特徴量R(t)をN×Nのマトリックスでヒートマップ表示した場合、接近を示す7〜8時の方向に対する値が大きくなる傾向を確認することができる。
この傾向を利用して、画素値演算部215は、算出した移動平均特徴量R(t)とN×N次元の重みの行列Wとの要素ごとの積{R(t,i,j)×W(i,j)}を特徴量R’(t)とする。例えば、算出した特徴量の移動平均において、ユーザが検知したい方向あるいは速度に対する重みを1.0とし、それ以外の重みを0.0とすることができる。なお、速度の重み付けに関しては、N×N画素の中心のアドレスが速度0、中心から離れたアドレスほど、移動速度が高くなるものとして、重み付けW(i,j)を設定することができる。
そして、画素値演算部215は、算出した重み付き特徴量R’(t)において、最大要素座標{(dx,dy)}=arg max{R’(t,dx,dy)},(dx,dy)∈N2への中心座標(0,0)からの方向ベクトルを検出し、移動速度として取得する。
また、局所最大値(モード)を取得することで移動速度の異なる複数の物体も扱えるような手法を採用してもよい。
条件判定部216は、重み付き特徴量の要素の和s(t)の時間積分S(t)が異常値として検出するための条件に合致したか否か(例えば、設定された閾値を超えているか否か)を判定する。なお、重み付き特徴量の要素の和s(t)の時間積分S(t)は、検出された異常の可能性を示すスコアとしての意義を有する。
また、可視化処理部217は、映像内における物体の検知結果を表す各種情報のデータ(例えば、後述するライブビュー画面に含まれる検知結果のデータ)を生成し、ログデータ記憶部273に逐次記憶する。
図5は、ユーザ端末10の機能的構成を示すブロック図である。
図5に示すように、ユーザ端末10のCPU811においては、UI制御部111と、データ管理部112と、が機能する。また、ユーザ端末10の記憶部817には、映像データ記憶部171と、パラメータ記憶部172と、ログデータ記憶部173と、が形成される。
ログデータ記憶部173には、サーバ20によって映像内における物体の検知が行われた検知結果のデータ(ログデータ)が記憶される。
図6に示すように、ライブビュー画面には、物体の検知が行われる映像が表示される映像表示領域D1と、映像内における物体の検知結果に関する情報が表示される検知結果表示領域D2とが含まれている。なお、図6に示す例では、映像表示領域D1において、自動車専用道路から一般道への出口付近の映像が表示されている。
図7は、複数の物体検知領域が設定された場合のライブビュー画面の一例を示す模式図である。
図7に示す例では、映像表示領域D1内に、2つの物体検知領域d1,d2が設定され、物体検知領域d1は実線、物体検知領域d2は一点鎖線で表されている。また、検知結果表示領域D2には、物体検知領域d1の検知結果及び物体検知領域d2の検知結果が上下または左右に並べて表示されている。
図8に示すように、検知ログ画面では、物体の検知結果が記録されたログデータの表示が行われる。
図8に示す例では、ログデータの表示を指示する操作が行われたことに対応して、異常が検知された日時が一覧表示されている。
なお、図8に示すようにログデータを表示させることの他、ログデータをファイルとしてユーザ端末10にダウンロードすることも可能である。
図9に示すように、条件設定画面では、入力された画像と、入力された画像に各種フィルタ処理(ノイズフィルタあるいは照明変動フィルタ等による処理)を行い、さらに2値化フレーム間差分処理を行った画像と、検知結果の詳細情報と、異常値のインジケータとが表示される。また、条件設定画面には、「基本設定」、「タイムゾーン設定」、「検知設定」及び「メンテナンス」の各カテゴリについて設定を行うためのボタンアイコンが表示される。
そのため、タイムゾーンを設定することで、日照条件の変化等に応じて、より適切な条件で映像内における物体の検知を行うことが可能となる。
ノイズフィルタの設定では、ノイズフィルタ(平滑化フィルタ等)を適用するか否かを設定することができると共に、ノイズフィルタのサイズ(3×3画素または5×5画素等)を設定することができる。
2値化閾値の設定では、入力された画像に関する2値化フレーム間差分画像を生成する際の閾値を設定することができる。
水平方向ブロックサイズの設定では、画像を水平方向に分割するブロック数を設定することができる。
垂直方向ブロックサイズの設定では、画像を垂直方向に分割するブロック数を設定することができる。
なお、物体の検知は、設定された水平方向ブロックサイズ及び垂直方向ブロックサイズで定まるブロック毎に行われる。
特徴量の移動平均の設定では、算出された特徴量に対する積分処理の時間窓の大きさを設定することができる。
異常値の移動平均の設定では、検知された異常値に対する積分処理の時間窓の大きさを設定することができる。
異常値を判定するための閾値の設定では、異常値と判定するための閾値をユーザの目的等に応じて任意に設定することができる。
図9において、「メンテナンス」が選択された場合、動作パラメータの設定を初期値に戻す操作や、異常値の推移を表すログ画面を表示する操作が受け付けられる。
次に、情報処理システム1の動作を説明する。
[UI制御処理]
図10は、ユーザ端末10が実行するUI制御処理の流れを示すフローチャートである。
UI制御処理は、ユーザ端末10の入力部815を介してUI制御処理の実行が指示入力されることに対応して開始される。
ユーザによって、ライブビュー画面に遷移するためのアイコンが選択されていない場合、ステップS2においてNOと判定されて、処理はステップS4に移行する。
一方、ユーザによって、ライブビュー画面に遷移するためのアイコンが選択された場合、ステップS2においてYESと判定されて、処理はステップS3に移行する。
ステップS4において、UI制御部111は、ユーザによって、検知ログ画面に遷移するためのアイコンが選択されたか否かの判定を行う。
ユーザによって、検知ログ画面に遷移するためのアイコンが選択されていない場合、ステップS4においてNOと判定されて、処理はステップS6に移行する。
一方、ユーザによって、検知ログ画面に遷移するためのアイコンが選択された場合、ステップS4においてYESと判定されて、処理はステップS5に移行する。
ステップS6において、UI制御部111は、条件設定画面に遷移するためのアイコンが選択されたか否かの判定を行う。
条件設定画面に遷移するためのアイコンが選択されていない場合、ステップS6においてNOと判定されて、処理はステップS8に移行する。
一方、条件設定画面に遷移するためのアイコンが選択された場合、ステップS6においてYESと判定されて、処理はステップS7に移行する。
ステップS8において、UI制御部111は、UI制御処理の終了が指示されたか否かの判定を行う。
UI制御処理の終了が指示されていない場合、ステップS8においてNOと判定されて、処理はステップS1に移行する。
一方、UI制御処理の終了が指示された場合、ステップS8においてYESと判定されて、UI制御処理は終了する。
[物体検知処理]
図11は、サーバ20が実行する物体検知処理の流れを示すフローチャートである。
物体検知処理は、サーバ20の入力部815、あるいは、他の装置から物体検知処理の実行が指示入力されることにより開始される。
ステップS32において、画像フィルタ処理部213は、ユーザの設定に応じて、物体の検知を行うフレームの画像に対し、各種フィルタ処理(ノイズフィルタあるいは照明変動フィルタ等による処理)を行う。
ステップS34において、画像2値化処理部214は、生成した2値化フレーム間差分画像において、ユーザによって設定された物体検知領域以外の画素の値を0に設定する。
ステップS35において、画素値演算部215は、物体検知領域内を移動する物体の移動速度(移動方向及び速さ)を定量化する特徴量r(t)を算出する。
ステップS37において、画素値演算部215は、算出した移動平均特徴量R(t)における各要素に重み付けを行い、重み付けした結果である重み付き特徴量R’(t)の各要素値の和s(t)=ΣxΣyR’(t,x,y)を算出する。また、ステップS37において、画素値演算部215は、算出した重み付き特徴量R’(t)において、最大要素座標{(dx,dy)}=arg max{R’(t,dx,dy)},(dx,dy)∈N2への中心座標(0,0)からの方向ベクトルを検出し、移動速度として取得する。
ステップS38において、画素値演算部215は、設定された時間窓を用いて、重み付き特徴量の要素の和s(t)の時間積分S(t)を算出する。
重み付き特徴量の要素の和s(t)の時間積分S(t)が異常値として検出するための条件に合致していない場合、ステップS39においてNOと判定されて、処理はステップS41に移行する。
一方、重み付き特徴量の要素の和s(t)の時間積分S(t)が異常値として検出するための条件に合致した場合、ステップS39においてYESと判定されて、処理はステップS40に移行する。
ステップS41において、可視化処理部217は、映像内における物体の検知結果を表す各種情報のデータ(例えば、ライブビュー画面に含まれる検知結果のデータ)を生成し、検知結果提示部218は、可視化処理部217によって生成された映像内における物体の検知結果を表す各種情報のデータをユーザ端末10に逐次送信する。
物体の検知を行う映像のデータが終了していない場合、ステップS42においてNOと判定されて、処理はステップS31に移行する。
一方、物体の検知を行う映像のデータが終了した場合、ステップS42においてYESと判定されて、物体検知処理は終了となる。
したがって、本実施形態に係る情報処理システム1によれば、映像内における物体の特定方向への移動を精度良く、より簡単に検知することが可能となる。
また、外乱に頑健に映像内の物体速度を推定することができる。
また、タイムゾーン(時間帯)に応じて、動作パラメータを切り替えて、物体検知処理を実行することも可能である。
上述の実施形態においては、クライアント−サーバ型の情報処理システム1を構築し、サーバ20において物体検知処理を実行して、ユーザ端末10に物体検知処理の結果を送信するものとした。
これに対し、物体検知処理を実行するための機能及び物体検知処理の結果を表示するための機能を1つの装置(例えば、ユーザ端末10等)に備えることにより、情報処理システム1の機能を単体の情報処理装置800で実現(即ち、スタンドアローン型のシステムとして実現)することとしてもよい。
図12に示すように、スタンドアローン型として構成する場合、単体の情報処理装置800において、ユーザ端末10のUI制御部111、サーバ20のデータ取得部211、パラメータ設定部212、画像フィルタ処理部213、画像2値化処理部214、画素値演算部215、条件判定部216、可視化処理部217及び検知結果提示部218の機能をCPU811に備えると共に、サーバ20が備える映像データ記憶部271、パラメータ記憶部272及びログデータ記憶部273を記憶部817に備えることとすればよい。
上述の実施形態において、撮像装置Cにサーバ20の物体検知処理を実行するための機能を備えることが可能である。
この場合、撮像装置Cは、映像内における物体の特定方向への移動を自動的に検知する機能を備えたカメラとして構成することができる。
そして、撮像装置Cにおいて実行された物体検知処理の処理結果をユーザ端末10あるいはサーバ20に送信することで、処理結果の表示や記録を行うことができる。
ユーザ端末10は、UI制御部111を備える。
UI制御部111は、サーバ20に対し、検知対象となる映像において、設定された検知領域内で移動する物体を検知するための物体検知処理を要求する。
サーバ20は、画素値演算部215及び条件判定部216と、検知結果提示部218とを備える。
画素値演算部215及び条件判定部216は、ユーザ端末10の要求に応じて、検知対象となる映像において、異なる時間の映像のデータにおける検知領域内の画素及び当該画素周辺の画素のデータの相関に基づいて、検知領域内で移動する物体を検知する物体検知処理を実行する。
検知結果提示部218は、条件判定部216による物体の検知結果をユーザ端末10に提示(例えば、送信)する。
これにより、外乱に頑健に映像内の物体速度を推定することが可能となる。
これにより、AI学習のための膨大な学習サンプルを用意することなく、直感的な操作による設定で、映像内における物体の特定方向への移動を精度良く、より簡単に検知することができる。
これにより、ユーザが設定した移動方向及び移動速度の物体をより高精度に検知することができる。
また、UI制御部111は、条件設定画面において設定された検知条件に従って、サーバ20に対して物体検知処理の要求を行う。
これにより、直感的な操作によって検知条件を設定し、映像内における物体の特定方向への移動を検知することができる。
これにより、物体検知処理によって検知された、映像内において移動する物体をわかりやすい形態で表示することができる。
画素値演算部215及び条件判定部216は、複数の検知領域毎に、当該検知領域内で移動する物体を検知する。
検知結果提示部218は、ユーザ端末10に対し、複数の検知領域毎に画素値演算部215及び条件判定部216による物体の検知結果を提示する。
これにより、より複雑な検知条件を設定して、映像内における物体の移動を検知することができる。
画素値演算部215及び条件判定部216は、検知対象となる映像において、異なる時間の映像のデータにおける設定された検知領域内の画素及び当該画素周辺の画素のデータの相関に基づいて、検知領域内で移動する物体を検知する物体検知処理を実行する。
検知結果提示部218は、条件判定部216による物体の検知結果を提示(例えば、表示あるいは送信)する。
これにより、外乱に頑健に映像内の物体速度を推定することが可能となる。
例えば、上述の実施形態において、クライアント−サーバ型の情報処理システム1を構成する場合、システムを構成する情報処理装置の組み合わせは、上述の実施形態に示した例に限られない。
例えば、サーバ20に備えられた機能をより多くのサーバに分散して実装したり、ユーザ端末10、サーバ20あるいは撮像装置Cの機能をより少ない装置にまとめて実装したりすることが可能である。
換言すると、上述の実施形態における機能的構成は例示に過ぎず、特に限定されない。即ち、上述した一連の処理を全体として実行できる機能が情報処理システム1を構成するいずれかのコンピュータに備えられていれば足り、この機能を実現するためにどのような機能ブロックを用いるのかは特に示した例に限定されない。
また、1つの機能ブロックは、ハードウェア単体で構成してもよいし、ソフトウェア単体で構成してもよいし、それらの組み合わせで構成してもよい。
Claims (10)
- ユーザによって使用される端末装置と、前記端末装置と通信可能に構成されたサーバとを含む情報処理システムであって、
前記端末装置は、
前記サーバに対し、検知対象となる映像において、設定された検知領域内で移動する物体を検知するための検知処理を要求する検知要求手段を備え、
前記サーバは、
前記端末装置の要求に応じて、前記検知対象となる映像において、異なる時間の前記映像のデータにおける前記検知領域内の画素及び当該画素周辺の画素のデータの相関に基づいて、前記検知領域内で移動する物体を検知する前記検知処理を実行する物体検知手段と、
前記物体検知手段による物体の検知結果を前記端末装置に提示する検知結果提示手段と、
を備えることを特徴とする情報処理システム。 - 前記物体検知手段は、異なる時間の前記映像のデータにおいて、前記検知領域内の画素及び当該画素周辺の画素のデータの相関値を各画素について取得し、取得された前記相関値からなるデータに対し、特定方向への移動に対応する重み付けを行って取得される特徴量に基づいて、前記設定された検知領域内で前記特定方向へ移動する物体を検知することを特徴とする請求項1に記載の情報処理システム。
- 前記物体検知手段は、前記特徴量の要素値に基づいて、映像内における任意の物体の移動方向及び移動速度を取得することを特徴とする請求項2に記載の情報処理システム。
- 前記端末装置は、
前記物体検知手段によって検知する物体の移動方向を含む検知条件を設定するための条件設定画面を表示する条件設定画面表示手段を備え、
前記検知要求手段は、前記条件設定画面において設定された前記検知条件に従って、前記サーバに対して前記検知処理の要求を行うことを特徴とする請求項1から3のいずれか1項に記載の情報処理システム。 - 前記端末装置は、
前記サーバから提示された前記検知結果に基づいて、前記映像及び前記検知領域を表示すると共に、前記検知された物体を識別して表示する検知結果表示手段を備えることを特徴とする請求項1から4のいずれか1項に記載の情報処理システム。 - 前記端末装置の前記検知要求手段は、前記検知対象となる映像内に、複数の前記検知領域を設定して前記サーバに前記検知処理を要求し、
前記サーバの前記物体検知手段は、複数の前記検知領域毎に、当該検知領域内で移動する物体を検知し、
前記検知結果提示手段は、前記端末装置に対し、複数の前記検知領域毎に前記物体検知手段による物体の前記検知結果を提示することを特徴とする請求項1から5のいずれか1項に記載の情報処理システム。 - 請求項1に記載の情報処理システムを構成する端末装置であって、
前記物体検知手段によって検知する物体の検知条件を設定するための条件設定画面を表示する条件設定画面表示手段と、
前記サーバから提示された前記検知結果に基づいて、前記映像及び前記検知領域を表示すると共に、前記検知された物体を識別して表示する検知結果表示手段と、
を備え、
前記検知要求手段は、前記条件設定画面において設定された前記検知条件に従って、前記サーバに対して前記検知処理の要求を行うことを特徴とする端末装置。 - 検知対象となる映像において、異なる時間の前記映像のデータにおける設定された検知領域内の画素及び当該画素周辺の画素のデータの相関に基づいて、前記検知領域内で移動する物体を検知するための検知処理を実行する物体検知手段と、
前記物体検知手段による物体の検知結果を提示する検知結果提示手段と、
を備えることを特徴とする情報処理装置。 - 情報処理システムが実行する情報処理方法であって、
検知対象となる映像において、異なる時間の前記映像のデータにおける設定された検知領域内の画素及び当該画素周辺の画素のデータの相関に基づいて、前記検知領域内で移動する物体を検知するための検知処理を実行する物体検知ステップと、
前記物体検知ステップにおける物体の検知結果を提示する検知結果提示ステップと、
を含むことを特徴とする情報処理方法。 - コンピュータに、
検知対象となる映像において、異なる時間の前記映像のデータにおける設定された検知領域内の画素及び当該画素周辺の画素のデータの相関に基づいて、前記検知領域内で特定方向へ移動する物体を検知するための検知処理を実行する物体検知機能と、
前記物体検知機能による物体の検知結果を提示する検知結果提示機能と、
を実現させることを特徴とするプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019239772A JP7458138B2 (ja) | 2019-12-27 | 2019-12-27 | 情報処理システム、情報処理装置、端末装置、情報処理方法及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019239772A JP7458138B2 (ja) | 2019-12-27 | 2019-12-27 | 情報処理システム、情報処理装置、端末装置、情報処理方法及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021108434A true JP2021108434A (ja) | 2021-07-29 |
JP7458138B2 JP7458138B2 (ja) | 2024-03-29 |
Family
ID=76968294
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019239772A Active JP7458138B2 (ja) | 2019-12-27 | 2019-12-27 | 情報処理システム、情報処理装置、端末装置、情報処理方法及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7458138B2 (ja) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005312018A (ja) * | 2004-03-23 | 2005-11-04 | Canon Inc | 監視システム、撮像制御装置、撮像設定装置、制御方法、及びプログラム |
JP2006260049A (ja) * | 2005-03-16 | 2006-09-28 | Sony Corp | 移動物体検出装置及び方法並びにプログラム |
JP2006285312A (ja) * | 2005-03-31 | 2006-10-19 | Hitachi Ltd | 画像処理方法および装置 |
JP2006318272A (ja) * | 2005-05-13 | 2006-11-24 | Nissan Motor Co Ltd | 車両用物体検出装置、および方法 |
WO2016125366A1 (ja) * | 2015-02-05 | 2016-08-11 | 株式会社リコー | 画像処理装置、画像処理システムおよび画像処理方法 |
-
2019
- 2019-12-27 JP JP2019239772A patent/JP7458138B2/ja active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005312018A (ja) * | 2004-03-23 | 2005-11-04 | Canon Inc | 監視システム、撮像制御装置、撮像設定装置、制御方法、及びプログラム |
JP2006260049A (ja) * | 2005-03-16 | 2006-09-28 | Sony Corp | 移動物体検出装置及び方法並びにプログラム |
JP2006285312A (ja) * | 2005-03-31 | 2006-10-19 | Hitachi Ltd | 画像処理方法および装置 |
JP2006318272A (ja) * | 2005-05-13 | 2006-11-24 | Nissan Motor Co Ltd | 車両用物体検出装置、および方法 |
WO2016125366A1 (ja) * | 2015-02-05 | 2016-08-11 | 株式会社リコー | 画像処理装置、画像処理システムおよび画像処理方法 |
Also Published As
Publication number | Publication date |
---|---|
JP7458138B2 (ja) | 2024-03-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4730431B2 (ja) | 目標追尾装置 | |
US10810438B2 (en) | Setting apparatus, output method, and non-transitory computer-readable storage medium | |
US10956722B2 (en) | Moving information analyzing system and moving information analyzing method | |
US10708508B2 (en) | Control apparatus, control method, and storage medium | |
US10796543B2 (en) | Display control apparatus, display control method, camera system, control method for camera system, and storage medium | |
JP6381313B2 (ja) | 制御装置、制御方法、およびプログラム | |
CN110199316B (zh) | 相机和相机的图像处理方法 | |
CN105577983A (zh) | 检测运动遮罩的设备和方法 | |
KR101855057B1 (ko) | 화재 경보 시스템 및 방법 | |
JP2008241707A (ja) | 自動監視システム | |
JP7085812B2 (ja) | 画像処理装置およびその制御方法 | |
KR20110093040A (ko) | 피사체 감시 장치 및 방법 | |
US10455144B2 (en) | Information processing apparatus, information processing method, system, and non-transitory computer-readable storage medium | |
JP2007243509A (ja) | 画像処理装置 | |
JP6602067B2 (ja) | 表示制御装置、表示制御方法、プログラム | |
JP2023015138A (ja) | 監視カメラ管理装置、監視カメラ管理システム、監視カメラ管理方法及びプログラム | |
JP2004532441A (ja) | 撮像装置によって取り込まれたコンピュータ制御可能な表示の前にある物体の所定点を抽出するためのシステムおよび方法 | |
JP7458138B2 (ja) | 情報処理システム、情報処理装置、端末装置、情報処理方法及びプログラム | |
KR101962363B1 (ko) | 사용자들의 행동 패턴을 기반으로 하는 마케팅 정보를 제공하는 어플리케이션을 운용하는 장치 및 그 방법 | |
KR101662738B1 (ko) | 영상 처리 방법 및 그 장치 | |
KR20190028016A (ko) | 댁내를 모니터링하는 장치, 방법 및 컴퓨터 프로그램 | |
KR20190090960A (ko) | 관심 영역에 기반한 히트맵 생성 장치 및 방법 | |
KR102252662B1 (ko) | 이미지 맵과 연관되는 데이터를 생성하는 장치 및 그것의 동작 방법 | |
JP3862068B2 (ja) | 動画像検出・表示プログラム、動画像検出・表示装置および動画像検出・表示方法(プログラム) | |
KR20220008153A (ko) | 관제 영상에서의 이벤트 발생 예측 방법 및 장치 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200228 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20200229 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20221222 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230919 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231010 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20231206 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231229 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240227 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240317 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7458138 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |