JP2018205900A - 監視システム及び監視方法 - Google Patents

監視システム及び監視方法 Download PDF

Info

Publication number
JP2018205900A
JP2018205900A JP2017108164A JP2017108164A JP2018205900A JP 2018205900 A JP2018205900 A JP 2018205900A JP 2017108164 A JP2017108164 A JP 2017108164A JP 2017108164 A JP2017108164 A JP 2017108164A JP 2018205900 A JP2018205900 A JP 2018205900A
Authority
JP
Japan
Prior art keywords
learning
camera
cameras
server
monitoring system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017108164A
Other languages
English (en)
Other versions
JP6989294B2 (ja
Inventor
利章 篠原
Toshiaki Shinohara
利章 篠原
東澤 義人
Yoshito Tosawa
義人 東澤
徹 寺田
Toru Terada
徹 寺田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2017108164A priority Critical patent/JP6989294B2/ja
Priority to US15/987,814 priority patent/US10769448B2/en
Publication of JP2018205900A publication Critical patent/JP2018205900A/ja
Application granted granted Critical
Publication of JP6989294B2 publication Critical patent/JP6989294B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Image Analysis (AREA)

Abstract

【課題】ネットワーク上のトラフィックの増大を抑制し、複数のカメラに接続されるサーバの処理負荷の軽減を支援する。【解決手段】監視システム5では、サーバ30と、監視エリアに設置された複数のカメラ10A,10Bとが互いに通信可能に接続される。サーバ30は、それぞれのカメラ10の空きリソースに関する情報を保持するテーブルメモリを有する。サーバ30は、カメラ10の空きリソースに関する情報に基づいて、カメラ10が実行する処理をカメラ10ごとに決定し、決定された処理の実行指示をカメラ10ごとに送信する。それぞれのカメラ10は、サーバ30から送信された処理の実行指示に基づいて、実行指示に対応する処理を実行する。【選択図】図9

Description

本開示は、サーバと監視エリアに設置された複数のカメラとが互いに通信可能に接続された監視システム及び監視方法に関する。
現在、カメラの演算処理能力は、0.3T(テラ)ops(オプス)と言われている。T(テラ)は、10の12乗を示す値である。ops(オプス)は、演算処理能力を示す単位として知られている。今後、ゲーム機等に搭載される高性能なGPU(Graphics Processing Unit)やFPGA(Field Programmable Gate Array)がカメラの演算処理装置に利用されるべく採用されることが考えられている。その場合、例えば1年後には、カメラの演算処理能力が10倍以上の約2.6Topsに飛躍的に向上することが期待されている。
また、カメラが機械学習の一例としてのディープラーニングを用いて画像認識処理を行う場合、カメラの演算処理能力には、1.3Topsが要求されるとの指摘がある。この演算処理能力の高さから、従来では、カメラがディープラーニングを用いて画像認識処理を行うことは難しいと考えられていたが、1年後のカメラの演算処理能力では、ディープラーニングを用いて画像認識処理を行うことが十分に可能と考えられる。
一方、カメラで撮像された高画質(例えば4K)の撮像画像データをサーバに転送し、サーバが画像認識処理を行う場合、撮像画像データのサイズの増大に伴ってネットワーク上で伝送される通信量(トラフィック)も必然的に増大し、結果的に通信効率が下がって遅延が発生するようになる。このため、高画質(例えば4K)の撮像画像データを転送することなく、カメラは、自装置でディープラーニングを用いて画像認識処理を行うことが期待される。
一般に、ディープラーニングを用いて画像認識処理を行う場合、カメラ等のデバイスは、撮像画像データに含まれる対象物(つまり、被画像認識対象物)を学習し、画像認識処理において用いられるモデルパラメータ(例えば重み係数やしきい値)を変更することで学習モデルを更新する。カメラ等のデバイスは、この更新された学習モデルを基に、撮像画像データに含まれる対象物(つまり、被画像認識対象物)を検出する精度を向上させる。
カメラにより撮像される撮像画像データを用いて物体を認識し、物体動き情報を取得する先行技術として、例えば特許文献1の物体追跡装置が提案されている。この物体追跡装置は、物体を撮影可能なカメラから取得される時系列の画像群を用いて、取得された画像に係る画像情報と、その物体の実空間での位置に係る位置情報を含む物体動き情報であって正解とされる情報とを含む教師データセットによって学習する。更に、物体追跡装置は、物体追跡対象の画像毎に、その画像に係る画像情報を入力することで少なくともその物体の実空間での正解とされる位置情報を出力する追跡用識別器を用い、その物体の実空間での刻々の位置情報を取得する。
特開2016−206795号公報
今後、カメラが取り扱う撮像画像データは例えば4Kや8K等の高精細かつ大容量となってデータサイズが増大することが予想されている。このような撮像画像データのサイズの増大に伴い、撮像画像データの検出に用いたパラメータの学習をカメラではなくサーバで行う場合、サーバにおいて処理負荷が集中してしまい、更に、大容量のデータを逐一サーバに送信することで、ネットワーク上のトラフィックが増大し、データ通信時に相応の遅延が生じるという課題が生じてしまう。このような課題に対する技術的対策について、特許文献1のような従来技術では特段の考慮はなされてはいなかった。
本開示は、上述した従来の事情に鑑みて案出され、監視エリアに設置された複数のカメラにおいて撮像されたそれぞれの撮像画像内の少なくとも1つのオブジェクトの検出に際し、その検出に用いるパラメータの学習等の処理を複数のカメラ間で分散し、ネットワーク上のトラフィックの増大を抑制し、複数のカメラに接続されるサーバの処理負荷の軽減を支援する監視システム及び監視方法を提供することを目的とする。
本開示は、サーバと、監視エリアに設置された複数のカメラとが互いに通信可能に接続された監視システムであって、前記サーバは、それぞれの前記カメラの処理能力に関する情報と、それぞれの前記カメラにより前記監視エリアの撮像により得られた撮像画像とを保持するメモリを有し、前記カメラの処理能力に関する情報に基づいて、それぞれの前記カメラにより得られる撮像画像に出現する少なくとも1つのオブジェクトの検出に関して前記カメラが実行する処理を前記カメラごとに決定し、決定された前記処理の実行指示を前記カメラごとに送信し、前記それぞれのカメラは、前記サーバから送信された前記処理の実行指示に基づいて、前記実行指示に対応する処理を実行する、監視システムを提供する。
また、本開示は、サーバと、監視エリアに設置された複数のカメラとが互いに通信可能に接続された監視システムを用いた監視方法であって、前記サーバは、それぞれの前記カメラの処理能力に関する情報と、それぞれの前記カメラにより前記監視エリアの撮像により得られた撮像画像とをメモリに保持し、前記カメラの処理能力に関する情報に基づいて、それぞれの前記カメラにより得られる撮像画像に出現する少なくとも1つのオブジェクトの検出に関して前記カメラが実行する処理を前記カメラごとに決定し、決定された前記処理の実行指示を前記カメラごとに送信し、前記それぞれのカメラは、前記サーバから送信された前記処理の実行指示に基づいて、前記実行指示に対応する処理を実行する、監視方法を提供する。
本開示によれば、監視エリアに設置された複数のカメラにおいて撮像されたそれぞれの撮像画像内の少なくとも1つのオブジェクトの検出に際し、その検出に用いるパラメータの学習等の処理を複数のカメラ間で分散し、ネットワーク上のトラフィックの増大を抑制し、複数のカメラに接続されるサーバの処理負荷の軽減を支援することができる。
実施の形態1の監視システムのシステム構成の一例を示すブロック図 学習及び検出の概要例の説明図 実施の形態1のカメラの内部構成の一例を詳細に示すブロック図 実施の形態1のサーバの内部構成の一例を詳細に示すブロック図 デバイスにおける学習の概要例の説明図 カメラの検出の概要例の説明図 監視システムにおける複数のカメラを用いた学習時の分散を行う時の処理概要例の説明図 監視システムにおけるリソース管理の概要例の説明図 実施の形態1においてサーバがカメラに処理の実行指示を行う動作手順の一例を詳細に示すシーケンス図 実施の形態1においてサーバがモデルパラメータのフィードバック量を制御する動作手順の一例を詳細に示すシーケンス図 監視システムにおける学習結果の共有の概要例の説明図 ローカル学習時に表示されるUI画面の一例を示す図 統合学習時にサーバの表示部に表示されるUI画面の一例を示す図 実施の形態2のカメラの処理実行部の内部構成の一例を詳細に示すブロック図 カメラのローカル学習の動作手順の一例を詳細に示すフローチャート 監視システムにおける学習結果の共有の概要例の説明図 ローカル学習時に表示されるUI画面の一例を示す図 統合学習時にサーバの表示部に表示されるUI画面の一例を示す図
(第1の実施の形態に至る経緯)
今後、カメラが取り扱う撮像画像データは例えば4Kや8K等の高精細かつ大容量となってデータサイズが増大することが予想されている。このような撮像画像データのサイズの増大に伴い、撮像画像データの検出に用いたパラメータの学習をカメラではなくサーバで行う場合、サーバにおいて処理負荷が集中してしまい、更に、大容量のデータを逐一サーバに送信することで、ネットワーク上のトラフィックが増大し、データ通信時に相応の遅延が生じるという課題が生じてしまう。このような課題に対する技術的対策について、特許文献1のような従来技術では特段の考慮はなされてはいなかった。
そこで、実施の形態1では、監視エリアに設置された複数のカメラにおいて撮像されたそれぞれの撮像画像内の少なくとも1つのオブジェクトの検出に際し、その検出に用いるパラメータの学習等の処理を複数のカメラ間で分散し、ネットワーク上のトラフィックの増大を抑制し、複数のカメラに接続されるサーバの処理負荷の軽減を支援する監視システム及び監視方法の例を説明する。
(実施の形態1)
図1は、実施の形態1の監視システム5のシステム構成の一例を示すブロック図である。
監視システム5は、例えば防犯用の監視システムであって、銀行、店舗、企業、施設等の屋内、又は、駐車場や公園等の屋外に設置される。銀行、店舗、企業、施設等の屋内、又は、駐車場や公園等の屋外は、監視システム5の監視エリアとなる。本実施の形態の監視システム5は、人工知能(AI:Artificial Intelligence)技術を利用し、撮像画像に出現する少なくとも1つの対象物(言い換えると、オブジェクト)を認識する少なくとも1つのカメラ10と、サーバ30と、レコーダ50とを含む構成を有する。少なくとも1つのカメラ10と、サーバ30と、レコーダ50とは、ネットワークNWを介して互いに通信可能に接続される。
以下、複数のカメラ10をそれぞれ区別する必要がある場合には、カメラ10A,10B,10C,…と表記する。複数のカメラ10は、監視エリアとして、例えば建物内の同じ場所に設置されてもよいし、一部のカメラ10が他のカメラ10とは異なる場所に設置されてもよい。ここでは、監視エリアとして異なる場所に設置されたカメラ10A,10B,10Cの設置状況(例えば設置角度やカメラの画角)が同じであることを想定している。例えば、カメラ10A,10B,10Cは、いずれも自動ドアが設置された出入口の上方に位置するように壁面に取り付けられ、出入口を出入りする人物をやや上方から見下ろすように撮像する。なお、カメラ10A,10B,10Cの設置状況は、自動ドアが設置された出入口の情報に位置する場合に限定されない。
先ず始めに、人工知能(AI)技術の機械学習の一例としてのディープラーニングに用いられるニューラルネットワーク(言い換えると、学習モデル)を生成するための学習、及び学習済みの学習モデル(以下、「学習済みモデル」という)にデータを入力して結果を出力する検出(つまり、推論)について、その概要を説明する。
図2は、学習及び検出の概要例の説明図である。
学習処理(以下、単に「学習」という)は、例えば人工知能(AI)技術の機械学習の一例としてのディープラーニングによって行われる処理である。言い換えると、機械学習の1つとして、近年注目されているニューラルネットワーク(以下、「NN」と略記する)におけるディープラーニング(つまり、深層学習)を用いて学習が行われる。ディープラーニングによる機械学習では、教師データを用いた「教師有り学習」と、教師データを用いない「教師無し学習」とが行われる。機械学習の結果、学習済みモデルが生成される。一方、検出は、生成された学習済みモデルにデータを入力して結果を得る処理である。
学習は、リアルタイムで行われてもよいが、多くの演算処理を必要とするので、通常、オフライン(つまり、非同期)で行われる。一方、検出処理(以下、単に「検出」という)は、通常リアルタイムで行われる。また、学習が行われるデバイスは、例えばカメラ10、サーバ30、レコーダ50のいずれであってもよく、ここでは、カメラ10において学習される場合を示す。一方、検出は、カメラ10において行われる。なお、カメラ10により撮像された撮像画像データをサーバ30やレコーダ50に転送しても、ネットワークNW上のトラフィックが発生しない場合には、サーバ30やレコーダ50が検出を行ってもよい。
学習時、デバイス150は、多くの学習データ(例えばカメラ10で撮像された画像データ)を入力する。デバイス150は、入力された学習データを基に、機械学習(例えば、ディープラーニングの処理)を行い、学習モデルであるニューラルネットワーク(NN140)のモデルパラメータPを更新する。モデルパラメータPは、NN140を構成する複数のそれぞれのニューロンにおいて設定される重み付け係数(つまり、バイアス)やしきい値等である。デバイス150は、機械学習(例えばディープラーニングの処理)を行う際、教師データを用い、学習データごとに正誤を取得するか、或いは評価値(つまり、スコア)を算出する。デバイス150は、学習データの正誤或いはスコアの高低に応じて、モデルパラメータPの学習度合いを変更する。学習後、NN140は、学習済みモデルとして、デバイス150における検出に用いられる。
検出時(つまり、推論時)、デバイス150は、入力データ(例えばカメラ10でリアルタイムに撮像された撮像画像データ)を入力し、NN140において推論を実行し、その実行により得られた推論結果(つまり、検出されたオブジェクトの判定結果)を出力する。判定結果は、例えば、撮像画像データに含まれる対象物の有無に応じた正報や誤報に関する情報、及び、対象物の評価値を示すスコアに関する情報を含む。正報とは、対象物の検出時に高い確度で正しく検出されたことを示すレポートである。誤報とは、対象物の検出時に高い確度で誤って検出されたことを示すレポートである。
図3は、実施の形態1のカメラ10の内部構成の一例を詳細に示すブロック図である。
カメラ10は、例えば監視エリアの被写体像を撮像して撮像画像データを取得する。具体的には、カメラ10は、レンズ11と、イメージセンサ12と、信号処理部13と、処理実行部14と、リソース監視部15と、クロップエンコード部17と、ネットワークI/F16とを含む構成である。
カメラ10は、監視エリアSAからの被写体像を入射可能に配されたレンズ11を介して、監視エリアSAからの入射された被写体像をイメージセンサ12に結像し、イメージセンサ12において被写体像(つまり、光学像)を電気信号に変換して撮像する。少なくともレンズ11及びイメージセンサ12により、カメラ10の撮像部が構成される。カメラ10は、イメージセンサ12において得られた電気信号を用いて、信号処理部13においてRGB信号を生成したり、ホワイトバランスやコントラスト調整等の既定の各種の画像処理を行うことで、撮像画像データを生成して出力する。
処理実行部14は、例えばGPU(Graphics Processing Unit)又はFPGA(Field Programmable Gate Array)を用いて構成される。今後、高性能で演算処理能力の高いGPU又はFPGAがカメラ10のプロセッサとして採用されてくると、カメラ10の演算処理能力は飛躍的に向上し、カメラ10においてディープラーニングの処理が十分に実行可能であると期待される。処理実行部14は、GPU又はFPGAにおける処理実行によって生成又は更新されたNN140としての学習モデル又は学習済みモデルを含み、入力された撮像画像データに対し、撮像画像に現れる少なくとも1つの対象物(つまり、オブジェクト)の判定結果を出力する。
リソース監視部15は、処理実行部14内のGPU或いはFPGAやメモリ等の使用状況を基に、カメラ10の処理能力に関する情報(例えば空きリソースの量)を監視する。
クロップエンコード部17は、検出時、撮像画像データに現れる対象物(つまり、オブジェクト)の一部を切り出し、処理すべき撮像画像データ或いはサムネイルのデータとして出力する。
ネットワークI/F16は、ネットワークNWとの接続を制御する。カメラ10は、ネットワークI/F16を介して、サーバ30やレコーダ50に対し、処理実行部14から出力される対象物(つまり、オブジェクト)の判定結果、リソース監視部15によって監視された空きリソースの量、サムネイルのデータ等を送信する。また、カメラ10は、ネットワークI/F16を介して、サーバ30やレコーダ50、他のカメラ10から、学習の結果であるモデルパラメータPを受信する。
図4は、実施の形態1のサーバ30の内部構成の一例を詳細に示すブロック図である。
サーバ30は、プロセッサ(例えばCPU(Central Processing Unit)、MPU(Micro Processing Unit)又はDSP(Digital Signal Processor))31と、メモリ32と、通信部33と、操作部36と、表示部37と、学習用DB(データベース)34と、テーブルメモリ35とを含む構成である。プロセッサ31は、メモリ32と協働して、サーバ30の各部の処理や制御を統括的に実行する。メモリ32は、不揮発メモリ及び揮発メモリを有する。不揮発メモリには、例えば複数のカメラ10A,10B,10Cから通知された、それぞれのカメラ10A,10B,10Cの単価コストに関する情報(例えばカメラ10A,10B,10Cの電力コストに関する情報)が記憶される。電力コストに関する情報とは、詳細は後述するが、例えばカメラ10A,10B,10Cがどのくらい使用されれば結果的にどの程度の電力量(つまり、コスト)がかかるかを示す指標値である。
プロセッサ31は、サーバ30が機械学習(例えば、ディープラーニングの処理)を行う場合、不揮発メモリに記憶されたプログラムを実行し、学習モデル(ニューラルネットワーク:NN)を生成する。また、サーバ30は、複数のカメラ10から学習の結果であるモデルパラメータPを受信し、監視エリアSAに設置されたそれぞれのカメラ10の設置状況(つまり、設置角度や画角等の設置環境)が同一であるモデルパラメータPを統合する。
学習用DB(データベース)34には、複数のカメラ10から送信されてサーバ30において受信された学習の結果であるモデルパラメータP(例えば重み付け係数やしきい値)が保存される。
テーブルメモリ35は、複数のカメラ10の処理能力に関する情報(例えば空きリソースの量)が登録されたテーブルを記憶する。
操作部36は、ユーザが操作可能な学習ボタンbt5(例えば図13参照)等、各種ボタンを有し、ユーザの入力操作を受け付ける。
表示部37は、サーバ30における統合学習の処理結果を提示するUI(ユーザインタフェース)画面310(例えば図12又は図13参照)を表示する。
図5は、デバイス150における学習の概要例の説明図である。
ここでは、デバイス150が撮像画像に出現する「車」を対象物objとして学習する場合を例示して説明する。前述したように、学習は、通常オフライン(非同期)で行われる処理であり、カメラ10、サーバ30、レコーダ50のいずれで行われてもよい。本実施の形態では、デバイス150の一例として、カメラ10が学習を行う。デバイス150は、処理実行部164と、リソース監視部165と、ネットワークI/F166と、パラメータ勾配算出部168とを含む構成である。
ネットワークI/F166は、ネットワークNWとの接続を制御し、学習データを、ネットワークNWを介して受信する。ここでは、学習データは、車を対象物objとする撮像画像データgz1,gz2である。各撮像画像データgz1,gz2は、それぞれスコア(評価値)と正報或いは誤報を付加した教師データである。例えば、撮像画像データgz1は、対象物となる「車」を含む撮像画像であり、高いスコア或いは正報を持つ教師データである。一方、撮像画像データgz2は、対象物となる車ではない「木」の画像であり、低いスコア或いは誤報を持つ教師データである。
処理実行部164は、ネットワークI/F166を介して入力された、これらの教師データを基に推論を実行することで、学習モデルのモデルパラメータP(例えば重み付け係数やしきい値等)を更新する。また、処理実行部164は、更新されモデルパラメータPを、ネットワークI/F166を介して、カメラ10、サーバ30、レコーダ50等、他のデバイスに送信する。このように、「教師有り学習」を行うことで、学習能力が高まり、処理実行部164は、高品質な学習モデルを生成できる。
パラメータ勾配算出部168は、教師データの撮像画像に出現する対象物の勾配を算出する。例えば、横からカメラにより撮像された撮像画像と正面からカメラにより撮像された撮像画像とでは、同じ対象物であっても撮像画像は異なる。つまり、カメラの設置状況(例えば設置角度や画角)に応じて、同じ対象物を検出する際に用いられる学習モデルのモデルパラメータPも異なってくる。このため、パラメータ勾配算出部168は、撮像方向を表す勾配(以下、「パラメータ勾配」という)を算出し、ネットワークI/F166を介して、パラメータ勾配Ptをカメラ10、サーバ30、レコーダ50等、他のデバイスに送信する。パラメータ勾配Ptは、モデルパラメータと一緒に或いは別に送信されてもよい。いずれにせよ、カメラの設置状況は頻繁に変更されないので、パラメータ勾配Ptは少なくとも1回送信されればよい。パラメータ勾配Ptを用いることで、カメラの設置状況毎に異なる学習モデルが利用可能となる。
リソース監視部165は、処理実行部164内のGPUやメモリ等の使用状況を基に、空きリソースの量を監視する。なお、デバイス150がカメラ10である場合には、図5に示す処理実行部164及びパラメータ勾配算出部168は図3の処理実行部14に対応し、図5に示すリソース監視部165は図3に示すリソース監視部15に対応し、図5に示すネットワークI/F166は図3に示すネットワークI/F16に対応する。
図6は、カメラ10の検出の概要例の説明図である。
ここでは、カメラ10が撮像画像に出現する「車」を対象物として検出する場合を例示して説明する。カメラ10の処理実行部14は、機械学習(例えばディープラーニングの処理)が行われた後の学習モデル(つまり、学習済みモデル)を有する。処理実行部14は、レンズ11を通して撮像された被写体の撮像画像ogを入力し、学習済みモデルを用いて検出(つまり、撮像画像ogに出現するオブジェクトの推論)を行い、その検出結果(つまり、推論結果)を出力する。クロップエンコード部17は、被写体の撮像画像ogに含まれる、対象物となる画像を切り出し、検出の結果として切り出し画像を出力する。
ここでは、クロップエンコード部17によって切り出された、「車」の切り出し画像tg2と、「木」の切り出し画像tg1が出力される。「車」の切り出し画像tg2は、対象物となる車の撮像画像を含むので、高いスコアと正報を有する。一方、「木」の切り出し画像tg1は、対象物となる車の撮像画像を含まないので、低いスコアと誤報を有する。
次に、本実施の形態の監視システム5の具体的な動作について、図面を参照して説明する。
図7は、監視システム5における複数のカメラを用いた学習時の分散を行う時の処理概要例の説明図である。
前述したように、学習では、人工知能(AI)技術の機械学習の一例としてのディープラーニングの処理を用いて生成される学習モデル(つまり、ニューラルネットワーク)のモデルパラメータPを更新する処理が行われる。一例として、学習を行うデバイスとして、3つのカメラ10A,10B,10Cが学習を行う場合を示す。なお、学習を行うデバイスは、カメラに限らず、サーバ、レコーダでもよい。各カメラ10A,10B,10Cは、それぞれ入力した撮像画像データに対し、例えば「教師なし学習」を行う。教師なし学習では、カメラ10は、学習モデルのモデルパラメータが収束しない場合、アラームを発生する。このとき、ユーザは、アラームを解除して、「教師あり学習」を行う。教師あり学習では、ユーザは、画像データの正報或いは誤報を入力する。なお、教師データの入力では、画像データの正報或いは誤報を入力する代わりに、正報或いは誤報とともにスコア(評価値)を入力してもよい。スコアは、撮像画像データが対象物を含む撮像画像データであることを評価する値であり、例えば80点,10点等の点数や、50%,20%等の確率で表現される。
3つのカメラ10A,10B,10Cは、それぞれ学習の結果であるモデルパラメータPをサーバ30に送信する。また、送信されるモデルパラメータPには、前述したパラメータ勾配Ptが付加される。
サーバ30は、3つのカメラ10A,10B,10Cから送信されたモデルパラメータPを基に、学習モデルのモデルパラメータPを更新する。このとき、パラメータ勾配Ptが同じであるモデルパラメータ、つまり、カメラの設置状況が同じであるモデルパラメータを統合する。従って、パラメータ勾配が同じである学習モデルのモデルパラメータが更新される。ここでは、カメラ10A,10B,10Cの設置状況はいずれも同じであり、サーバ30は、カメラ10A,10B,10Cの、更新された各モデルパラメータを統合する。
サーバ30は、統合したモデルパラメータを3つのカメラ10A,10B,10Cにフィードバック送信する。これにより、3つのカメラ10A,10B,10Cに記憶されるモデルパラメータは、同じになる。なお、3つのカメラ10A,10B,10Cからサーバ30へのモデルパラメータの送信は、非同期で行われる。
図8は、監視システム5におけるリソース管理の概要例の説明図である。
3つのカメラ10A,10B,10Cでは、リソース監視部15は、それぞれ学習モデルを生成するGPU或いはFPGA等の処理能力に対し、空きリソースの量(言い換えると、処理能力の余り度合いを示す余力)を監視している。3つのカメラ10A,10B,10Cは、リソース監視部15によって監視された空きリソースの量を非同期で又は周期的にサーバ30に通知する。空きリソースの量は、処理能力の百分率(%)で表される。一例として、カメラ10Aの空きリソースの量が90%であり、カメラ10Bの空きリソースの量が20%であり、カメラ10Cの空きリソースの量が10%である場合、サーバ30は、空きリソースの量が多いカメラ10Aに優先的に学習させるように、つまり、学習量を増やすように、このカメラ10Aに学習の指示を出力する。
また、サーバ30は、ネットワークNWの帯域が広い、或いはネットワークNWが空いている場合には、空きリソースの量が10%と少ないカメラ10Cで撮像された撮像画像データ(正報或いは誤報の情報付き)を受信すると、空きリソースの量が90%と多いカメラ10Aにその撮像画像データを送信して学習を指示してもよい。これにより、カメラ間で偏った処理の負荷がかかることなく、適正な学習が実現可能となる。
また、サーバ30は、空きリソース量の少ないカメラで撮像された撮像画像データを、空きリソース量の多いカメラに直接に転送して、学習を行うように指示してもよい。これにより、監視システム内で学習を分散させることができ、特定のカメラに大きな負荷をかけることなく、効率の良い学習が可能である。
また、サーバ30は、空きリソース量の少ないカメラで撮像された撮像画像データを、空きリソース量の多いカメラに直接に転送して、検出を行うように指示してもよい。これにより、監視システム内で検出を分散させることができ、特定のカメラに大きな負荷をかけることなく、効率の良い検出が可能である。
また、サーバ30は、空きリソース量の少ないカメラで撮像された撮像画像データを、空きリソース量の多いカメラに直接に転送して、分析を行うように指示してもよい。ここで、分析とは、撮像画像に出現する対象物(つまり、オブジェクト)objを追尾する、或いは、対象物が不審人物に該当するか否かを認識する、等の処理であり、分析の内容は本実施の形態では特に限定されない。これにより、監視システム内で分析を分散させることができ、特定のカメラに大きな負荷をかけることなく、効率の良い分析が可能である。
また、サーバ30は、監視システム5の全体の処理能力を監視し、システム全体の空きリソースの量が多い場合、各カメラ10に対し、学習量を増やすように指示し、一方、システム全体の空きリソースの量が少ない場合、各カメラ10に対し、学習量を減らすように指示してもよい。これにより、監視システム全体に大きな負荷をかけることなく、適正な学習が可能となる。
また、サーバ30は、各カメラ10による検出の結果を全てのカメラ10に共有するように、指示してもよい。これにより、各カメラ10に検出の結果を分散させることができ、次回以降の検出に用いることで検出精度の向上を図ることができる。
また、サーバ30は、カメラ10の空きリソースの量が多い場合、このカメラ10に送信する統合学習の結果のフィードバック量(例えばフィードバック回数)を増やすように指示し、一方、カメラ10の空きリソースの量が少ない場合、このカメラ10に送信する、統合学習の結果のフィードバック量(例えばフィードバック回数)を減らすように指示してもよい。これにより、カメラに大きな負荷をかけることなく、適正な量の学習の結果をカメラにフィードバックする(戻す)ことができる。
また、3つのカメラ10A,10B,10Cは、それぞれ単価コストに関する情報(例えば電力コストに関する情報)をサーバ30に通知する。電力コストは、カメラ固有の値であり、例えばワット/フレーム(W/frame)の単位で表現される。一例として、カメラ10Aでは1/200、カメラ10Bでは1/200、カメラ10Cでは1/400が挙げられる。なお、電力コストは、通常カメラの使用状況によって大きく変化しないので、1回の通知で充分である。また、電力コストの単位は、フレーム/ワット(frame/W)で表現されてもよい。
サーバ30は、カメラ10Aとカメラ10Bの電力コストが同じように高い場合、電力コストの低いカメラ10Cに対し、優先的に学習を割り当てる。
サーバ30は、カメラ10A,10B,10Cの空きリソースの量が同じ或いは同程度である場合、例えばカメラ10Aの空きリソースの量が10%であり、カメラ10B,10Cの空きリソースの量がいずれも45%である場合、電力コストのかからないカメラ10Cで優先的に学習するように、このカメラ10Cに学習の指示を出力する。
なお、カメラの空きリソースの多寡に拘わらず、サーバ30は、コスト優先で電力コストの低いカメラで学習を実行するように指示してもよい。また、各デバイスの空きリソース及び電力コストの管理を、サーバ30が行っていたが、各カメラやレコーダが管理してもよく、その場合、空きリソース及び電力コストを監視システム5内の全てデバイス150で共有できる。従って、空きリソース及び電力コストを考慮して、各デバイスは、処理の指示実行を行うことも可能となり、多様な運用が可能となる。
図9は、実施の形態1においてサーバ30がカメラ10に処理の実行指示を行う動作手順の一例を詳細に示すシーケンス図である。
図9の動作手順では、サーバ30は、カメラ10の空きリソースの情報を基に、複数のカメラ10の中から、分散処理の対象となるカメラ10を決定し、該当するカメラ10に処理実行を指示する。カメラの台数Nは、任意の台数でよく、ここでは、説明を簡単にするために2台(カメラ10A,10B)を例示する。なお、サーバ30の代わりに、レコーダ50が処理実行を指示するカメラ10を決定してもよい。
カメラ10Aは、リソース監視部15によって監視された空きリソースの情報を繰り返し(例えば常時、又は周期的に)サーバ30に通知する(T1)。同様に、カメラ10Bは、リソース監視部15によって監視された空きリソースの情報を繰り返し(例えば常時、又は周期的に)サーバ30に通知する(T2)。
サーバ30は、カメラ10A,10Bの空きリソースの情報をテーブルメモリ35に登録して管理する(T3)。サーバ30は、所定値(例えば70%)以上の空きリソースを有する少なくとも1台のカメラの有無を判別する(T4)。ここでは、カメラ10Bだけが所定値以上の空きリソースを有すると想定する。
所定値以上の空きリソースを有するカメラがある場合(T4、YES)、サーバ30は、該当するカメラに対する検出と学習との両方の実行指示を生成する(T5)。サーバ30は、カメラ10Bに対し、ネットワークNWを経由して、検出と学習との両方の実行指示を送信する(T6)。カメラ10Bは、該当する処理を実行する(T7)。
一方、手順T4で所定値以上の空きリソースを有するカメラが無い場合(T4、NO)、サーバ30は、全てのカメラ(ここでは、カメラ10A,10B)に対する検出の実行指示を生成する(T8)。カメラ10A,10Bは、学習を実行できる程の空きリソースを有していないので、検出のみを行うことになる。サーバ30は、検出の実行指示を全てのカメラ(ここでは、カメラ10A,10B)に送信する(T9)。カメラ10A,10Bは、それぞれ該当する処理を実行する(T10,T11)。
手順T7でカメラ10Bが該当する処理を実行した場合、カメラ10Bは、学習結果を生成し(T12)、生成した学習結果をサーバ30に送信する(T13)。
図10は、実施の形態1においてサーバ30がモデルパラメータのフィードバック量を制御する動作手順の一例を詳細に示すシーケンス図である。
図10の動作手順では、サーバ30は、カメラ10の空きリソースの情報を基に、モデルパラメータのフィードバック量を制御する。カメラの台数Nは、任意の台数でよく、ここでは、説明を簡単にするために2台(カメラ10A,10B)である。なお、サーバ30の代わりに、レコーダ50がモデルパラメータをフィードバックするカメラ10を決定してもよい。
サーバ30は、カメラ10A,10Bからそれぞれ学習結果であるモデルパラメータを受信し、学習用DB34に蓄積する(T21)。サーバ30は、各カメラ10A,10Bの空きリソースの量に応じて、学習結果である多くのモデルパラメータの中から、推論(検出)処理時に用いる学習モデルのモデルパラメータのフィードバック量をカメラごとに算出する(T22)。
サーバ30は、カメラ10Bに対し、算出されたフィードバック量分のモデルパラメータのデータを送信する(T23)。同様に、サーバ30は、カメラ10Aに対し、算出されたフィードバック量分のモデルパラメータのデータを送信する(T24)。カメラ10Bは、サーバ30から受信したモデルパラメータを、処理実行部14のメモリに追加登録して蓄積する(T25)。同様に、カメラ10Aは、サーバ30から受信したモデルパラメータを、処理実行部14のメモリに追加登録して蓄積する(T26)。
なお、ここでは、フィードバック量は、各カメラの空きリソースの情報を基に、サーバ30により決定されたが、空きリソースに限らず、教師データに基づく正報検出数や教師データに基づく誤報検出数に応じて、決定されてもよい。
図11は、監視システム5における学習結果の共有の概要例の説明図である。
各カメラ10(10A,10B,10C)は、撮像により得られた撮像画像データを用いてローカル学習を行い、モデルパラメータを更新する。また、各カメラ10は、正報が得られた撮像画像データだけを用いて学習を行うことができ、学習の結果であるモデルパラメータの精度を向上できる。また、カメラ10は、オプションとして接続された表示器19に、ローカル学習において、撮像画像データを評価するためのUI画面320(図12参照)を表示可能である。また、カメラ10は、ローカル学習時のUI画面320をサーバ30の表示部37に表示させることも可能である。
図12は、ローカル学習時に表示されるUI画面320を示す図である。
UI画面320は、例えばカメラ10のローカル学習時に、カメラ10と通信可能に接続されたサーバ30の表示部37又はPC(図示略)の表示部において表示され、具体的には、撮像画像データから切り出された学習データごとに、正誤の判定、カメラID、リジェクトボタンbxを表示する。なお、撮像画像データのサムネイルは、カメラ10が元の撮像画像データを記憶しているので、ここでは表示されないが、表示されるようにしてもよい。検出の対象物(オブジェクト)objは「人」である。
サーバ30は、正誤の判定処理において、撮像画像データに対象物objを検出できた場合に正報と判定し、撮像画像データに対象物objを検出できなかった場合に誤報と判定する。なお、ユーザが、サーバ30の表示部37に表示されたUI画面320に対して入力することで、サーバ30は、正報或いは誤報を判定してもよい。
カメラIDは、学習データを得るために撮像したカメラの識別情報である。
リジェクトボタンbxは、ユーザにより選択され、チェックマークが表示される。リジェクトボタンbxにチェックマークが付加された学習データは、ユーザが学習ボタンbt5を押下すると、学習に用いられなくなる。
カメラ10は、自動的に、誤報の撮像画像データを採用する学習に用いず、正報の撮像画像データを採用する学習に用いたが、カメラ10の代わりに、ユーザがリジェクトボタンbxを用いて撮像画像データを指示してもよい。例えば、ユーザは、誤報の撮像画像データを採用する学習に用いず、正報の撮像画像データを採用する学習に用いるように指示してもよい。これにより、誤報の撮像画像データを用いて学習することができる。また、カメラ10は、正報の撮像画像データと誤報の撮像画像データとを組み合わせて学習に用いてもよい。これにより、撮像画像データの品質に照らして、学習に用いる撮像画像データを選別できる。
サーバ30は、各カメラ10(10A,10B,10C)から送信されたモデルパラメータPを受信し、受信した各モデルパラメータPを合算する統合学習を行い、合算したモデルパラメータPを学習用DB34に追加する。ここで、統合されるモデルパラメータは、設置状況が同じカメラで撮像された画像データを基に得られたモデルパラメータである。一方、設置状況が異なるカメラで撮像された画像データを基に得られるモデルパラメータは、合算されず、別々の学習モデルに対するモデルパラメータとして個別に登録される。
図13は、統合学習時にサーバ30の表示部37に表示されるUI画面310を示す図である。
サーバ30は、表示部37に、統合学習時のUI画面310(図13参照)を表示可能である。UI画面310は、撮像画像データから切り出された学習データごとに、正誤の判定、サムネイル、カメラID、リジェクトボタンbxを表示する。ここでは、検出の対象物(オブジェクト)が「人」である場合を示す。
サーバ30は、正誤の判定処理では、撮像画像データに対象物objを検出できた場合に正報と判定し、撮像画像データに対象物objを検出できなかった場合に誤報と判定する。なお、ユーザが、サーバ30の表示部37に表示されたUI画面310に対して入力することで、サーバ30は、正報或いは誤報を判定してもよい。
サムネイルは、学習データの縮小画像である。サムネイルであるので、カメラ10からサーバ30に送信される際、データ転送量は抑えられる。カメラIDは、学習データを得るために撮像したカメラの識別情報である。
リジェクトボタンbxは、ユーザにより選択され、チェックマークが表示される。リジェクトボタンbxにチェックマークが付加された学習データは、ユーザが学習ボタンbt5を押下すると、学習に用いられなくなる。
サーバ30は、自動的に正報の撮像画像データを採用するように学習し(つまり、正報の撮像画像データの検出に用いたモデルパラメータを蓄積するように学習し)、誤報の撮像画像データを排除するように学習する(つまり、誤報の撮像画像データの検出に用いたモデルパラメータを蓄積しないように学習する)。但し、学習に用いる撮像画像データの選択について、ユーザが主体的にリジェクトボタンbxを用いて、学習に用いる撮像画像データが指示されてもよい。また、ユーザは、誤報の撮像画像データを排除する学習を行わず、正報の撮像画像データを採用する学習を行うように指示してもよい。
このように、サーバ30がモデルパラメータを統合学習することで、モデルパラメータの学習の精度が向上する。サーバ30は、統合学習の結果である更新されたモデルパラメータを、該当するカメラ10にフィードバック送信する。これにより、各カメラ10で得られる撮像画像データの正報が多くなるほど、カメラの検出精度が高くなる。
また、サーバ30は、統合学習の結果である更新されたモデルパラメータPを、各カメラ10にフィードバック送信する際、各カメラ10の正報の数に応じて、フィードバック量を制御する。つまり、サーバ30は、誤報の数が多いカメラ10に対し、フィードバック量(例えばフィードバック回数)が多くなるように、更新済みモデルパラメータを送信する。これにより、正報の数が増加し、カメラの検出精度が向上する。
一方、サーバ30は、正報の数が多いカメラ10に対し、フィードバック量(例えばフィードバック回数)が少なくなるように、更新済みモデルパラメータを送信する。これにより、カメラの処理負荷を軽減できる。なお、サーバ30は、設置環境が同じであるカメラに対し、同一の更新済みのモデルパラメータを送信して共有させることは、前述した通りである。
また、サーバ30は、各カメラ10に対し、学習の実行指示を行う際、各カメラ10の正報の数に応じて、学習の量を指示する。誤報の数が多いカメラ10に対し、学習量が多くなるように、学習の実行指示を行う。これにより、正報の数が増加し、カメラの検出精度が向上する。一方、サーバ30は、正報の数が多いカメラ10に対し、学習量が少なくなるように、学習の実行指示を行う。これにより、カメラの処理負荷を軽減できる。
また、サーバ30は、各カメラ10で撮像された撮像画像に出現する対象物を検出する検出の結果を統合して管理してもよい。検出の結果を統合する場合、対象物の動きをベクトルで表し、ベクトルで検出の結果を管理してもよい。
以上により、第1の実施形態の監視システム5では、サーバ30と、監視エリアSAに設置された複数のカメラ10とが互いに通信可能に接続される。サーバ30は、それぞれのカメラ10の空きリソース(つまり、処理能力に関する情報)と、それぞれのカメラ10により監視エリアSAの撮像により得られた撮像画像のデータとを保持するテーブルメモリ35を有する。サーバ30は、カメラ10の処理能力に関する情報に基づいて、それぞれのカメラ10により得られる撮像画像に出現する少なくとも1つの対象物(オブジェクト)objの検出に関してカメラ10が実行する処理をカメラ10ごとに決定し、決定された処理の実行指示をカメラ10ごとに送信する。それぞれのカメラ10は、サーバ30から送信された処理の実行指示に基づいて、実行指示に対応する処理を実行する。
これにより、監視システム5は、監視エリアSAに設置された複数のカメラ10において撮像されたそれぞれの撮像画像内の少なくとも1つのオブジェクトの検出に際し、その検出に用いるパラメータの学習等の処理を複数のカメラ10間で分散でき、ネットワーク上のトラフィックの増大を抑制し、複数のカメラ10に接続されるサーバ30の処理負荷の軽減を支援することができる。
また、上述した処理は、撮像画像に出現する少なくとも1つの対象物(オブジェクト)objの検出に用いるモデルパラメータPを学習する学習である。これにより、監視システム5は、負荷の大きな学習を複数のカメラ10に分散させることができる。
また、サーバ30は、複数のカメラ10に対し、学習の実行指示をそれぞれ送信する。複数のカメラ10は、それぞれ学習の実行指示に従って、学習を実行する。サーバ30は、複数のカメラ10により実行された学習の結果を受信する。これにより、サーバ30は、例えば自装置で学習することなく、複数のカメラ10から学習の結果を得ることができる。
また、サーバ30は、自身で学習を実行するとともに、複数のカメラ10に学習の実行指示をそれぞれ送信する。複数のカメラ10は、それぞれ学習の実行指示に従い、学習を実行する。サーバ30は、複数のカメラ10により実行された学習の結果を受信する。これにより、サーバ30は、複数のカメラ10から得た学習の結果に、自装置の学習結果を加えることができ、次回以降の学習の効率化を図ることができる。
また、サーバ30は、学習の結果を複数の前記カメラに送信する。複数のカメラ10は、学習の結果を共有する。これにより、複数のカメラは、同じ学習の結果を利用できる。
また、複数のカメラ10のうち一部の複数のカメラ10は同一の設置状況で設置される。サーバ30は、学習の結果を、設置状況が同じである一部の複数のカメラ10にそれぞれ送信する。設置状況が同じである一部の複数のカメラ10は、サーバ30から送信された学習の結果を共有する。これにより、監視システム5は、設置状況が同じである複数のカメラ10によるオブジェクトの検出精度を高めることができる。
また、サーバ30は、カメラ10により検出された対象物(オブジェクト)objの検出数に応じて、学習の処理量を制御する。これにより、サーバ30は、オブジェクトの検出数が多くて、処理の負荷が大きいカメラに対し、負荷を増加させるような、学習の量を減らすことができる。一方、サーバ30は、オブジェクトの検出数が多くて、処理の負荷が小さいカメラに対し、学習の量を増やすことができる。従って、カメラの処理の負荷を均一化に繋がる。
また、サーバ30は、カメラ10により検出された対象物(オブジェクト)objの検出の正報の数に応じて、カメラ10における学習の処理量を制御する。これにより、サーバ30は、正報の学習の結果を多く用いることで、学習の結果の精度(言い換えると、次回以降の検出の精度)を向上できる。
また、サーバ30は、カメラ10により検出された対象物(オブジェクト)objの検出の誤報の数に応じて、カメラ10における学習の量を制御する。これにより、サーバ30は、誤報の学習の結果を用いないようにすることで、結果的に学習の結果の精度(言い換えると、次回以降の検出の精度)を向上できる。
また、サーバ30は、カメラ10の処理能力の量に応じて、カメラ10における学習の処理量を制御する。これにより、サーバ30は、特定のカメラに大きな負荷をかけることなく、複数のカメラに学習を分散させることができ、効率の良い学習の実現が可能である。
また、サーバ30は、監視システム5を構成するサーバ30及び複数のカメラ10のそれぞれの処理能力に関する情報をテーブルメモリ35に保持する。サーバ30は、サーバ30及び複数のカメラ10のそれぞれの処理能力の量に応じて、学習の処理量を制御する。これにより、サーバ30は、監視システムの特定のデバイスに大きな負荷をかけることなく、複数のデバイスに学習を分散させることができ、効率の良い学習の実現が可能である。
また、上記処理は、撮像画像ogに出現する少なくとも1つの対象物(オブジェクト)objの検出に用いるモデルパラメータPを学習する学習と、撮像画像ogに出現する少なくとも1つの対象物(オブジェクト)objを検出する検出と、検出によって検出された少なくとも1つの対象物(オブジェクト)objを分析する分析と、を含む。これにより、サーバ30は、学習の他、検出と分析においても、複数のカメラ10に処理を分散させることができる。
また、サーバ30は、複数のカメラ10のうち、他のカメラと比べて相対的に処理能力の高い少なくとも1つのカメラ10に対し、テーブルメモリ35に保持される撮像画像のデータを送信し、学習の実行指示を行う。これにより、サーバ30は、ネットワークの帯域が広い場合或いはネットワークが空いている時等において、他の処理能力の高いカメラに撮像画像データを送信することも可能であり、結果的に学習のスピードを向上させることができる。
また、サーバ30は、複数のカメラ10のうち、他のカメラと比べて相対的に処理能力の高い少なくとも1つのカメラ10に対し、テーブルメモリ35に保持される撮像画像のデータを送信し、検出の実行指示を行う。これにより、サーバ30は、ネットワークの帯域が広い場合或いはネットワークが空いている時等において、他の処理能力の高いカメラに撮像画像データを送信することも可能であり、結果的に検出のスピードを向上させることができる。
また、サーバ30は、複数のカメラ10のうち、他のカメラと比べて相対的に処理能力の高い少なくとも1つのカメラ10に対し、テーブルメモリ35に保持される撮像画像のデータを送信し、分析の実行指示を行う。これにより、サーバ30は、ネットワークの帯域が広い場合或いはネットワークが空いている時等において、他の処理能力の高いカメラに撮像画像データを送信することも可能であり、結果的に分析のスピードを向上させることができる。
また、上記処理は、撮像画像ogに出現する少なくとも1つの対象物(オブジェクト)objを検出する検出である。サーバ30は、検出の結果を複数のカメラ10にそれぞれ送信する。複数のカメラ10は、検出の結果を共有する。これにより、サーバ30は、特定のカメラに大きな負荷をかけることなく、複数のカメラに検出を分散させることができ、検出の効率を高めることができる。
また、サーバ30は、複数のカメラ10により実行された学習の結果を統合する。これにより、監視システム5は、サーバ30における統合によって集約された学習の結果の精度を向上できる。
また、複数のカメラ10のうち一部の複数のカメラ10は、同一の設置状況で設置される。サーバ30は、カメラ10の設置状況が同じである、複数のカメラ10により実行された学習の結果を統合する。これにより、サーバ30は、同じ設置状況のカメラによるオブジェクトの検出精度を高めることができる。
サーバ30は、設置状況が同一の一部の複数のカメラ10から、それぞれのカメラの設置状況に関する情報の通知を受信し、その一部の複数のカメラ10により実行された学習の結果を統合する。これにより、サーバ30は、同じ設置状況のカメラによる学習の結果を統合し易くなる。
また、サーバ30及び複数のカメラ10が、複数のカメラ10の処理能力に関する情報と複数のカメラ10の単価コストに関する情報(例えば個々のカメラ10の電力コストの情報)とを共有する。これにより、サーバ30は、空きリソース及び電力コストを考慮して、サーバ及び複数のカメラ等の各デバイスは、処理の指示実行を行うことも可能となり、多様な運用が可能となる。
(第2の実施の形態に至る経緯)
上述した特許文献1のような従来技術では、撮像画像内において追跡対象となる物体の正解となる物体動き情報を得るために、その物体に関する評価関数のスコアを用いることは開示されている。しかし、物体の検出精度を示すスコアに応じて、物体の検出において必要なパラメータの学習量をコントロールすることについては特段の考慮がなされていなかった。このため、例えば本来学習が必要ではない、検出に用いるパラメータを学習してしまうことでパラメータの学習精度にばらつきが生じ、物体の検出精度に影響を及ぼすことが懸念される。
そこで、実施の形態2では、監視エリアに設置されたカメラにおいて撮像された撮像画像内の少なくとも1つのオブジェクトの検出に得られた、そのオブジェクトの検出精度を示すスコアに応じて、検出に用いるパラメータの学習量を適切に制御し、カメラにおける学習精度を向上する監視システム及び監視方法の例、並びに、カメラ及びパラメータ登録方法を説明する。
(実施の形態2)
実施の形態2の監視システム5のシステム構成は、上述した実施の形態1の監視システム5のシステム構成と同一であるので、同一の符号を用いることで、その説明を簡略化又は省略し、異なる内容について説明する。
図14は、実施の形態2のカメラ10の処理実行部14の内部構成の一例を詳細に示すブロック図である。
カメラ10の主要な構成である処理実行部14は、ニューラルネットワーク(つまり、NN140)の他、教師データセットメモリ151及びパラメータメモリ152を含む。
NN140は、オブジェクト推論機能141と、スコア導出機能142と、正誤判定機能143と、パラメータ学習機能144との各機能を有する。
検出部の一例としてのオブジェクト推論機能141では、NN140は、モデルパラメータに従い、撮像画像に出現する対象物が何であるかを推論(つまり、検出)する。
導出部の一例としてのスコア導出機能142では、NN140は、推論時に対象物の検出精度を示すスコア(評価値)を、教師データセットメモリ151に登録された教師データを用いて導出し、そのスコアを出力する。
正誤判定機能143では、NN140は、推論時に対象物の正誤の判定を、教師データセットメモリ151に登録された教師データを用いて導出し、その判定結果を出力する。
パラメータ学習部の一例としてのパラメータ学習機能144では、NN140は、スコアが高い対象物の推論に用いられたモデルパラメータを採用するように学習する。また、パラメータ学習機能144では、NN140は、スコアが低い対象の推論に用いられたモデルパラメータを排除するように学習する。NN140は、学習したモデルパラメータをパラメータメモリ152に登録して蓄積する。パラメータメモリ152に登録された第1所定値(例えば80点)よりスコアが高い対象物の推論に用いられたモデルパラメータは、後述する学習結果の共有において、サーバ30に送信され、統合学習において利用される。
図15は、カメラ10のローカル学習の動作手順の一例を詳細に示すフローチャートである。
図15において、カメラ10は、イメージセンサ12において被写体像から対象物を撮像し(S1)、撮像画像データを生成する(S2)。
処理実行部14は、撮像画像データを入力し、撮像画像に現れる少なくとも1つの対象物(つまり、オブジェクト)を推論(検出)する(S3)。処理実行部14は、推論(検出)時に少なくとも1つのオブジェクトのスコアリング処理を行う(S4)。このスコアリング処理では、処理実行部14は、教師データセットメモリ151に登録された教師データを用いて、オブジェクトのスコア(評価値)を出力する。
処理実行部14は、スコアリング処理の結果、第1所定値(例えば80点)より上位スコアのオブジェクトの推論に用いたモデルパラメータ、及び第2所定値(例えば10点)下位スコアのオブジェクトの推論に用いたモデルパラメータを用いて、NN140のモデルパラメータを学習する(S5)。また、ステップS5において、処理実行部14は、第1所定値より上位スコアのモデルパラメータをパラメータメモリ152に登録して蓄積する。この後、カメラ10は、図15に示す処理を終了する。
上位スコアは、例えば80点〜100点である。下位スコアは、例えば0点〜10点である。処理実行部14は、例えば上位スコアのモデルパラメータを採用し、下位スコアのモデルパラメータを排除する。
上位スコアのオブジェクトは正報の可能性が高いオブジェクトであり、下位スコアのオブジェクトは誤報の可能性が高いオブジェクトである。従って、上位スコアのオブジェクトの推論(検出)に用いたモデルパラメータを採用するように学習することで、正報の可能性が高いオブジェクトの推定に適用されたモデルパラメータが用いられるようになり、モデルパラメータの学習精度を向上させることができる。
また、下位スコアのオブジェクトの推論に用いたモデルパラメータを排除するように学習することで、誤報の可能性が高いオブジェクトの推定に適用されたモデルパラメータが用いられなくなり、モデルパラメータの学習精度を向上させることができる。
また、処理実行部14は、上位スコアのオブジェクトの推論に用いたモデルパラメータと、下位スコアのオブジェクトの推論に用いたモデルパラメータとを組み合わせて、学習してもよい。このように、上位スコアのオブジェクトの推論に用いたモデルパラメータと、下位スコアのオブジェクトの推論に用いたモデルパラメータとを組み合わせて学習することで、モデルパラメータの学習精度をより一層向上させることができる。
図16は、監視システム5における学習結果の共有の概要例の説明図である。
各カメラ10(10A,10B,10C)は、撮像により得られた撮像画像データを用いてローカル学習を行う。ローカル学習において、各カメラ10は、撮像画像データの中で検出した対象物の検出精度に関するスコアリング処理を実行し、得られたスコアに応じて、NN140のモデルパラメータを学習する。また、各カメラ10は、上位スコアのオブジェクトの推論(検出)に用いたモデルパラメータのみ採用して学習する。これにより、モデルパラメータの学習精度を向上できる。
また、ローカル学習では、撮像画像データを評価するためのUI画面340(図17参照)が表示可能である。例えば、カメラ10は、カメラ10にオプションとして接続された表示器(図示略)にUI画面340を表示させてもよいし、サーバ30の表示部37に転送してUI画面340を表示させることも可能である。
図17は、ローカル学習時に表示されるUI画面340の一例を示す図である。
UI340は、撮像画像データから切り出された学習データごとに、スコア、カメラID、リジェクトボタンbxを表示する。なお、画像データのサムネイルは、カメラ10が元の撮像画像データを記憶しているので、ここでは表示されないが、表示されるようにしてもよい。検出の対象(オブジェクト)は「人」である。
スコアは、0点〜100点の範囲で数値化される。なお、スコアは、各カメラ10がスコアリング処理することで算出されたが、ユーザがUI320から入力することで取得されてもよい。カメラIDは、学習データを得るために撮像したカメラの識別情報である。リジェクトボタンbxは、ユーザにより選択された場合、チェックマークが表示される。リジェクトボタンbxにチェックマークが付加された学習データは、ユーザが学習ボタンbt5を押下すると、学習に用いられなくなる。
カメラ10は、自動的に、下位スコアの撮像画像データを採用する学習を行わず、上位スコアの撮像画像データを採用する学習を行った。但し、例えばカメラ10の代わりに、ユーザが、リジェクトボタンbxを用いて学習に用いる撮像画像データを指示してもよい。例えば、ユーザは、下位スコアの撮像画像データを排除する学習を行わず、上位スコアの撮像画像データを採用する学習を行うように指示してもよい。
また、各カメラ10は、上位スコアの撮像画像データのみ採用する学習を行ったが、例えば下位スコアの撮像画像データのみ排除する学習を行うように指示してもよい。これにより、下位スコアの撮像画像データが排除された撮像画像データを用いて学習を行うことができる。また、上位スコアの撮像画像データと下位スコアの撮像画像データとを組み合わせて用いるように設定されてもよい。これにより、撮像画像データの品質に照らして、学習に用いる画像データを、カメラ或いはユーザが個別に選別できる。
サーバ30は、各カメラ10(10A,10B,10C)から送信されたモデルパラメータを受信し、受信した各モデルパラメータを合算する統合学習を行い、合算したモデルパラメータを学習用DB34に追加する。ここで、統合されるモデルパラメータは、設置状況が同じカメラで撮像された画像データを基に得られたモデルパラメータである。一方、設置状況が異なるカメラで撮像された画像データを基に得られるモデルパラメータは、合算されず、別々の学習モデルに対するモデルパラメータとして個別に登録される。
図18は、統合学習時にサーバ30の表示部37に表示されるUI画面350の一例を示す図である。
サーバ30は、表示部37に、統合学習時のUI310(図18参照)を表示可能である。UI350は、撮像画像データから切り出された学習データ毎に、スコア、サムネイル、カメラID、リジェクトボタンbxを表示する。ここでは、検出の対象(オブジェクト)が「人」である場合を示す。
スコアは、0点〜100点の範囲で数値化される。例えば、対象が「人」である場合、人が写っている画像データの点数は、80点〜100点と高くなる。一方、人でなく「木」が写っている画像データの点数は、10点と低くなる。サムネイルは、学習データの縮小画像である。サムネイルであるので、カメラ10からサーバ30に送信される際、データ転送量は抑えられる。カメラIDは、学習データを得るために撮像したカメラの識別情報である。リジェクトボタンbxは、ユーザにより選択され、チェックマークが表示される。リジェクトボタンbxにチェックマークが付加された学習データは、ユーザが学習ボタンbt5を押下すると、学習に用いられなくなる。
サーバ30は、自動的に上位スコアの撮像画像データを採用する学習を行わず、下位スコアの撮像画像データを排除する学習を行う。但し、例えばユーザが、リジェクトボタンbxを用いて学習に用いる撮像画像データを指示してもよい。例えば、ユーザは、下位スコアの撮像画像データを排除する学習を行わず、上位スコアの撮像画像データを採用する学習を行うように指示してもよい。
このように、サーバ30がモデルパラメータを統合学習することで、モデルパラメータの学習の精度が向上する。サーバ30は、統合学習の結果である更新されたモデルパラメータを、該当するカメラ10にフィードバック送信する。これにより、各カメラ10で得られる画像データの正報が多くなるほど、カメラの検出精度が高くなる。
また、サーバ30は、統合学習の結果である、更新されたモデルパラメータを、各カメラ10にフィードバック送信する際、各カメラ10の正報の数に応じて、フィードバック量を制御する。つまり、サーバ30は、誤報の数が多いカメラ10に対し、フィードバック量(例えばフィードバック回数)が多くなるように、更新済みモデルパラメータを送信する。これにより、正報の数が増加し、カメラの検出精度が向上する。
一方、サーバ30は、正報の数が多いカメラ10に対し、フィードバック量(例えばフィードバック回数)が少なくなるように、更新済みモデルパラメータを送信する。これにより、カメラの処理の負荷を軽減できる。なお、サーバ30は、設置環境が同じであるカメラに対し、同一の更新済みのモデルパラメータを送信して共有させることは、前述した通りである。
また、サーバ30は、各カメラ10に対し、学習の実行指示を行う際、各カメラ10の正報の数に応じて、学習の処理量を指示する。誤報の数が多いカメラ10に対し、学習量が多くなるように、学習の実行指示を行う。これにより、正報の数が増加し、カメラの検出精度が向上する。一方、サーバ30は、正報の数が多いカメラ10に対し、学習量が少なくなるように、学習の実行指示を行う。これにより、カメラの処理の負荷を軽減できる。
また、サーバ30は、各カメラ10で撮像された画像に出現する対象を検出する検出の結果を統合して管理してもよい。検出の結果を統合する場合、対象の動きをベクトルで表し、ベクトルで検出の結果を管理してもよい。
以上により、実施の形態2のカメラ10は、監視エリアSAに設置され、サーバ30と互いに通信可能に接続された監視システム5に用いられるカメラである。カメラ10は、イメージセンサ12において、監視エリアSAからの被写体光を撮像する。カメラ10は、検出部の一例としてのオブジェクト推論機能141において、被写体光の撮像に基づく撮像画像ogを用いて、撮像画像に出現する少なくとも1つのオブジェクトを検出する。カメラ10は、オブジェクトの種別ごとに用意された教師データセットを教師データセットメモリ151において保持する。カメラ10は、導出部の一例としてのスコア導出機能142において、教師データセットを用いて、検出されたオブジェクトの検出精度を示すスコアを導出する。カメラ10は、パラメータ学習部の一例としてのパラメータ学習機能144において、導出されたスコアに応じて、オブジェクトの検出に用いるモデルパラメータを学習する。カメラ10は、パラメータ学習機能144において、モデルパラメータの学習結果をパラメータメモリ152に登録して蓄積する。
これにより、カメラ10は、監視エリアに設置されたカメラにおいて撮像された撮像画像内の少なくとも1つのオブジェクトの検出によって得られた、そのオブジェクトの検出精度を示すスコアに応じて、検出に用いるパラメータの学習量を適切に制御し、カメラにおける学習精度を向上させることができる。
また、パラメータ学習機能144は、第1所定値より上位のスコアが導出されたモデルパラメータを採用するように学習する。このように、カメラ10は、上位スコアのオブジェクトの推論に用いたモデルパラメータを採用するように学習することで、正報の可能性が高いオブジェクトの推定に適用されたモデルパラメータが用いられるようになり、モデルパラメータの学習精度を向上させることができる。
また、パラメータ学習機能144は、第2所定値より下位のスコアが導出されたモデルパラメータを排除するように学習する。このように、カメラ10は、下位スコアのオブジェクトの推論に用いたモデルパラメータを排除するように学習することで、誤報の可能性が高いオブジェクトの推定に適用されたモデルパラメータが用いられなくなり、モデルパラメータの学習精度を向上させることができる。
また、パラメータ学習機能144は、第1所定値より上位のスコアが導出されたモデルパラメータを採用するように学習し、かつ、第2所定値より下位のスコアが導出されたモデルパラメータを排除するように学習する。このように、カメラ10は、上位スコアのオブジェクトの推論に用いたモデルパラメータと、下位スコアのオブジェクトの推論に用いたモデルパラメータとを組み合わせて学習することで、モデルパラメータの学習精度をより一層向上させることができる。
以上、図面を参照しながら各種の実施形態について説明したが、本発明はかかる例に限定されないことは言うまでもない。当業者であれば、特許請求の範囲に記載された範疇内において、各種の変更例又は修正例に想到し得ることは明らかであり、それらについても当然に本発明の技術的範囲に属するものと了解される。また、発明の趣旨を逸脱しない範囲において、上述実施の形態における各構成要素を任意に組み合わせてもよい。
例えば、上述した実施の形態では、監視システムは、泥棒等の不審者を発見・追跡する、防犯用の監視システムに適用される場合を示したが、無人自動化(FA化)された製造ラインにおける製品検査用の監視システム等に適用されてもよい。
本開示は、ネットワーク上のトラフィックの増大を抑制し、複数のカメラに接続されるサーバの処理負荷の軽減を支援することができる監視システムとして有用である。
5 監視システム
10,10A,10B,10C カメラ
11 レンズ
12 イメージセンサ
13 信号処理部
14 処理実行部
15 リソース監視部
16 ネットワークI/F
17 クロップエンコード部
30 サーバ
31 プロセッサ
32 メモリ
33 通信部
34 学習用DB
35 テーブルメモリ(メモリ)
36 操作部
37 表示部
50 レコーダ
150 デバイス
NW ネットワーク
P モデルパラメータ

Claims (21)

  1. サーバと、監視エリアに設置された複数のカメラとが互いに通信可能に接続された監視システムであって、
    前記サーバは、
    それぞれの前記カメラの処理能力に関する情報と、それぞれの前記カメラにより前記監視エリアの撮像により得られた撮像画像とを保持するメモリを有し、
    前記カメラの処理能力に関する情報に基づいて、それぞれの前記カメラにより得られる撮像画像に出現する少なくとも1つのオブジェクトの検出に関して前記カメラが実行する処理を前記カメラごとに決定し、決定された前記処理の実行指示を前記カメラごとに送信し、
    それぞれの前記カメラは、前記サーバから送信された前記処理の実行指示に基づいて、前記実行指示に対応する処理を実行する、
    監視システム。
  2. 前記処理は、前記撮像画像に出現する少なくとも1つのオブジェクトの検出に用いるパラメータを学習する学習である、
    請求項1に記載の監視システム。
  3. 前記サーバは、前記複数のカメラに対し、前記学習の実行指示をそれぞれ送信し、
    前記複数のカメラは、それぞれ前記学習の実行指示に従って、前記学習を実行し、
    前記サーバは、前記複数のカメラにより実行された前記学習の結果を受信する、
    請求項2に記載の監視システム。
  4. 前記サーバは、前記学習を実行するとともに、前記複数のカメラに対し、前記学習の実行指示をそれぞれ送信し、
    前記複数のカメラは、それぞれ前記学習の実行指示に従って、前記学習を実行し、
    前記サーバは、前記複数のカメラにより実行された前記学習の結果を受信する、
    請求項2に記載の監視システム。
  5. 前記サーバは、前記学習の結果を、前記複数のカメラにそれぞれ送信し、
    前記複数のカメラは、前記サーバから送信された前記学習の結果を共有する、
    請求項3又は4に記載の監視システム。
  6. 前記複数のカメラのうち一部の複数のカメラは、同一の設置状況で設置され、
    前記サーバは、前記学習の結果を、前記一部の複数のカメラにそれぞれ送信し、
    前記一部の複数のカメラは、前記サーバから送信された前記学習の結果を共有する、
    請求項5に記載の監視システム。
  7. 前記サーバは、前記カメラにより検出された前記オブジェクトの検出数に応じて、前記学習の処理量を制御する、
    請求項2に記載の監視システム。
  8. 前記サーバは、前記カメラにより検出された前記オブジェクトの検出の正報の数に応じて、前記カメラにおける前記学習の処理量を制御する、
    請求項7に記載の監視システム。
  9. 前記サーバは、前記カメラにより検出された前記オブジェクトの検出の誤報の数に応じて、前記カメラにおける前記学習の処理量を制御する、
    請求項7に記載の監視システム。
  10. 前記サーバは、前記カメラの処理能力に関する情報に応じて、前記カメラにおける前記学習の処理量を制御する、
    請求項2に記載の監視システム。
  11. 前記サーバは、前記監視システムを構成する前記サーバ及び前記複数のカメラのそれぞれの処理能力に関する情報を前記メモリに保持し、前記サーバ及び前記複数のカメラのそれぞれの処理能力に関する情報に応じて、前記学習の処理量を制御する、
    請求項2に記載の監視システム。
  12. 前記処理は、前記撮像画像に出現する少なくとも1つのオブジェクトの検出に用いるパラメータを学習する学習と、前記撮像画像に出現する少なくとも1つのオブジェクトを検出する検出と、前記検出によって検出された少なくとも1つのオブジェクトを分析する分析と、を含む、
    請求項1に記載の監視システム。
  13. 前記サーバは、前記複数のカメラのうち、他のカメラと比べて相対的に処理能力の高い少なくとも1つのカメラに対し、前記メモリに保持される前記撮像画像を送信し、前記学習の実行指示を行う、
    請求項12に記載の監視システム。
  14. 前記サーバは、前記複数のカメラのうち、他のカメラと比べて相対的に処理能力の高い少なくとも1つのカメラに対し、前記メモリに保持される前記撮像画像を送信し、前記検出の実行指示を行う、
    請求項12に記載の監視システム。
  15. 前記サーバは、前記複数のカメラのうち、他のカメラと比べて相対的に処理能力の高い少なくとも1つのカメラに対し、前記メモリに保持される前記撮像画像を送信し、前記分析の実行指示を行う、
    請求項12に記載の監視システム。
  16. 前記処理は、前記撮像画像に出現する少なくとも1つのオブジェクトを検出する検出であり、
    前記サーバは、前記検出の結果を、前記複数のカメラにそれぞれ送信し、
    前記複数のカメラは、前記検出の結果を共有する、
    請求項1に記載の監視システム。
  17. 前記サーバは、前記複数のカメラにより実行された学習の結果を統合する、
    請求項2に記載の監視システム。
  18. 前記複数のカメラのうち一部の複数のカメラは、同一の設置状況で設置され、
    前記サーバは、前記一部の複数のカメラにより実行された学習の結果を統合する、
    請求項17に記載の監視システム。
  19. 前記サーバは、前記一部の複数のカメラから、それぞれの前記カメラの設置状況に関する情報の通知を受信し、前記一部の複数のカメラにより実行された学習の結果を統合する、
    請求項18に記載の監視システム。
  20. 前記サーバ及び前記複数のカメラが、前記複数のカメラの処理能力に関する情報と前記複数のカメラの単価コストに関する情報とを共有する、
    請求項1に記載の監視システム。
  21. サーバと、監視エリアに設置された複数のカメラとが互いに通信可能に接続された監視システムを用いた監視方法であって、
    前記サーバは、
    それぞれの前記カメラの処理能力に関する情報と、それぞれの前記カメラにより前記監視エリアの撮像により得られた撮像画像とをメモリに保持し、
    前記カメラの処理能力に関する情報に基づいて、それぞれの前記カメラにより得られる撮像画像に出現する少なくとも1つのオブジェクトの検出に関して前記カメラが実行する処理を前記カメラごとに決定し、決定された前記処理の実行指示を前記カメラごとに送信し、
    それぞれの前記カメラは、前記サーバから送信された前記処理の実行指示に基づいて、前記実行指示に対応する処理を実行する、
    監視方法。
JP2017108164A 2017-05-31 2017-05-31 監視システム及び監視方法 Active JP6989294B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017108164A JP6989294B2 (ja) 2017-05-31 2017-05-31 監視システム及び監視方法
US15/987,814 US10769448B2 (en) 2017-05-31 2018-05-23 Surveillance system and surveillance method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017108164A JP6989294B2 (ja) 2017-05-31 2017-05-31 監視システム及び監視方法

Publications (2)

Publication Number Publication Date
JP2018205900A true JP2018205900A (ja) 2018-12-27
JP6989294B2 JP6989294B2 (ja) 2022-01-05

Family

ID=64957789

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017108164A Active JP6989294B2 (ja) 2017-05-31 2017-05-31 監視システム及び監視方法

Country Status (1)

Country Link
JP (1) JP6989294B2 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113194298A (zh) * 2021-05-07 2021-07-30 浙江宇视科技有限公司 实现非智能相机图像结构化的方法、装置、系统及介质
JP2021111820A (ja) * 2020-01-07 2021-08-02 三菱電機株式会社 レコーダ、監視カメラ、監視システム、および、映像解析プログラム
JP7156655B1 (ja) 2022-06-29 2022-10-19 アースアイズ株式会社 監視システム、監視方法、及び、監視システム用の画像認識装置の学習方法
WO2023199729A1 (ja) * 2022-04-14 2023-10-19 株式会社Nttドコモ 画像認識装置
WO2023234040A1 (ja) * 2022-06-03 2023-12-07 パナソニックIpマネジメント株式会社 学習装置および学習方法
KR20230173293A (ko) 2022-06-17 2023-12-27 한화비전 주식회사 입력 영상에 대한 ai 연산 처리 방법 및 이를 이용한 카메라 장치

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012089929A (ja) * 2010-10-15 2012-05-10 Canon Inc 物体検知装置、物体検知方法、監視カメラシステム、およびプログラム
JP2016015116A (ja) * 2014-06-12 2016-01-28 パナソニックIpマネジメント株式会社 画像認識方法、カメラシステム
WO2016136196A1 (ja) * 2015-02-26 2016-09-01 日本電気株式会社 処理装置、処理装置の制御方法、及び、記録媒体
JP2016191973A (ja) * 2015-03-30 2016-11-10 日本電気株式会社 情報転送装置、学習システム、情報転送方法及びプログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012089929A (ja) * 2010-10-15 2012-05-10 Canon Inc 物体検知装置、物体検知方法、監視カメラシステム、およびプログラム
JP2016015116A (ja) * 2014-06-12 2016-01-28 パナソニックIpマネジメント株式会社 画像認識方法、カメラシステム
WO2016136196A1 (ja) * 2015-02-26 2016-09-01 日本電気株式会社 処理装置、処理装置の制御方法、及び、記録媒体
JP2016191973A (ja) * 2015-03-30 2016-11-10 日本電気株式会社 情報転送装置、学習システム、情報転送方法及びプログラム

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021111820A (ja) * 2020-01-07 2021-08-02 三菱電機株式会社 レコーダ、監視カメラ、監視システム、および、映像解析プログラム
JP7430063B2 (ja) 2020-01-07 2024-02-09 三菱電機株式会社 レコーダ、監視カメラ、監視システム、および、映像解析プログラム
CN113194298A (zh) * 2021-05-07 2021-07-30 浙江宇视科技有限公司 实现非智能相机图像结构化的方法、装置、系统及介质
CN113194298B (zh) * 2021-05-07 2023-04-07 浙江宇视科技有限公司 实现非智能相机图像结构化的方法、装置、系统及介质
WO2023199729A1 (ja) * 2022-04-14 2023-10-19 株式会社Nttドコモ 画像認識装置
WO2023234040A1 (ja) * 2022-06-03 2023-12-07 パナソニックIpマネジメント株式会社 学習装置および学習方法
KR20230173293A (ko) 2022-06-17 2023-12-27 한화비전 주식회사 입력 영상에 대한 ai 연산 처리 방법 및 이를 이용한 카메라 장치
JP7156655B1 (ja) 2022-06-29 2022-10-19 アースアイズ株式会社 監視システム、監視方法、及び、監視システム用の画像認識装置の学習方法
JP2024004972A (ja) * 2022-06-29 2024-01-17 アースアイズ株式会社 監視システム、監視方法、及び、監視システム用の画像認識装置の学習方法

Also Published As

Publication number Publication date
JP6989294B2 (ja) 2022-01-05

Similar Documents

Publication Publication Date Title
JP2018207222A (ja) カメラ及びパラメータ登録方法
US10769448B2 (en) Surveillance system and surveillance method
JP6989294B2 (ja) 監視システム及び監視方法
US11483370B2 (en) Preprocessing sensor data for machine learning
US11222239B2 (en) Information processing apparatus, information processing method, and non-transitory computer-readable storage medium
EP3924845A1 (en) Responding to machine learning requests from multiple clients
US11069214B2 (en) Event entity monitoring network and method
US10366595B2 (en) Surveillance method and system based on human behavior recognition
US20150262068A1 (en) Event detection apparatus and event detection method
US11631306B2 (en) Methods and system for monitoring an environment
WO2021061341A1 (en) Method and system for facilitating improved training of a supervised machine learning process
US20240046701A1 (en) Image-based pose estimation and action detection method and apparatus
KR101944374B1 (ko) 이상 개체 검출 장치 및 방법, 이를 포함하는 촬상 장치
CN114218992A (zh) 异常对象的检测方法及相关装置
DE102022201786A1 (de) System und verfahren für multimodales neurosymbolisches szenenverständnis
US20230115987A1 (en) Data adjustment system, data adjustment device, data adjustment method, terminal device, and information processing apparatus
KR102424098B1 (ko) 딥러닝을 이용한 드론 검출 장치 및 방법
GB2585919A (en) Method and system for reviewing and analysing video alarms
KR20210041328A (ko) 인공지능 기반 얼굴 인식 장치 및 방법
KR102658563B1 (ko) 영상 감시장치, 영상 분석 서버장치 및 그 학습 방법들
Delahoz et al. A deep-learning-based floor detection system for the visually impaired
KR20220162351A (ko) 지능형 cctv 및 이를 이용하는 감시시스템
Kim et al. An intelligent collaboration framework between edge camera and video analysis system
US11983909B2 (en) Responding to machine learning requests from multiple clients
JP2020077337A (ja) 画像監視システム

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20190731

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20191205

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200312

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20201224

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210406

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210607

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211116

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211202

R150 Certificate of patent or registration of utility model

Ref document number: 6989294

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350