JP2024004972A - 監視システム、監視方法、及び、監視システム用の画像認識装置の学習方法 - Google Patents
監視システム、監視方法、及び、監視システム用の画像認識装置の学習方法 Download PDFInfo
- Publication number
- JP2024004972A JP2024004972A JP2022104908A JP2022104908A JP2024004972A JP 2024004972 A JP2024004972 A JP 2024004972A JP 2022104908 A JP2022104908 A JP 2022104908A JP 2022104908 A JP2022104908 A JP 2022104908A JP 2024004972 A JP2024004972 A JP 2024004972A
- Authority
- JP
- Japan
- Prior art keywords
- information
- monitoring
- unit
- client
- server
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012544 monitoring process Methods 0.000 title claims abstract description 294
- 238000000034 method Methods 0.000 title claims abstract description 71
- 238000012549 training Methods 0.000 title claims description 18
- 238000013135 deep learning Methods 0.000 claims abstract description 46
- 230000033001 locomotion Effects 0.000 claims abstract description 38
- 238000000605 extraction Methods 0.000 claims abstract description 32
- 238000003384 imaging method Methods 0.000 claims abstract description 21
- 239000000284 extract Substances 0.000 claims abstract description 10
- 206010042635 Suspiciousness Diseases 0.000 claims description 133
- 238000013528 artificial neural network Methods 0.000 claims description 15
- 238000012545 processing Methods 0.000 abstract description 46
- 238000004891 communication Methods 0.000 abstract description 24
- 230000010365 information processing Effects 0.000 description 17
- 238000010586 diagram Methods 0.000 description 16
- 230000006399 behavior Effects 0.000 description 13
- 230000006870 function Effects 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 5
- 230000001934 delay Effects 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 3
- 102220475756 Probable ATP-dependent RNA helicase DDX6_S30A_mutation Human genes 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 230000002265 prevention Effects 0.000 description 2
- 206010000117 Abnormal behaviour Diseases 0.000 description 1
- 206010038743 Restlessness Diseases 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 230000001737 promoting effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
Images
Landscapes
- Closed-Circuit Television Systems (AREA)
Abstract
Description
前記不審度判定ステップを、前記サーバを構成する不審度判定部に実行させる、
監視システム用のプログラム。
本発明の監視システムは、店舗や工事現場等において監視対象領域を撮影する撮影部と、撮影部が撮影した監視画像の一次的な処理を行う情報処理端末(クライアント)と、個々のクライアントからアップロードされた画像情報を、ディープラーニング型の画像認識装置により認識することによって監視対象者の不審度を判定する処理を行うサーバとによって構成される監視システム全般に広く適用することができる技術である。
図1は、本発明の監視システムの実施形態の一つである監視システム10の基本構成を示すブロック図であり、図2は、監視システム10の基本動作を示すシステム概念図であり、監視システム10において、ネットワークを通じてアップロード或いはダウンロードされるデータの説明に供する図面である。これらの各図に示す通り、監視システム10は、監視対象領域を撮影し、それによって得た監視画像の画像データをクライアント2に送信する撮影部1、監視画像の画像データから監視対象人物に係る画像データを抽出してサーバ3にアップロードするクライアント2、及び、クライアント2からアップロードされた画像データを認識して監視対象人物の不審度を判定する処理を行うサーバ3が、ネットワークを介して相互に情報通信可能に接続されてなる情報処理システムである。上記各部分間の接続は、専用の通信ケーブルを利用した有線接続、或いは、有線LANによる接続とすることができる。又、有線接続に限らず、無線LANや近距離無線通信、携帯電話回線等の各種無線通信を用いた接続によって監視システム10を構成することもできる。
撮影部1は、各種の監視カメラによって構成することができる。具体的には、撮影した監視画像を、クライアント2で演算処理することができるようにデジタル形式の画像データに加工して、当該画像データをクライアント2に向けて出する機能を有するものであれば、既存の各種のデジタルカメラを特に制限なく撮影部1を構成する監視カメラとして用いることができる。
クライアント2は、撮影部1から送信された画像データから、サーバ3での画像認識処理に用いるデータを抽出する演算処理を行う情報処理装置である。クライアント2は、少なくとも、監視対象人物特定部21、骨格情報抽出部22、及び、不審度情報出力部23を備えている。又、上述の通り、座標設定部が更に備えられていてもよい。
監視対象人物特定部21は、一例として、図4に示すように、監視画像中の監視対象人物(人H)を自動的に検出して、これを監視対象として特定する処理を行う。このような監視対象人物の検出と特定は、例えば、背景差分によって監視領域内の「人」を検出することによって行うことができる。この背景差分は公知の技術であり、撮影部1を構成する監視カメラで取得された画像データと、事前に取得しておいた監視領域の背景画像との差分をとることで、動きのある監視対象を検出する技術である。
「ディープラーニングと画像認識、オペレーションズ・リサーチ」
(http://www.orsj.o.jp/archive2/or60-4/or60_4_198.pdf)
骨格情報抽出部22は、一例として図5~図8に示すように、監視対象人物特定部21において特定された監視対象人物(人H)について、複数の特徴点を連接する骨格線で構成されていて、監視対象人物の監視対象領域の3次元空間内における位置及び動作を特定可能な「骨格情報」を抽出する処理が行われる。尚、抽出した「骨格情報」は、ネットワークを通じてサーバ3にアップロードされる。
「Zhe Cao 他 Realtime Multi-Person 2D Human Pose Estimation using Part Affinity Fields, CVPR 2017」
不審度情報出力部23は、サーバ3において生成され、サーバ3からダウンロードした監視対象人物の不審度に係る情報である不審度情報を出力する。この情報の出力は、クライアント2が備える監視用モニタや、監視対象領域の警備を行う警備員等の所持する携帯情報端末の表示画面等である。
座標設定部は、撮影部1が撮影した監視画像中の床面又は地面に相当する位置を監視対象領域3次元空間内における実寸法と関連付けて特定可能な座標を設定する処理を行う。図9は、座標設定部が、監視画像中に設定した座標の一例を示す図である。図9では、説明のために、図4の監視画像中に、監視対象領域3次元空間内における実寸法において等間隔となるグリッドをY方向及びX方向に重ねて示した。尚、このようにグリッドで領域を分割することは、一例であって、グリッド分けをせずに連続した座標が設定されていてもよい。尚、座標設定部が設定する座標は、床面(又は地面)が無限に広がっていると仮定して設定されるので、これを説明するために、あえて壁面や陳列棚等に対してもグリッドを重ねて表示した。ここで、2次元画像である監視画像では、監視対象領域3次元空間内における実寸法が同じであっても、近くの位置よりも遠くの位置の方が小さく見える。よって、設定された座標において、上記実寸法上で等間隔のグリッドは、遠方の方が小さくなるように設定される。このように、座標設定部が設定する座標は、監視対象領域3次元空間内における実際の位置(実寸法、実距離)と関連付けられている。
サーバ3は、クライアント2からアップロードされた監視対象人物の骨格情報と、予めサーバ内に記憶されている監視対象領域の背景画像情報から、監視対象人物の不審度を判定する処理を行う情報処理装置である。サーバ3は、少なくとも、監視対象領域の背景画像情報を記憶する背景画像記憶部31と、ディープラーニング型の画像認識装置である不審度判定部32を備えている。又、サーバ3には、クライアント2において抽出された大量の骨格情報を、不審度判定部32を構成する画像認識装置に教師データとして入力することによって当該画像認識装置の備える多層式ニューラルネットワークに学習をさせる学習支援部33が更に備えられていることが好ましい。
背景画像記憶部31は、監視対象領域毎に異なる監視画像の背景画像情報を記憶する。監視画像の背景画像とは、例えば図4に示す監視画像における図9に示すような画像のことを言う。このように、背景画像は、監視対象領域内に恒常的に設置されている什器等の構造物を含み、監視対象領域に出入りし領域内を移動する監視対象人物を含まない背景部分の画像のことを言う。又、「背景画像情報」には、背景画像の画像データに加えて、「監視画像中の床面又は地面に相当する位置を監視対象領域3次元空間内における実寸法と関連付けて特定可能な座標」が設定されていることが好ましい。背景画像記憶部31は、このような座標が設定されている背景画像の画像データを登録可能な各種の情報記憶装置等により構成することができる。
不審度判定部32は、ディープラーニング型の画像認識装置であって、クライアント2からアップロードされた骨格情報と、背景画像記憶部31に予め記憶されている背景画像情報と、を入力することにより、監視対象人物の背景に対する動作を認識し、その不審度を判定する。
学習支援部33は、図11に示すように、クライアント2からアップロードされた骨格情報と、当該骨格情報に対応する背景情報であって、背景画像記憶部31に記憶されている背景情報とを、「教師データ」として不審度判定部32を構成するディープラーニング型の画像認識装置に入力することによって、当該画像認識装置の備える多層式ニューラルネットワークに学習をさせる。
本発明の監視方法は、上述の監視システム10を用いて行うことができる。この監視方法においては、以下に詳細を説明する、監視撮影ステップS10、監視対象人物特定ステップS20、骨格情報抽出ステップS30、不審度判定ステップS40、及び、不審度情報出力ステップS50が、順次行われる(図10参照)。
監視撮影ステップS10は、撮影部1が、監視対象領域の撮影を行う手順である。ここで、この撮影は、静止画の撮影を所定間隔で連続して行い、撮影される画像の連続として後述する監視動作を行うが、撮影間隔を非常に短くすることにより、実質的には、動画撮影として、監視動作を行っているものと捉えることもできる。
監視対象人物特定ステップS20は、クライアント2において行われる手順であり、クライアント2を構成する監視対象人物特定部21が、撮影部1が撮影した監視画像から監視対象人物を検出して特定する処理が行われる。監視対象人物特定部21が、撮影部1が撮影した監視画像中の監視対象人物を検出して特定したか否かについて判断が行われ、監視対象人物を検出して特定した場合(S20、Yes)には、骨格情報抽出ステップS30へ進み、監視対象が検出されていない場合(S20、No)には、監視撮影ステップS10へ戻り、監視動作を継続する。
骨格情報抽出ステップS30もクライアント2において行われる手順であり、クライアント2を構成する骨格情報抽出部22が、監視対象人物特定ステップS20で検出され特定された監視対象人物について、複数の特徴点とそれらの複数の特徴点を連接する骨格線とで構成されていて監視対象人物の監視画像中における位置及び動作を特定可能な骨格情報を抽出する。
不審度判定ステップS40はサーバ3において行われる手順であり、サーバ3を構成する不審度判定部32に、クライアントからアップロードされた骨格情報と、サーバ3側に予め記憶されている監視対象領域の背景画像情報と、を入力して、監視対象人物の不審度を判定する。不審度判定部32が、監視対象の運動の不審度が高い(異常行動を行っている)と判断した場合(S40、Yes)には、不審度情報出力ステップS50へ進み、監視対象の運動の不審度が低い(異常行動を行っていない)と判断した場合(S40、No)には、監視撮影ステップS10へ戻る。
不審度情報出力ステップS50はクライアント2において行われる手順であり、サーバ3において不審度判定部32が、不審行動を検知した場合に監視者に不審行動が検知されたことを通知する手順である。
学習ステップは、サーバ3を構成する学習支援部33が、クライアント2からアップロードされた骨格情報と、当該骨格情報に対応する背景情報であって、背景画像記憶部31に記憶されている背景情報とを、教師データとして不審度判定部32を構成するディープラーニング型の画像認識装置に入力することによって、当該画像認識装置の備える多層式ニューラルネットワークに学習をさせる手順である。このような態様で多層式ニューラルネットワークの追加学習、又は、再学習を行うことにより、ネットワーク上で伝送される通信量の増大を抑えながら、ディープラーニング型の画像認識装置の認識力の弱点を効率よく補強することができる。
本発明に係る「監視システム用画像認識装置の学習方法」は、撮影部と、撮影部が撮影した監視画像の一次的な処理を行う情報処理端末(クライアント)と、個々のクライアントからアップロードされた画像情報を機械学習型の画像認識装置により認識することによって監視対象者の不審度を判定する処理を行うサーバとによって構成される監視システム全般において、多層式ニューラルネットワークを備えるディープラーニング型の画像認識装置の学習を行う方法として広く適用可能な学習方法である。この学習方法は、教師データとして用いる監視対象人物の動作に係る画像データがデータ量の少ない骨格情報としてアップロードされ、尚且つ、背景画像に係る情報は予めサーバ側に記憶しておく手順とされていることによって、ネットワーク上で伝送される通信量の増大を抑えながら、大量の教師データを学習させることができる。又、教師データとして用いる監視対象人物の動作に係る画像データが骨格情報の形に加工されているためプライバシー保護の観点からも好ましいプロセスとなっている。
本発明の監視システムの第2の実施形態は、撮影部1、クライアント2と、サーバ3とがネットワーク上に接続されている監視システムである点、クライアント2は、少なくとも、監視対象人物特定部21と不審度情報出力部23とを備えている点、及び、サーバ3は、少なくとも背景画像記憶部31と不審度判定部32とを備えている点おいて、上述した監視システム10(第1の実施形態)と同一の構成である。但し、この第2の実施形態に係るは、第1の実施形態における骨格情報抽出部22に対応する構成としてアバター生成部22Aを備える。このアバター生成部22Aは、例えば、図14に示すように、単色の平面図形で構成されていることにより、監視対象人物とされた人Hの個人の特定は視認不可能に加工されていて、監視対象人物の位置を特定可能な画像データであるアバターa(a´a´´a´´´)を生成する。
2 クライアント
21 監視対象人物特定部
22 骨格情報抽出部
22A アバター生成部
23 不審度情報出力部
3 サーバ
31 背景画像記憶部
32 不審度判定部
33 学習支援部
10 監視システム
100、200 監視対象領域
S10 監視撮影ステップ
S20 監視対象人物特定ステップ
S30 骨格情報抽出ステップ
S30A アバター生成ステップ
S40 不審度判定ステップ
S50 不審度情報出力ステップ
学習支援部33は、図11に示すように、クライアント2からアップロードされた骨格情報と、当該骨格情報に対応する背景画像情報であって、背景画像記憶部31に記憶されている背景画像情報とを、「教師データ」として不審度判定部32を構成するディープラーニング型の画像認識装置に入力することによって、当該画像認識装置の備える多層式ニューラルネットワークに学習をさせる。
学習ステップは、サーバ3を構成する学習支援部33が、クライアント2からアップロードされた骨格情報と、当該骨格情報に対応する背景画像情報であって、背景画像記憶部31に記憶されている背景画像情報とを、教師データとして不審度判定部32を構成するディープラーニング型の画像認識装置に入力することによって、当該画像認識装置の備える多層式ニューラルネットワークに学習をさせる手順である。このような態様で多層式ニューラルネットワークの追加学習、又は、再学習を行うことにより、ネットワーク上で伝送される通信量の増大を抑えながら、ディープラーニング型の画像認識装置の認識力の弱点を効率よく補強することができる。
Claims (12)
- 監視対象領域を撮影する撮影部と、クライアントと、サーバと、からなる監視システムであって、
前記クライアントは、前記撮影部が撮影した監視画像から監視対象人物を検出して特定することができる監視対象人物特定部と、複数の特徴点を連接する骨格線で構成されていて前記監視対象人物の位置及び動作を特定可能な骨格情報を抽出して、前記サーバにアップロードする骨格情報抽出部と、前記サーバからダウンロードした前記監視対象人物の不審度を出力する不審度情報出力部と、を備え、
前記サーバは、前記監視対象領域の背景画像情報を記憶する背景画像記憶部と、ディープラーニング型の画像認識装置であって、前記クライアントからアップロードされた前記骨格情報と、前記背景画像記憶部に予め記憶されている前記背景画像情報と、を入力することにより、前記監視対象人物の不審度を判定する不審度判定部と、を備える、
監視システム。 - 前記サーバが、前記クライアントからアップロードされた前記骨格情報と、該骨格情報に対応する背景情報であって、前記背景画像記憶部に記憶されている背景情報とを、教師データとして前記画像認識装置に入力することによって、前記画像認識装置の備える多層式ニューラルネットワークに学習をさせる学習支援部を備える、
請求項1に記載の監視システム。 - 複数の前記クライアントと、
前記サーバと、からなり、
前記学習支援部は、複数の前記クライアントからアップロードされた前記骨格情報を、前記教師データとして前記画像認識装置に入力する、
請求項2に記載の監視システム。 - 前記撮影部が2次元情報のみを有する監視画像を撮影可能な単眼カメラであって、
前記クライアントが、前記監視画像中の位置を前記監視対象領域である3次元空間内における実際の位置と関連付けて特定可能な座標を設定する座標設定部を、更に備え、
前記骨格情報抽出部は、前記座標設定部が設定した前記座標に基づいて、前記特徴点の前記監視対象領域3次元空間内における位置及び動きを前記骨格情報として抽出する、
請求項1から3の何れかに記載の監視システム。 - 請求項3に記載の監視システムにおいて、
複数の前記クライアントからアップロードされた前記骨格情報を、前記教師データとして前記画像認識装置に入力して学習をさせる、監視システム用画像認識装置の学習方法。 - 監視対象領域を撮影する撮影部と、クライアントと、サーバと、からなる監視システムを用いる監視方法であって、
前記撮影部が、監視対象領域を撮影する監視撮影ステップと、
前記クライアントを構成する監視対象人物特定部が、前記撮影部が撮影した監視画像から監視対象人物を検出して特定する、監視対象人物特定ステップと、
前記クライアントを構成する骨格情報抽出部が、複数の特徴点を連接する骨格線で構成されていて前記監視対象人物の位置及び動作を特定可能な骨格情報を抽出する、骨格情報抽出ステップと、
ディープラーニング型の画像認識装置であって前記サーバを構成する不審度判定部が、前記クライアントからアップロードされた前記骨格情報と、前記サーバを構成する背景画像記憶部に予め記憶されている背景画像情報から前記監視対象人物の不審度を判定する、不審度判定ステップと、
前記クライアントを構成する不審度情報出力部が、前記サーバからダウンロードした不審度情報を出力する、不審度情報出力ステップと、を備える、
監視方法。 - 前記サーバを構成する学習支援部が、前記クライアントからアップロードされた前記骨格情報と、該骨格情報に対応する背景情報であって、前記背景画像記憶部に記憶されている背景情報とを、教師データとして前記画像認識装置に入力することによって、前記画像認識装置の備える多層式ニューラルネットワークに学習をさせる、
請求項6に記載の監視方法。 - 2次元情報のみを有する監視画像を撮影可能な単眼カメラであって、
前記監視撮影ステップが行われた後に、前記クライアントを構成する座標設定部が、前記監視画像中の位置を前記監視対象領域である3次元空間内における実際の位置と関連付けて特定可能な座標を設定する座標設定ステップを、更に備え、
前記骨格情報抽出ステップにおいては、前記座標設定ステップにおいて設定された前記座標に基づいて、前記特徴点の前記監視対象領域3次元空間内における位置及び動きを前記骨格情報として抽出する、
請求項6又は7に記載の監視方法。 - 請求項6又は7に記載の監視方法において、
前記監視対象人物特定ステップ、骨格情報抽出ステップ、及び、前記不審度情報出力ステップを、前記クライアントを構成する前記監視対象人物特定部、前記骨格情報抽出部、及び、前記不審度情報出力部に実行させ、
前記不審度判定ステップを、前記サーバを構成する不審度判定部に実行させる、
監視システム用のプログラム。 - 監視対象領域を撮影する撮影部と、クライアントと、サーバと、からなる監視システムであって、
前記クライアントは、前記撮影部が撮影した監視画像から監視対象人物を検出して特定することができる監視対象人物特定部と、単色の平面図形で構成されていて前記監視対象人物の個人の特定は視認不可能に加工されていて、前記監視対象人物の位置を特定可能なアバターを生成するアバター生成部と、前記サーバからダウンロードした前記監視対象人物の不審度を出力する不審度情報出力部と、を備え、
前記サーバは、前記監視対象領域の背景画像情報を記憶する背景画像記憶部と、ディープラーニング型の画像認識装置であって、前記クライアントからアップロードされた前記アバターの位置情報と、前記背景画像記憶部に予め記憶されている前記背景画像情報と、を入力することにより、前記監視対象人物の不審度を判定する不審度判定部と、を備える、
監視システム。 - 監視対象領域を撮影する撮影部と、クライアントと、サーバと、からなる監視システムを用いる監視方法であって、
前記撮影部が、監視対象領域を撮影する監視撮影ステップと、
前記クライアントを構成する監視対象人物特定部が、前記撮影部が撮影した監視画像から監視対象人物を検出して特定する、監視対象人物特定ステップと、
前記クライアントを構成するアバター生成部が、単色の平面図形で構成されていて前記監視対象人物の個人の特定は視認不可能に加工されていて、前記監視対象人物の位置を特定可能なアバターを生成する、アバター生成ステップと、
ディープラーニング型の画像認識装置であって前記サーバを構成する不審度判定部が、前記クライアントからアップロードされた前記アバターの位置情報及び前記監視対象領域の背景画像情報から、前記監視対象人物の不審度を判定する、不審度判定ステップと、
前記クライアントを構成する不審度情報出力部が、前記サーバからダウンロードした不審度情報を出力する、不審度情報出力ステップと、を備える、
監視方法。 - 請求項11に記載の監視方法において、
前記監視対象人物特定ステップ、アバター生成ステップ、及び、前記不審度情報出力ステップを、前記クライアントを構成する前記監視対象人物特定部、前記アバター生成部、及び、前記不審度情報出力部に実行させ、
前記不審度判定ステップを、前記サーバを構成する不審度判定部に実行させる、
監視システム用のプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022104908A JP7156655B1 (ja) | 2022-06-29 | 2022-06-29 | 監視システム、監視方法、及び、監視システム用の画像認識装置の学習方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022104908A JP7156655B1 (ja) | 2022-06-29 | 2022-06-29 | 監視システム、監視方法、及び、監視システム用の画像認識装置の学習方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP7156655B1 JP7156655B1 (ja) | 2022-10-19 |
JP2024004972A true JP2024004972A (ja) | 2024-01-17 |
Family
ID=83688453
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022104908A Active JP7156655B1 (ja) | 2022-06-29 | 2022-06-29 | 監視システム、監視方法、及び、監視システム用の画像認識装置の学習方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7156655B1 (ja) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017158105A (ja) * | 2016-03-03 | 2017-09-07 | 沖電気工業株式会社 | 情報処理装置、情報処理方法、プログラム、及び情報処理システム |
JP2018205900A (ja) * | 2017-05-31 | 2018-12-27 | パナソニックIpマネジメント株式会社 | 監視システム及び監視方法 |
JP2019009752A (ja) * | 2017-06-20 | 2019-01-17 | 一般社団法人 日本画像認識協会 | 画像処理装置 |
WO2020189313A1 (ja) * | 2019-03-20 | 2020-09-24 | アースアイズ株式会社 | 監視装置、監視システム、及び、監視方法 |
JP2022043974A (ja) * | 2020-09-04 | 2022-03-16 | 株式会社日立製作所 | 行動認識装置、学習装置、および行動認識方法 |
-
2022
- 2022-06-29 JP JP2022104908A patent/JP7156655B1/ja active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017158105A (ja) * | 2016-03-03 | 2017-09-07 | 沖電気工業株式会社 | 情報処理装置、情報処理方法、プログラム、及び情報処理システム |
JP2018205900A (ja) * | 2017-05-31 | 2018-12-27 | パナソニックIpマネジメント株式会社 | 監視システム及び監視方法 |
JP2019009752A (ja) * | 2017-06-20 | 2019-01-17 | 一般社団法人 日本画像認識協会 | 画像処理装置 |
WO2020189313A1 (ja) * | 2019-03-20 | 2020-09-24 | アースアイズ株式会社 | 監視装置、監視システム、及び、監視方法 |
JP2022043974A (ja) * | 2020-09-04 | 2022-03-16 | 株式会社日立製作所 | 行動認識装置、学習装置、および行動認識方法 |
Also Published As
Publication number | Publication date |
---|---|
JP7156655B1 (ja) | 2022-10-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6534499B1 (ja) | 監視装置、監視システム、及び、監視方法 | |
US8639020B1 (en) | Method and system for modeling subjects from a depth map | |
JP6590609B2 (ja) | 画像解析装置及び画像解析方法 | |
CN105243395B (zh) | 一种人体图像比对方法和装置 | |
CN107079093B (zh) | 校准装置 | |
KR101891887B1 (ko) | 실시간 영상을 이용하여 위험 상황을 예측하기 위한 영상 처리 방법, 장치 및 그를 이용하여 위험 상황을 예측하는 방법, 서버 | |
JP6352208B2 (ja) | 三次元モデル処理装置およびカメラ校正システム | |
JP6182607B2 (ja) | 映像監視システム、監視装置 | |
KR20190118619A (ko) | 보행자 추적 방법 및 전자 디바이스 | |
JP2011060058A (ja) | 撮影装置および監視システム | |
WO2016031313A1 (ja) | 体調検出装置、体調検出方法及び体調検出プログラム | |
JP2021077039A (ja) | 画像処理装置、画像処理方法、及びプログラム。 | |
JP2020087312A (ja) | 行動認識装置、行動認識方法及びプログラム | |
JP2019029747A (ja) | 画像監視システム | |
JP6336935B2 (ja) | 移動物体追跡装置 | |
JP2017191458A (ja) | 画像識別システム | |
JP2009301242A (ja) | 頭部候補抽出方法、頭部候補抽出装置、頭部候補抽出プログラムおよびそのプログラムを記録した記録媒体 | |
JP2017028688A (ja) | 画像管理装置、画像管理方法及びプログラム | |
JP2018180894A (ja) | 情報処理装置、情報処理方法及びプログラム | |
JP2021149687A (ja) | 物体認識装置、物体認識方法及び物体認識プログラム | |
JP7156655B1 (ja) | 監視システム、監視方法、及び、監視システム用の画像認識装置の学習方法 | |
JP2007109126A (ja) | 移動体分布推定装置、移動体分布推定方法及び移動体分布推定プログラム | |
JP6548306B2 (ja) | カメラの撮影画像に映る人物を追跡する画像解析装置、プログラム及び方法 | |
JP7152651B2 (ja) | プログラム、情報処理装置、及び情報処理方法 | |
JP6548683B2 (ja) | 対象物画像推定装置および対象物画像判定装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220629 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20220629 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220712 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220810 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220830 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220928 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7156655 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |