JP2016181020A - 画像処理装置、画像処理システム、画像処理方法及びプログラム - Google Patents

画像処理装置、画像処理システム、画像処理方法及びプログラム Download PDF

Info

Publication number
JP2016181020A
JP2016181020A JP2015059603A JP2015059603A JP2016181020A JP 2016181020 A JP2016181020 A JP 2016181020A JP 2015059603 A JP2015059603 A JP 2015059603A JP 2015059603 A JP2015059603 A JP 2015059603A JP 2016181020 A JP2016181020 A JP 2016181020A
Authority
JP
Japan
Prior art keywords
camera
person
unit
image processing
appearance state
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015059603A
Other languages
English (en)
Other versions
JP6984942B2 (ja
Inventor
正志 長田
Masashi Osada
正志 長田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2015059603A priority Critical patent/JP6984942B2/ja
Publication of JP2016181020A publication Critical patent/JP2016181020A/ja
Application granted granted Critical
Publication of JP6984942B2 publication Critical patent/JP6984942B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Abstract

【課題】不審人物が判っていない場合であっても不審人物を監視することができる画像処理装置を提供する。
【解決手段】画像処理装置は、出現状態判定部と、所定人物候補推定部と、を備える。前記出現状態判定部は、撮影された映像における人物の出現状態を判定する。前記所定人物候補推定部は、前記出現状態に基づいて所定人物候補を推定する。
【選択図】図1

Description

本発明は、画像処理装置、画像処理システム、画像処理方法及びプログラムに関する。
マンション、一軒家、市街地などにおいて、防犯カメラの設置が増加している。
特許文献1には、関連する技術として、不審人物を監視する技術が記載されている。
特開2010−191620号公報
ところで、特許文献1に記載の技術は、予め不審人物が判っていることを前提としており、不審人物が判っていない場合には不審人物を監視することができなかった。
そこでこの発明は、上記の課題を解決することのできる画像処理装置、画像処理システム、画像処理方法及びプログラムを提供することを目的としている。
上記目的を達成するために、本発明は、撮影された映像における人物の出現状態を判定する出現状態判定部と、前記出現状態に基づいて所定人物候補を推定する所定人物候補推定部と、を備える画像処理装置である。
また、本発明は、カメラと、画像処理装置とを備え、前記カメラは、所定領域の画像を撮影し、前記画像処理装置は、撮影された映像における人物の出現状態を判定する出現状態判定部と、前記出現状態に基づいて所定人物候補を推定する所定人物候補推定部と、を備える画像処理システムである。
また、本発明は、撮影された映像における人物の出現状態を判定し、前記出現状態に基づいて所定人物候補を推定する、画像処理方法である。
また、本発明は、コンピュータを、撮影された映像における人物の出現状態を判定する出現状態判定手段、前記出現状態に基づいて所定人物候補を推定する所定人物候補推定手段、として機能させるプログラムである。
本発明の画像処理装置の処理により、不審人物などの指定した条件に基づく人物候補を特定することができる。
本発明の実施形態による画像処理装置の最小構成を示す図である。 本発明の第一の実施形態による画像処理システムの構成を示す図である。 本実施形態によるセンターシステムの構成を示す図である。 本実施形態による入力装置の構成を示す図である。 本実施形態による第一エッジ装置の構成を示す図である。 本実施形態による第二エッジ装置の構成を示す図である。 本実施形態による第三エッジ装置の構成を示す図である。 本実施形態による第一データテーブルを示す図である。 本実施形態による第二データテーブルを示す図である。 本実施形態による第三データテーブルを示す図である。 本実施形態による総合データテーブルを示す図である。 本実施形態による処理フローを示す第一の図である。 本実施形態による処理フローを示す第二の図である。 本発明の第一の実施形態による入力装置の構成を示す図である。
図1は、本発明の実施形態による画像処理装置100の最小構成を示す図である。
本発明の画像処理装置100は、図1に示すように、少なくとも出現状態判定部101と、所定人物候補推定部102と、を備える。
出現状態判定部101は、撮影された映像における人物の出現状態を判定する。人物の出現状態とは、例えば、映像において人物の出現回数が多い、人物が長時間出現する、頻繁に周囲を見回す等人物が不審な挙動をとるなど、人物の出現を示す結果である。
所定人物候補推定部102は、出現状態に基づいて所定人物候補を推定する。所定人物候補とは、例えば、万引き犯、不審購買者、ストーカーなどの人物である。
<第一の実施形態>
図2は、本発明の第一の実施形態による画像処理システム1の構成を示す図である。
まず、本発明の第一の実施形態による画像処理装置100を備える画像処理システム1について説明する。
本実施形態による画像処理システム1は、図2に示すように、センターシステム10、入力装置20、第一エッジ装置30a(情報処理装置)、第二エッジ装置30b(情報処理装置)、第三エッジ装置30c(情報処理装置)、第一カメラ装置40a、第二カメラ装置40b、第三カメラ装置40c、を備える。
なお、以下の説明では、第一エッジ装置30a、第二エッジ装置30b、第三エッジ装置30c、・・・、第nエッジ装置30n、・・・を総称してエッジ装置30と呼ぶ。また、第一カメラ装置40a、第二カメラ装置40b、第三カメラ装置40c、・・・、第nカメラ装置40n、・・・を総称してカメラ装置40と呼ぶ。
入力装置20は、例えば、スマートフォン、携帯電話、パーソナルコンピュータなどである。ユーザは、人物の特徴量である人物特徴量を抽出させるカメラを選択するカメラ選択情報を入力するカメラ選択情報入力操作を行う。なお、人物特徴量とは、例えば、顔、身長、性別、服装、持ち物など、人物を特定するための情報である。
ユーザは、人物特徴量の抽出を開始する開始指示を入力する開始指示入力操作を行う。入力装置20は、ユーザによる開始指示入力操作に基づいて、カメラ選択情報をセンターシステム10に送信する。
センターシステム10は、入力装置20からカメラ選択情報を受信する。センターシステム10は、入力したカメラ選択情報に基づいて、エッジ装置を特定する。
センターシステム10は、特定した第一エッジ装置30a、第二エッジ装置30b、及び、第三エッジ装置30cのそれぞれにカメラ選択情報と、人物特徴量の抽出の開始を指示する特徴量抽出開始指示とを送信する。
第一エッジ装置30a、第二エッジ装置30b、及び、第三エッジ装置30cのそれぞれは、センターシステム10からカメラ選択情報と人物特徴量抽出開始指示とを受信すると、カメラ選択情報が示すカメラを有するカメラ装置40からカメラ映像を取得する。そして、第一エッジ装置30a、第二エッジ装置30b、及び、第三エッジ装置30cのそれぞれは、取得したカメラ映像から人物特徴量を抽出する。第一エッジ装置30a、第二エッジ装置30b、及び、第三エッジ装置30cのそれぞれは、抽出した人物特徴量に対してインデックスを生成する。なお、インデックスは、例えば、カメラ選択情報を送信した入力装置20の識別子である入力装置ID(IDentifier)、人物特徴量毎に割り当てる人物特徴量の識別子である人物特徴量IDなどを含む情報である。第一エッジ装置30a、第二エッジ装置30b、及び、第三エッジ装置30cのそれぞれは、抽出した人物特徴量と共に生成したインデックスをセンターシステム10に送信する。
また、第一エッジ装置30a、第二エッジ装置30b、及び、第三エッジ装置30cのそれぞれは、抽出した人物特徴量と共に生成したインデックスを記憶部に記録する。また、第一エッジ装置30a、第二エッジ装置30b、及び、第三エッジ装置30cのそれぞれは、カメラ映像に生成したインデックスを付与し、カメラ映像を記憶部に記録する。
センターシステム10は、第一エッジ装置30a、第二エッジ装置30b、及び、第三エッジ装置30cのそれぞれからカメラ映像と共に人物特徴量とインデックスを受信すると、受信したカメラ映像と人物特徴量とインデックスを関連付けて記憶部に記録する。
また、ユーザは、不審人物の抽出の開始を指示する不審人物抽出開始指示を入力する不審人物抽出開始指示入力操作を行う。入力装置20は、ユーザによる不審人物抽出開始指示に基づいて、不審人物の抽出の開始をセンターシステム10に送信する。
センターシステム10は、不審人物などの人物候補と判定する人物候補判定条件を入力し、記憶部に記録している。なお、人物候補判定条件は、映像において人物の出現回数が多い、人物が長時間出現するなど、人物の出現を示す結果である出現状態を判定するための判定条件である。センターシステム10は、不審人物の抽出の開始を指示する不審人物抽出開始指示を入力すると、記憶部の記憶するカメラ映像と人物特徴量とインデックス、及び、出現状態に基づいて、不審人物を特定する。センターシステム10は、特定した不審人物についての不審人物特定結果を記憶部に記録する。
ユーザは、人物特徴量の抽出を終了する終了指示を入力する終了指示入力操作を行う。入力装置20は、ユーザによる終了指示入力操作に基づいて、終了指示をセンターシステム10に送信する。
センターシステム10は、入力装置20から終了指示を受信すると、人物特徴量の抽出の終了を示す特徴量抽出終了指示を第一エッジ装置30a、第二エッジ装置30b、及び、第三エッジ装置30cのそれぞれに送信する。
第一エッジ装置30a、第二エッジ装置30b、及び、第三エッジ装置30cのそれぞれは、センターシステム10から特徴量抽出終了指示を受信すると、カメラ映像における人物特徴量の抽出を終了する。
以上のように、本発明の実施形態による画像処理システム1では、ユーザの選択した領域におけるカメラ装置40は、映像を撮影する。エッジ装置30のそれぞれは、カメラ装置40が撮影した映像から人物特徴量を抽出する。センターシステム10は、カメラ装置40が抽出した人物特徴量を有する人物から、人物候補判定条件を用いて判定した出現状態を満たす人物を不審人物と特定する。
図3は、本実施形態によるセンターシステム10の構成を示す図である。
次に、本実施形態によるセンターシステム10の構成について説明する。
本実施形態によるセンターシステム10は、図3に示すように、画像処理装置100を備える。画像処理装置100は、出現状態判定部101と、所定人物候補推定部102と、通信部103と、制御部104と、カメラ選択部105と、記憶部106と、条件入力部107と、を備える。
出現状態判定部101は、人物候補判定条件に基づいて、撮影された映像における人物の出現状態を判定する。
所定人物候補推定部102は、撮影された映像における人物の出現状態に基づいて所定人物候補を推定する。例えば、所定人物候補推定部102は、センターシステム10がエッジ装置30のそれぞれから受信したカメラ映像と人物特徴量とインデックス、及び、出現状態に基づいて、出現状態を満足する人物特徴量を有するカメラ映像における人物を不審人物として特定する。
通信部103は、入力装置20及びエッジ装置30のそれぞれと情報の送受信を行う。
制御部104は、センターシステム10が行う処理に必要な種々の制御を行う。例えば、制御部104は、通信部103が行う情報の送受信を制御する。なお、以下の説明では、制御部104が通信部103の行う情報の送受信を制御していることを特に記載していない場合であっても、制御部104は、通信部103の行う情報の送受信を制御している。
カメラ選択部105は、出現状態判定部101が判定する撮影された映像における人物の出現状態を撮影するカメラを指定する。
記憶部106は、センターシステム10が行う種々の処理に必要な情報を記憶する。例えば、記憶部106は、センターシステム10がエッジ装置30のそれぞれから受信したカメラ映像と人物特徴量とインデックスを関連付けて記憶する。
条件入力部107は、人物候補判定条件を取得し、取得した人物候補判定条件を記憶部106に記録する。
図4は、本実施形態による入力装置20の構成を示す図である。
次に、本実施形態による入力装置20の構成について説明する。
本実施形態による入力装置20は、図4に示すように、通信部201と、情報入力部202と、表示制御部203と、を備える。
通信部201は、センターシステム10と情報の送受信を行う。
情報入力部202は、ユーザによる入力操作を検出し、検出した入力操作に基づく信号を出力する。例えば、情報入力部202は、ユーザによるカメラ選択情報入力操作を検出した場合、カメラ選択情報をセンターシステム10に送信する。また、例えば、情報入力部202は、ユーザによる開始指示入力操作を検出した場合、開始指示をセンターシステム10に送信する。また、例えば、情報入力部202は、ユーザによる終了指示入力操作を検出した場合、終了指示をセンターシステム10に送信する。
表示制御部203は、図示していない表示画面に表示する表示を制御する。例えば、表示制御部203は、入力装置20がセンターシステム10に送信する情報、及び、入力装置20がセンターシステム10から受信する情報を表示画面に表示する表示を制御する。
次に、本実施形態によるエッジ装置30の構成について説明する。
図5は、本実施形態による第一エッジ装置30aの構成を示す図である。
まず、本実施形態による第一エッジ装置30aの構成について説明する。
本実施形態による第一エッジ装置30aは、図5に示すように、第一通信部301aと、第一制御部302aと、第一カメラ制御部303aと、第一記憶部304aと、第一特徴量抽出部305aと、第一映像受信部306aと、第一カメラインターフェース307aと、を備える。
第一通信部301aは、センターシステム10及び第一カメラ装置40aのそれぞれと情報の送受信を行う。
第一制御部302aは、第一エッジ装置30aが行う処理に必要な種々の制御を行う。例えば、第一制御部302aは、第一通信部301aが行う情報の送受信を制御する。なお、以下の説明では、第一制御部302aが第一通信部301aの行う情報の送受信を制御していることを特に記載していない場合であっても、第一制御部302aは、第一通信部301aの行う情報の送受信を制御している。
第一カメラ制御部303aは、第一カメラインターフェース307aを介して第一カメラ装置40aに撮影を制御する撮影制御信号を送信する。
第一記憶部304aは、第一エッジ装置30aが行う処理に必要な種々の情報を記憶する。
第一特徴量抽出部305aは、カメラ選択部105が指定したカメラ装置40の備えるカメラが撮影した人物特徴量を抽出する。具体的には、第一映像受信部306aが第一カメラ装置40aから受信した映像を画像解析して、人物特徴量を抽出する。
第一映像受信部306aは、第一カメラ装置40aが撮影した映像を受信する。
第一カメラインターフェース307aは、第一エッジ装置30aと第一カメラ装置40aを繋ぐために第一エッジ装置30aが備えるインターフェースである。
図6は、本実施形態による第二エッジ装置30bの構成を示す図である。
次に、本実施形態による第二エッジ装置30bの構成について説明する。
本実施形態による第二エッジ装置30bは、図6に示すように、第二通信部301bと、第二制御部302bと、第二カメラ制御部303bと、第二記憶部304bと、第二特徴量抽出部305bと、第二映像受信部306bと、第二カメラインターフェース307bと、を備える。
第二通信部301bは、センターシステム10及び第二カメラ装置40bのそれぞれと情報の送受信を行う。
第二制御部302bは、第二エッジ装置30bが行う処理に必要な種々の制御を行う。例えば、第二制御部302bは、第二通信部301bが行う情報の送受信を制御する。なお、以下の説明では、第二制御部302bが第二通信部301bの行う情報の送受信を制御していることを特に記載していない場合であっても、第二制御部302bは、第二通信部301bの行う情報の送受信を制御している。
第二カメラ制御部303bは、第二カメラインターフェース307bを介して第二カメラ装置40bに撮影を制御する撮影制御信号を送信する。
第二記憶部304bは、第二エッジ装置30bが行う処理に必要な種々の情報を記憶する。
第二特徴量抽出部305bは、カメラ選択部105が指定したカメラ装置40の備えるカメラが撮影した人物特徴量を抽出する。具体的には、第二映像受信部306bが第二カメラ装置40bから受信した映像を画像解析して、人物特徴量を抽出する。
第二映像受信部306bは、第二カメラ装置40bが撮影した映像を受信する。
第二カメラインターフェース307bは、第二エッジ装置30bと第二カメラ装置40bを繋ぐために第二エッジ装置30bが備えるインターフェースである。
図7は、本実施形態による第三エッジ装置30cの構成を示す図である。
次に、本実施形態による第三エッジ装置30cの構成について説明する。
本実施形態による第三エッジ装置30cは、図7に示すように、第三通信部301cと、第三制御部302cと、第三カメラ制御部303cと、第三記憶部304cと、第三特徴量抽出部305cと、第三映像受信部306cと、第三カメラインターフェース307cと、を備える。
第三通信部301cは、センターシステム10及び第三カメラ装置40cのそれぞれと情報の送受信を行う。
第三制御部302cは、第三エッジ装置30cが行う処理に必要な種々の制御を行う。例えば、第三制御部302cは、第三通信部301cが行う情報の送受信を制御する。なお、以下の説明では、第三制御部302cが第三通信部301cの行う情報の送受信を制御していることを特に記載していない場合であっても、第三制御部302cは、第三通信部301cの行う情報の送受信を制御している。
第三カメラ制御部303cは、第三カメラインターフェース307cを介して第三カメラ装置40cに撮影を制御する撮影制御信号を送信する。
第三記憶部304cは、第三エッジ装置30cが行う処理に必要な種々の情報を記憶する。
第三特徴量抽出部305cは、カメラ選択部105が指定したカメラ装置40の備えるカメラが撮影した人物特徴量を抽出する。例えば、第三映像受信部306cが第三カメラ装置40cから受信した映像を画像解析して、顔、身長、性別、服装、持ち物などを抽出する。
第三映像受信部306cは、第三カメラ装置40cが撮影した映像を受信する。
第三カメラインターフェース307cは、第三エッジ装置30cと第三カメラ装置40cを繋ぐために第三エッジ装置30cが備えるインターフェースである。
次に、本実施形態によるカメラ装置40の構成について説明する。
カメラ装置40のそれぞれは、1つまたは複数のカメラを備える。本実施形態では、第一カメラ装置40aは、カメラ401a、カメラ402a及びカメラ403aを備えるものとする。また、第二カメラ装置40bは、カメラ401b、カメラ402b及びカメラ403bを備えるものとする。第三カメラ装置40cは、カメラ401c及びカメラ402cを備えるものとする。
次に、第一エッジ装置30a、第二エッジ装置30b、及び、第三エッジ装置30cのそれぞれが記憶するデータテーブルについて説明する。
図8は、本実施形態による第一データテーブルTBL1を示す図である。
第一記憶部304aは、第一特徴量抽出部305aが抽出した人物特徴量を第一データテーブルTBL1に記憶する。例えば、第一記憶部304aは、図8に示すように、第一特徴量抽出部305aがカメラ401a、カメラ402a、及び、カメラ403aのそれぞれの撮影した映像から抽出した人物特徴量を、カメラ毎に日時とインデックスとに関連付けて記憶する。なお、図8に示す第一データテーブルTBL1における捕捉日時とは、第一特徴量抽出部305aが人物特徴量を抽出している映像部分をカメラ401a、カメラ402a、及び、カメラ403aのそれぞれが撮影し始めた日時である。また、図8に示す第一データテーブルTBL1における解放日時とは、第一特徴量抽出部305aが人物特徴量を抽出している映像部分をカメラ401a、カメラ402a、及び、カメラ403aのそれぞれが撮影し終えた日時である。また、インデックスは、例えば、カメラ選択情報を送信した入力装置20の識別子である入力装置ID、人物特徴量毎に割り当てる人物特徴量の識別子である人物特徴量IDなどを含む情報である。
図9は、本実施形態による第二データテーブルTBL2を示す図である。
第二記憶部304bは、第二特徴量抽出部305bが抽出した人物特徴量を第二データテーブルTBL2に記憶する。例えば、第二記憶部304bは、図9に示すように、第二特徴量抽出部305bがカメラ401b、カメラ402b、及び、カメラ403bのそれぞれの撮影した映像から抽出した人物特徴量を、カメラ毎に日時とインデックスとに関連付けて記憶する。
図10は、本実施形態による第三データテーブルTBL3を示す図である。
第三記憶部304cは、第三特徴量抽出部305cが抽出した人物特徴量を第三データテーブルTBL3に記憶する。例えば、第三記憶部304cは、図10に示すように、第三特徴量抽出部305cがカメラ401c、及び、カメラ402cのそれぞれの撮影した映像から抽出した人物特徴量を、カメラ毎に日時とインデックスとに関連付けて記憶する。
次に、センターシステム10が記憶する総合データテーブルSTBLについて説明する。
図11は、本実施形態による総合データテーブルSTBLを示す図である。
記憶部106(人物特徴量蓄積部)は、第一特徴量抽出部305a、第二特徴量抽出部305b、及び、第三特徴量抽出部305cのそれぞれが抽出した人物特徴量を総合データテーブルSTBLに記憶する。例えば、記憶部106は、第一データテーブルTBL1、第二データテーブルTBL2、及び、第三データテーブルTBL3を1つのデータテーブルにまとめた、図11に示すような総合データテーブルSTBLを記憶する。
図12及び図13は、本実施形態による画像処理システム1の処理フローを示す図である。
次に、本実施形態による画像処理システム1の処理について説明する。
ここでは、画像処理システム1が、同系列の複数店舗において不審人物を監視する場合の処理について説明する。第一エッジ装置30a及び第一カメラ装置40aは、第一店舗Aに配置されているものとする。第二エッジ装置30b及び第二カメラ装置40bは、第二店舗Bに配置されているものとする。第三エッジ装置30c及び第三カメラ装置40cは、第三店舗Cに配置されているものとする。また、以下の説明では第一店舗Aの従業員がユーザであり、人物特徴量が顔である場合を例に説明する。
なお、第一エッジ装置30a、第二エッジ装置30b、及び第三エッジ装置30cのそれぞれは独立して情報処理を行うが動作としては同様である為、図12及び図13に示す処理フローでは、エッジ装置30と記載する。
まず、図12の処理フローに示す本実施形態による画像処理システム1が行う人物特徴量の抽出処理について説明する。
ユーザは、顔を抽出させる同系列の複数店舗に設置されたカメラを選択するカメラ選択情報入力操作を入力装置20に対して行う。
情報入力部202は、ユーザによるカメラ選択情報入力操作に応じたカメラ選択情報を入力する(ステップS1)。なお、カメラ選択情報は、第一店舗Aに設置されたカメラ、第二店舗Bに設置されたカメラ、及び、第三店舗Cに設置されたカメラのすべてを選択することを示すカメラ選択情報である。第一店舗Aに設置されたカメラは、カメラ401a、カメラ402a、及び、カメラ403aである。第二店舗Bに設置されたカメラは、カメラ401b、カメラ402b、及び、カメラ403bである。第三店舗Cに設置されたカメラは、カメラ401c、及び、カメラ402cである。
そして、情報入力部202は、顔の抽出を開始するか否かを判定する(ステップS2)。情報入力部202は、顔の抽出を開始する開始指示を入力する開始指示入力操作を検出しない場合には、ステップS2の処理に戻す。
ユーザは、顔の抽出を開始する開始指示を入力する開始指示入力操作を入力装置20に対して行う。
情報入力部202は、ユーザによる開始指示入力操作を検出し(ステップS2、YES)、カメラ選択情報をセンターシステム10に送信する(ステップS3)。
カメラ選択部105は、カメラ選択情報を受信するか否かを判定する(ステップS4)。カメラ選択部105は、カメラ選択情報を受信しない場合には、ステップS4の処理に戻す。
カメラ選択部105は、入力装置20からカメラ選択情報を受信すると(ステップS4、YES)、受信したカメラ選択情報に基づいて、エッジ装置を特定する(ステップS5)。具体的には、カメラ選択部105は、カメラ選択情報に含まれるカメラ401a、カメラ402a、及び、カメラ403aに対応する第一エッジ装置30a、カメラ401b、カメラ402b、及び、カメラ403bに対応する第二エッジ装置30b、カメラ401c、及び、カメラ402cに対応する第三エッジ装置30cを特定する。例えば、カメラ選択部105は、この特定をカメラとエッジ装置との対応関係を示すデータテーブルのカメラと、受信したカメラ選択情報に含まれるカメラとを順に比較し、一致するカメラを特定する。カメラ選択部105は、一致するカメラに対応するエッジ装置を選択したエッジ装置と特定する。
カメラ選択部105は、特定した第一エッジ装置30a、第二エッジ装置30b、及び、第三エッジ装置30cのそれぞれにカメラ選択情報と、人物特徴量の抽出の開始を指示する特徴量抽出開始指示とを送信する(ステップS6)。
第一映像受信部306aは、人物特徴量抽出開始指示を受信したか否かを判定し(ステップS7)、その判定結果に基づいて人物特徴量抽出を開始するか否かを判定する。
第一映像受信部306aは、人物特徴量抽出開始指示を受信しないと判定した場合(ステップS7、NO)、人物特徴量抽出を開始しないと判定する。この場合、第一映像受信部306aは、カメラ401a、カメラ402a、及び、カメラ403aのそれぞれからカメラ映像を受信し(ステップS8)、受信したカメラ映像を第一記憶部304aに記録する(ステップS9)。
また、第一映像受信部306aは、人物特徴量抽出開始指示を受信したと判定した場合(ステップS7、YES)、人物特徴量抽出を開始すると判定する。この場合、第一映像受信部306aは、カメラ選択情報が示すカメラ401a、カメラ402a、及び、カメラ403aのそれぞれからカメラ映像を受信する(ステップS10)。
第一特徴量抽出部305aは、第一映像受信部306aが受信したそれぞれのカメラ映像から顔を抽出する(ステップS11)。第一特徴量抽出部305aは、抽出した顔に対してインデックスを生成する(ステップS12)。第一特徴量抽出部305aは、抽出した顔と共に生成したインデックスをセンターシステム10に送信する(ステップS13)。
また、第一特徴量抽出部305aは、抽出した顔の顔情報と共に生成したインデックスを第一記憶部304aの第一データテーブルTBL1に記録する(ステップS14)。また、第一特徴量抽出部305aは、それぞれのカメラ映像に生成したインデックスを付与し(ステップS15)、それぞれのカメラ映像を第一記憶部304aに記録する(ステップS16)。
第二映像受信部306bは、第一映像受信部306aと同様に、人物特徴量抽出開始指示を受信したと判定した場合(ステップS7、YES)、人物特徴量抽出を開始すると判定する。この場合、第二映像受信部306bは、カメラ選択情報が示すカメラ401b、カメラ402b、及び、カメラ403bのそれぞれからカメラ映像を受信する(ステップS10)。
第二特徴量抽出部305bは、第二映像受信部306bが受信したそれぞれのカメラ映像から顔を抽出する(ステップS11)。第二特徴量抽出部305bは、抽出した顔に対してインデックスを生成する(ステップS12)。第二特徴量抽出部305bは、抽出した顔と共に生成したインデックスをセンターシステム10に送信する(ステップS13)。
また、第二特徴量抽出部305bは、抽出した顔の顔情報と共に生成したインデックスを第二記憶部304bの第二データテーブルTBL2に記録する(ステップS14)。また、第二特徴量抽出部305bは、それぞれのカメラ映像に生成したインデックスを付与し(ステップS15)、それぞれのカメラ映像を第二記憶部304bに記録する(ステップS16)。
第三映像受信部306cは、第一映像受信部306aと同様に、人物特徴量抽出開始指示を受信したと判定した場合(ステップS7、YES)、人物特徴量抽出を開始すると判定する。この場合、第三映像受信部306cは、カメラ選択情報が示すカメラ401c、及び、カメラ402cのそれぞれからカメラ映像を受信する(ステップS10)。
第三特徴量抽出部305cは、第三映像受信部306cが受信したそれぞれのカメラ映像から顔を抽出する(ステップS11)。第三特徴量抽出部305cは、抽出した顔に対してインデックスを生成する(ステップS12)。第三特徴量抽出部305cは、抽出した顔と共に生成したインデックスをセンターシステム10に送信する(ステップS13)。
また、第三特徴量抽出部305cは、抽出した顔の顔情報と共に生成したインデックスを第三記憶部304cの第三データテーブルTBL3に記録する(ステップS14)。また、第三特徴量抽出部305cは、それぞれのカメラ映像に生成したインデックスを付与し(ステップS15)、それぞれのカメラ映像を第三記憶部304cに記録する(ステップS16)。
出現状態判定部101は、第一エッジ装置30a、第二エッジ装置30b、及び、第三エッジ装置30cのそれぞれから顔情報とインデックスを受信すると(ステップS17)、受信した顔情報とインデックスを関連付けて記憶部106の総合データテーブルSTBLに記録する(ステップS18)。
なお、このとき、センターシステム10は、第一エッジ装置30a、第二エッジ装置30b、及び、第三エッジ装置30cのそれぞれからカメラ映像を受信せず、顔情報(人物特徴量)とインデックスのみを受信することで、通信データ量を削減することができる。ただし、センターシステム10は、第一エッジ装置30a、第二エッジ装置30b、及び、第三エッジ装置30cのそれぞれから顔情報(人物特徴量)とインデックスと共にカメラ映像を受信してもよい。また、センターシステム10は、第一エッジ装置30a、第二エッジ装置30b、及び、第三エッジ装置30cのそれぞれから受信したカメラ映像を記憶部に記録してもよい。
その後、ユーザは、人物特徴量の抽出を終了する終了指示を入力する終了指示入力操作を行う。
情報入力部202は、ユーザによる終了指示入力操作に基づいて、終了指示を入力する(ステップS19)。情報入力部202は、終了指示をセンターシステム10に送信する(ステップS20)。
出現状態判定部101は、人物特徴量の抽出を終了するか否かを常時判定している(ステップS21)。
出現状態判定部101は、入力装置20から終了指示を受信しない場合(ステップS21、NO)、ステップS17の処理に戻す。
また、出現状態判定部101は、入力装置20から終了指示を受信した場合(ステップS21、YES)、人物特徴量の抽出の終了を示す特徴量抽出終了指示を第一エッジ装置30a、第二エッジ装置30b、及び、第三エッジ装置30cのそれぞれに送信する(ステップS22)。
第一特徴量抽出部305aは、センターシステム10から特徴量抽出終了指示を受信したか否かを判定し(ステップS23)、その判定結果に基づいてカメラ映像における顔の抽出を終了するか否かを判定する。
第一特徴量抽出部305aは、特徴量抽出終了指示を受信しないと判定した場合(ステップS23、NO)、カメラ映像における顔の抽出を終了しないと判定する。この場合、第一特徴量抽出部305aは、ステップS10の処理に戻す。
また、第一映像受信部306aは、特徴量抽出終了指示を受信したと判定した場合(ステップS23、YES)、カメラ映像における顔の抽出を終了すると判定する。この場合、第一映像受信部306aは、ステップS8の処理に戻す。
以上が本実施形態による画像処理システム1の行う人物特徴量の抽出処理である。
次に、図13の処理フローに示す本実施形態による画像処理システム1が行う所定人物候補を推定する処理について説明する。
人物特徴量の抽出処理の後、入力装置20を操作したユーザ、または、不審者を特定する別のユーザ(例えば、警察官など)は、不審人物の抽出の開始を指示する不審人物抽出開始指示を入力する不審人物抽出開始指示入力操作をセンターシステム10に対して直接または遠隔に設置されて通信によって接続された装置を介して行う。
記憶部106は、条件入力部107を介して入力された不審人物と判定する人物候補判定条件を予め記憶している。例えば、不審人物と判定する人物候補判定条件とは、同じ日に同じ店舗に何度も出入りしている、同じ日に同じ店舗に長時間店舗にいるが商品を購入しない、同じ日に同系列の複数店舗に何度も出入りしている、同じ日に同系列の複数店舗に長時間店舗にいるが商品を購入しない、複数日にわたり頻繁に同系列の複数店舗に来店するが商品を購入しないなどの万引きする可能性のある人物を特定する条件である。また、不審人物と判定する人物候補判定条件とは、同じ日に同じ店舗に何度も出入りして何度も商品を購入している、同じ日に同系列の複数店舗に何度も出入りして何度も商品を購入している、及び、複数日にわたり頻繁に各店舗に来店し何度も商品を購入しているなどに基づいて決定される、人物の出現回数及び人物の出現時間などの大量購入する可能性のある人物を特定する条件である。
所定人物候補推定部102は、不審人物抽出開始指示を入力すると(ステップS31)、記憶部106の記憶するカメラ映像と顔情報とインデックス、及び、出現状態に基づいて、不審人物を特定する(ステップS32)。具体的には、所定人物候補推定部102は、記憶部106が記憶する総合データテーブルSTBLにおける顔情報(特徴量)毎にデータを並べ替えて、各顔情報の出現回数、各顔情報の出現挿時間などを特定し、人物候補判定条件を満たした場合にその顔情報に対応する人物が不審人物であると特定する。なお、所定人物候補推定部102は、レジスターの位置に配置されたカメラのカメラ映像において顔が抽出された場合に、その顔の人物が商品を購入したと判定する。また、所定人物候補推定部102は、レジスターの位置に配置されたカメラのカメラ映像において顔が抽出されない場合に、その顔の人物が商品を購入しなかったと判定する。また、所定人物候補推定部102は、店舗の出入り口に配置されたカメラのカメラ映像において顔が抽出された回数に応じて、その顔の人物の出現回数をカウントする。
所定人物候補推定部102は、特定した不審人物についての不審人物特定結果であるカメラ映像とインデックスとを記憶部106に記録する(ステップS33)。
以上が本実施形態による画像処理システム1の行う所定人物候補を推定する処理である。
所定人物候補推定部102は、不審人物を特定した場合に、その不審人物の特徴量が抽出されたカメラ映像に基づいて、不審人物の顔、身長、性別、服装、持ち物など不審人物の容姿がわかるカメラ映像のデータを入力装置20に送信してもよい。この場合、表示制御部203は、センターシステム10から不審人物の容姿がわかるカメラ映像のデータを表示部に表示させることで、ユーザは不審人物を確認することができる。また、所定人物候補推定部102は、不審人物の容姿がわかるカメラ映像のデータを警視庁などに提供してもよい。この場合、犯罪の防止に役立てることができる。
以上、本発明の第一の実施形態による画像処理システム1について説明した。上述の画像処理システム1の画像処理装置100において、出現状態判定部101は、撮影された映像における人物の出現状態を判定する。所定人物候補推定部102は、出現状態判定部101が判定した出現状態に基づいて所定人物候補を推定する。
こうすることで、不審人物などの指定した条件に基づく人物候補を特定することができる。
<第二の実施形態>
次に、本発明の第二の実施形態による画像処理装置100を備える画像処理システム1について説明する。
本実施形態による画像処理システム1は、図2に示した画像処理システム1と同様に、センターシステム10と、入力装置20と、第一エッジ装置30aと、第二エッジ装置30bと、第三エッジ装置30cと、第一カメラ装置40aと、第二カメラ装置40bと、第三カメラ装置40cと、を備える。
なお、本実施形態による画像処理システム1と第一の実施形態による画像処理システム1との違いは、入力装置20である。
図14は、本実施形態による入力装置20の構成を示す図である。
次に、本実施形態による入力装置20の構成について説明する。
本実施形態による入力装置20は、図14に示すように、図4に示した通信部201と、情報入力部202と、表示制御部203と、に加えて、更に位置特定部204と、カメラ選択情報生成部205と、を備える。
位置特定部204は、入力装置20の位置を特定する。通信部201は、センターシステム10と情報の送受信を行う。
カメラ選択情報生成部205は、位置特定部204が特定した入力装置20の位置に基づいて、撮影された映像における人物の出現状態を撮影するカメラを特定するカメラ選択情報を生成する。例えば、カメラ選択情報生成部205は、位置特定部204が特定した入力装置20の位置を中心に1キロメートル以内に設置されたカメラ、入力装置20の位置から最も近くに設置されているカメラなど所定条件のカメラを選択するカメラ選択情報を生成する。
次に、本実施形態による画像処理システム1の処理について説明する。
ここでは、画像処理システム1が、ストーカーを監視する場合の処理について説明する。本実施形態ではストーカー被害にあっている人物がユーザである。
なお、本実施形態による画像処理システム1の処理フローは、図12及び図13で示した第一の実施形態による画像処理システム1の処理フローのうちステップS1とステップS3の処理が異なる以外は同様である。
ステップS1のカメラ選択情報を入力する処理を行わず、情報入力部202は、ステップS2の顔の抽出を開始するか否かを判定する。情報入力部202は、顔の抽出を開始する開始指示を入力する開始指示入力操作を検出しない場合には、ステップS2の処理に戻す。情報入力部202は、開始指示入力操作を検出した場合には、ステップS3の処理に代わって、位置特定部204は、入力装置20を携帯するユーザが移動中に、所定の時間間隔で入力装置20の位置を特定する。例えば、位置特定部204は、GPS(Global Positioning System)の機能を用いて入力装置20の位置を特定する。位置特定部204は、特定した入力装置20の位置を所定の時間間隔でカメラ選択情報生成部205に出力する。カメラ選択情報生成部205は、位置特定部204から入力した入力装置20の位置に基づいて、カメラ選択情報を生成する。カメラ選択情報生成部205は、生成したカメラ選択情報をセンターシステム10に送信する。
カメラ選択部105がステップS4の処理でカメラ選択情報を受信すると判定する度に、ステップS5以降の処理を行えばよい。
なお、画像処理装置100の記憶部106が入力装置20の位置を中心に1キロメートル以内に設置されたカメラ、入力装置20の位置から最も近くに設置されているカメラなど所定条件を記憶している場合には、入力装置20は、カメラ選択情報生成部205を備えず、位置特定部204が特定した入力装置20の位置を送信してよい。また、GPSからセンターシステム10が直接入力装置20の位置を取得するものであってもよい。これらの場合、画像処理装置100のカメラ選択部105は、取得した入力装置20の位置と記憶部106が記憶する所定条件とに基づいてエッジ装置を特定すればよい。
以上、本発明の第二の実施形態による画像処理システム1について説明した。上述の画像処理システム1の画像処理装置100において、出現状態判定部101は、人物候補判定条件に基づいて、撮影された映像における人物の出現状態を判定する。所定人物候補推定部102は、出現状態判定部101が判定した出現状態に基づいて所定人物候補を推定する。
こうすることで、不審人物などの指定した条件に基づく人物候補を特定することができる。
また、位置特定部204は、入力装置20を携帯するユーザが移動中に、所定の時間間隔で入力装置20の位置を特定する。位置特定部204は、特定した入力装置20の位置を所定の時間間隔でカメラ選択情報生成部205に出力する。カメラ選択情報生成部205は、位置特定部204から入力した入力装置20の位置に基づいて、カメラ選択情報を生成する。カメラ選択情報生成部205は、生成したカメラ選択情報をセンターシステム10に送信する。カメラ選択部105がカメラ選択情報生成部205が生成したカメラ選択情報を受信すると判定する度にステップS5以降の処理を行う。
こうすることで、ストーカーを監視するような撮影された映像における人物の出現状態を撮影するカメラを時々刻々と変更する必要がある場合にも対応することができる。
なお、本発明の実施形態において、情報の送受信が適切に行われる限り、画像処理装置100が備える各機能部の一部またはすべてが、第一エッジ装置30a、第二エッジ装置30b、第三エッジ装置30c、・・・第nエッジ装置30nのうちの何れかに備えられていてよい。また、画像処理装置100が備える各機能部の一部またはすべてが、第一エッジ装置30a、第二エッジ装置30b、第三エッジ装置30c、・・・第nエッジ装置30nのうちの何れかに分散されて備えられていてもよい。
なお、本発明の実施形態において、情報の送受信が適切に行われる限り、第一エッジ装置30a、第二エッジ装置30b、第三エッジ装置30c、・・・第nエッジ装置30nの各機能部の一部またはすべてが、センターシステム10に備えられていてよい。
なお、本発明の実施形態において、入力装置20を任意の固定した箇所に設置してもよい場合(例えば、第一の実施形態のように入力装置20の位置が撮影するカメラの位置と無関係な場合)、情報の送受信が適切に行われる限り、入力装置20の各機能部の一部またはすべてが、センターシステム10に備えられていてよい。また、本発明の実施形態において、入力装置20を任意の固定した箇所に設置してもよい場合、情報の送受信が適切に行われる限り、入力装置20の各機能部の一部またはすべてが、第一エッジ装置30a、第二エッジ装置30b、第三エッジ装置30c、・・・第nエッジ装置30nのうちの何れかに備えられていてよい。また、本発明の実施形態において、入力装置20を任意の固定した箇所に設置してもよい場合、情報の送受信が適切に行われる限り、入力装置20の各機能部の一部またはすべてが、センターシステム10、第一エッジ装置30a、第二エッジ装置30b、第三エッジ装置30c、・・・第nエッジ装置30nのうちの何れかに分散されて備えられていてもよい。
なお、本発明の実施形態において、情報の送受信が適切に行われる限り、第一特徴量抽出部305a、第二特徴量抽出部305b、第三特徴量抽出部305c、・・・第n特徴量抽出部305nのうちの1つ以上を画像処理装置100が備えるものであってよい。
なお、本発明における記憶部106、第一記憶部304a、第二記憶部304b、及び、第三記憶部304cのそれぞれは、適切な情報の送受信が行われる範囲においてどこに備えられていてもよい。また、記憶部106、第一記憶部304a、第二記憶部304b、及び、第三記憶部304cのそれぞれは、適切な情報の送受信が行われる範囲において複数存在しデータを分散して記憶していてもよい。
なお本発明の実施形態における処理フローは、適切な処理が行われる範囲において、処理の順番が入れ替わってもよい。
なお本発明の実施形態について説明したが、上述の画像処理装置100、入力装置20、第一エッジ装置30a、第二エッジ装置30b、及び、第三エッジ装置30cのそれぞれは内部に、コンピュータシステムを有している。そして、上述した処理の過程は、プログラムの形式でコンピュータ読み取り可能な記憶部に記憶されており、このプログラムをコンピュータが読み出して実行することによって、上記処理が行われる。ここでコンピュータ読み取り可能な記憶部とは、磁気ディスク、光磁気ディスク、CD−ROM、DVD−ROM、半導体メモリ等をいう。また、このコンピュータプログラムを通信回線によってコンピュータに配信し、この配信を受けたコンピュータが当該プログラムを実行するようにしてもよい。
また、上記プログラムは、前述した機能の一部を実現するためのものであってもよい。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよい。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定するものではない。また、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができるものである。
1・・・画像処理システム
10・・・センターシステム
20・・・入力装置
30a・・・第一エッジ装置
30b・・・第二エッジ装置
30c・・・第三エッジ装置
40a・・・第一カメラ装置
40b・・・第二カメラ装置
40c・・・第三カメラ装置
100・・・画像処理装置
101・・・出現状態判定部
102・・・所定人物候補推定部
103、201・・・通信部
104・・・制御部
105・・・カメラ選択部
106・・・記憶部
107・・・条件入力部
202・・・情報入力部
203・・・表示制御部
204・・・位置特定部
205・・・カメラ選択情報生成部
301a・・・第一通信部
301b・・・第二通信部
301c・・・第三通信部
302a・・・第一制御部
302b・・・第二制御部
302c・・・第三制御部
303a・・・第一カメラ制御部
303b・・・第二カメラ制御部
303c・・・第三カメラ制御部
304a・・・第一記憶部
304b・・・第二記憶部
304c・・・第三記憶部
305a・・・第一特徴量抽出部
305b・・・第二特徴量抽出部
305c・・・第三特徴量抽出部
306a・・・第一映像受信部
306b・・・第二映像受信部
306c・・・第三映像受信部
307a・・・第一カメラインターフェース
307b・・・第二カメラインターフェース
307c・・・第三カメラインターフェース

Claims (7)

  1. 撮影された映像における人物の出現状態を判定する出現状態判定部と、
    前記出現状態に基づいて所定人物候補を推定する所定人物候補推定部と、
    を備える画像処理装置。
  2. 前記出現状態判定部が判定する前記人物の出現状態を撮影するカメラを指定するカメラ選択部、
    を備える請求項1に記載の画像処理装置。
  3. 前記所定人物候補推定部は、
    前記カメラ選択部が指定した前記カメラが撮影した人物の映像から抽出された特徴量に基づいて所定人物候補を推定する、
    請求項2に記載の画像処理装置。
  4. カメラと、画像処理装置とを備え、
    前記カメラは、所定領域の画像を撮影し、
    前記画像処理装置は、
    撮影された映像における人物の出現状態を判定する出現状態判定部と、
    前記出現状態に基づいて所定人物候補を推定する所定人物候補推定部と、
    を備える画像処理システム。
  5. 情報処理装置を備え、当該情報処理装置が、前記カメラの撮影した映像に基づいて人物特徴量を抽出し蓄積する人物特徴量蓄積部を備え、
    前記画像処理装置の前記所定人物候補推定部が、前記蓄積された人物特徴量に基づいて所定人物候補を推定する、
    請求項4に記載の画像処理システム。
  6. 撮影された映像における人物の出現状態を判定し、
    前記出現状態に基づいて所定人物候補を推定する、画像処理方法。
  7. コンピュータを、
    撮影された映像における人物の出現状態を判定する出現状態判定手段、
    前記出現状態に基づいて所定人物候補を推定する所定人物候補推定手段、
    として機能させるプログラム。
JP2015059603A 2015-03-23 2015-03-23 画像処理装置、画像処理システム、画像処理方法及びプログラム Active JP6984942B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015059603A JP6984942B2 (ja) 2015-03-23 2015-03-23 画像処理装置、画像処理システム、画像処理方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015059603A JP6984942B2 (ja) 2015-03-23 2015-03-23 画像処理装置、画像処理システム、画像処理方法及びプログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2020004677A Division JP2020074567A (ja) 2020-01-15 2020-01-15 画像処理システム、画像処理方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2016181020A true JP2016181020A (ja) 2016-10-13
JP6984942B2 JP6984942B2 (ja) 2021-12-22

Family

ID=57131075

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015059603A Active JP6984942B2 (ja) 2015-03-23 2015-03-23 画像処理装置、画像処理システム、画像処理方法及びプログラム

Country Status (1)

Country Link
JP (1) JP6984942B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020107226A (ja) * 2018-12-28 2020-07-09 富士通クライアントコンピューティング株式会社 判定装置およびプログラム
CN117912174A (zh) * 2024-03-15 2024-04-19 深圳市金雅福首饰制造有限公司 一种防盗预警方法、装置、设备及计算机可读存储介质

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010191620A (ja) * 2009-02-17 2010-09-02 Fujitsu Ltd 不審人物検出方法、及び不審人物検出システム
JP2010237872A (ja) * 2009-03-30 2010-10-21 Sogo Keibi Hosho Co Ltd 人物領域検出装置、人物領域検出方法、及び人物領域検出プログラム
JP2011089784A (ja) * 2009-10-20 2011-05-06 Nippon Signal Co Ltd:The 物体方向推定装置
JP2011227678A (ja) * 2010-04-19 2011-11-10 Secom Co Ltd 通報装置
JP2012212215A (ja) * 2011-03-30 2012-11-01 Secom Co Ltd 画像監視装置
JP2013088870A (ja) * 2011-10-13 2013-05-13 Toyota Infotechnology Center Co Ltd 不審者検知装置、不審者検知方法およびプログラム
WO2014132841A1 (ja) * 2013-02-28 2014-09-04 株式会社日立国際電気 人物検索方法及びホーム滞留人物検索装置

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010191620A (ja) * 2009-02-17 2010-09-02 Fujitsu Ltd 不審人物検出方法、及び不審人物検出システム
JP2010237872A (ja) * 2009-03-30 2010-10-21 Sogo Keibi Hosho Co Ltd 人物領域検出装置、人物領域検出方法、及び人物領域検出プログラム
JP2011089784A (ja) * 2009-10-20 2011-05-06 Nippon Signal Co Ltd:The 物体方向推定装置
JP2011227678A (ja) * 2010-04-19 2011-11-10 Secom Co Ltd 通報装置
JP2012212215A (ja) * 2011-03-30 2012-11-01 Secom Co Ltd 画像監視装置
JP2013088870A (ja) * 2011-10-13 2013-05-13 Toyota Infotechnology Center Co Ltd 不審者検知装置、不審者検知方法およびプログラム
WO2014132841A1 (ja) * 2013-02-28 2014-09-04 株式会社日立国際電気 人物検索方法及びホーム滞留人物検索装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
林 健太郎 外3名: "映像監視における人物位置行動の検出技術", 情報処理学会論文誌 第47巻 NO.SIG9(CVIM14) コンピュータビジョンとイメージメディア, vol. 第47巻 第SIG9CVIM14号, JPN6019011446, 15 June 2006 (2006-06-15), JP, pages 12 - 20, ISSN: 0004008231 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020107226A (ja) * 2018-12-28 2020-07-09 富士通クライアントコンピューティング株式会社 判定装置およびプログラム
CN117912174A (zh) * 2024-03-15 2024-04-19 深圳市金雅福首饰制造有限公司 一种防盗预警方法、装置、设备及计算机可读存储介质

Also Published As

Publication number Publication date
JP6984942B2 (ja) 2021-12-22

Similar Documents

Publication Publication Date Title
JP6674584B2 (ja) 映像監視システム
JP5962916B2 (ja) 映像監視システム
WO2016189782A1 (ja) 追跡支援装置、追跡支援システムおよび追跡支援方法
KR102164863B1 (ko) 정보 처리장치 및 그 방법과, 컴퓨터 판독가능한 기억매체
US11881090B2 (en) Investigation generation in an observation and surveillance system
JP2015019249A (ja) 追跡支援装置、追跡支援システムおよび追跡支援方法
JP2015019250A (ja) 追跡支援装置、追跡支援システムおよび追跡支援方法
WO2021088417A1 (zh) 移动状态信息展示方法与装置、电子设备及存储介质
KR20160003997A (ko) 지능형 영상 분석 시스템 및 방법
JP6807548B2 (ja) 処理装置、制御方法、プログラム、及びインターホンシステム
US10999556B2 (en) System and method of video capture and search optimization
JP2017045315A (ja) 警備システム及び人物画像表示方法
US20230093631A1 (en) Video search device and network surveillance camera system including same
KR101526499B1 (ko) 객체검출 기능을 이용한 보안용 네트워크 방범 감시 시스템 및 이를 이용한 지능형 영상 분석 방법
JP2010088072A (ja) 監視画像記憶システム及び監視画像記憶システムの監視画像記憶方法
JP2014095979A (ja) 電子機器、画像データ処理方法およびプログラム
KR20120113014A (ko) 영상인식장치 및 그 영상 감시방법
JP2016181020A (ja) 画像処理装置、画像処理システム、画像処理方法及びプログラム
JP2006093955A (ja) 映像処理装置
JP6268497B2 (ja) 警備システム、及び人物画像表示方法
JP6253950B2 (ja) 画像監視システム
EP3683757A1 (en) Investigation generation in an observation and surveillance system
JP6555481B2 (ja) 映像監視システム
JP6806626B2 (ja) 人物グループ追跡装置および人物グループ追跡方法
KR20180075506A (ko) 정보 처리 장치, 정보 처리 방법 및 프로그램

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180209

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190222

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190402

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190507

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20191015

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200115

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20200115

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20200123

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20200128

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20200207

C211 Notice of termination of reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C211

Effective date: 20200212

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20200421

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20200623

C13 Notice of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: C13

Effective date: 20200811

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20201006

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201008

C13 Notice of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: C13

Effective date: 20210326

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210524

C23 Notice of termination of proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C23

Effective date: 20210928

C302 Record of communication

Free format text: JAPANESE INTERMEDIATE CODE: C302

Effective date: 20210929

C03 Trial/appeal decision taken

Free format text: JAPANESE INTERMEDIATE CODE: C03

Effective date: 20211026

C30A Notification sent

Free format text: JAPANESE INTERMEDIATE CODE: C3012

Effective date: 20211026

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211118

R150 Certificate of patent or registration of utility model

Ref document number: 6984942

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150