JP7287667B2 - 監視カメラおよび情報処理装置 - Google Patents

監視カメラおよび情報処理装置 Download PDF

Info

Publication number
JP7287667B2
JP7287667B2 JP2019131160A JP2019131160A JP7287667B2 JP 7287667 B2 JP7287667 B2 JP 7287667B2 JP 2019131160 A JP2019131160 A JP 2019131160A JP 2019131160 A JP2019131160 A JP 2019131160A JP 7287667 B2 JP7287667 B2 JP 7287667B2
Authority
JP
Japan
Prior art keywords
image
video frame
feature amount
control unit
surveillance camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019131160A
Other languages
English (en)
Other versions
JP2021016134A (ja
Inventor
健史 島田
純子 中野
貴光 荒井
修司 川添
利彦 山畠
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
I Pro Co Ltd
Original Assignee
I Pro Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by I Pro Co Ltd filed Critical I Pro Co Ltd
Priority to JP2019131160A priority Critical patent/JP7287667B2/ja
Priority to US16/928,648 priority patent/US11462087B2/en
Publication of JP2021016134A publication Critical patent/JP2021016134A/ja
Application granted granted Critical
Publication of JP7287667B2 publication Critical patent/JP7287667B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19602Image analysis to detect motion of the intruder, e.g. by frame subtraction
    • G08B13/19608Tracking movement of a target, e.g. by detecting an object predefined as a target, using target direction and or velocity to predict its new position
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19617Surveillance camera constructional details
    • G08B13/1963Arrangements allowing camera rotation to change view, e.g. pivoting camera, pan-tilt and zoom [PTZ]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/62Extraction of image or video features relating to a temporal dimension, e.g. time-based feature extraction; Pattern tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Description

本開示は、監視カメラおよび情報処理装置に関する。
特許文献1には、被写体の動きに対する追尾性能を高めるカメラが開示されている。
特開2017-195617号公報
監視カメラは、移動する追尾対象物の画像を、一連の映像フレームにおいて追尾(抽出)するため、映像フレームに追尾対象物を探索するための探索範囲を設定する。監視カメラは、映像フレームの探索範囲に追尾対象外の物体が映っていると、追尾対象物を追尾対象外の物体に変更する場合がある。例えば、監視カメラは、映像フレームの探索範囲において、追尾対象物である車両に重なって追尾対象外の信号機が映っていると、追尾対象物を車両から信号機に誤って変更する場合がある。
本開示の非限定的な実施例は、追尾対象物を適切に追尾する監視カメラおよび情報処理装置の提供に資する。
本開示の一態様に係る監視カメラは、映像フレームを出力する撮像部と、前記映像フレームに探索範囲を設定する制御部と、を備え、前記制御部は、計算範囲を前記探索範囲において移動させながら、前記計算範囲を移動させた各位置において画像の特徴量を算出し、前記探索範囲内の最も前記特徴量が類似した画像を、前記映像フレームの追尾対象画像と判定し、前記探索範囲内に追尾対象外の物体画像が含まれる場合、前記物体画像の特徴量をマスクして前記追尾対象画像を抽出し、前記物体画像の物体の種類に応じて前記マスクのマスク強度を変更する。
本開示の一態様に係る情報処理装置は、監視カメラから映像フレームを受信する受信部と、前記映像フレームに探索範囲を設定する制御部と、を備え、前記制御部は、計算範囲を前記探索範囲において移動させながら、前記計算範囲を移動させた各位置において画像の特徴量を算出し、前記探索範囲内の最も前記特徴量が類似した画像を、前記映像フレームの追尾対象画像と判定し、前記探索範囲内に追尾対象外の物体画像が含まれる場合、前記物体画像の特徴量をマスクして前記追尾対象画像を抽出し、前記物体画像の物体の種類に応じて前記マスクのマスク強度を変更する。
なお、これらの包括的または具体的な態様は、システム、装置、方法、集積回路、コンピュータプログラム、または、記録媒体で実現されてもよく、システム、装置、方法、集積回路、コンピュータプログラムおよび記録媒体の任意な組み合わせで実現されてもよい。
本開示の一実施例によれば、追尾対象物を適切に追尾できる。
本開示の一実施例における更なる利点および効果は、明細書および図面から明らかにされる。かかる利点および/または効果は、いくつかの実施形態並びに明細書および図面に記載された特徴によってそれぞれ提供されるが、1つまたはそれ以上の同一の特徴を得るために必ずしも全てが提供される必要はない。
実施の形態に係る監視カメラシステムの構成例を示した図 監視カメラの追尾処理例を説明する図 監視カメラの追尾処理例を説明する図 追尾対象画像の変更例を説明する図 追尾対象画像の変更例を説明する図 追尾対象画像の変更例を説明する図 追尾対象画像の変更例を説明する図 監視カメラのマスク処理例を説明する図 監視カメラのマスク処理例を説明する図 非追尾対象物の検出例を説明する図 情報処理装置による非追尾対象物の領域の指定例を説明する図 情報処理装置の表示装置に表示される設定画面例を示した図 情報処理装置の表示装置に表示される監視カメラの映像画面例を示した図 情報処理装置の表示装置に表示される監視カメラの映像画面例を示した図 情報処理装置の表示装置に表示される監視カメラの映像画面例を示した図 非追尾対象物のマスク強度を説明する図 非追尾対象物のマスク強度を説明する図 監視カメラおよび情報処理装置のブロック構成例を示した図 監視カメラの動作例を示したフローチャート 図12のS6の詳細動作例を示したフローチャート 監視カメラおよび情報処理装置のブロック構成例を示した図
以下、図面を適宜参照して、本発明の実施の形態について、詳細に説明する。但し、必要以上に詳細な説明は省略する場合がある。例えば、既によく知られた事項の詳細説明や実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になるのを避け、当業者の理解を容易にするためである。
なお、添付図面および以下の説明は、当業者が本開示を十分に理解するために、提供されるのであって、これらにより特許請求の範囲に記載の主題を限定することは意図されていない。
図1は、実施の形態に係る監視カメラシステムの構成例を示した図である。図1に示すように、監視カメラシステムは、監視カメラ1と、情報処理装置2と、を有する。監視カメラ1および情報処理装置2は、例えば、携帯電話等の無線ネットワークおよびインターネット等を含むネットワーク3を介して、通信する。
監視カメラ1は、例えば、交差点に設置されている信号機の柱や電信柱、またはビルなどの建物の外または中に設置される。監視カメラ1は、例えば、PTZ(パンチルトズーム)カメラであってもよい。
監視カメラ1は、撮影する映像上において、移動する物体を追尾する機能を有する。例えば、監視カメラ1は、自動車、バイク、もしくは自転車等の車両、または人などを映像上において追尾する。以下では、監視カメラ1が追尾する物体を、追尾対象物と呼ぶことがある。
情報処理装置2は、監視カメラ1を設定する装置である。情報処理装置2は、例えば、パーソナルコンピュータまたはサーバである。情報処理装置2は、例えば、ユーザの指示に応じて、追尾対象物の種類を監視カメラ1に対し指示してもよい。例えば、情報処理装置2は、追尾する対象として、自動車、バイク、自転車、または人などを監視カメラ1に指示してよい。指示する追尾対象物の種類は、複数であってもよい。
なお、情報処理装置2は、監視カメラ1の映像をモニタする装置であってもよい。監視カメラ1は、ネットワーク3を介して、撮影した映像を情報処理装置2に送信してもよい。
図2Aおよび図2Bは、監視カメラ1の追尾処理例を説明する図である。図2Aには、監視カメラ1の映像フレーム11aと、画像12aと、が示してある。図2Bには、監視カメラ1の映像フレーム11bと、画像12bと、が示してある。図2Aおよび図2Bには、矩形状の探索範囲13a,13bと、特徴量計算窓14a,14bと、が示してある。映像フレーム11a,11bにおいて、監視カメラ1の画角は、固定であるとする。
図2Aの映像フレーム11aは、時刻t-1における映像フレームを示している。図2Bの映像フレーム11bは、時刻tにおける映像フレームを示している。映像フレーム11bは、映像フレーム11aの次の映像フレームである。時刻t-1の映像フレーム11aを前映像フレーム、時刻tの映像フレーム11bを現映像フレームと呼ぶことがある。
画像12a,12bは、追尾対象物の画像である。図2Aおよび図2Bでは、追尾対象物の例として、自動車が示してある。
画像12a,12bの自動車は、同じ自動車である。画像12bの自動車は、画像12aの自動車に対し、右方向に移動している。すなわち、自動車は、映像フレーム11a,11bにおいて、右方向に進行している。
監視カメラ1は、前映像フレームの探索範囲13aにおいて、追尾対象物である自動車を特定し、特定した自動車の画像12aの特徴量を算出しているとする。特徴量とは、例えば、画像の特徴を示す情報であり、エッジの形状、色、大きさ等の情報が含まれる。
監視カメラ1は、現映像フレーム内において、探索範囲13bを設定し、特徴量計算窓14bを探索範囲13bにおいて移動させながら、探索範囲13b内の画像の特徴量を算出する。例えば、監視カメラ1は、特徴量計算窓14bを水平方向に走査させ、水平方向の走査を垂直方向にずらしながら、特徴量計算窓14bを探索範囲13bにおいて移動させる。そして、監視カメラ1は、移動させた特徴量計算窓14の各位置において、画像の特徴量を算出する。
監視カメラ1は、前映像フレームの追尾対象物の画像の特徴量に対し、現映像フレームの探索範囲13b内の最も特徴量が類似した画像を、現映像フレームの追尾対象画像と判定する。
例えば、前映像フレームの追尾対象画像は、画像12aである。現映像フレームの画像12bの自動車は、画像12aと同じ自動車であり、探索範囲13b内における画像12bの特徴量は、前映像フレームの追尾対象画像の特徴量に最も類似する。従って、監視カメラ1は、現映像フレームの探索範囲13b内の画像12bを、前映像フレームに続く追尾対象画像と判定する。
なお、現映像フレームとは、追尾対象物の画像が探索される映像フレームであって、監視カメラ1が撮影した最新の映像フレームであってもよく、また、最新の映像フレームでなくてもよい。
図3Aおよび図3Bは、追尾対象画像の変更例を説明する図である。図3Aには、監視カメラの映像フレーム21aが示してある。図3Bには、監視カメラの映像フレーム21bが示してある。図3Aおよび図3Bには、矩形状の探索範囲22a,22bと、特徴量計算窓25a,25bと、が示してある。映像フレーム21a,21bにおいて、監視カメラの画角は、固定であるとする。
図3Bの映像フレーム21bは、現映像フレームであり、図3Aの映像フレーム21aは、映像フレーム21bの前映像フレームである。映像フレーム21aには、自動車23aと信号機24aとが映っている。映像フレーム21bには、自動車23bと信号機24bとが映っている。自動車23aおよび自動車23bは、同じ自動車であり、信号機24aおよび信号機24bは、同じ信号機である。
映像フレーム21bの自動車23bは、映像フレーム21aの自動車23aに対し、右下に移動している。信号機24a,24bは、例えば、道路に固定された柱に固定されているため、映像フレーム21a,21bにおいて、同じ位置に表示されている。
図3Aの映像フレーム21aに示すように、追尾対象物の自動車23aに追尾対象物以外の信号機24aが重なると、監視カメラは、図3Bの映像フレーム21bにおいて、追尾対象画像を信号機24bに変更する場合がある。
例えば、映像フレーム21aの探索範囲22aには、自動車23aと信号機24aとが含まれる。このため、探索範囲22a内の画像の特徴量には、追尾対象物である自動車23aの特徴量の他に、追尾対象物でない信号機24aの特徴量も含まれる。以下では、追尾対象物でない物体を非追尾対象物と呼ぶことがある。
監視カメラは、映像フレーム21bにおいて、特徴量計算窓25aを移動させ、探索範囲22b内の画像の特徴量を算出する。探索範囲22bには、信号機24bが含まれる。探索範囲22a内における特徴量に対し、信号機24bの画像の特徴量が最も類似すると、監視カメラは、追尾対象画像を自動車23aから信号機24bに変更する場合がある。
このように、監視カメラは、例えば、追尾対象物に重なって、追尾対象外の物体が映っていると、追尾対象物を追尾対象外の物体に誤って変更することがある。
図4Aおよび図4Bは、追尾対象画像の変更例を説明する図である。図4Aには、監視カメラの映像フレーム31aが示してある。図4Bには、監視カメラの映像フレーム31bが示してある。図4Aおよび図4Bには、矩形状の探索範囲32a,32bと、特徴量計算窓36a,36bと、が示してある。映像フレーム31a,31bにおいて、監視カメラの画角は、固定であるとする。
図4Bの映像フレーム31bは、現映像フレームであり、図4Aの映像フレーム31aは、映像フレーム31bの前映像フレームである。映像フレーム31aには、人33a、テーブル34a、および収納ボックス35aが映っている。映像フレーム31bには、テーブル34bおよび収納ボックス35bが映っている。
映像フレーム31bでは、人33aは映っていない。映像フレーム31bでは、人33aは映像フレーム31bの外に移動している。テーブル34aおよび収納ボックス35aは、映像フレーム31a,31bにおいて、同じ位置に表示されている。すなわち、テーブル34aおよび収納ボックス35aは、映像フレーム31a,31bにおいて移動していない。
図4Aの映像フレーム31aに示すように、探索範囲32a内に、追尾対象物の人33aの他に、テーブル34aおよび収納ボックス35aが含まれると、監視カメラは、映像フレーム31bにおいて、追尾対象画像をテーブル34aおよび収納ボックス35aの両方または一方に変更する場合がある。
例えば、映像フレーム31aの探索範囲32aには、人33a、テーブル34a、および収納ボックス35aが含まれる。このため、探索範囲32a内の画像の特徴量には、追尾対象物である人33aの特徴量の他に、非追尾対象物のテーブル34aおよび収納ボックス35aの特徴量も含まれる。
監視カメラは、映像フレーム31bにおいて、特徴量計算窓36aを移動させ、探索範囲32b内の画像の特徴量を算出する。探索範囲32bには、テーブル34bおよび収納ボックス35bが含まれる。探索範囲32a内における特徴量に対し、テーブル34bおよび収納ボックス35bの画像の特徴量が最も類似すると、監視カメラは、追尾対象画像を人33aからテーブル34bと収納ボックス35bとに変更する場合がある。
このように、監視カメラは、例えば、追尾対象物の画像に追尾対象外の物体が映っていると、追尾対象物を追尾対象外の物体に誤って変更することがある。
図5Aおよび図5Bは、監視カメラ1のマスク処理例を説明する図である。図5Aには、監視カメラ1の映像フレーム41aが示してある。図5Bには、図5Aの映像フレーム41aの一部をマスク処理した映像フレーム41bが示してある。映像フレーム41a,41bは、時刻tにおける映像フレームであり、現映像フレームである。図5Bには、矩形状の探索範囲44と、特徴量計算窓46と、が示してある。
映像フレーム41aには、自動車42および信号機43が映っている。図5Aでは、説明を簡単にするため、一般的な信号機の位置を無視して図示している。
監視カメラ1は、追尾対象物である自動車42を抽出する際、図5Bに示すように、映像フレーム41bに探索範囲44を設定し、特徴量計算窓46を探索範囲44において走査させる。監視カメラ1は、特徴量計算窓46を走査させた探索範囲44内の画像の特徴量を算出し、算出した特徴量と、前映像フレームにおける追尾対象物の画像(前映像フレームにおける自動車42の画像)の特徴量との類似度を算出する。
監視カメラ1は、特徴量の類似度を算出する際、探索範囲44内において、非追尾対象物の信号機43が含まれる場合、非追尾対象物の信号機43の特徴量を、図5Bの斜線45に示すようにマスクする。
例えば、監視カメラ1は、特徴量の類似度を算出する際、マスクした領域の画像の特徴量の係数(重み付け)を、マスクしていない領域の画像の特徴量の重み付けより小さくする。より具体的には、監視カメラ1は、図5Bの探索範囲44内において、領域45以外の画像における特徴量の重み付けを1とし、斜線45が付された画像における特徴量の重み付けを1より小さい値とする。そして、監視カメラ1は、探索範囲44内の重み付けを付与した特徴量と、前映像フレームの追尾対象物の特徴量との類似度を算出する。これにより、監視カメラ1は、追尾対象物を誤って非追尾対象物に変更することを防止する。
監視カメラ1は、非追尾対象物の物体を、例えば、人工知能(AI:Artificial Intelligence)を用いて検出してもよい。例えば、監視カメラ1は、人工知能を用いて、現映像フレームに含まれる非追尾対象物の信号機43を検出してもよい。
図6は、非追尾対象物の検出例を説明する図である。図6には、ディープニューラルネットワークDNN1と、映像フレーム51と、出力結果52と、が示してある。
ディープニューラルネットワークDNN1は、監視カメラ1に搭載(実装)される。映像フレーム51は、監視カメラ1が撮影した映像フレームである。映像フレーム51は、ディープニューラルネットワークDNN1の入力層に入力される。出力結果52は、ディープニューラルネットワークDNN1の出力層から出力される。
ディープニューラルネットワークDNN1の構造は、映像フレーム51内に含まれる非追尾対象物の領域(位置)を検出するよう、予め学習によって決定される。図6の例では、ディープニューラルネットワークDNN1は、映像フレーム51に含まれる信号機53の領域を検出するよう、予め学習によって構造が決定される。ディープニューラルネットワークDNN1からは、出力結果52に示すように、映像フレーム内における信号機53の領域54が出力される。
監視カメラ1は、前映像フレームにおける追尾対象物の画像の特徴量と、現映像フレームにおける探索範囲内の画像の特徴量との類似度を算出する際、探索範囲内に、ディープニューラルネットワークDNN1が検出した非追尾対象物の領域54が含まれる場合、領域54の画像における特徴量の重み付けを、他の画像における特徴量の重み付けより小さくする。このように、監視カメラ1は、マスク領域を人工知能によって検出し、検出したマスク領域の画像における特徴量の重み付けを変更して、特徴量の類似度を算出する。
なお、ディープニューラルネットワークDNN1の構造は、監視カメラ1とは別の装置によって決定されてもよい。例えば、情報処理装置2において、非追尾対象物を学習し、ディープニューラルネットワークDNN1の構造を決定する。情報処理装置2は、決定した構造を監視カメラ1に送信する。監視カメラ1は、情報処理装置2から送信された構造に基づいて、ディープニューラルネットワークDNN1を構築する。
また、ディープニューラルネットワークDNN1は、映像フレームに含まれる複数種類の非追尾対象物を検知してもよい。例えば、ディープニューラルネットワークDNN1は、映像フレームに映っている信号機、街路樹、ガードレール、および歩道に設置された宣伝用の旗等の少なくとも1種類以上を検出してもよい。
図6では、監視カメラ1は、人工知能を用いて非追尾対象物の領域を検出するとしたが、情報処理装置2からの指示によって、フレーム内に映る非追尾対象物の領域が指定されてもよい。例えば、監視カメラ1は、図6に示した信号機53の領域が、情報処理装置2から指示されてもよい。そして、監視カメラ1は、指示された領域をマスクしてもよい。
図7は、情報処理装置2による非追尾対象物の領域の指定例を説明する図である。図7には、情報処理装置2の表示装置に表示される画面61が示してある。画面61は、監視カメラ1が撮影している映像の画面である。
ユーザは、例えば、情報処理装置2のマウスを操作して、監視カメラ1に対しマスク処理させたい非追尾対象物を選択する。例えば、ユーザは、マウスを操作して、図7の線62に示すように街路樹を囲み、監視カメラ1に対してマスク処理させたい非追尾対象物を選択する。また、ユーザは、マウスを操作して、図7の線63a~63cに示すように信号機を囲み、監視カメラ1に対してマスク処理させたい非追尾対象物を選択する。
情報処理装置2は、ユーザによって選択された非追尾対象物の情報を監視カメラ1に送信する。例えば、情報処理装置2は、監視カメラ1のフレーム内(画角内)における、ユーザが選択した非追尾対象物の領域の情報を監視カメラ1に送信する。
監視カメラ1は、情報処理装置2から非追尾対象物の領域の情報を受信する。監視カメラ1は、探索範囲内に、情報処理装置2から受信した非追尾対象物の領域の特徴量をマスクして、特徴量の類似度を算出する。
監視カメラ1は、図6で説明した人工知能による非追尾対象物の領域の検出と、図7で説明した非追尾対象物の領域の情報処理装置2による選択とが、情報処理装置2からの指示によって切替えられてもよい。以下では、監視カメラ1は、人工知能による非追尾対象物の領域の検出と、非追尾対象物の領域の情報処理装置2による選択とが、情報処理装置2において切替えられるとして説明する。
図8は、情報処理装置2の表示装置に表示される設定画面例を示した図である。図8に示す「設定」に対応するラジオボタンは、非追尾対象物のマスク処理を使用するか否かを選択するボタンである。「使用する」に対応するラジオボタンが選択された場合、監視カメラ1は、非追尾対象物に対し、マスク処理を行う。「使用しない」に対応するラジオボタンが選択された場合、監視カメラ1は、非追尾対象物に対し、マスク処理を行わない。監視カメラ1は、従来の追尾処理を実行する。
図8に示す「画角ずれ時の自動変更」に対応するラジオボタンは、監視カメラ1の画角が変更された場合、非追尾対象物のマスク領域設定を変更するか否かを選択するボタンである。「変更する」に対応するラジオボタンが選択された場合、監視カメラ1は、画角がずれると、人工知能による非追尾対象物の領域の再検出を行う。
なお、監視カメラ1の画角は、風または物体との衝突等によってずれることがある。監視カメラ1は、画角のずれを検出し、人工知能による非追尾対象物の領域の再検出を行ってもよい。
図8に示す「定期的に領域を更新」に対応するプルダウンメニューは、人工知能による非追尾対象物の検出頻度を選択するボタンである。プルダウンメニューがクリックされると、図8の矢印A1に示すように、人工知能による非追尾対象物の検出頻度を選択するための情報が表示される。
なお、プルダウンメニューに表示されている時間が選択された場合、監視カメラ1は、選択された時間間隔で、非追尾対象物の領域の検出を行う。例えば、プルダウンメニューにおいて、1時間が選択される。非追尾対象物の検出対象を信号機とする。この場合、監視カメラ1は、1時間おきに人工知能によって、フレーム内における信号機の領域を検出する。
図8に示す「手動設定」に対応する「詳細設定」ボタンは、非追尾対象物のマスク領域を設定する画面に遷移するボタンである。例えば、「詳細設定」ボタンがユーザによってクリックされると、情報処理装置2の表示装置には、監視カメラ1が撮影する映像画面が表示される。より具体的には、情報処理装置2の表示装置には、図7に示した画面61が表示される。ユーザは、図7で説明したように、画面61において、非追尾対象物のマスク領域を選択する。
図8に示す「マスク領域変化アラーム」に対応するラジオボタンは、人工知能によって非追尾対象物を定期的に検出する場合において、マスク領域の大きさに変化があった場合に、監視カメラ1にアラームを発報させるか否かを設定するボタンである。例えば、「使用する」に対応するラジオボタンが選択された場合、監視カメラ1は、マスク領域の大きさに変化があると、アラーム信号を出力する。
より具体的には、非追尾対象物である街路樹が成長して大きくなった場合、マスク領域は大きくなる。監視カメラ1は、マスク領域が閾値を超えて大きくなった場合、アラーム信号を情報処理装置2に出力する。すなわち、監視カメラ1は、非追尾対象物の画像領域の変化量が閾値を超えた場合、アラーム信号を情報処理装置2に出力する。これにより、ユーザは、例えば、街路樹の伐採等を検討できる。
図9A~図9Cは、情報処理装置2の表示装置に表示される監視カメラ1の映像画面例を示した図である。図9Cに示す画面例は、現映像フレームの映像である。図9Bに示す画面例は、前映像フレームの映像である。図9Aに示す画面例は、前映像フレームの前の映像フレームの映像である。
図9A~図9Cに示す画面例には、追尾対象物を示すマーカ66a~66cが表示されている。監視カメラ1が情報処理装置2に送信する映像フレームのデータには、追尾対象物を示すマーカ66a~66cの情報が含まれる。情報処理装置2は、監視カメラ1から送信されたマーカ66a~66cの情報に基づいて、図9A~図9Cに示すように、マーカ66a~66cを表示する。
図9A~図9Cの例では、1台の自動車を追尾し、マーカ66a~66cを付しているが、複数の自動車を追尾し、マーカを付してもよい。この場合、監視カメラ1は、複数の自動車を識別できるように、複数の自動車の各々のマーカの色を変えてもよい。
図10Aおよび図10Bは、非追尾対象物のマスク強度を説明する図である。図10Aには、マスクされる非追尾対象物の例として木が示してある。図10Bには、マスクされる非追尾対象物の例として信号機が示してある。
監視カメラ1は、非追尾対象物の種類に応じて、マスク領域のマスク強度を変更してもよい。例えば、監視カメラ1は、映像フレームに含まれる非追尾対象物のうち、形態が変化しない非追尾対象物の画像のマスク強度を、形態が変化する非追尾対象物の画像のマスク強度より大きくする。
例えば、木は、風によって形態が変わる場合がある。例えば、木は、風によって葉と葉の間に隙間が生じる場合がある。そのため、木の後を通過する追尾対象物は、葉と葉との間の隙間から、映像フレームに映る場合がある。一方、信号機は、一般的に形態が変わらす、信号機の後を通過する追尾対象物が、映像フレームに映る可能性は低い。そこで、監視カメラ1は、信号機より、木のマスク強度を小さくする。
より具体的には、監視カメラ1は、特徴量の類似度を算出する際、木の画像における特徴量の重み付け(係数)を1より小さい第1の係数に設定する。一方、監視カメラ1は、特徴量の類似度を算出する際、信号機の画像における特徴量の係数を1より小さく、かつ、第1の係数より小さい第2の係数に設定する。
マスク強度は、情報処理装置2によって指定される。例えば、監視カメラ1は、非追尾対象物の種類に応じた係数を情報処理装置2から受信する。監視カメラ1は、受信した係数を用いて、非追尾対象物の画像の特徴量をマスクし、特徴量の類似度を算出する。
なお、監視カメラ1は、信号機またはガードレール等、後ろを通過する追尾対象物が見える可能性が低い非追尾対象物の画像における特徴量に対しては、係数を0に設定してもよい。この場合、非追尾対象物の画像の特徴量は、特徴量の類似度の算出に反映されなくなる。
また、後ろを通過する追尾対象物が見える可能性が高い非追尾対象物には、例えば、旗がある。風によって旗が揺れると、旗の後を通過する追尾対象物は、映像フレームに映り込む可能性がある。
また、第1の係数に基づくマスクをソフトマスクと呼んでもよい。例えば、木または旗等におけるマスク強度の低いマスクをソフトマスクと呼んでもよい。また、第2の係数に基づくマスクをハードマスクと呼んでもよい。例えば、信号機またはガードレール等におけるマスク強度の高いマスクをハードマスクと呼んでもよい。
また、マスク強度の設定は、2つに限られない。マスク強度は、3以上設定されてもよい。
図11は、監視カメラ1および情報処理装置2のブロック構成例を示した図である。図11には、監視カメラ1および情報処理装置2の他にネットワーク3も示してある。図11に示すように、監視カメラ1は、撮像部71と、記憶部72と、制御部73と、受信部74と、送信部75と、を有している。
撮像部71は、例えば、レンズおよび撮像素子(図示せず)を有している。撮像部71のレンズは、撮像素子の受光面に被写体の像を結像する。撮像部71は、撮像素子の受光面において受けた光に応じた電気信号(アナログ信号)をデジタル信号に変換し、デジタル信号の映像フレームを制御部73に出力する。撮像部71は、制御部73の制御に応じて、パンおよびチルト方向に可動し、また、焦点距離を変える。
記憶部72は、制御部73が動作するためのプログラムが記憶される。また、記憶部72には、制御部73が算出処理を行うためのデータ、または、制御部73が各部を制御するためのデータ等が記憶される。記憶部72は、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、およびHDD(Hard Disk Drive)などの記憶装置によって構成されてもよい。
制御部73は、監視カメラ1全体を制御する。制御部73は、例えば、CPU(Central Processing Unit)またはDSP(Digital Signal Processer)によって構成されてもよい。
制御部73は、AI処理部73aと、マスク領域推定部73bと、類似度算出部73cと、マスク領域設定部73dと、を有する。制御部73の各部の機能は、例えば、制御部73が記憶部72に記憶されたプログラムを実行して実現される。
AI処理部73aは、例えば、ディープニューラルネットワークDNN1を構築する。マスク領域推定部73bは、AI処理部73aが構築したディープニューラルネットワークDNN1によって、その機能が実現される。
マスク領域推定部73bには、撮像部71が撮影した映像フレームが入力される。マスク領域推定部73bは、入力された映像フレームにおいて、信号機、街路樹、ガードレール、および旗等の非追尾対象物の画像の領域(マスク領域)と、それ以外の画像の領域(背景領域)とを推定する。
類似度算出部73cは、撮像部71が撮影した現映像フレームに探索範囲を設定し、設定した探索範囲内の画像の特徴量を算出する。類似度算出部73cは、探索範囲内に、マスク領域推定部73bが推定したマスク領域が含まれる場合、そのマスク領域の画像における特徴量の重み付けを、マスクしていない領域の画像における特徴量の重み付けより小さくする。
類似度算出部73cは、特徴量計算窓を移動させながら、各位置における画像の特徴量を算出する。類似度算出部73cは、前映像フレームの追尾対象画像の特徴量に対し、現映像フレームの最も特徴量が類似した探索範囲内の画像を、現映像フレームの追尾対象画像と判定する。
マスク領域設定部73dは、情報処理装置2から受信した、手動設定によるマスク領域の情報を、類似度算出部73cに出力する。類似度算出部73cは、情報処理装置2からの手動設定によって、マスク領域が指定された場合、映像フレームの指定された領域をマスクし、特徴量を算出する。
受信部74は、ネットワーク3を介して、情報処理装置2から送信される情報を受信する。送信部75は、制御部73から出力される情報を、ネットワーク3を介して、情報処理装置2に送信する。
情報処理装置2は、表示部81と、入力部82と、記憶部83と、制御部84と、受信部85と、送信部86と、を有している。
表示部81は、制御部84の制御に応じて、表示装置に画像を表示する。
入力部82は、キーボードおよびマウス等の入力装置から出力された信号を受信し、制御部84に出力する。
記憶部83は、制御部84が動作するためのプログラムが記憶される。また、記憶部83には、制御部84が算出処理を行うためのデータ、または、制御部84が各部を制御するためのデータ等が記憶される。記憶部83は、RAM、ROM、フラッシュメモリ、およびHDDなどの記憶装置によって構成されてもよい。
制御部84は、情報処理装置2全体を制御する。制御部84は、例えば、CPUによって構成されてもよい。
制御部84は、マスク領域設定部84aを有する。マスク領域設定部84aの機能は、例えば、制御部84が記憶部83に記憶されたプログラムを実行して実現される。
マスク領域設定部84aは、入力部82を介して、非追尾対象物の画像の選択操作を受付ける。マスク領域設定部84aは、ユーザが選択した非追尾対象物の画像の領域の情報を、送信部86を介して監視カメラ1に送信する。
受信部85は、ネットワーク3を介して、監視カメラ1から送信される情報を受信する。送信部86は、制御部84から出力される情報を、ネットワーク3を介して、監視カメラ1に送信する。
図12は、監視カメラ1の動作例を示したフローチャートである。監視カメラ1の制御部73は、現映像フレームの特徴量を算出する(S1)。
監視カメラ1の制御部73は、マスク領域設定が有効か否かを判定する(S2)。例えば、図8の「設定」に対応する「使用する」のラジオボタンが選択された場合、監視カメラ1の制御部73は、マスク領域設定が有効と判定する。
監視カメラ1の制御部73は、マスク領域設定が有効でないと判定した場合(S2の「No」)、現映像フレームに対してマスク処理をせず、前映像フレームの追尾対象物の画像の特徴量と、現映像フレームの探索範囲内の画像の特徴量との類似度を算出する(S3)。なお、監視カメラ1の制御部73は、現映像フレームの最も特徴量が類似した探索範囲内の画像を、現映像フレームの追尾対象画像と判定する。
監視カメラ1の制御部73は、マスク領域設定が有効であると判定した場合(S2の「Yes」)、マスク領域の指定が手動設定か否かを判定する(S4)。例えば、監視カメラ1の制御部73は、図8の「詳細設定」ボタンがクリックされ、非追尾対象物がユーザによって選択された場合、マスク領域の指定が手動設定されたと判定する。
監視カメラ1の制御部73は、マスク領域の指定が手動設定されたと判定した場合(S4の「Yes」)、特徴量算出の際、手動マスク領域(ユーザによるマスク領域の選択)を採用することを決定する(S5)。
監視カメラ1の制御部73は、現映像フレームのマスク領域における画像の特徴量に係数を反映(例えば、係数を乗算)して、前映像フレームの追尾対象物の画像の特徴量と、現映像フレームの探索範囲内の画像の特徴量との類似度を算出する(S6)。
監視カメラ1の制御部73は、S4にて、マスク領域の指定が手動設定されていないと判定した場合(S4の「No」)、マスク領域変更タイミングが設定されたか否かを判定する(S7)。例えば、監視カメラ1の制御部73は、図8の矢印A1に示すプルダウンメニューにおいて、いずれかの時間が選択された場合、マスク領域変更タイミングが設定されたと判定する。
監視カメラ1の制御部73は、マスク領域変更タイミングが設定されたと判定した場合(S7の「Yes」)、人工知能を用いて、非追尾対象物の画像領域を推定する(S8)。例えば、監視カメラ1の制御部73は、現映像フレームに含まれる街路樹等の画像の領域を、ユーザが設定した時間間隔にて推定する。
監視カメラ1の制御部73は、S8にて推定した非追尾対象物の画像領域が、前回推定した画像領域より大きくなったか否か判定する(S9)。
監視カメラ1の制御部73は、S8にて推定した非追尾対象物の画像領域が、前回推定した画像領域より大きくなったと判定した場合(S9の「Yes」)、情報処理装置2に対し、アラームを発報する(S10)。
監視カメラ1の制御部73は、S7にてマスク領域変更タイミングが設定されていないと判定した場合(S7の「No」)、S9にて非追尾対象物の画像領域が、前回推定した画像領域より大きくなっていなと判定した場合(S9の「No」)、または、S10にてアラームを発報した場合、特徴量算出の際、自動マスク領域(人工知能によるマスク領域の検出)を採用することを決定する(S11)。そして、監視カメラ1の制御部73は、処理をS6に移行する。
図13は、図12のS6の詳細動作例を示したフローチャートである。監視カメラ1の制御部73は、追尾対象ごとに類似度を算出する(S21)。
監視カメラ1の制御部73は、現映像フレームに設定した探索範囲において特徴量計算窓を移動させながら、各位置における特徴量を算出し、画像の類似度を算出する(S22)。
監視カメラ1の制御部73は、現在の特徴量の類似度算出位置がマスク領域であるか否かを判定する(S23)。
監視カメラ1の制御部73は、現在の特徴量の類似度算出位置がマスク領域でないと判定した場合(S23の「No」)、現在の特徴量にマスク処理をせず(例えば、重み付けを乗算せず)、類似度を算出する(S24)。
一方、監視カメラ1の制御部73は、現在の特徴量の類似度算出位置がマスク領域であると判定した場合(S23の「Yes」)、マスク領域がソフトマスク領域であるか否かを判定する(S25)。例えば、監視カメラ1の制御部73は、撮像部71が撮影したマスク領域の物体の種類に応じて、マスク領域がソフトマスク領域であるか否かを判定する。
監視カメラ1の制御部73は、マスク領域がソフトマスク領域でないと判定した場合(S25の「No」)、マスク領域を類似度算出の対象としない(S26)。例えば、監視カメラ1の制御部73は、マスク領域の画像の物体が、信号機またはガードレール等である場合、マスク領域をハードマスク領域と判定し、マスク領域の画像における特徴量の重み付けを0にする。
一方、監視カメラ1の制御部73は、マスク領域がソフトマスク領域であると判定した場合(S25の「Yes」)、マスク領域を類似度算出の対象とする(S27)。例えば、監視カメラ1の制御部73は、マスク領域の画像の物体が、街路樹または旗等である場合、マスク領域をソフトマスク領域と判定し、マスク領域の画像における特徴量の重み付けを0.5にする。
監視カメラ1の制御部73は、探索範囲内における特徴量の類似度の合計を算出する(S28)。例えば、監視カメラ1の制御部73は、S24にて算出したマスク領域外の特徴量の類似度と、27にて算出したソフトマスク領域の特徴量の類似度との合計を算出する。
なお、S26にて、例えば、ハードマスク領域の画像における特徴量の重み付けを、0より大きくかつソフトマスク領域の重み付けより小さい値にした場合、監視カメラ1の制御部73は、ハードマスク領域の特徴量の類似度も合算する。
監視カメラ1の制御部73は、S28にて特徴量の類似度の合計を算出すると、算出した合計値に基づいて、追尾対象を決定する(S29)。例えば、監視カメラ1の制御部73は、各探索範囲における類似度のうち、最も類似度の大きかった探索範囲内の画像を追尾対象物の画像と決定する。
以上説明したように、監視カメラ1は、映像フレームを出力する撮像部71と、映像フレームに追尾対象画像を探索するための探索範囲を設定し、探索範囲内の画像の特徴量を用いて追尾対象画像を抽出する制御部73と、を備える。制御部73は、探索範囲内に追尾対象外の物体画像が含まれる場合、物体画像の特徴量をマスクして追尾対象画像を抽出する。これにより、監視カメラ1は、追尾対象物を非追尾対象物に変更することを抑制し、追尾対象物を適切に追尾できる。
(変形例)
上記では、監視カメラ1が人工知能を搭載し、マスク領域を自動検知したがこれに限られない。情報処理装置2が人工知能を搭載し、マスク領域を自動検知してもよい。すなわち、情報処理装置2が、監視カメラ1から受信した映像を元に、マスク処理および追跡処理等を実行してもよい。
図14は、監視カメラ1および情報処理装置2のブロック構成例を示した図である。図14には、監視カメラ1および情報処理装置2の他にネットワーク3も示してある。図14に示すように、情報処理装置2は、表示部101と、入力部102と、記憶部103と、制御部104と、受信部105と、送信部106と、を有している。
表示部101、入力部102、および記憶部103は、図11で説明した表示部81、入力部82、および記憶部83と同様の機能を有し、その説明を省略する。
制御部104は、図11で説明した制御部73と同様の機能を有する。ただし、制御部104には、受信部105が監視カメラ1から受信した映像データが入力され、追尾対象物の画像を追尾する点が異なる。また、マスク領域設定部104dは、図11で説明したマスク領域設定部84aと同様の機能を有する。
受信部105および送信部106は、図11で説明した受信部85および送信部86と同様の機能を有し、その説明を省略する。
監視カメラ1は、撮像部111と、記憶部112と、制御部113と、受信部114と、送信部115と、を有している。撮像部111、記憶部112、制御部113、受信部114、および送信部115は、図11で説明した撮像部71、記憶部72、制御部73、受信部114、および送信部115と同様の機能を有し、その説明を省略する。ただし、制御部113は、制御部73のAI処理部73a、マスク領域推定部73b、類似度算出部73c、およびマスク領域設定部73dの機能を有さない点が異なる。
以上説明したように、情報処理装置2は、監視カメラ1から映像フレームを受信する受信部105と、映像フレームに追尾対象画像を探索するための探索範囲を設定し、探索範囲内の画像の特徴量を用いて追尾対象画像を抽出する制御部104と、を備える。制御部104は、探索範囲内に追尾対象外の物体画像が含まれる場合、物体画像の特徴量をマスクして追尾対象画像を抽出する。これにより、情報処理装置2は、追尾対象物を非追尾対象物に変更することを抑制し、追尾対象物を適切に追尾できる。
上述の実施の形態においては、各構成要素に用いる「・・・部」という表記は、「・・・回路(circuitry)」、「・・・デバイス」、「・・・ユニット」、又は、「・・・モジュール」といった他の表記に置換されてもよい。
以上、図面を参照しながら実施の形態について説明したが、本開示はかかる例に限定されない。当業者であれば、特許請求の範囲に記載された範疇において、各種の変更例または修正例に想到し得ることは明らかである。そのような変更例または修正例についても、本開示の技術的範囲に属するものと了解される。また、本開示の趣旨を逸脱しない範囲において、実施の形態における各構成要素は任意に組み合わされてよい。
本開示はソフトウェア、ハードウェア、又は、ハードウェアと連携したソフトウェアで実現することが可能である。上記実施の形態の説明に用いた各機能ブロックは、部分的に又は全体的に、集積回路であるLSIとして実現され、上記実施の形態で説明した各プロセスは、部分的に又は全体的に、一つのLSI又はLSIの組み合わせによって制御されてもよい。LSIは個々のチップから構成されてもよいし、機能ブロックの一部または全てを含むように一つのチップから構成されてもよい。LSIはデータの入力と出力を備えてもよい。LSIは、集積度の違いにより、IC、システムLSI、スーパーLSI、ウルトラLSIと呼称されることもある。
集積回路化の手法はLSIに限るものではなく、専用回路、汎用プロセッサ又は専用プロセッサで実現してもよい。また、LSI製造後に、プログラムすることが可能なFPGAや、LSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサを利用してもよい。本開示は、デジタル処理又はアナログ処理として実現されてもよい。
さらには、半導体技術の進歩または派生する別技術によりLSIに置き換わる集積回路化の技術が登場すれば、当然、その技術を用いて機能ブロックの集積化を行ってもよい。バイオ技術の適用等が可能性としてありえる。
本開示は、追尾対象物の画像を追尾する監視カメラにおいて有用である。
1 監視カメラ
2 情報処理装置
3 ネットワーク
11a,11b,21a,21b,31a,31b,41a,41b,51 映像フレーム
12a,12b 画像
13a,13b,22a,22b,32a,32b,44 探索範囲
23a,23b,42 自動車
24a,24b,43,53 信号機
33a 人
34a,34b テーブル
35a,35b 収納ボックス
45 斜線
52 出力結果
54 領域
61 画面
62,63a~63c 線
71,111 撮像部
72,83,103,112 記憶部
73,84,104,113 制御部
73a,104a AI処理部
73b,104b マスク領域推定部
73c,104c 類似度算出部
73d,104d マスク領域設定部
74,85,105,114 受信部
75,86,106,115 送信部
81,101 表示部
82,102 入力部
84a マスク領域設定部

Claims (8)

  1. 映像フレームを出力する撮像部と、
    前記映像フレームに探索範囲を設定する制御部と、
    を備え、
    前記制御部は、
    特徴量が計算される領域である計算範囲を前記探索範囲において移動させながら、前記計算範囲を移動させた各位置において画像の前記特徴量を算出し、
    前記探索範囲内の最も前記特徴量が類似した画像を、前記映像フレームの追尾対象画像と判定し、
    前記探索範囲内に追尾対象外の物体画像が含まれる場合、前記物体画像の特徴量をマスクして前記追尾対象画像を抽出
    前記物体画像の物体の種類に応じて前記マスクのマスク強度を変更する、
    監視カメラ。
  2. 前記制御部は、人工知能を用いて前記物体画像を検出する、
    請求項1に記載の監視カメラ。
  3. 前記物体画像の領域が、情報処理装置から指定される、
    請求項1に記載の監視カメラ。
  4. 前記制御部は、前記映像フレームに含まれる前記物体画像のうち、形態が変化しない前記物体画像のマスク強度を、形態が変化する前記物体画像のマスク強度より大きくする、
    請求項に記載の監視カメラ。
  5. 前記制御部は、前記撮像部の画角が変化した場合、前記映像フレーム内における前記物体画像の領域を検出する、
    請求項1からのいずれか一項に記載の監視カメラ。
  6. 前記制御部は、前記物体画像の領域の変化量が閾値を超えた場合、アラーム信号を出力する、
    請求項1からのいずれか一項に記載の監視カメラ。
  7. 前記制御部は、前記特徴量をマスクする前記物体画像を定期的に検出する、
    請求項2に記載の監視カメラ。
  8. 監視カメラから映像フレームを受信する受信部と、
    前記映像フレームに探索範囲を設定する制御部と、
    を備え、
    前記制御部は、
    特徴量が計算される領域である計算範囲を前記探索範囲において移動させながら、前記計算範囲を移動させた各位置において画像の前記特徴量を算出し、
    前記探索範囲内の最も前記特徴量が類似した画像を、前記映像フレームの追尾対象画像と判定し、
    前記探索範囲内に追尾対象外の物体画像が含まれる場合、前記物体画像の特徴量をマスクして前記追尾対象画像を抽出
    前記物体画像の物体の種類に応じて前記マスクのマスク強度を変更する、
    情報処理装置。
JP2019131160A 2019-07-16 2019-07-16 監視カメラおよび情報処理装置 Active JP7287667B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019131160A JP7287667B2 (ja) 2019-07-16 2019-07-16 監視カメラおよび情報処理装置
US16/928,648 US11462087B2 (en) 2019-07-16 2020-07-14 Surveillance camera and information processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019131160A JP7287667B2 (ja) 2019-07-16 2019-07-16 監視カメラおよび情報処理装置

Publications (2)

Publication Number Publication Date
JP2021016134A JP2021016134A (ja) 2021-02-12
JP7287667B2 true JP7287667B2 (ja) 2023-06-06

Family

ID=74340977

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019131160A Active JP7287667B2 (ja) 2019-07-16 2019-07-16 監視カメラおよび情報処理装置

Country Status (2)

Country Link
US (1) US11462087B2 (ja)
JP (1) JP7287667B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111432286B (zh) * 2019-12-31 2022-05-20 杭州海康威视数字技术股份有限公司 视频处理的方法、装置和系统
CN115472014B (zh) * 2022-09-16 2023-10-10 苏州映赛智能科技有限公司 一种交通追溯方法、系统、服务器及计算机存储介质
KR102589401B1 (ko) * 2023-04-21 2023-10-17 엔아이소프트 주식회사 객체 인식을 통한 영상 분석 시스템 및 이를 이용한 영상 분석 방법

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002208009A (ja) 2000-11-09 2002-07-26 Yaskawa Electric Corp 物体検出方法
JP2010009134A (ja) 2008-06-24 2010-01-14 Sony Corp 画像処理システム及び画像処理方法、並びに、プログラム
JP2018185724A (ja) 2017-04-27 2018-11-22 Kddi株式会社 画素変更処理画像を用いて対象を追跡する装置、プログラム及び方法

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10301468B4 (de) * 2002-01-18 2010-08-05 Honda Giken Kogyo K.K. Vorrichtung zur Beobachtung der Umgebung eines Fahrzeugs
WO2009125596A1 (ja) * 2008-04-11 2009-10-15 パナソニック株式会社 画像処理装置、方法、および記憶媒体
US9589595B2 (en) * 2013-12-20 2017-03-07 Qualcomm Incorporated Selection and tracking of objects for display partitioning and clustering of video frames
US10922701B2 (en) * 2016-07-28 2021-02-16 Mastercard International Incorporated Systems and methods for characterizing geographic regions
JP6485490B2 (ja) 2017-05-31 2019-03-20 株式会社ニコン カメラ
US10788830B2 (en) * 2017-07-28 2020-09-29 Qualcomm Incorporated Systems and methods for determining a vehicle position
US10878578B2 (en) * 2017-10-30 2020-12-29 Qualcomm Incorporated Exclusion zone in video analytics
CN110505412B (zh) * 2018-05-18 2021-01-29 杭州海康威视数字技术股份有限公司 一种感兴趣区域亮度值的计算方法及装置
US10764588B2 (en) * 2018-08-10 2020-09-01 Apple Inc. Deep quality enhancement of adaptive downscaled coding for image compression
CN113544021B (zh) * 2019-03-08 2023-12-22 奥拉科产品有限责任公司 用于创建包括自部件排除的碰撞检测训练集的方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002208009A (ja) 2000-11-09 2002-07-26 Yaskawa Electric Corp 物体検出方法
JP2010009134A (ja) 2008-06-24 2010-01-14 Sony Corp 画像処理システム及び画像処理方法、並びに、プログラム
JP2018185724A (ja) 2017-04-27 2018-11-22 Kddi株式会社 画素変更処理画像を用いて対象を追跡する装置、プログラム及び方法

Also Published As

Publication number Publication date
US11462087B2 (en) 2022-10-04
JP2021016134A (ja) 2021-02-12
US20210020005A1 (en) 2021-01-21

Similar Documents

Publication Publication Date Title
JP7287667B2 (ja) 監視カメラおよび情報処理装置
US8102423B2 (en) Method and system for performing adaptive image acquisition
JP6522595B2 (ja) トラッカ補助画像キャプチャ
CN107408303A (zh) 用于对象跟踪的系统和方法
US20100141806A1 (en) Moving Object Noise Elimination Processing Device and Moving Object Noise Elimination Processing Program
US20060244866A1 (en) Moving object detection apparatus, method and program
KR20090006851A (ko) 통계적인 픽셀 모델링을 이용한 비디오 분할
CN108535727B (zh) 跟踪主车辆附近的多个对象的方法
CN112562314A (zh) 基于深度融合的路端感知方法、装置、路端设备和系统
US10937319B2 (en) Information provision system, server, and mobile terminal
US10458807B2 (en) Augmented reality system for visualization of traffic information in a transportation environment
Jain et al. Panoptes: Servicing multiple applications simultaneously using steerable cameras
CN111275737A (zh) 一种目标跟踪方法、装置、设备及存储介质
Chen et al. Single object tracking in satellite videos: A correlation filter-based dual-flow tracker
CN114639171B (zh) 一种停车场全景安全监控方法
US20110228119A1 (en) Image pickup apparatus having masking function
Chen et al. Vision-based road bump detection using a front-mounted car camcorder
US20090110240A1 (en) Method for detecting a moving object in an image stream
KR101780929B1 (ko) 움직이는 물체를 추적하는 영상감시 시스템
CN114615468A (zh) 一种基于安防监控的智能定位方法
US10997732B2 (en) Information display system and information display method
Asano et al. Person reidentification for detection of pedestrians in blind spots through V2V communications
CN114827436A (zh) 一种摄像方法及装置
JP2006012013A (ja) 移動物体追跡装置
KR101956008B1 (ko) 궤적서비스제공장치 및 그 장치의 데이터구축방법

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20190902

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190910

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20191205

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20201224

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220623

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230113

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230405

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230509

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230518

R150 Certificate of patent or registration of utility model

Ref document number: 7287667

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150