WO2022030548A1 - 監視情報処理装置、方法およびプログラム - Google Patents

監視情報処理装置、方法およびプログラム Download PDF

Info

Publication number
WO2022030548A1
WO2022030548A1 PCT/JP2021/028963 JP2021028963W WO2022030548A1 WO 2022030548 A1 WO2022030548 A1 WO 2022030548A1 JP 2021028963 W JP2021028963 W JP 2021028963W WO 2022030548 A1 WO2022030548 A1 WO 2022030548A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
monitoring
storage unit
processing
processing unit
Prior art date
Application number
PCT/JP2021/028963
Other languages
English (en)
French (fr)
Inventor
昌也 岡本
鮎美 松本
哲希 柴田
育弘 宇田
真一 根本
篤 佐藤
知也 児玉
貴司 塩崎
Original Assignee
エヌ・ティ・ティ・コミュニケーションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by エヌ・ティ・ティ・コミュニケーションズ株式会社 filed Critical エヌ・ティ・ティ・コミュニケーションズ株式会社
Publication of WO2022030548A1 publication Critical patent/WO2022030548A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B25/00Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Definitions

  • An embodiment of the present invention relates to a surveillance information processing apparatus, method and program used in a system in which a plurality of surveillance cameras are distributed and arranged in a surveillance area, for example.
  • a plurality of surveillance cameras are distributed and arranged in a surveillance area, and these surveillance cameras can be obtained.
  • a system that detects or tracks a monitored object such as a suspicious person based on video information is known.
  • this system it is assumed that the model and its installation environment are different for each surveillance camera, but if you try to detect or track the surveillance target under such conditions, the detection result for the same surveillance target between the surveillance cameras Variations may occur, which may lead to a decrease in monitoring accuracy.
  • Patent Document 1 corresponds to each camera. For this reason, in a system in which a plurality of surveillance cameras are distributed and arranged in a surveillance area, it is necessary to handle the number of surveillance cameras installed, which places a heavy load on the system administrator and causes error in setting parameters and the like. It was easy.
  • the present invention has been made by paying attention to the above circumstances, and is intended to provide a technique for reducing the load on the system administrator and preventing a decrease in monitoring accuracy due to a setting error.
  • one aspect of the present invention is a device or method for performing information processing related to monitoring based on sensing information obtained based on the outputs of a plurality of distributed sensor devices.
  • the characteristic group information representing the configuration of the sensor device for each group, which is generated by dividing a plurality of sensor devices into a plurality of groups having similar characteristics within a predetermined range, is stored in the first storage unit.
  • the parameter information set for each of the plurality of groups is stored in the second storage unit, and for each of the sensing information obtained by the plurality of sensor devices, the group corresponding to the sensing information is stored in the first storage unit.
  • the characteristic group information stored in the storage unit of the above is specified, the parameter information corresponding to the specified group is selected from the second storage unit, and the selected parameter information is used. Information processing related to the monitoring is performed based on the corresponding sensing information.
  • a plurality of sensor devices are grouped together with similar characteristics such as performance and installation environment, and parameter information corresponding to the characteristics is set for each group. Therefore, in a system in which a plurality of sensor devices are used, it is possible to reduce the load on the system administrator for the parameter information setting process for the plurality of sensor devices, and the probability of occurrence of a setting error is reduced to improve the monitoring accuracy. It becomes possible to improve.
  • FIG. 1 is a diagram showing an example of a configuration of a monitoring system including a monitoring information processing apparatus according to an embodiment of the present invention.
  • FIG. 2 is a block diagram showing an example of a hardware configuration of a Web server device used as a monitoring information processing device according to an embodiment of the present invention.
  • FIG. 3 is a block diagram showing an example of a software configuration of a Web server device used as a monitoring information processing device according to an embodiment of the present invention.
  • FIG. 4 is a diagram showing an example of information stored in a camera information table provided in the Web server device shown in FIG.
  • FIG. 5 is a diagram showing an example of information stored in the camera characteristic group information table provided in the Web server device shown in FIG. FIG.
  • FIG. 6 is a diagram showing an example of information stored in the setting information table provided in the Web server device shown in FIG.
  • FIG. 7 is a flowchart showing a processing procedure and processing contents of the parameter setting processing executed by the Web server device shown in FIGS. 2 and 3.
  • FIG. 8 is a flowchart showing an example of a processing procedure and processing content of a monitoring target detection / tracking process executed by the Web server device shown in FIGS. 2 and 3.
  • FIG. 9 is a diagram showing an example of a parameter setting screen used in the parameter setting process shown in FIG. 7.
  • a surveillance camera is used as a sensor device, and video analysis information obtained based on the outputs of a plurality of surveillance cameras is compared with a threshold set as parameter information to be monitored (The case of performing the processing related to the monitoring work of the query) will be described as an example.
  • the monitoring work includes, for example, processing related to query detection and tracking.
  • FIG. 1 is a diagram showing an overall configuration of a system including a monitoring information processing apparatus according to an embodiment of the present invention.
  • a plurality of surveillance cameras C1 to Cn are distributed and arranged in the aisles and sales floors of large-scale stores such as shopping malls and department stores.
  • surveillance cameras C1 to Cn are attached to, for example, a ceiling or a wall surface, capture images of each surveillance area, and output video data thereof.
  • the video analysis engines VE1 to VEn are attached to the surveillance cameras C1 to Cn, respectively.
  • the video analysis engines VE1 to VEn are similar to the image feature amount of the query from the video data output from the corresponding surveillance cameras C1 to Cn, for example, based on the image feature amount of the query given in advance.
  • a person image having an image feature amount is extracted.
  • a video analysis result including the information showing the similarity between the extracted person image and the query image and the identification information (camera ID) of the corresponding surveillance cameras C1 to Cn is generated.
  • the person image includes a face image and a whole body image, and the similarity information includes a similarity corresponding to each of the face image and the whole body image.
  • the video analysis engines VE1 to VEn are not arranged one-to-one with respect to the surveillance cameras C1 to Cn, but a smaller number of video analysis engines are arranged for a plurality of cameras, and a plurality of video analysis engines are used.
  • the video data of the surveillance camera may be collectively processed.
  • the system of one embodiment includes a Web server device SV used as a monitoring information processing device.
  • the video analysis engines VE1 to VEn are capable of data communication with the Web server device SV via the network NW, and the generated video analysis result is transmitted to the Web server device SV via the network NW. Send to.
  • a wired LAN Local Area Network
  • a wireless LAN is used as the network NW, but any other network may be used.
  • Web server device SV 2 and 3 are block diagrams showing an example of a hardware configuration and a software configuration of the Web server device SV, respectively.
  • the Web server device SV includes a control unit 1 having a hardware processor such as a central processing unit (CPU), and the program storage unit 2 and a data storage unit are provided to the control unit 1 via a bus 6.
  • the storage unit having 3 is connected to the input / output interface (input / output I / F) 4 and the communication interface (communication I / F) 5.
  • a monitor device MT and an administrator terminal OT are connected to the input / output I / F4.
  • the monitoring device MT is used for the observer to visually monitor the monitoring area, and displays images of the surveillance cameras C1 to Cn, information indicating the detection result or the tracking result of the query to be monitored, and the like.
  • the administrator terminal OT is used by the system administrator for system management and maintenance, and displays various setting screens and information indicating the operating status in the system, and the system administrator manages and operates the system. When inputting various necessary data, it has a function of accepting the data and setting it in the Web server device SV.
  • the communication I / F5 transmits data between the video analysis engines VE1 to VEn using a communication protocol defined by the network NW under the control of the control unit 1, for example, the wired LAN or the communication I / F5. It is composed of an interface corresponding to a wireless LAN.
  • the program storage unit 2 includes, for example, a non-volatile memory such as an HDD (Hard Disk Drive) or SSD (Solid State Drive) that can be written and read at any time as a storage medium, and a non-volatile memory such as a ROM (Read Only Memory).
  • a non-volatile memory such as an HDD (Hard Disk Drive) or SSD (Solid State Drive) that can be written and read at any time as a storage medium
  • a non-volatile memory such as a ROM (Read Only Memory).
  • middleware such as an OS (Operating System)
  • OS Operating System
  • the data storage unit 3 is, for example, a combination of a non-volatile memory such as an HDD or SSD capable of writing and reading at any time and a volatile memory such as a RAM (RandomAccessMemory) as a storage medium, and is one of the present inventions.
  • a camera information table 31, a camera characteristic group information table 32, and a setting information table 33 are provided as a main storage unit necessary for implementing the embodiment.
  • the camera information table 31 stores, for example, information indicating, for example, the name, performance, and installation position of the surveillance camera in association with the identification information (hereinafter referred to as the camera ID) for each of the surveillance cameras C1 to Cn.
  • information indicating a camera characteristic group to which the surveillance cameras C1 to Cn belong is also stored.
  • the information representing the above performance includes, for example, resolution and aspect ratio.
  • the information indicating the installation position includes, for example, latitude / longitude, imaging direction, and imaging angle.
  • FIG. 4 shows an example of camera information stored in the camera information table 31.
  • the camera characteristic group information table 32 stores the parameter information set for the camera characteristic group in association with the identification information (hereinafter referred to as group ID) GA, GB, ... For each camera characteristic group.
  • the parameter information is, for example, a threshold value used for determining the similarity between the person image and the query image output from the video analysis engines VE1 to VEn, and is set for each of the face image and the whole body image.
  • FIG. 5 shows an example of camera characteristic group information stored in the camera characteristic group information table 32.
  • the setting information table 33 stores various default data set in advance in association with the camera ID for each of the surveillance cameras C1 to Cn, and is a common parameter commonly set for the surveillance cameras C1 to Cn. Information is also stored.
  • FIG. 6 is a diagram showing an example of common parameter information stored in the setting information table 33.
  • the setting information table 33 may store common parameter information that is commonly set for the surveillance camera group that does not belong to any of the camera characteristic groups.
  • the control unit 1 has a camera characteristic group information acquisition processing unit 11, a parameter information acquisition processing unit 12, a video analysis result acquisition processing unit 13, and a detection / tracking result determination processing as processing functions according to an embodiment of the present invention.
  • a unit 14 and a detection alert output processing unit 15 are provided. All of these processing units 11 to 15 are realized by causing the hardware processor of the control unit 1 to execute the program stored in the program storage unit 2.
  • the camera characteristic group information acquisition processing unit 11 receives information representing the grouping results of the plurality of surveillance cameras C1 to Cn input by the system administrator at the administrator terminal OT via the input / output I / F4. A process of storing the received information in the camera information table 31 is performed.
  • the parameter information acquisition processing unit 12 receives the parameter information for each camera characteristic group input by the system administrator in the administrator terminal OT via the input / output I / F4, and receives the received parameter information as the camera characteristic group information. The process of storing in the table 32 is performed.
  • the video analysis result acquisition processing unit 13 performs processing for receiving the video analysis results transmitted from the video analysis engines VE1 to VEN, respectively, and transmitted via the network NW, respectively, via the communication I / F5.
  • the detection / tracking result determination processing unit 14 refers to the camera information table 31 based on the camera ID included in the video analysis result for each received video analysis result, and determines the group to which the corresponding surveillance camera belongs. do. Then, the parameter information set in association with the determined group is read from the camera characteristic group information table 32, and the similarity included in the video analysis result is determined based on the read parameter information. conduct.
  • the detection / tracking result determination processing unit 14 reads the corresponding common parameter information from the setting information table 33 and reads it out. Based on the common parameter information, the process of determining the similarity included in the video analysis result is performed.
  • the detection alert output processing unit 15 outputs the detection alert information when it is determined by the detection / tracking result determination processing unit 14 that the similarity exceeds the threshold value specified by the parameter information. Generate. Then, the generated detection alert information is output from the input / output I / F4 to the monitoring device MT and displayed.
  • the case where the tables 31 to 33 provided in the data storage unit 3 are provided in the Web server device SV is taken as an example.
  • the present invention is not limited to this, and it may be provided in a database server or a file server arranged outside the Web server device SV.
  • the Web server device SV accesses each of the tables 31 to 33 in the database server or the file server and acquires necessary information to perform each of the above processes.
  • the system administrator Prior to the start of system operation, the system administrator first obtains information on the performance of each of the surveillance cameras C1 to Cn and the environmental conditions (illumination brightness) of each surveillance area by the surveillance cameras C1 to Cn. In consideration of the number of pods), the surveillance cameras C1 to Cn are divided into a plurality of camera characteristic groups GA, GB, ... With similar performance and environmental conditions within a predetermined range. Next, for each of the divided camera characteristic groups GA, GB, ..., Parameter information appropriate for query detection / tracking determination is determined from the video analysis results obtained by the corresponding video analysis engines VE1 to VEn.
  • the system administrator actually visually recognizes the image of each surveillance area, which is the result of reflecting the performance and environmental conditions of the surveillance cameras C1 to Cn, on the monitor device MT or the administrator terminal OT.
  • Surveillance cameras C1 to Cn are grouped, and an appropriate threshold for determining the degree of similarity between the person image and the query image is determined for each of the face image and the whole body image for each of the divided groups GA, GB, ... do.
  • the system administrator requests the Web server device SV to set the parameter information from the administrator terminal OT.
  • the control unit 1 of the Web server device SV subsequently executes the parameter information setting process as follows.
  • FIG. 7 is a flowchart showing a procedure for setting parameter information and processing contents executed by the Web server device SV. That is, the control unit 1 of the Web server device SV activates the parameter setting mode in response to the parameter setting request in step S10. Then, when the parameter setting mode is activated, first, under the control of the camera characteristic group information acquisition processing unit 11, the display data of the parameter setting screen is transmitted from the input / output I / F4 to the administrator terminal OT and displayed in step S11. ..
  • FIG. 9 shows an example of the parameter setting screen displayed on the administrator terminal OT.
  • the parameter setting screen includes the parameter setting windows 41A, 41B, ... For each camera characteristic group GA, GB, ..., the group setting window 42 for each surveillance camera C1 to Cn, the edit button 43, the update button 44, and the close button. It has 45 and.
  • the system administrator After pressing the edit button 43 on the parameter setting screen, the system administrator first inputs information GA, GB, ... Representing the result of grouping for each of the surveillance cameras C1 to Cn in the group setting window 42. Next, the parameter information is input to the parameter setting windows 41A, 41B, ... For each camera characteristic group GA, GB, .... Then, after the input operation is completed, the update button 44 is pressed. Note that FIG. 9 shows only the parameter setting windows 41A and 41B corresponding to the camera characteristic groups GA and GB and the group setting windows 42 corresponding to the surveillance cameras C1 to C6 for the sake of simplicity.
  • the administrator terminal OT transmits information GA, GB, ... Representing the result of the grouping, and parameter information for each camera characteristic group GA, GB, ... To the Web server device SV. do.
  • the control unit 1 of the Web server device SV is the group transmitted from the administrator terminal OT in steps S12 and S13 under the control of the camera characteristic group information acquisition processing unit 11 and the parameter information acquisition processing unit 12, respectively.
  • Information GA, GB, ... Representing the result of division and parameter information for each camera characteristic group GA, GB, ... Are received via the input / output I / F4.
  • the received information GA, GB, ... Representing the result of the grouping is stored in the camera information table 31 as the camera characteristic group information, and the received parameter information for each of the camera characteristic groups GA, GB, ... Is stored in the camera. It is stored in the characteristic group information table 32.
  • the control unit 1 of the Web server device SV transmits the set information representing the result of the grouping and the parameter information to the administrator terminal OT, and the above parameters. It is displayed in the parameter setting windows 41A and 41B of the setting screen and the group setting window 42, respectively.
  • the system administrator can confirm the setting result of each of the above information.
  • the control unit 1 of the Web server device SV recognizes the end of the setting in step S14 and returns to the standby state.
  • the control unit 1 of the Web server device SV subsequently searches the camera information table 31 in step S24 under the control of the detection / tracking result determination processing unit 14, and based on the camera information stored in the camera information table 31.
  • step S25 it is determined whether or not the selected surveillance camera C1 belongs to any of the camera characteristic groups.
  • the detection / tracking result determination processing unit 14 proceeds to step S26, and reads the parameter information corresponding to the camera characteristic group from the camera characteristic group information table 32. For example, if the surveillance camera C1 belongs to the camera characteristic group GA as shown in FIG. 9, the parameter information set corresponding to the camera characteristic group GA is read from the camera characteristic group information table 32.
  • step S28 the detection / tracking result determination processing unit 14 determines the similarity of the face image and the similarity of the body image included in the video analysis result acquired in step S23, respectively, as the read parameter information. Judgment is made based on the threshold "face 800" for determining the similarity of the face image and the threshold "body-2.5" for determining the similarity of the body image included in.
  • the detection / tracking result determination processing unit 14 proceeds to step S27 and reads out common parameter information commonly set for each surveillance camera that does not belong to any camera characteristic group from the setting information table 33. For example, if the surveillance camera C6 does not belong to any of the camera characteristic groups as shown in FIG. 9, the common parameter information is read from the setting information table 33.
  • step S28 the detection / tracking result determination processing unit 14 determines the similarity of the face image and the similarity of the body image included in the video analysis result acquired in step S23, respectively, as the common parameters read out. The determination is made based on the threshold for determining the similarity of the face image included in the information (for example, “face700”) and the threshold for determining the similarity of the body image (for example, “body-2.0”).
  • step S29 the control unit 1 of the Web server device SV generates the detection alert information in step S30 under the control of the detection alert output processing unit 15, and the generated detection alert information is input from the input / output I / O 4 to the monitor device MT. Output to and display.
  • the face image or body image of the corresponding person is surrounded by a yellow or red frame, or a predetermined caution mark is placed on the face image or body image of the person. You can use the ones that are attached.
  • the control unit 1 of the Web server device SV is controlled by the video analysis result acquisition processing unit 13 in step S31. It is determined whether or not the camera number Ck has reached Cn, that is, whether or not all the surveillance cameras C1 to Cn have been selected. As a result of this determination, if an unselected surveillance camera remains, the process returns to step S22, the camera number Ck is incremented, the next surveillance camera Ck is selected, and then the detection / tracking process according to steps S23 to S30. Is repeated.
  • the control unit 1 of the Web server device SV monitors whether or not the detection / tracking mode termination operation has been performed in step S32. If the detection / tracking mode is still maintained, the process returns to step S21 to initialize the numbers Ck of the surveillance cameras C1 to Cn, and then the detection / tracking process is repeatedly executed in steps S22 to S31.
  • the detection / tracking process for the surveillance cameras C1 to Cn is repeated, for example, in the frame period (for example, 1 second) of the image obtained by the surveillance cameras C1 to Cn.
  • the repetition cycle of this series of processes is not limited to the frame cycle, and may be set to, for example, a cycle of 2 seconds or more, and the setting can be arbitrarily changed according to the wishes of the observer.
  • the Web server device SV has information GA, GB, ...
  • the parameter information for each camera characteristic group GA, GB, ... Representing the result of the above grouping are stored in tables 31 and 32, respectively.
  • a detection alert is output when at least one of the similarity between the face image and the body image exceeds the threshold value.
  • the detected image and the query are based on the parameter information according to these performances and the environmental conditions. It is possible to determine the degree of similarity with the image, which enables highly accurate determination.
  • the surveillance cameras C1 to Cn are grouped into groups having similar performance and environmental conditions in the monitored area within a predetermined range, and parameter information is set for each group. For this reason, the system administrator does not need to set the parameter information individually for the surveillance cameras C1 to Cn, and as a result, the system administrator bears the burden of managing the parameter information due to the addition or replacement of the surveillance cameras, the change of the installation position, and the like. Can be significantly reduced, and the occurrence of erroneous settings can also be reduced.
  • the system administrator determines the grouping of the surveillance cameras C1 to Cn and the parameter information corresponding to each group, and sets each determined information from the administrator terminal OT to the Web server device SV.
  • the case was explained as an example.
  • the present invention is not limited to this, and the Web server device SV may be provided with a function of grouping the surveillance cameras C1 to Cn and determining and setting parameter information corresponding to each group.
  • the control unit of the Web server device SV collects the performance information of the surveillance cameras C1 to Cn and the information representing the environmental conditions (lighting and the number of people) of the surveillance area in advance and stores them in the data storage unit 3.
  • the above information is updated every time the surveillance camera is newly installed or replaced, or every time the installation conditions such as the installation position are changed.
  • control unit 1 of the Web server sets the performance and environmental conditions of the surveillance cameras C1 to Cn in preset ranges based on the performance information of the surveillance cameras C1 to Cn and the information representing the environmental conditions of the surveillance area. Those included in the group are classified into a plurality of groups GA, GB, ....
  • Parameter information corresponding to the performance and environmental conditions of the surveillance cameras belonging to the group GA, GB, ... Is set.
  • this parameter information for example, prepare a table in which parameter information is stored in association with all combinations of the performance of the surveillance camera and the average value of the environmental conditions, and from this table, the performance and the environmental conditions of the surveillance camera are described. It is performed by reading the parameter information corresponding to the average value of.
  • the control unit 1 of the Web server stores the group IDs of the groups GA, GB, ... To which the surveillance cameras C1 to Cn belong in the camera information table 31 for each of the surveillance cameras C1 to Cn. At the same time, the parameter information set for each group GA, GB, ... Is stored in the camera characteristic group information table 32.
  • parameter information stored in the conversion table may be automatically corrected by a correction request input by the system administrator or the monitor based on the output result of the detection alert.
  • the sensor device is configured by the surveillance cameras C1 to Cn and the video analysis engines VE1 to VEn, and the video analysis result obtained by the video analysis engines VE1 to VEn is determined based on the parameter information.
  • the sensor device is not limited to this, and the sensor device is composed of a motion sensor using an acceleration sensor, a noise sensor, an optical sensor, an infrared sensor, a vibration sensor, a strain sensor, a biological sensor, etc., and a measurement data processing unit thereof.
  • the present invention is also applicable when determining the analysis result of the measured data based on the parameter information.
  • the configuration of the monitoring information processing apparatus, its processing procedure and processing content, the types of characteristics that are the conditions for grouping, and the content of parameter information are also variously modified and implemented without departing from the gist of the present invention. can.
  • the present invention is not limited to the above embodiment as it is, and at the implementation stage, the components can be modified and embodied within a range that does not deviate from the gist thereof.
  • various inventions can be formed by an appropriate combination of the plurality of components disclosed in the above-described embodiment. For example, some components may be removed from all the components shown in the embodiments. In addition, components from different embodiments may be combined as appropriate.
  • SV ... Web server device OT ... Administrator terminal MT ... Monitor device NW ... Network C1-Cn ... Surveillance camera VE1-VEN ... Video analysis engine 1 ... Control unit 2 ... Program storage unit 3 ... Data storage unit 4 ... Input / output I / F 5 ... Communication I / F 6 ... Bus 11 ... Camera characteristic group information acquisition processing unit 12 ... Parameter information acquisition processing unit 13 ... Video analysis result acquisition processing unit 14 ... Detection / tracking result judgment processing unit 15 ... Detection alert output processing unit 31 ... Camera information table 32 ... Camera characteristic group information table 33 ... Setting information table

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Business, Economics & Management (AREA)
  • Emergency Management (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Alarm Systems (AREA)

Abstract

システム管理者の負荷の軽減および設定誤りによる監視精度の低下防止を図る。 この発明の一態様は、監視情報処理装置において、複数のセンサデバイスをその特性が所定の範囲で類似するもの同士で複数のグループに分けることにより生成されるカメラ特性グループ情報と、前記複数のグループの各々に対し設定されるパラメータ情報をそれぞれ取得して記憶部に記憶させる。そして、前記複数のセンサデバイスにより得られるセンシング情報毎に、当該センシング情報に対応するグループを前記カメラ特性グループ情報をもとに特定し、特定された前記グループに対応する前記パラメータ情報を選択的に用いて、対応する前記センシング情報に基づく前記監視に係る情報処理を行う。

Description

監視情報処理装置、方法およびプログラム
 この発明の実施形態は、例えば監視エリアに複数台の監視カメラを分散配置したシステムで使用される監視情報処理装置、方法およびプログラムに関する。
 例えば、ショッピングモール等の大規模店舗や、オフィスビル、駅の構内等のように多くの人が利用する施設において、監視エリアに複数台の監視カメラを分散配置し、これらの監視カメラにより得られる映像情報に基づいて不審者等の監視対象の検知または追跡を行うシステムが知られている。このシステムにおいては、監視カメラ毎に機種やその設置環境が異なる場合が想定されるが、このような条件で監視対象を検知または追跡を行おうとすると、監視カメラ間で同一の監視対象に対する検知結果のバラツキが発生し、これにより監視精度の低下を招くおそれがある。
 そこで、カメラの設置条件や環境要因による多様な環境変動に対し対応できるようにした映像解析技術が提案されている(例えば特許文献1を参照)。
国際公開WO 2018/179151号公報
 ところが、特許文献1に記載された技術はカメラ毎に対応を行うものとなっている。このため、監視エリアに複数台の監視カメラを分散配置するシステムでは、監視カメラの設置台数分の対応処理が必要となることから、システム管理者の負荷が大きくまたパラメータ等の設定誤り等を生じやすかった。
 この発明は上記事情に着目してなされたもので、システム管理者の負荷の軽減および設定誤りによる監視精度の低下防止を図った技術を提供しようとするものである。
 上記課題を解決するためにこの発明の一態様は、分散配置された複数のセンサデバイスの出力をもとに得られるセンシング情報に基づいて監視に係る情報処理を行う装置または方法にあって、前記複数のセンサデバイスをその特性が所定の範囲で類似するもの同士で複数のグループに分けることにより生成される、前記グループ毎の前記センサデバイスの構成を表す特性グループ情報を第1の記憶部に記憶させ、前記複数のグループの各々に対し設定されるパラメータ情報を第2の記憶部に記憶させ、前記複数のセンサデバイスにより得られる前記センシング情報毎に、当該センシング情報に対応するグループを前記第1の記憶部に記憶された前記特性グループ情報をもとに特定し、特定された前記グループに対応する前記パラメータ情報を前記第2の記憶部から選択し、選択された前記パラメータ情報を用いて、対応する前記センシング情報に基づく前記監視に係る情報処理を行うようにしたものである。
 この発明の一態様によれば、複数台のセンサデバイスが、その性能や設置環境等の特性が類似するもの同士でグループ化され、グループごとにその特性に対応するパラメータ情報が設定される。このため、センサデバイスが複数台使用されるシステムにおいて、上記複数台のセンサデバイスに対するパラメータ情報の設定処理に対するシステム管理者の負荷を軽減することができ、また設定誤りの発生確率を下げて監視精度の向上を図ることが可能となる。
図1は、この発明の一実施形態に係る監視情報処理装置を含む監視システムの構成の一例を示す図である。 図2は、この発明の一実施形態に係る監視情報処理装置として用いられるWebサーバ装置のハードウェア構成の一例を示すブロック図である。 図3は、この発明の一実施形態に係る監視情報処理装置として用いられるWebサーバ装置のソフトウェア構成の一例を示すブロック図である。 図4は、図3に示したWebサーバ装置に設けられるカメラ情報テーブルに記憶される情報の一例を示す図である。 図5は、図3に示したWebサーバ装置に設けられるカメラ特性グループ情報テーブルに記憶される情報の一例を示す図である。 図6は、図3に示したWebサーバ装置に設けられる設定情報テーブルに記憶される情報の一例を示す図である。 図7は、図2および図3に示したWebサーバ装置により実行されるパラメータ設定処理の処理手順と処理内容を示すフローチャートである。 図8は、図2および図3に示したWebサーバ装置により実行される、監視対象の検知/追跡処理の処理手順と処理内容の一例を示すフローチャートである。 図9は、図7に示したパラメータ設定処理において使用されるパラメータ設定画面の一例を示す図である。
 以下、図面を参照してこの発明に係わる実施形態を説明する。
 [一実施形態]
 この発明の一実施形態では、センサデバイスとして監視カメラを使用し、複数台の監視カメラの出力をもとに得られる映像解析情報を、パラメータ情報として設定した閾値と比較することにより、監視対象(クエリ)の監視業務に係る処理を行う場合を例にとって説明する。ここで、監視業務には、例えばクエリの検知と追跡に係る処理が含まれるものとする。
 (構成例)
 (1)システム
 図1は、この発明の一実施形態に係る監視情報処理装置を含むシステムの全体構成を示す図である。 
 例えば、ショッピングモールや百貨店などの大規模店舗の通路や売り場には、複数台の監視カメラC1~Cnが分散配置されている。監視カメラC1~Cnは、例えば天井または壁面に取着され、それぞれの監視エリアを撮像してその映像データを出力する。
 監視カメラC1~Cnには、それぞれ映像解析エンジンVE1~VEnが付設されている。映像解析エンジンVE1~VEnはそれぞれ、例えば事前に与えられたクエリの画像特徴量をもとに、対応する上記監視カメラC1~Cnから出力される映像データから、上記クエリの画像特徴量と類似する画像特徴量を有する人物画像を抽出する。そして、抽出された上記人物画像と、クエリ画像との類似度を表す情報と、対応する監視カメラC1~Cnの識別情報(カメラID)とを含む映像解析結果を生成する。上記人物画像には、顔(face)の画像と、全身(body)の画像が含まれ、類似度情報には上記顔画像および全身画像それぞれに対応する類似度が含まれる。
 なお、映像解析エンジンVE1~VEnは監視カメラC1~Cnに対し一対一に配置せず、複数台のカメラに対しそれより少数の映像解析エンジンを配置して、少数の映像解析エンジンにより複数台の監視カメラの映像データを一括処理するようにしてもよい。
 また、一実施形態のシステムは、監視情報処理装置として使用されるWebサーバ装置SVを備える。上記映像解析エンジンVE1~VEnは、ネットワークNWを介して上記Webサーバ装置SVとの間でデータ通信が可能となっており、生成された上記映像解析結果を上記ネットワークNWを介してWebサーバ装置SVへ送信する。ネットワークNWには、例えば有線LAN(Local Area Network)または無線LANが用いられるが、他のどのようなネットワークが使用されてもよい。
 (2)Webサーバ装置SV
 図2および図3は、それぞれWebサーバ装置SVのハードウェア構成およびソフトウェア構成の一例を示すブロック図である。 
 Webサーバ装置SVは、中央処理ユニット(Central Processing Unit:CPU)等のハードウェアプロセッサを有する制御部1を備え、この制御部1に対し、バス6を介して、プログラム記憶部2およびデータ記憶部3を有する記憶ユニットと、入出力インタフェース(入出力I/F)4と、通信インタフェース(通信I/F)5とを接続したものとなっている。
 入出力I/F4には、例えばモニタ装置MTおよび管理者端末OTが接続される。モニタ装置MTは、監視者が監視エリアを目視監視するために使用されるもので、監視カメラC1~Cnの映像や、監視対象となるクエリの検知結果または追跡結果を表す情報などを表示する。
 管理者端末OTは、システム管理者がシステム管理や保守等のために使用するもので、各種設定画面やシステム内の動作状態を表す情報を表示すると共に、システム管理者がシステムの管理・運用に必要な種々データを入力したときに当該データを受け付けてWebサーバ装置SVに設定する機能を有する。
 通信I/F5は、制御部1の制御の下、ネットワークNWにより定義される通信プロトコルを使用して、上記映像解析エンジンVE1~VEnとの間でデータ伝送を行うもので、例えば上記有線LANまたは無線LANに対応するインタフェースにより構成される。
 プログラム記憶部2は、例えば、記憶媒体としてHDD(Hard Disk Drive)またはSSD(Solid State Drive)等の随時書込みおよび読出しが可能な不揮発性メモリと、ROM(Read Only Memory)等の不揮発性メモリとを組み合わせて構成したもので、OS(Operating System)等のミドルウェアに加えて、この発明の一実施形態に係る各種制御処理を実行するために必要なプログラムを格納する。
 データ記憶部3は、例えば、記憶媒体として、HDDまたはSSD等の随時書込みおよび読出しが可能な不揮発性メモリと、RAM(Random Access Memory)等の揮発性メモリと組み合わせたもので、この発明の一実施形態を実施するために必要な主たる記憶部として、カメラ情報テーブル31と、カメラ特性グループ情報テーブル32と、設定情報テーブル33とを備えている。
 カメラ情報テーブル31は、監視カメラC1~Cn毎に、その識別情報(以後カメラIDと称する)に対応付けて、例えば監視カメラの名称、性能および設置位置を表す情報を記憶するもので、それに加え一実施形態では監視カメラC1~Cnが属するカメラ特性グループを示す情報も記憶する。
 上記性能を表す情報には、例えば解像度やアスペクト比が含まれる。また設置位置を示す情報には、例えば緯度経度、撮像方向および撮像角度が含まれる。図4は、カメラ情報テーブル31に記憶されるカメラ情報の一例を示したものである。
 カメラ特性グループ情報テーブル32は、カメラ特性グループ毎に、その識別情報(以後グループIDと称する)GA,GB,…に対応付けて、当該カメラ特性グループに対し設定されたパラメータ情報を記憶する。パラメータ情報は、例えば、映像解析エンジンVE1~VEnから出力される人物画像とクエリ画像との類似度を判定するために使用される閾値であり、顔画像および全身画像のそれぞれについて設定される。図5は、カメラ特性グループ情報テーブル32に記憶されるカメラ特性グループ情報の一例を示すものである。
 設定情報テーブル33は、監視カメラC1~Cn毎に、そのカメラIDに対応付けて事前に設定された種々のデフォルトデータを記憶するもので、監視カメラC1~Cnに対し共通に設定された共通パラメータ情報も記憶される。図6は、設定情報テーブル33に記憶される共通パラメータ情報の一例を示す図である。なお、設定情報テーブル33には、いずれのカメラ特性グループにも属さない監視カメラ群に対し共通に設定された共通パラメータ情報が記憶されるようにしてもよい。
 制御部1は、この発明の一実施形態に係る処理機能として、カメラ特性グループ情報取得処理部11と、パラメータ情報取得処理部12と、映像解析結果取得処理部13と、検知/追跡結果判定処理部14と、検知アラート出力処理部15とを備えている。これらの処理部11~15は、何れもプログラム記憶部2に格納されたプログラムを制御部1のハードウェアプロセッサに実行させることにより実現される。
 カメラ特性グループ情報取得処理部11は、管理者端末OTにおいてシステム管理者により入力された、複数の監視カメラC1~Cnのグループ分けの結果を表す情報を、入出力I/F4を介して受け取り、受け取った上記情報をカメラ情報テーブル31に記憶させる処理を行う。
 パラメータ情報取得処理部12は、管理者端末OTにおいてシステム管理者により入力された、各カメラ特性グループに対するパラメータ情報を、入出力I/F4を介して受け取り、受け取った上記パラメータ情報をカメラ特性グループ情報テーブル32に記憶させる処理を行う。
 映像解析結果取得処理部13は、映像解析エンジンVE1~VEnからそれぞれ送信され、ネットワークNWを介して伝送された映像解析結果を、通信I/F5を介してそれぞれ受信する処理を行う。
 検知/追跡結果判定処理部14は、受信された上記映像解析結果毎に、当該映像解析結果に含まれるカメラIDをもとにカメラ情報テーブル31を参照し、対応する監視カメラが属するグループを判定する。そして、判定されたグループに対応付けて設定されているパラメータ情報をカメラ特性グループ情報テーブル32から読み出し、読み出されたパラメータ情報に基づいて、上記映像解析結果に含まれる類似度を判定する処理を行う。
 また検知/追跡結果判定処理部14は、上記カメラ情報テーブル31に、対応する監視カメラが属するグループが設定されていない場合には、設定情報テーブル33から対応する共通パラメータ情報を読み出し、読み出された共通パラメータ情報に基づいて、上記映像解析結果に含まれる類似度を判定する処理を行う。
 検知アラート出力処理部15は、上記検知/追跡結果判定処理部14による類似度の判定の結果、類似度がパラメータ情報により指定される閾値を超えていると判定された場合に、検知アラート情報を生成する。そして、生成された検知アラート情報を、入出力I/F4からモニタ装置MTへ出力し表示させる処理を行う。
 なお、以上の説明では、上記データ記憶部3に設けられた各テーブル31~33をWebサーバ装置SV内に設けた場合を例にとった。しかし、それに限らず、Webサーバ装置SV外に配置されたデータベースサーバまたはファイルサーバ内に設けるようにしてもよい。この場合、Webサーバ装置SVが上記データベースサーバまたはファイルサーバ内の各テーブル31~33に対しアクセスし、必要な情報を取得することにより上記各処理を行う。
 (動作例)
 次に、以上のように構成されたWebサーバ装置SVの動作例を説明する。 
 (1)パラメータ情報の設定
 システム管理者は、システムの運用開始に先立ち、先ず、監視カメラC1~Cnがそれぞれ有する性能に関する情報と、監視カメラC1~Cnによる各監視エリアの環境条件(照明の明るさや人数)とを考慮して、監視カメラC1~Cnを上記性能および環境条件が所定の範囲内で類似するもの同士で複数のカメラ特性グループGA,GB,…に分ける。次に、分けられたカメラ特性グループGA,GB,…毎に、対応する映像解析エンジンVE1~VEnにより得られる映像解析結果からクエリの検知/追跡判定を行う上で適切なパラメータ情報を決定する。
 一例としては、上記監視カメラC1~Cnの性能および環境条件が反映された結果である各監視エリアの映像を、システム管理者がモニタ装置MTまたは管理者端末OTで実際に視認することで、先ず監視カメラC1~Cnをグループ分けし、分けられたグループGA,GB,…毎に、人物画像とクエリ画像との類似度を判定するための適切な閾値を、顔画像および全身画像のそれぞれについて決定する。
 上記グループ分けおよびパラメータ情報の決定が終了すると、システム管理者は管理者端末OTからWebサーバ装置SVに対しパラメータ情報の設定を要求する。
 Webサーバ装置SVの制御部1は、管理者端末OTからパラメータ設定要求が送られると、以後次のようにパラメータ情報の設定処理を実行する。
 図7は、Webサーバ装置SVにより実行されるパラメータ情報の設定処理手順と処理内容を示すフローチャートである。 
 すなわち、Webサーバ装置SVの制御部1は、ステップS10において、上記パラメータ設定要求に応じてパラメータ設定モードを起動する。そして、パラメータ設定モードが起動されると、先ずカメラ特性グループ情報取得処理部11の制御の下、ステップS11によりパラメータ設定画面の表示データを入出力I/F4から管理者端末OTへ送信し表示させる。
 図9は、管理者端末OTに表示されるパラメータ設定画面の一例を示すものである。パラメータ設定画面は、カメラ特性グループGA,GB,…毎のパラメータ設定ウィンドウ41A,41B,…と、監視カメラC1~Cn毎のグループ設定ウィンドウ42と、editボタン43と、updateボタン44と、closeボタン45とを有する。
 システム管理者は、上記パラメータ設定画面において、editボタン43を押下した後、先ず監視カメラC1~Cn毎にグループ分けの結果を表す情報GA,GB,…をグループ設定ウィンドウ42に入力する。次に、カメラ特性グループGA,GB,…毎に、そのパラメータ情報をパラメータ設定ウィンドウ41A,41B,…に入力する。そして、入力操作の終了後、updateボタン44を押下する。なお、図9では図示の簡単のため、カメラ特性グループGA,GBに対応するパラメータ設定ウィンドウ41A,41Bと、監視カメラC1~C6に対応するグループ設定ウィンドウ42のみを示している。
 上記updateボタン44が押下されると、管理者端末OTは上記グループ分けの結果を表す情報GA,GB,…と、カメラ特性グループGA,GB,…毎のパラメータ情報を、Webサーバ装置SVへ送信する。
 これに対しWebサーバ装置SVの制御部1は、カメラ特性グループ情報取得処理部11およびパラメータ情報取得処理部12の制御の下、それぞれステップS12,S13において、管理者端末OTから送信された上記グループ分けの結果を表す情報GA,GB,…と、カメラ特性グループGA,GB,…毎のパラメータ情報を入出力I/F4を介して受信する。そして、受信された上記グループ分けの結果を表す情報GA,GB,…をカメラ特性グループ情報としてカメラ情報テーブル31に記憶させ、受信された上記カメラ特性グループGA,GB,…毎のパラメータ情報をカメラ特性グループ情報テーブル32に記憶させる。
 上記各情報の記憶処理、つまり設定登録処理が終了すると、Webサーバ装置SVの制御部1は、設定された上記グループ分けの結果を表す情報およびパラメータ情報を管理者端末OTへ送信し、上記パラメータ設定画面のパラメータ設定ウィンドウ41A,41Bおよびグループ設定ウィンドウ42にそれぞれ表示させる。かくして、システム管理者は上記各情報の設定結果を確認することができる。
 上記設定結果の確認後に、システム管理者が上記パラメータ設定画面のcloseボタン45を押下すると、Webサーバ装置SVの制御部1は、ステップS14において設定終了を認識し、待受状態に戻る。
 (2)監視対象の検知/追跡処理
 システム管理者または監視者は、監視対象の検知/追跡を行う際に、例えばWebサーバ装置SV内のデータ記憶部3に保存されている過去の監視映像を検索し、監視対象となるクエリを指定する。なお、Webサーバ装置SVとは別にファイルサーバが配置され、このファイルサーバに監視映像が保存されている場合には、このファイルサーバから過去の監視映像を取得し、クエリを指定する。そして、管理者端末OTにおいて検知/追跡モードを設定する。そうすると、Webサーバ装置SVは次のように検知/追跡処理を実行する。
 図8は、Webサーバ装置SVにより実行される監視対象の検知/追跡処理の処理手順と処理内容の一例を示すフローチャートである。 
 すなわち、Webサーバ装置SVの制御部1は、検知/追跡モードの設定をステップS20で認識すると、映像解析結果取得処理部13の制御の下、先ずステップS21によりカメラ番号Ckを初期化する。そして、ステップS22によりカメラ番号Ckを例えばCk=1に設定することにより監視カメラC1を選択し、ステップS23により対応する映像解析エンジンVE1から映像解析結果を取得する。
 Webサーバ装置SVの制御部1は、続いて検知/追跡結果判定処理部14の制御の下、ステップS24によりカメラ情報テーブル31を検索し、カメラ情報テーブル31に記憶されたカメラ情報をもとに、選択された上記監視カメラC1がいずれかのカメラ特性グループに属しているか否かをステップS25により判定する。
 この判定の結果、上記選択された上記監視カメラC1がいずれかのカメラ特性グループに属していたとする。この場合、検知/追跡結果判定処理部14はステップS26に移行し、上記カメラ特性グループに対応するパラメータ情報をカメラ特性グループ情報テーブル32から読み出す。例えば、図9に示したように監視カメラC1がカメラ特性グループGAに属していれば、このカメラ特性グループGAに対応して設定されたパラメータ情報をカメラ特性グループ情報テーブル32から読み出す。
 そして、検知/追跡結果判定処理部14は、ステップS28において、上記ステップS23により取得された映像解析結果に含まれる顔画像の類似度および身体画像の類似度を、それぞれ上記読み出されたパラメータ情報に含まれる顔画像の類似度判定用の閾値“face 800”および身体画像の類似度判定用の閾値“body -2.5”に基づいて判定する。
 これに対し、上記選択された上記監視カメラがいずれのカメラ特性グループにも属していなかったとする。この場合、検知/追跡結果判定処理部14はステップS27に移行し、設定情報テーブル33からいずれのカメラ特性グループにも属さない各監視カメラに対し共通に設定された共通パラメータ情報を読み出す。例えば、図9に示したように監視カメラC6がいずれのカメラ特性グループにも属していなければ、設定情報テーブル33から上記共通パラメータ情報を読み出す。
 そして、検知/追跡結果判定処理部14は、ステップS28において、上記ステップS23により取得された映像解析結果に含まれる顔画像の類似度および身体画像の類似度を、それぞれ上記読み出された共通パラメータ情報に含まれる顔画像の類似度判定用の閾値(例えば“face 700”)および身体画像の類似度判定用の閾値(例えば“body -2.0”)に基づいて判定する。
 そして、上記判定の結果、上記映像解析結果に含まれる顔画像の類似度および身体画像の類似度の少なくとも一方が、上記パラメータ情報に含まれる顔画像の類似度判定用の閾値および身体画像の類似度判定用の閾値を超えていることがステップS29により確認されたとする。この場合、Webサーバ装置SVの制御部1は、検知アラート出力処理部15の制御の下、ステップS30により検知アラート情報を生成し、生成された検知アラート情報を入出力I/F4からモニタ装置MTへ出力し、表示させる。このときの検知アラートの表示形態としては、例えば、該当する人物の顔画像または身体の画像を黄色または赤色の枠で囲うものや、上記人物の顔画像または身体の画像に所定の要注意マークを付すもの等を使用することができる。
 上記したように一つの監視カメラCkにより得られる映像に対する一連の検知/追跡処理が終了すると、Webサーバ装置SVの制御部1は、映像解析結果取得処理部13の制御の下、ステップS31により、カメラ番号CkがCnに達したか否か、つまりすべての監視カメラC1~Cnの選択が終了したか否かを判定する。この判定の結果、未選択の監視カメラが残っている場合には、ステップS22に戻ってカメラ番号Ckをインクリメントして次の監視カメラCkを選択し、以後ステップS23~ステップS30による検知/追跡処理を繰り返し実行する。
 一方、すべての監視カメラC1~Cnについて上記検知/追跡処理が終了すると、Webサーバ装置SVの制御部1は、ステップS32において検知/追跡モードの終了操作が行われたか否かを監視する。そして、まだ検知/追跡モードが維持されていれば、ステップS21に戻って監視カメラC1~Cnの番号Ckを初期化し、以後ステップS22~ステップS31により検知/追跡処理を繰り返し実行する。
 上記監視カメラC1~Cnに対する検知/追跡処理は、例えば監視カメラC1~Cnにより得られる映像のフレーム周期(例えば1秒)で繰り返される。なお、この一連の処理の繰り返し周期は、フレーム周期に限らず、例えば2秒以上の周期に設定されてもよく、監視者の希望に応じて任意に設定変更可能である。
 (作用・効果)
 以上述べたように一実施形態では、Webサーバ装置SVが、管理者端末OTにおいてシステム管理者により入力された、監視カメラC1~Cnのグループ分け結果を表す情報GA,GB,…と、カメラ特性グループGA,GB,…毎のパラメータ情報を受信し、受信された上記グループ分けの結果を表す情報GA,GB,…およびカメラ特性グループGA,GB,…毎のパラメータ情報をそれぞれテーブル31,32に記憶させる。そして、映像解析エンジンVE1~VEnにより得られる映像解析結果をもとに監視対象を検知/追跡する処理を行う際に、監視カメラC1~Cn毎に当該監視カメラC1~Cnが属するカメラ特性グループGA,GB,…を判定し、判定されたカメラ特性グループGA,GB,…に対応するパラメータ情報を用いて、上記映像解析結果に含まれる顔画像および身体画像とクエリ画像との類似度を判定し、顔画像および身体画像の類似度の少なくとも一方が閾値を超えている場合に検知アラートを出力するようにしている。
 従って、監視カメラC1~Cn毎に、その撮像性能や監視対象エリアの環境条件(照明の明るさや人数)が異なる場合でも、これらの性能および環境条件に応じたパラメータ情報に基づいて検出画像とクエリ画像との類似度判定を行うことができ、これにより精度の高い判定が可能になる。
 しかも、監視カメラC1~Cnが、その性能や監視対象エリアの環境条件が所定の範囲内で類似するもの同士でグループ分けされ、グループ毎にパラメータ情報が設定される。このため、システム管理者は監視カメラC1~Cnに対し個別にパラメータ情報を設定する必要がなくなり、これにより監視カメラの増設や交換、設置位置の変更等に伴うシステム管理者によるパラメータ情報の管理負担を大幅に軽減することが可能となり、また誤設定の発生も減らすことが可能となる。
 [その他の実施形態]
 (1)一実施形態では、システム管理者が、監視カメラC1~Cnのグループ分けおよび各グループに対応するパラメータ情報を決定し、決定した各情報を管理者端末OTからWebサーバ装置SVに設定する場合を例にとって説明した。しかし、この発明はそれに限定されるものではなく、Webサーバ装置SVに監視カメラC1~Cnのグループ分けおよび各グループに対応するパラメータ情報を決めて設定する機能を設けてもよい。
 これは、例えばWebサーバ装置SVが以下のような処理を実行することにより実現される。すなわち、Webサーバ装置SVの制御部は、監視カメラC1~Cnの性能情報と、監視エリアの環境条件(照明や人数)を表す情報を事前に収集し、データ記憶部3に記憶する。上記各情報は、監視カメラが新設または交換される毎に、あるいは設置位置等の設置条件が変更される毎に、更新される。
 この状態でWebサーバの制御部1は、上記監視カメラC1~Cnの性能情報および監視エリアの環境条件を表す情報に基づいて、監視カメラC1~Cnを性能および環境条件がそれぞれ予め設定された範囲内に含まれるもの同士で、複数のグループGA,GB,…に分類する。
 そして、グループGA,GB,…毎に、当該グループGA,GB,…に属する監視カメラの性能および環境条件に対応するパラメータ情報を設定する。このパラメータ情報の設定は、例えば、監視カメラの性能および環境条件の平均値のすべての組合せに対応付けてそれぞれパラメータ情報が記憶されたテーブルを用意し、このテーブルから上記監視カメラの性能および環境条件の平均値に対応するパラメータ情報を読み出すことにより行われる。
 Webサーバの制御部1は、上記監視カメラC1~Cn毎に、当該監視カメラC1~Cnが属するグループGA,GB,…のグループIDをカメラ情報テーブル31に記憶させる。またそれと共に、各グループGA,GB,…に対し設定されたパラメータ情報をカメラ特性グループ情報テーブル32に記憶させる。
 このようにすると、システム管理者の経験や熟練度に頼ることなく、監視カメラC1~Cnのグループ分けと、各グループに対する適切なパラメータ情報の設定を行うことが可能となる。
 なお、上記変換テーブルに記憶されているパラメータ情報は、検知アラートの出力結果に基づいてシステム管理者または監視者が入力する修正要求により、自動的に修正されるようにしてもよい。
 (2)(1)では、Webサーバ装置SVにおいて監視カメラC1~Cnのグループ分けおよびパラメータ情報を決定する処理を行う場合を例にとって説明したが、これらの各処理を管理者端末OTが行い、決定された各情報を管理者端末OTがWebサーバSV1へ送信して設定するようにしてもよい。
 (3)一実施形態では、センサデバイスを、監視カメラC1~Cnと映像解析エンジンVE1~VEnにより構成し、映像解析エンジンVE1~VEnにより得られる映像解析結果をパラメータ情報をもとに判定する場合を例にとって説明した。しかし、それに限らず、センサデバイスを、加速度センサ等を用いた動きセンサや、騒音センサ、光センサ、赤外線センサ、振動センサ、歪みセンサ、生体センサ等とその計測データ処理部により構成し、これらによりおられる計測データの解析結果をパラメータ情報をもとに判定する場合にも、この発明は適用可能である。
 (4)その他、監視情報処理装置の構成やその処理手順および処理内容、グループ分けの条件となる特性の種類、パラメータ情報の内容についても、この発明の要旨を逸脱しない範囲で種々変形して実施できる。
 以上、本発明の実施形態を詳細に説明してきたが、前述までの説明はあらゆる点において本発明の例示に過ぎない。本発明の範囲を逸脱することなく種々の改良や変形を行うことができることは言うまでもない。つまり、本発明の実施にあたって、実施形態に応じた具体的構成が適宜採用されてもよい。
 要するにこの発明は、上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合せにより種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態に亘る構成要素を適宜組み合せてもよい。
  SV…Webサーバ装置
  OT…管理者端末
  MT…モニタ装置
  NW…ネットワーク
  C1~Cn…監視カメラ
  VE1~VEn…映像解析エンジン
  1…制御部
  2…プログラム記憶部
  3…データ記憶部
  4…入出力I/F
  5…通信I/F
  6…バス
 11…カメラ特性グループ情報取得処理部
 12…パラメータ情報取得処理部
 13…映像解析結果取得処理部
 14…検知/追跡結果判定処理部
 15…検知アラート出力処理部
 31…カメラ情報テーブル
 32…カメラ特性グループ情報テーブル
 33…設定情報テーブル

 

Claims (8)

  1.  分散配置された複数のセンサデバイスの出力をもとに得られるセンシング情報に基づいて監視に係る情報処理を行う監視情報処理装置であって、
     前記複数のセンサデバイスをその特性が所定の範囲で類似するもの同士で複数の特性グループに分けることにより生成される、前記複数の特性グループと前記複数のセンサデバイスとの対応関係を表す特性グループ情報を含むデバイス情報を第1の記憶部に記憶させる処理を行う第1の処理部と、
     前記複数の特性グループの各々に対し設定されるパラメータ情報を第2の記憶部に記憶させる処理を行う第2の処理部と、
     前記複数のセンサデバイスにより得られる前記センシング情報の各々について、当該センシング情報に対応する特性グループを前記第1の記憶部に記憶された前記デバイス情報をもとに特定し、特定された前記特性グループに対応する前記パラメータ情報を前記第2の記憶部から選択する処理を行う第3の処理部と、
     選択された前記パラメータ情報を用いて、対応する前記センシング情報に基づく前記監視に係る情報処理を行う第4の処理部と
     を具備する監視情報処理装置。
  2.  前記第1の処理部は、前記特性グループ情報の入力を受け付け、入力された前記特性グループ情報を前記第1の記憶部に記憶させる、請求項1に記載の監視情報処理装置。
  3.  前記第1の処理部は、前記複数のセンサデバイスの前記特性を表す情報を取得し、取得された前記特性を表す情報に基づいて前記特性が所定の範囲で類似するもの同士で前記複数の特性グループに分ける処理を行い、前記複数の特性グループと前記センサデバイスとの対応関係を表す前記特性グループ情報を含む前記デバイス情報を生成し、前記第1の記憶部に記憶させる、請求項1に記載の監視情報処理装置。
  4.  前記第1の処理部は、前記複数のセンサデバイスの各々についてその性能情報および配置されたエリアの環境情報の少なくとも1つを前記特性を表す情報として取得する、請求項3に記載の監視情報処理装置。
  5.  前記第2の処理部は、前記パラメータ情報として監視対象に係る情報の有無を判定するための閾値を前記第2の記憶部に記憶させ、
     前記第3の処理部は、前記センシング情報を前記第2の記憶部に記憶された前記閾値と比較することにより前記監視対象に係る情報の有無を判定する
     請求項1に記載の監視情報処理装置。
  6.  前記複数のグループのいずれにも含まれない前記センサデバイスに対し共通に設定される共通パラメータ情報を第3の記憶部に記憶させる処理を行う第5の処理部を、さらに具備し、
     前記第3の処理部は、前記複数のグループのいずれにも含まれない前記センサデバイスにより得られる前記センシング情報に対しては、前記第3の記憶部に記憶された前記共通パラメータ情報を選択する
     請求項1に記載の監視情報処理装置。
  7.  分散配置された複数のセンサデバイスの出力をもとに得られるセンシング情報に基づいて監視に係る情報処理を行う情報処理装置が実行する監視情報処理方法であって、
     前記複数のセンサデバイスをその特性が所定の範囲で類似するもの同士で複数の特性グループに分けることにより生成される、前記複数の特性グループと前記センサデバイスとの対応関係を表す情報を含むデバイス情報を第1の記憶部に記憶させる過程と、
     前記複数の特性グループの各々に対し設定されるパラメータ情報を第2の記憶部に記憶させる過程と、
     前記複数のセンサデバイスにより得られる前記センシング情報の各々について、当該センシング情報に対応する特性グループを前記第1の記憶部に記憶された前記デバイス情報をもとに特定し、特定された前記特性グループに対応する前記パラメータ情報を前記第2の記憶部から選択する過程と、
     選択された前記パラメータ情報を用いて、対応する前記センシング情報に基づく前記監視に係る情報処理を行う過程と
     を具備する監視情報処理方法。
  8.  請求項1乃至6のいずれかに記載の監視情報処理装置が具備する前記各処理部による前記処理を、前記監視情報処理装置が備えるプロセッサに実行させるプログラム。

     
PCT/JP2021/028963 2020-08-07 2021-08-04 監視情報処理装置、方法およびプログラム WO2022030548A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020135160A JP7476028B2 (ja) 2020-08-07 2020-08-07 監視情報処理装置、方法およびプログラム
JP2020-135160 2020-08-07

Publications (1)

Publication Number Publication Date
WO2022030548A1 true WO2022030548A1 (ja) 2022-02-10

Family

ID=80117515

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/028963 WO2022030548A1 (ja) 2020-08-07 2021-08-04 監視情報処理装置、方法およびプログラム

Country Status (2)

Country Link
JP (1) JP7476028B2 (ja)
WO (1) WO2022030548A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115578696B (zh) * 2022-11-29 2023-05-09 广东美赛尔细胞生物科技有限公司 一种冻干粉生产跟踪系统的数据处理方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070044539A1 (en) * 2005-03-01 2007-03-01 Bryan Sabol System and method for visual representation of a catastrophic event and coordination of response
JP2015204102A (ja) * 2014-12-19 2015-11-16 パナソニックIpマネジメント株式会社 監視システム及び設定方法
JP2020047082A (ja) * 2018-09-20 2020-03-26 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070044539A1 (en) * 2005-03-01 2007-03-01 Bryan Sabol System and method for visual representation of a catastrophic event and coordination of response
JP2015204102A (ja) * 2014-12-19 2015-11-16 パナソニックIpマネジメント株式会社 監視システム及び設定方法
JP2020047082A (ja) * 2018-09-20 2020-03-26 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム

Also Published As

Publication number Publication date
JP7476028B2 (ja) 2024-04-30
JP2022030859A (ja) 2022-02-18

Similar Documents

Publication Publication Date Title
US20140254878A1 (en) System and method for scanning vehicle license plates
US20140254877A1 (en) System and method for identifying a vehicle license plate
WO2014138677A1 (en) Predictive analysis using vehicle license plate recognition
US9781546B2 (en) Server information handling system wireless management and topology
CN111133480B (zh) 一种动环设备巡检方法、动环平台及动环设备巡检系统
US8943558B2 (en) System and method for monitoring a threat
CN102223473A (zh) 摄像装置及利用其动态追踪特定物体的方法
WO2014026586A1 (zh) 移动侦测的方法、系统和业务服务器
WO2022030548A1 (ja) 監視情報処理装置、方法およびプログラム
JP2017097702A (ja) 監視システムとその監視制御装置
CN113850849A (zh) 使用多相机系统进行对象跟踪
EP3956685A1 (en) Systems and methods for providing situational awareness to first responders
JP2020160804A (ja) 情報処理装置、プログラム及び情報処理方法
JP7146416B2 (ja) 情報処理装置、情報処理システム、情報処理方法、及びプログラム
JP6912454B2 (ja) 情報処理システム及び情報処理方法、クライアント、並びにコンピュータ・プログラム
CN113064373B (zh) 基于视频图像识别的工业水电设备逻辑信号控制方法、系统、终端及存储介质
KR101984070B1 (ko) 지능형 스테레오 영상 기반 시설물 진동 감시 방법
JP2010055263A (ja) 監視制御システム
WO2022030546A1 (ja) 情報処理装置、情報処理方法、及びプログラム
JP2021111201A (ja) 顔認証システムおよび顔認証方法
US20230401860A1 (en) Management apparatus, management method, management system, computer program and recording medium
KR20190135860A (ko) 단말기와의 연계를 통한 영상 관제 방법 및 이를 이용한 영상 관제 시스템
US20240070596A1 (en) Information processing method, information processing device, and recording medium
WO2023032507A1 (ja) 位置推定システム、及び、位置推定方法
WO2023032769A1 (ja) 位置推定システム、及び、位置推定方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21854302

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21854302

Country of ref document: EP

Kind code of ref document: A1