JP2019154027A - Method and device for setting parameter for video monitoring system, and video monitoring system - Google Patents

Method and device for setting parameter for video monitoring system, and video monitoring system Download PDF

Info

Publication number
JP2019154027A
JP2019154027A JP2019010176A JP2019010176A JP2019154027A JP 2019154027 A JP2019154027 A JP 2019154027A JP 2019010176 A JP2019010176 A JP 2019010176A JP 2019010176 A JP2019010176 A JP 2019010176A JP 2019154027 A JP2019154027 A JP 2019154027A
Authority
JP
Japan
Prior art keywords
parameter
image
setting
video surveillance
surveillance system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019010176A
Other languages
Japanese (ja)
Other versions
JP7305965B2 (en
Inventor
ワン・チィ
Qi Wang
路 石
Lu Shi
路 石
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Publication of JP2019154027A publication Critical patent/JP2019154027A/en
Application granted granted Critical
Publication of JP7305965B2 publication Critical patent/JP7305965B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/017Detecting movement of traffic to be counted or controlled identifying vehicles
    • G08G1/0175Detecting movement of traffic to be counted or controlled identifying vehicles by photographing vehicles, e.g. when violating traffic rules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Abstract

To provide a method and device for setting parameters for a video monitoring system, and the video monitoring system.SOLUTION: The device for setting parameters for the video monitoring system comprises: a generation unit which generates setting parameters on the basis of an image obtained by a camera of the video monitoring system; and a setting unit which sets the setting parameters to the video monitoring system.SELECTED DRAWING: Figure 1

Description

本発明は、情報技術分野に関し、特に、ビデオ監視システムのためにパラメータを設定(configure)する方法、装置及びビデオ監視システムに関する。   The present invention relates to the information technology field, and more particularly, to a method, apparatus, and video surveillance system for configuring parameters for a video surveillance system.

近年、車両の数の増加に伴い、交通問題、例えば、交通渋滞、交通事故、大気汚染などの問題は、より深刻になる。このような交通問題を監視及び緩和するために、大規模(large scale)の監視カメラを設置することで、ビデオ監視システムにより、大量のビデオソースをもとに、交通イベントに対してリアルタイム検出及び報告を行うことができる。   In recent years, with the increase in the number of vehicles, traffic problems such as traffic congestion, traffic accidents, and air pollution become more serious. In order to monitor and mitigate such traffic problems, a large scale surveillance camera is installed to enable real-time detection and detection of traffic events based on a large number of video sources by a video surveillance system. You can make a report.

このようなビデオ監視システムは、通常、違法駐車、車両流量、交通渋滞などの複数の交通イベントの検出をサポートし、交通誘導などの作業を便利にすることができる。   Such video surveillance systems typically support the detection of multiple traffic events such as illegal parking, vehicle flow, traffic jams, etc., and can facilitate operations such as traffic guidance.

本発明の発明者は、次のようなことを発見した。即ち、従来のビデオ監視システムでは、ビデオ監視システムが検出及び報告を行う前に、ユーザが手動で設定パラメータをビデオ監視システムに設定する(与える)必要があり、そうでなければ、所望の検出結果を得ることができない可能性がある。そのうち、設定パラメータは、例えば、画像中の検出領域、画像分析用の分析パラメータなどを含んでも良く、該分析パラメータは、例えば、道路の数、車両の走行方向、分析用の閾値などのパラメータであっても良い。   The inventor of the present invention has discovered the following. That is, in the conventional video surveillance system, the user needs to manually set (apply) the setting parameters to the video surveillance system before the video surveillance system performs detection and reporting, otherwise the desired detection result You may not be able to get Among them, the setting parameter may include, for example, a detection region in the image, an analysis parameter for image analysis, and the like. The analysis parameter is, for example, a parameter such as the number of roads, the traveling direction of the vehicle, and an analysis threshold value. There may be.

ユーザが手動で設定パラメータをビデオ監視システムに設定することは、少なくとも、次のような問題を有する。   When the user manually sets the setting parameters in the video surveillance system, at least the following problems are present.

1、監視カメラの数が比較的多いときに、例えば、1000台のときに、ビデオ監視システムに全ての設定パラメータを設定することは、ユーザにとって大変な作業であり;
2、一旦、カメラの位置、観察角度又は視野範囲に変化が生じたら、ユーザは、手動で関連パラメータを再設定する必要があり;
3、可動型カメラ、例えば、PTZ(Pan/Tilt/Zoom、PTZ)カメラをサポートすることが難しい。何故なら、可動型カメラが観察角度又は視野範囲を自由に変えることができ、また、変える度に、ユーザが手動で関連パラメータを再設定する必要があるからである。
1. Setting all the setting parameters in the video surveillance system when the number of surveillance cameras is relatively large, for example 1000, is a hard work for the user;
2. Once a change in camera position, viewing angle or field of view occurs, the user must manually reset the relevant parameters;
3. It is difficult to support movable cameras such as PTZ (Pan / Tilt / Zoom, PTZ) cameras. This is because the movable camera can freely change the viewing angle or field of view, and each time the user needs to manually reset the relevant parameters.

そのうち、上述の問題3について、従来技術では、次のような技術案が存在する。即ち、予めPTZカメラの所定状態と設定パラメータとの間の対応関係を設定し、PTZカメラがある所定状態にあるときに、該所定状態に対応する設定パラメータをコール(call)してビデオ監視システムに対して設定を行う。しかし、このような技術案は、一部の種類のカメラしかサポートできず、すべての種類のカメラに適用することが難しい。また、このような技術案は、サポートし得る所定状態の数が限られているため、カメラが所定状態以外の状態にあるときに、有効なパラメータ設定を行うことが困難である。よって、このような技術案は、使用されるときに大きく制限されている。   Among them, with regard to the above-mentioned problem 3, the following technical solutions exist in the prior art. That is, a correspondence relationship between a predetermined state of the PTZ camera and the setting parameter is set in advance, and when the PTZ camera is in a predetermined state, the setting parameter corresponding to the predetermined state is called to call the video surveillance system. Set for. However, such a technical solution can only support some types of cameras and is difficult to apply to all types of cameras. In addition, since the number of predetermined states that can be supported by such a technical solution is limited, it is difficult to perform effective parameter setting when the camera is in a state other than the predetermined state. Therefore, such technical solutions are greatly limited when used.

本発明の実施例は、ビデオ監視システムのためにパラメータを設定する方法、装置及びビデオ監視システムを提供し、ビデオ監視システムのカメラにより得られた画像に基づいて、設定パラメータを生成し、そして、該設定パラメータを該ビデオ監視システムに設定(与える)することにより、ビデオ監視システムに対して有効且つ迅速なパラメータ設定を行うことができるため、マンパワーを節約することができ、且つ適用性が広い。   Embodiments of the present invention provide a method, apparatus and video surveillance system for setting parameters for a video surveillance system, generating configuration parameters based on images obtained by a camera of the video surveillance system, and By setting (giving) the setting parameter to the video surveillance system, effective and quick parameter setting can be performed for the video surveillance system, so that manpower can be saved and the applicability is wide.

本発明の実施例の第一側面によれば、ビデオ監視システムのためにパラメータを設定する装置が提供され、それは、
前記ビデオ監視システムのカメラにより得られた画像に基づいて、設定パラメータを生成するための生成ユニット;及び、前記設定パラメータを前記ビデオ監視システムに設定するための設定ユニットを含む。
According to a first aspect of an embodiment of the present invention, an apparatus for setting parameters for a video surveillance system is provided, which comprises:
A generating unit for generating a setting parameter based on an image obtained by a camera of the video surveillance system; and a setting unit for setting the setting parameter in the video surveillance system.

本発明の実施例の第二側面によれば、ビデオ監視システムのためにパラメータを設定する方法が提供され、それは、
前記ビデオ監視システムのカメラにより得られた画像に基づいて、設定パラメータを生成し;及び、前記設定パラメータを前記ビデオ監視システムに設定することを含む。
According to a second aspect of an embodiment of the present invention, there is provided a method for setting parameters for a video surveillance system, comprising:
Generating a setting parameter based on an image obtained by a camera of the video surveillance system; and setting the setting parameter in the video surveillance system.

本発明の実施例の第三側面によれば、ビデオ監視システムが提供され、それは、カメラ、分析装置、及び上述の第一側面に記載の、ビデオ監視システムのためにパラメータを設定する装置を含み、そのうち、前記ビデオ監視システムのためにパラメータを設定する装置は、前記カメラにより得られた画像に基づいて、設定パラメータを生成し、そして、前記設定パラメータを前記分析装置に設定し(与え)、前記分析装置は、前記設定パラメータに基づいて、前記カメラにより得られた画像を分析する。   According to a third aspect of an embodiment of the present invention, a video surveillance system is provided, which includes a camera, an analysis device, and an apparatus for setting parameters for the video surveillance system as described in the first aspect above. Wherein an apparatus for setting parameters for the video surveillance system generates a setting parameter based on an image obtained by the camera, and sets (gives) the setting parameter to the analysis apparatus; The analysis device analyzes an image obtained by the camera based on the setting parameter.

本発明の有益な効果は、次の通りであり、即ち、ビデオ監視システムのカメラにより得られた画像に基づいて、設定パラメータを生成し、そして、該設定パラメータを該ビデオ監視システムに設定することにより、ビデオ監視システムに対して有効且つ迅速なパラメータ設定を行うことができるため、マンパワーを節約することができ、且つ適用性が広い。   The beneficial effects of the present invention are as follows: generating a setting parameter based on an image obtained by a camera of the video surveillance system and setting the configuration parameter in the video surveillance system Thus, since effective and quick parameter setting can be performed for the video surveillance system, manpower can be saved and the applicability is wide.

本発明の実施例1におけるビデオ監視システムのパラメータ設定装置を示す図である。1 is a diagram showing a parameter setting device of a video surveillance system in Embodiment 1 of the present invention. FIG. 本発明の実施例1における生成ユニットを示す図である。It is a figure which shows the production | generation unit in Example 1 of this invention. 本発明の実施例1におけるシーン解析ユニットによる画像分割の分割結果を示す図である。It is a figure which shows the division | segmentation result of the image division by the scene analysis unit in Example 1 of this invention. 本発明の実施例1における第一パラメータの領域の画像上での位置を示す図である。FIG. 5 is a diagram showing the position of the first parameter area on the image in Example 1 of the present invention. 本発明の実施例1におけるパラメータ生成ユニットを示す図である。FIG. 3 is a diagram showing a parameter generation unit in Embodiment 1 of the present invention. 本発明の実施例2におけるビデオ監視システムのパラメータ設定方法を示す図である。It is a figure which shows the parameter setting method of the video surveillance system in Example 2 of this invention. 本発明の実施例2における設定パラメータの生成方法を示す図である。It is a figure which shows the production | generation method of the setting parameter in Example 2 of this invention. 本発明の実施例2における第一パラメータと異なるパラメータの生成方法を示す図である。It is a figure which shows the production | generation method of the parameter different from the 1st parameter in Example 2 of this invention. 本発明の実施例3におけるビデオ監視システムを示す図である。It is a figure which shows the video surveillance system in Example 3 of this invention. 本発明の実施例3におけるビデオ監視システムによる監視フローを示す図である。It is a figure which shows the monitoring flow by the video surveillance system in Example 3 of this invention. 本発明の実施例4における電子機器の構成図である。FIG. 6 is a configuration diagram of an electronic device in Example 4 of the present invention.

以下、添付した図面を参照しながら、本発明を実施するための好適な実施例を詳しく説明する。   Hereinafter, preferred embodiments for carrying out the present invention will be described in detail with reference to the accompanying drawings.

本発明の実施例1は、ビデオ監視システムのためのパラメータ設定装置を提供する。   Embodiment 1 of the present invention provides a parameter setting device for a video surveillance system.

図1は、本実施例のビデオ監視システムのためのパラメータ設定装置を示す図である。図1に示すように、ビデオ監視システムのためのパラメータ設定装置100は、生成ユニット101及び設定ユニット102を含む。   FIG. 1 is a diagram showing a parameter setting device for the video surveillance system of this embodiment. As shown in FIG. 1, a parameter setting device 100 for a video surveillance system includes a generation unit 101 and a setting unit 102.

本実施例では、生成ユニット101は、ビデオ監視システムのカメラにより得られた(例えば、撮影された)画像に基づいて、設定パラメータを生成し、設定ユニット102は、生成ユニット101により生成された該設定パラメータを該ビデオ監視システムに設定するために用いられる。   In the present embodiment, the generation unit 101 generates a setting parameter based on an image obtained (for example, taken) by a camera of the video surveillance system, and the setting unit 102 generates the setting parameter generated by the generation unit 101. Used to set configuration parameters in the video surveillance system.

本実施例によれば、ビデオ監視システムのカメラにより得られた画像に基づいて、設定パラメータを生成し、そして、該設定パラメータを該ビデオ監視システムに設定することにより、ビデオ監視システムに対して有効且つ迅速なパラメータ設定を行うことができるため、マンパワーを節約することができ、且つ適用性が広い。   According to the present embodiment, the setting parameter is generated based on the image obtained by the camera of the video surveillance system, and the setting parameter is set in the video surveillance system, thereby being effective for the video surveillance system. In addition, since parameter setting can be performed quickly, manpower can be saved and the applicability is wide.

本実施例では、ビデオ監視システムのカメラは、位置固定カメラ(固定型カメラ)であっても良く、例えば、道路の両側に取り付けられる位置固定カメラであっても良く、又は、該カメラは、可動型カメラであっても良く、該可動型カメラは、移動体に設けられるカメラであっても良く、例えば、自動車に設置されるカメラ、ドローンに搭載されるカメラ、歩行者が持つ移動端末に構成されるカメラなどであっても良く、又は、該可動型カメラは、観察角度が可変のカメラ、例えば、PTZ(Pan/Tilt/Zoom、PTZ)カメラなどであっても良い。   In this embodiment, the camera of the video surveillance system may be a fixed position camera (fixed type camera), for example, a fixed position camera attached to both sides of the road, or the camera is movable. The movable camera may be a camera provided on a moving body, for example, a camera installed in an automobile, a camera installed in a drone, or a mobile terminal held by a pedestrian The movable camera may be a camera having a variable observation angle, for example, a PTZ (Pan / Tilt / Zoom, PTZ) camera.

本実施例では、カメラにより得られた画像は、被監視シーンに対して撮影を行うことにより得られた画像であっても良く、該被監視シーンは、例えば、道路、森林、建物などであっても良い。なお、以下の説明では、道路に対して撮影を行うことにより得られた画像を例として説明を行うが、本発明は、これに限定されず、該画像は、他のシーンに対して撮影することにより得られたものであっても良い。   In the present embodiment, the image obtained by the camera may be an image obtained by photographing the monitored scene, and the monitored scene is, for example, a road, a forest, a building, or the like. May be. In the following description, an image obtained by shooting a road is described as an example. However, the present invention is not limited to this, and the image is shot for another scene. It may be obtained by this.

図2は、本実施例における生成ユニット101を示す図である。図2に示すように、生成ユニット101は、シーン解析ユニット201を含んでも良い。   FIG. 2 is a diagram illustrating the generation unit 101 in the present embodiment. As shown in FIG. 2, the generation unit 101 may include a scene analysis unit 201.

本実施例では、シーン解析ユニット201は、画像を異なる領域に分割するために用いられる。シーン解析ユニット201は、深層学習(deep learning)方法により得られたモデルに基づいて画像を分析することで、画像を異なる領域に分割することができる。   In this embodiment, the scene analysis unit 201 is used to divide the image into different regions. The scene analysis unit 201 can divide the image into different regions by analyzing the image based on the model obtained by the deep learning method.

例えば、該画像に類似したシーンを有するサンプル画像を採用して深層学習に基づくオフライン訓練を行うことで、ピクセル(画素)レベルの深層学習モデルを取得することができ、そのうち、サンプル画像では、各ピクセルが、道路(lane)、路傍(roadside)領域、木(tree)、天空(sky)などとラベル付けられても良い。シーン解析ユニット201は、該訓練により得られたピクセルレベルの深層学習モデルを用いて、該カメラにより得られた該画像に対して分析を行うことで、該画像を異なる領域に分割することができる。   For example, by taking a sample image having a scene similar to the image and performing offline training based on deep learning, a deep learning model at a pixel (pixel) level can be obtained. Pixels may be labeled as lanes, roadside regions, trees, sky, etc. The scene analysis unit 201 can divide the image into different regions by performing analysis on the image obtained by the camera using the pixel-level deep learning model obtained by the training. .

図3は、本実施例におけるシーン解析ユニット201による画像分割の分割結果を示す図である。図3に示すように、分割結果の第一領域301は、道路が占める領域を表し、分割結果の第二領域302は、木又は緑化帯領域を表し、分割結果の第三領域303は、車両が占める領域を表し、分割結果の第四領域304は、建物が占める領域を表し、分割結果の第五領域305は、天空が占める領域を表す。   FIG. 3 is a diagram illustrating a division result of image division by the scene analysis unit 201 in the present embodiment. As shown in FIG. 3, the division result first area 301 represents an area occupied by a road, the division result second area 302 represents a tree or greening area, and the division result third area 303 represents a vehicle. The fourth area 304 of the division result represents the area occupied by the building, and the fifth area 305 of the division result represents the area occupied by the sky.

本実施例では、シーン解析ユニット201は、画像の特徴に基づいて、少なくとも2つのモデルのうちから1つのモデルを選択し、そして、選択した該モデルにより、該画像を異なる領域に分割することができ、これにより、モデルを適応的に(adaptively)選択して分割を行うことで、分割の正確性を向上させることができる。そのうち、画像の特徴は、例えば、画像の色調(tone)、輝度などの特徴であっても良い。該少なくとも2つのモデルは、同一のシーンに対して訓練を行うことにより得られた異なるモデルであっても良く、例えば、昼間の正常日照の場合に道路についてのモデル、及び、日照不足の場合(例えば、曇り、雨など)に道路についてのモデルであっても良い。   In this embodiment, the scene analysis unit 201 may select one of at least two models based on the image characteristics, and divide the image into different regions according to the selected model. Thus, the accuracy of the division can be improved by adaptively selecting the model and performing the division. Among these, the characteristics of the image may be, for example, characteristics such as the tone and brightness of the image. The at least two models may be different models obtained by performing training on the same scene, for example, a model for a road in the case of normal daylight and a lack of sunlight ( For example, the model may be a road model in cloudy or rainy conditions.

例えば、シーン解析ユニット201は、画像の色調の平均値が比較的低いときに、日照不足の場合に道路についてのモデルを選択し、そして、選択した該モデルを用いて該画像を異なる領域に分割することができる。   For example, the scene analysis unit 201 selects a model for a road in the case of insufficient sunlight when the average color tone of the image is relatively low, and then divides the image into different regions using the selected model. can do.

本実施例では、シーン解析ユニット201が分割を行うに使用するモデルは、画像の異なる位置について、異なる識別正確度(識別(認識)の正確度)を有しても良く、例えば、ビデオ監視システムにとって重要な領域について、より高い識別正確度を有し、ビデオ監視システムにとってあまり重要でない領域について、より低い識別正確度を有しても良い。これにより、分割の結果を、的を射るようにさせ、且つ分割の効率を向上させることができる。   In this embodiment, the model used by the scene analysis unit 201 to perform the division may have different identification accuracy (accuracy of identification (recognition)) for different positions of the image. For example, the video surveillance system May have a higher identification accuracy for areas that are important to the video, and a lower identification accuracy for areas that are less important to the video surveillance system. As a result, the result of the division can be focused and the efficiency of the division can be improved.

例えば、シーン解析ユニット201が使用するモデルは、道路又は緑化帯が占める領域及びその近傍の領域に対して、比較的高い正確度の識別を行っても良く、木が占める領域などに対して、比較的低い正確度の識別を行っても良い。なお、該モデルは、異なる領域に対してバイアストレーニング(biased training)を行うことにより得ることができる。   For example, the model used by the scene analysis unit 201 may perform relatively high accuracy identification on the area occupied by the road or the greening zone and the area in the vicinity thereof. A relatively low degree of accuracy may be identified. Note that the model can be obtained by performing biased training on different regions.

本実施例では、シーン解析ユニット201は、該画像の少なくとも2つのフレームに対して分割を行い、そして、該画像の該少なくとも2つのフレームに対して分割の結果に基づいて、前記分割結果を生成することができる。これにより、分割の正確度をより一層向上させることができる。例えば、シーン解析ユニット201は、所定期間(例えば、2秒)内でカメラにより得られた複数のフレームの画像に対してそれぞれ異なる領域への分割の処理を行い、そして、該複数のフレームの画像に対しての分割の結果を統計することで、該所定期間内の画像の分割結果を得ることができる。   In this embodiment, the scene analysis unit 201 performs division on at least two frames of the image, and generates the division result based on the division result on the at least two frames of the image. can do. Thereby, the accuracy of division can be further improved. For example, the scene analysis unit 201 performs a process of dividing each of a plurality of frame images obtained by the camera into different regions within a predetermined period (for example, 2 seconds), and the plurality of frame images. The result of image segmentation within the predetermined period can be obtained by statistically analyzing the segmentation results for.

なお、シーン解析ユニット201が画像を分割するために使用するモデル及び方法は、これに限定されず、他のモデル又は他の方法を採用しても良い。   Note that the model and method used by the scene analysis unit 201 to divide the image are not limited to this, and other models or other methods may be adopted.

本実施例では、シーン解析ユニット201が画像を分割することにより得られた分割結果を、設定パラメータ中の第一パラメータとしても良く、例えば、分割結果中の一部の領域は、設定パラメータ中の第一パラメータとされ、画像中の、該ビデオ監視システムにより検出されるべき領域を示すために用いられても良い。   In the present embodiment, the division result obtained by dividing the image by the scene analysis unit 201 may be used as the first parameter in the setting parameter. For example, some areas in the division result may be included in the setting parameter. The first parameter may be used to indicate the area in the image that is to be detected by the video surveillance system.

図4は、該第一パラメータの領域の該画像上での位置を示す図である。図4に示すように、カメラにより得られた該画像400では、領域401は、道路が占める領域であり、領域402は、路傍領域であり、領域403は、天空が占める領域である。   FIG. 4 is a diagram showing the position of the first parameter area on the image. As shown in FIG. 4, in the image 400 obtained by the camera, a region 401 is a region occupied by a road, a region 402 is a roadside region, and a region 403 is a region occupied by the sky.

本実施例では、領域401は、車の流量の統計、逆走などのイベントの検出のために用いられても良く、そのうち、領域401に示す道路の数は、4であり、領域402は、違法駐車、道路進入(road encroachment)などのイベントの検出のために用いられても良く、領域403は、黄砂やPM2.5(微小粒子状物質)、煙の発生などのイベントの検出のために用いられても良い。   In the present embodiment, the area 401 may be used for detection of events such as car flow statistics and reverse running, of which the number of roads shown in the area 401 is 4, and the area 402 It may be used for detection of events such as illegal parking, road encroachment, etc. Area 403 is for detection of events such as yellow sand, PM2.5 (fine particulate matter), smoke generation, etc. It may be used.

本実施例では、図2に示すように、生成ユニット101は、更に、パラメータ生成ユニット202を含んでも良い。パラメータ生成ユニット202は、該画像及びシーン解析ユニット201による該画像の分割の分割結果に基づいて、設定パラメータ中の該第一パラメータと異なるパラメータを生成することができる。   In this embodiment, as shown in FIG. 2, the generation unit 101 may further include a parameter generation unit 202. The parameter generation unit 202 can generate a parameter different from the first parameter in the setting parameter based on the division result of the image division by the image and the scene analysis unit 201.

図5は、本実施例におけるパラメータ生成ユニットを示す図である。図5に示すように、パラメータ生成ユニット202は、中間処理ユニット501を含んでも良い。   FIG. 5 is a diagram illustrating a parameter generation unit in the present embodiment. As shown in FIG. 5, the parameter generation unit 202 may include an intermediate processing unit 501.

本実施例では、中間処理ユニット501は、シーン解析ユニット201により分割された各領域において、該画像に対して処理を行っても良く、該処理は、例えば、エッジ検出(edge detection)、車両検出(vehicle detection)、車両追跡(vehicle tracking)、走行軌迹生成(trajectory generation)、輝度検出などを含んでも良い。なお、各処理の具体的な方法に関しては、従来技術を参照することができるため、本実施例では、その詳しい説明を省略する。   In the present embodiment, the intermediate processing unit 501 may perform processing on the image in each region divided by the scene analysis unit 201. For example, the processing may be edge detection or vehicle detection. (Vehicle detection), vehicle tracking, traveling trajectory generation, luminance detection, and the like may be included. In addition, since the prior art can be referred regarding the specific method of each process, the detailed description is abbreviate | omitted in a present Example.

本実施例では、中間処理ユニット501が各領域において行う処理は、該領域のみに対応しても良い。例えば、輝度検出は、図3の第五領域305中で行っても良く、車両検出及び/又は車両追跡及び/又は走行軌迹の生成は、図3の第一領域301中で行っても良い。言い換えると、中間処理ユニット501は、各領域において該領域に対応する処理のみを行っても良く、即ち、画像の全ての領域において全ての処理を行う必要がない。これにより、中間処理の計算量を減らすことができる。   In the present embodiment, the processing performed by the intermediate processing unit 501 in each area may correspond to only that area. For example, the luminance detection may be performed in the fifth region 305 in FIG. 3, and the vehicle detection and / or vehicle tracking and / or generation of the running track may be performed in the first region 301 in FIG. In other words, the intermediate processing unit 501 may perform only the processing corresponding to the region in each region, that is, it is not necessary to perform all the processing in all the regions of the image. Thereby, the calculation amount of the intermediate processing can be reduced.

本実施例では、該中間処理ユニット501の処理結果の少なくとも一部を、設定パラメータ中の第二パラメータとしても良い。例えば、輝度検出の結果は、路面の視程情報を含み、よって、該第五領域305に対しての輝度検出の結果は、該第二パラメータとされ、路面の視程(visibility value)を反映しても良く、また、例えば、走行軌迹生成の結果、即ち、走行軌迹は、道路の方向情報を含み、よって、該第一領域301に対しての走行軌迹生成の結果は、該第二パラメータとされ、行道路の方向を反映しても良い。   In this embodiment, at least a part of the processing result of the intermediate processing unit 501 may be the second parameter in the setting parameters. For example, the brightness detection result includes road surface visibility information, and therefore the brightness detection result for the fifth region 305 is the second parameter and reflects the road surface visibility value. Further, for example, the result of travel rail generation, i.e., the travel rail includes road direction information, and therefore the result of travel rail generation for the first region 301 is the second parameter. The direction of the road may be reflected.

本実施例では、図5に示すように、パラメータ生成ユニット202は、更に、融合ユニット502を含んでも良い。該融合ユニット502は、中間処理ユニット501の処理結果、及びシーン解析ユニット201による該画像の分割の分割結果に基づいて、設定パラメータ中の第三パラメータを生成することができる。   In the present embodiment, as shown in FIG. 5, the parameter generation unit 202 may further include a fusion unit 502. The fusion unit 502 can generate the third parameter in the setting parameters based on the processing result of the intermediate processing unit 501 and the division result of the image division by the scene analysis unit 201.

例えば、融合ユニット502は、中間処理ユニット501の車両検出の結果と、シーン解析ユニット201により分割された道路領域とに対して融合を行い、道路の数を計算することができ、また、例えば、融合ユニット502は、シーン解析ユニット201により分割された道路領域の幅と、中間処理ユニット501の車両検出の結果中の車両の幅との比較を行い、道路領域中の道路の数を計算することができ、該道路の数は、第三パラメータとされる。さらに、例えば、中間処理ユニット501のエッジ検出の結果は、画像中の連通領域を分割するために用いられても良いため、該エッジ検出の結果と、シーン解析ユニット201により分割された道路領域とに対して融合を行うことで、道路の数を得ることもできる。   For example, the fusion unit 502 can perform fusion on the vehicle detection result of the intermediate processing unit 501 and the road area divided by the scene analysis unit 201 to calculate the number of roads. The fusion unit 502 compares the width of the road area divided by the scene analysis unit 201 with the width of the vehicle in the vehicle detection result of the intermediate processing unit 501, and calculates the number of roads in the road area The number of roads is the third parameter. Further, for example, since the edge detection result of the intermediate processing unit 501 may be used to divide the communication area in the image, the edge detection result and the road area divided by the scene analysis unit 201 You can also get the number of roads by fusing with.

本実施例では、上述のように、生成ユニット101は、ビデオ監視システムのカメラにより得られた画像に基づいて、設定パラメータを生成することができ、該生成ユニット101が生成した設定パラメータには、第一パラメータ(例えば、画像中の、該ビデオ監視システムにより検出されるべき領域など)、及び/又は、第二パラメータ(例えば、輝度検出の結果、走行軌迹など)、及び/又は、第三パラメータ(例えば、道路の数など)を含んでも良い。   In the present embodiment, as described above, the generation unit 101 can generate a setting parameter based on an image obtained by the camera of the video surveillance system. The setting parameter generated by the generation unit 101 includes: A first parameter (e.g., an area in the image to be detected by the video surveillance system) and / or a second parameter (e.g., brightness detection result, running track, etc.) and / or a third parameter (For example, the number of roads, etc.) may be included.

本実施例では、設定ユニット102は、生成ユニット101が生成した設定パラメータに基づいて、設定ファイルを生成することができ、該設定ファイルは、例えば、該設定パラメータを格納(記録)する設定表であっても良く、該設定表は、該設定パラメータを該ビデオ監視システムに設定するために用いることができる。   In the present embodiment, the setting unit 102 can generate a setting file based on the setting parameter generated by the generating unit 101. The setting file is, for example, a setting table that stores (records) the setting parameter. The setting table may be used to set the setting parameter in the video surveillance system.

本実施例によれば、ビデオ監視システムのカメラにより得られた画像に基づいて、設定パラメータを生成し、そして、該設定パラメータを該ビデオ監視システムに設定することにより、ビデオ監視システムに対して有効且つ迅速なパラメータ設定を行い、マンパワーを節約することができ、また、自動でパラメータ設定を行うため、カメラの状態に変化があっても、迅速なパラメータ設定を行うこともできる。よって、本実施例によるビデオ監視システムのためのパラメータ設定装置は、複数の種類のカメラをサポートすることができる。   According to the present embodiment, the setting parameter is generated based on the image obtained by the camera of the video surveillance system, and the setting parameter is set in the video surveillance system, thereby being effective for the video surveillance system. In addition, quick parameter setting can be performed to save manpower, and since parameter setting is automatically performed, quick parameter setting can be performed even if the camera state changes. Therefore, the parameter setting device for the video surveillance system according to the present embodiment can support a plurality of types of cameras.

本発明の実施例2は、ビデオ監視システムのためのパラメータ設定方法を提供し、それは、実施例1におけるビデオ監視システムのためのパラメータ設定装置100に対応する。   Embodiment 2 of the present invention provides a parameter setting method for a video surveillance system, which corresponds to the parameter setting apparatus 100 for a video surveillance system in Embodiment 1.

図6は、本実施例におけるビデオ監視システムのためのパラメータ設定方法を示す図である。図6に示すように、該方法は、次のようなステップを含む。   FIG. 6 is a diagram showing a parameter setting method for the video surveillance system in the present embodiment. As shown in FIG. 6, the method includes the following steps.

ステップ601:ビデオ監視システムのカメラにより得られた画像に基づいて、設定パラメータを生成する。   Step 601: Generate setting parameters based on an image obtained by a camera of the video surveillance system.

ステップ602:前記設定パラメータを前記ビデオ監視システムに設定する。   Step 602: Set the setting parameter in the video surveillance system.

図7は、本実施例における設定パラメータの生成方法を示す図である。図7に示すように、該設定パラメータの生成方法は、次のようなステップを含む。   FIG. 7 is a diagram illustrating a setting parameter generation method according to the present embodiment. As shown in FIG. 7, the setting parameter generation method includes the following steps.

ステップ701:前記画像を異なる領域に分割し、そのうち、前記画像に対して分割の分割結果は、前記設定パラメータ中の第一パラメータとされる。   Step 701: The image is divided into different areas, and the division result of the image is divided into the first parameters in the setting parameters.

ステップ701では、深層学習(deep learning)方法により得られたモデルに基づいて画像を分析することで、画像を異なる領域に分割することができる。   In step 701, the image can be divided into different regions by analyzing the image based on a model obtained by a deep learning method.

本実施例のステップ701では、更に、次のような方法のうちの少なくとも1つを用いて、領域分割の正確性をより一層向上させることができ、即ち、前記画像の特徴に基づいて少なくとも2つのモデルのうちから1つのモデルを選択し、そして、選択した該モデルに基づいて、前記画像を異なる領域を分割し;分割に用いるモデルが前記画像の異なる位置について異なる識別正確度を有するようにさせ;及び、前記画像の少なくとも2つのフレームに対して分割を行い、そして、前記画像の少なくとも2つのフレームに対しての分割の結果に基づいて前記分割結果を生成する。   In step 701 of this embodiment, the accuracy of the region division can be further improved by using at least one of the following methods, that is, at least 2 based on the characteristics of the image. Selecting one of the two models and dividing the image into different regions based on the selected model so that the model used for the division has different identification accuracy for different positions of the image And dividing at least two frames of the image, and generating the division result based on the result of the division of at least two frames of the image.

本実施例では、図7に示すように、該設定パラメータの生成方法は、更に、次のようなステップを含んでも良い。   In the present embodiment, as shown in FIG. 7, the setting parameter generation method may further include the following steps.

ステップ702:前記画像及び前記画像に対しての分割結果に基づいて、前記設定パラメータ中の前記第一パラメータと異なるパラメータを生成する。   Step 702: Generate a parameter different from the first parameter in the setting parameter based on the image and a division result for the image.

図8は、本実施例におけるステップ702の第一パラメータと異なるパラメータの生成方法を示す図である。図8に示すように、該方法は、次のようなステップを含む。   FIG. 8 is a diagram illustrating a parameter generation method different from the first parameter in step 702 in the present embodiment. As shown in FIG. 8, the method includes the following steps.

ステップ801:分割された各領域において、前記画像に対して該領域に対応する中間処理を行い、前記中間処理の結果の少なくともの一部を、前記設定パラメータ中の第二パラメータとする。   Step 801: In each divided area, an intermediate process corresponding to the area is performed on the image, and at least a part of the result of the intermediate process is set as a second parameter in the setting parameter.

本実施例では、図8に示すように、該方法は、更に、次のようなステップを含んでも良い。   In the present embodiment, as shown in FIG. 8, the method may further include the following steps.

ステップ802:前記中間処理の結果及び前記画像に対しての分割結果に基づいて、前記設定パラメータ中の第三パラメータを生成する。   Step 802: Generate a third parameter among the setting parameters based on the result of the intermediate processing and the division result for the image.

本実施例によれば、ビデオ監視システムのカメラにより得られた画像に基づいて、設定パラメータを生成し、そして、該設定パラメータを該ビデオ監視システムに設定することにより、ビデオ監視システムに対して有効及び迅速なパラメータ設定を行い、マンパワーを節約することができ、また、自動でパラメータ設定を行うため、カメラの状態に変化があっても良く、迅速なパラメータ設定を行うこともできる。よって、本実施例によるビデオ監視システムのためのパラメータ設定方法は、複数の種類のカメラをサポートすることができる。   According to the present embodiment, the setting parameter is generated based on the image obtained by the camera of the video surveillance system, and the setting parameter is set in the video surveillance system, thereby being effective for the video surveillance system. In addition, quick parameter setting can be performed to save manpower, and since the parameter setting is automatically performed, the state of the camera may be changed, and quick parameter setting can be performed. Therefore, the parameter setting method for the video surveillance system according to the present embodiment can support a plurality of types of cameras.

本発明の実施例3は、ビデオ監視システムを提供し、前記ビデオ監視システムは、実施例1に記載のビデオ監視システムのためのパラメータ設定装置を含む。   Embodiment 3 of the present invention provides a video surveillance system, and the video surveillance system includes the parameter setting device for the video surveillance system described in Embodiment 1.

図9は、本発明の実施例3におけるビデオ監視システムを示す図である。図9に示すように、該ビデオ監視システム900は、カメラ901、分析装置902、及びビデオ監視システムのためのパラメータ設定装置903を含む。   FIG. 9 is a diagram showing a video surveillance system according to Embodiment 3 of the present invention. As shown in FIG. 9, the video surveillance system 900 includes a camera 901, an analysis device 902, and a parameter setting device 903 for the video surveillance system.

そのうち、ビデオ監視システムのためのパラメータ設定装置903は、カメラ901により得られた画像に基づいて、設定パラメータを生成し、そして、該設定パラメータを分析装置902に設定し(与え)、分析装置902は、該設定パラメータに基づいて、カメラ901により得られた画像を分析することができる。   Among them, the parameter setting device 903 for the video surveillance system generates a setting parameter based on the image obtained by the camera 901, and sets (gives) the setting parameter to the analysis device 902. Can analyze the image obtained by the camera 901 based on the setting parameter.

本実施例では、カメラ901は、固定型カメラ又は可動型カメラであっても良く、そのうち、該可動型カメラは、例えば、観察角度が可変のカメラ、例えば、PTZ(Pan/Tilt/Zoom、PTZ)カメラなどであっても良い。   In the present embodiment, the camera 901 may be a fixed camera or a movable camera, and the movable camera is, for example, a camera having a variable observation angle, such as a PTZ (Pan / Tilt / Zoom, PTZ). ) It may be a camera.

本実施例では、分析装置902は、設定パラメータに基づいて構成され、1つ又は複数のカメラ901により得られた画像に対して分析を行うことができ、該分析は、例えば、イベント検出などであっても良い。例えば、分析装置902は、特定のイベントを検出したときに、制御サーバに、警報信号及び/又は該イベントのスクリーンショット又はビデオを送信することができる。分析装置902は、ハードウェア、ソフトウェア、又は、ソフトウェア及びハードウェアの組み合わせにより実現されても良い。本実施例では、図9に示すように、分析装置902は、分析サーバ902Aに構成されても良く、且つ、分析サーバ902A中の分析装置902の数は、分析されるべき監視カメラ901の数に基づいて設定されても良い。なお、分析装置902及び分析サーバ902Aの説明については、従来技術を参照することができるため、本実施例では、その詳しい説明を省略する。   In this embodiment, the analysis device 902 is configured based on setting parameters, and can perform analysis on an image obtained by one or a plurality of cameras 901. For example, the analysis can be performed by event detection or the like. There may be. For example, when the analysis device 902 detects a particular event, it can send an alarm signal and / or a screen shot or video of the event to the control server. The analysis device 902 may be realized by hardware, software, or a combination of software and hardware. In this embodiment, as shown in FIG. 9, the analysis device 902 may be configured in the analysis server 902A, and the number of analysis devices 902 in the analysis server 902A is the number of monitoring cameras 901 to be analyzed. May be set based on For the description of the analysis device 902 and the analysis server 902A, the prior art can be referred to, and therefore detailed description thereof is omitted in this embodiment.

本実施例では、ビデオ監視システムのためのパラメータ設定装置903のワーキング原理は、実施例1中の説明を参照することができる。図9に示すように、ビデオ監視システムのためのパラメータ設定装置903は、管理サーバ903Aに構成されても良い。   In the present embodiment, the working principle of the parameter setting device 903 for the video surveillance system can be referred to the description in the first embodiment. As shown in FIG. 9, the parameter setting device 903 for the video surveillance system may be configured in a management server 903A.

図9に示すように、管理サーバ903Aは、更に、管理装置904を有しても良く、そのうち、管理装置904は、ビデオ監視システム900中のハードウェアを制御し、分析装置902が送信した警報信号及び/又は該イベントのスクリーンショット又はビデオを受信することができる。なお、管理装置904及び管理サーバ903Aの説明については、従来技術を参考することができるので、本実施例では、その詳しい説明を省略する。   As shown in FIG. 9, the management server 903A may further include a management device 904, of which the management device 904 controls the hardware in the video surveillance system 900 and the alarm transmitted by the analysis device 902. A signal and / or a screen shot or video of the event can be received. For the description of the management device 904 and the management server 903A, the prior art can be referred to, and therefore detailed description thereof is omitted in this embodiment.

本実施例では、該ビデオ監視システム900は、1つのみの管理サーバ903Aを有しても良い。   In this embodiment, the video surveillance system 900 may have only one management server 903A.

本実施例では、図9に示すように、該ビデオ監視システム900には、ビデオ監視システムのための1つのみのパラメータ設定装置903が構成されても良く、これにより、該装置903は、カメラ901の画像に基づいて、該カメラ901に対応する分析装置902に対してパラメータ設定を行うことができる。よって、コストを削減することができる。   In this embodiment, as shown in FIG. 9, the video surveillance system 900 may be configured with only one parameter setting device 903 for the video surveillance system. Based on the image of 901, parameter setting can be performed for the analyzer 902 corresponding to the camera 901. Therefore, cost can be reduced.

しかし、本発明は、これに限定されず、該ビデオ監視システム900には、ビデオ監視システムのための複数のパラメータ設定装置903が構成されても良い。また、ビデオ監視システムのための複数のパラメータ設定装置903は、管理サーバ903Aに構成されても良く、又は、各分析サーバ902Aにそれぞれ構成されても良い。   However, the present invention is not limited to this, and the video surveillance system 900 may be configured with a plurality of parameter setting devices 903 for the video surveillance system. Also, the plurality of parameter setting devices 903 for the video surveillance system may be configured in the management server 903A or may be configured in each analysis server 902A.

図9に示すように、該ビデオ監視システム900は、更に、検出装置905を有しても良く、検出装置905は、カメラの状態の変化を検出するために用いられ、そのうち、前記カメラの状態の変化とは、カメラの位置、カメラの観察角度、及びカメラの観察範囲のうちの少なくとも1つの変化を指す。本実施例では、検出装置905は、センサに基づいて、カメラの状態の変化を検出することができ、及び/又は、画像処理の結果に基づいて、カメラの状態の変化を検出することができる。   As shown in FIG. 9, the video surveillance system 900 may further include a detection device 905, which is used to detect a change in the state of the camera, of which the state of the camera Is a change in at least one of a camera position, a camera observation angle, and a camera observation range. In this embodiment, the detection device 905 can detect a change in the camera state based on the sensor and / or can detect a change in the camera state based on the result of the image processing. .

本実施例では、検出装置905が該カメラ901の状態の変化を検出したときに、ビデオ監視システムのためのパラメータ設定装置903は、設定パラメータを再生成し、そして、再生成した該設定パラメータを分析装置902に設定することができる。   In this embodiment, when the detection device 905 detects a change in the state of the camera 901, the parameter setting device 903 for the video surveillance system regenerates the setting parameter, and the regenerated setting parameter It can be set in the analyzer 902.

図9に示すように、該ビデオ監視システム900は、更に、表示装置906を有しても良く、該表示装置906は、分析装置902の分析結果を表示することができる。   As shown in FIG. 9, the video surveillance system 900 may further include a display device 906, which can display the analysis result of the analysis device 902.

本実施例では、該ビデオ監視システム900中の各部品の物理的設置方法は、図9に限定されず、他の設置方法を採用しても良い。   In the present embodiment, the physical installation method of each component in the video surveillance system 900 is not limited to FIG. 9, and other installation methods may be adopted.

図10は、本実施例におけるビデオ監視システム900による監視フローを示す図である。図10に示すように、該監視フローは、次のようなステップを含んでも良い。   FIG. 10 is a diagram showing a monitoring flow by the video monitoring system 900 in the present embodiment. As shown in FIG. 10, the monitoring flow may include the following steps.

ステップ1001:カメラにより画像を取得する。   Step 1001: An image is acquired by a camera.

ステップ1002:初期化する必要があるかを判断する。「はい」と判断された場合、ステップ1004を行い、「いいえ」と判断された場合、ステップ1003を行う。そのうち、初期化とは、ビデオ監視システムのためのパラメータ設定装置903によってパラメータ設定を行うことを指す。このステップでは、ビデオ監視システム900に既に関連する設定パラメータが設定されているかを判断することにより、初期化する必要があるかを判断することができ、設定されていない場合、「はい」と判断し、即ち、初期化する必要があり、設定されている場合、「いいえ」と判断する。   Step 1002: Determine whether it is necessary to initialize. If “yes” is determined, step 1004 is performed. If “no” is determined, step 1003 is performed. Of these, initialization refers to parameter setting performed by the parameter setting device 903 for the video surveillance system. In this step, it is possible to determine whether it is necessary to initialize by determining whether a setting parameter related to the video surveillance system 900 has already been set. If it is not set, “Yes” is determined. That is, it is necessary to initialize, and if it is set, “No” is determined.

ステップ1003:カメラの状態に変化があるかを判断する。例えば、検出装置905により判断を行っても良い。「はい」と判断された場合、ステップ1004を行い、「いいえ」と判断された場合、ステップ1007を行う。   Step 1003: It is determined whether there is a change in the camera state. For example, the determination may be performed by the detection device 905. If “yes” is determined, step 1004 is performed, and if “no” is determined, step 1007 is performed.

ステップ1004:設定パラメータの生成及び設定を行う。ステップ1004では、設定パラメータを生成するステップ1005及びステップ1006を含む。そのうち、ステップ1004で生成及び設定されるパラメータは、例えば、画像中の、該ビデオ監視システムにより検出されるべき領域など、及び/又は、輝度検出の結果、及び/又は、走行軌迹、及び/又は、道路の数などであっても良い。なお、図10に示すステップ1005及びステップ1006では、設定パラメータを生成する一例のみを示しているが、他の例については、実施例1中の説明を参照することができる。   Step 1004: Generate and set setting parameters. Step 1004 includes steps 1005 and 1006 for generating setting parameters. Among them, the parameters generated and set in step 1004 include, for example, an area in the image to be detected by the video surveillance system, and / or a result of luminance detection, and / or a running track, and / or It may be the number of roads. Note that, in Step 1005 and Step 1006 shown in FIG. 10, only an example of generating the setting parameter is shown, but the description in the first embodiment can be referred to for other examples.

ステップ1005:該画像を異なる領域に分割する。このステップは、実施例1におけるシーン解析ユニット201の機能に対応する。   Step 1005: Divide the image into different regions. This step corresponds to the function of the scene analysis unit 201 in the first embodiment.

ステップ1006:該画像及びステップ1005での分割結果に基づいて、前記設定パラメータ中の前記第一パラメータと異なるパラメータを生成する。このステップは、実施例1におけるパラメータ生成ユニット202の機能に対応する。   Step 1006: Generate a parameter different from the first parameter in the setting parameter based on the image and the division result in Step 1005. This step corresponds to the function of the parameter generation unit 202 in the first embodiment.

ステップ1007:設定されたパラメータに基づいて、カメラにより取得された画像に対して分析を行う。該ステップは、例えば、分析装置902により実行することができる。   Step 1007: Based on the set parameters, the image acquired by the camera is analyzed. This step can be executed by the analyzer 902, for example.

本実施例におけるビデオ監視システム900は、交通監視のために用いられても良く、又は、他の分野、例えば、森林監視、自然災害監視、建物監視などのために用いられても良い。   The video surveillance system 900 in this embodiment may be used for traffic monitoring, or may be used for other fields such as forest monitoring, natural disaster monitoring, building monitoring, and the like.

本実施例によれば、ビデオ監視システムのカメラにより得られた画像に基づいて、設定パラメータを生成し、該設定パラメータを該ビデオ監視システムに設定し、これにより、ビデオ監視システムに対して有効及び迅速なパラメータ設定を行い、マンパワーを節約することができ、また、自動でパラメータ設定を行うため、カメラの状態に変化があっても、迅速なパラメータ設定を行うこともできる。よって、本実施例によるビデオ監視システムは、複数の種類のカメラをサポートすることができる。   According to this embodiment, the setting parameter is generated based on the image obtained by the camera of the video surveillance system, and the setting parameter is set in the video surveillance system. It is possible to quickly set parameters to save manpower, and to automatically set parameters, so that even if there is a change in the camera state, it is possible to quickly set parameters. Therefore, the video surveillance system according to the present embodiment can support a plurality of types of cameras.

本発明の実施例4は、電子機器を提供し、この電子機器は、実施例1に記載のようなビデオ監視システムのためのパラメータ設定装置を含む。   Embodiment 4 of the present invention provides an electronic device, and the electronic device includes a parameter setting device for a video surveillance system as described in Embodiment 1.

本実施例では、該電子機器は、実施例3に記載の管理サーバ903Aであっても良く、これにより、ビデオ監視システムのためのパラメータ設定装置の機能は、管理サーバ903Aに構成され得る。また、本実施例では、該電子機器は、実施例3に記載の分析サーバ902Aであっても良く、これにより、ビデオ監視システムのためのパラメータ設定装置の機能は、分析サーバ902Aに構成され得る。   In the present embodiment, the electronic device may be the management server 903A described in the third embodiment, whereby the function of the parameter setting device for the video surveillance system can be configured in the management server 903A. In the present embodiment, the electronic device may be the analysis server 902A described in the third embodiment, so that the function of the parameter setting device for the video surveillance system can be configured in the analysis server 902A. .

図11は、本発明の実施例4における電子機器の構成図である。図11に示すように、電子機器1100は、中央処理装置(CPU)1101及び記憶器1102を含んでも良く、記憶器1102は、中央処理装置1101に接続される。そのうち、該記憶器1102は、各種のデータを記憶することができ、また、更にビデオ監視システムのためのパラメータ設定プログラムを記憶することができ、且つ、中央処理装置1101の制御下で該プログラムを実行することもできる。   FIG. 11 is a configuration diagram of an electronic device according to the fourth embodiment of the present invention. As shown in FIG. 11, the electronic device 1100 may include a central processing unit (CPU) 1101 and a storage device 1102. The storage device 1102 is connected to the central processing device 1101. Among them, the storage device 1102 can store various data, can further store a parameter setting program for the video surveillance system, and can store the program under the control of the central processing unit 1101. It can also be executed.

1つ実施方式では、ビデオ監視システムのためのパラメータ設定装置の機能は、中央処理装置1101に統合することができる。   In one implementation, the function of the parameter setting device for the video surveillance system can be integrated into the central processing unit 1101.

そのうち、中央処理装置1101は、次のように設定されても良く、即ち、ビデオ監視システムのカメラにより得られた画像に基づいて、設定パラメータを生成し、そして、前記設定パラメータを前記ビデオ監視システムに設定する。   Among them, the central processing unit 1101 may be set as follows: a setting parameter is generated based on an image obtained by a camera of the video surveillance system, and the setting parameter is set to the video surveillance system. Set to.

そのうち、中央処理装置1101は、更に、次のように設定されても良く、即ち、前記画像を異なる領域に分割し、前記画像の分割結果を前記設定パラメータ中の第一パラメータとする。   Among them, the central processing unit 1101 may be further set as follows, that is, the image is divided into different regions, and the division result of the image is set as the first parameter in the setting parameters.

そのうち、中央処理装置1101は、更に、次のように設定されても良く、即ち、前記画像の特徴に基づいて、少なくとも2つのモデルのうちから1つのモデルを選択し、そして、選択した該モデルに基づいて、前記画像を異なる領域に分割する。   Among them, the central processing unit 1101 may further be set as follows: based on the characteristics of the image, select one model from at least two models, and select the selected model The image is divided into different regions.

そのうち、中央処理装置1101は、更に、次のように設定されても良く、即ち、分割のために使用するモデルが前記画像の異なる位置について異なる識別正確度を有するようにさせる。   Among them, the central processing unit 1101 may be further set as follows, that is, the model used for segmentation has different identification accuracy for different positions of the image.

そのうち、中央処理装置1101は、更に、次のように設定されても良く、即ち、前記画像の少なくともの2つのフレームに対して分割を行い、そして、前記画像の少なくともの2つのフレームに対しての分割の結果に基づいて、前記分割結果を生成する。   Among them, the central processing unit 1101 may be further set as follows, that is, dividing at least two frames of the image, and for at least two frames of the image. The division result is generated based on the result of the division.

そのうち、中央処理装置1101は、更に、次のように設定されても良く、即ち、前記画像及び前記画像に対しての分割結果に基づいて、前記設定パラメータ中の前記第一パラメータと異なるパラメータを生成する。   Among them, the central processing unit 1101 may further be set as follows, that is, based on the image and the division result for the image, a parameter different from the first parameter in the setting parameter is set. Generate.

そのうち、中央処理装置1101は、更に、次のように設定されても良く、即ち、分割された各領域中で、前記画像に対して該領域に対応する中間処理を行い、そして、前記中間処理の結果の少なくともの一部を前記設定パラメータ中の第二パラメータとする。   Among them, the central processing unit 1101 may be further set as follows, that is, in each divided area, performs an intermediate process corresponding to the area on the image, and the intermediate process At least a part of the result is set as the second parameter in the setting parameters.

そのうち、中央処理装置1101は、更に、次のように設定されても良く、即ち、前記中間処理の結果及び前記画像の分割結果に基づいて、前記設定パラメータ中の第三パラメータを生成する。   Among them, the central processing unit 1101 may be further set as follows, that is, based on the result of the intermediate processing and the result of dividing the image, the third parameter in the setting parameter is generated.

また、図11に示すように、電子機器1100は、更に、入力/出力ユニット1103、表示ユニット1104などを含んでも良く、そのうち、これらの部品の機能は、従来技術に類似したので、ここでは、その詳しい説明を省略する。なお、電子機器1100は、必ずしも図11中の全ての部品を含む必要がない。また、電子機器1100は、更に、図11にない部品を含んでもよく、これについては、従来技術を参照することができる。   Further, as shown in FIG. 11, the electronic device 1100 may further include an input / output unit 1103, a display unit 1104, and the like. Among these, the functions of these components are similar to those of the prior art. Detailed description thereof is omitted. Note that the electronic device 1100 does not necessarily include all the components in FIG. Further, the electronic device 1100 may further include parts not shown in FIG. 11, and the prior art can be referred to for this.

本発明の実施例は、更に、コンピュータ可読プログラムを提供し、そのうち、ビデオ監視システムのためのパラメータ設定装置又は電子機器中で前記プログラムを実行するときに、前記プログラムは、ビデオ監視システムのためのパラメータ設定装置又は電子機器(コンピュータ)に、実施例2に記載のビデオ監視システムのためのパラメータ設定方法を実行させることができる。   Embodiments of the present invention further provide a computer readable program, wherein when the program is executed in a parameter setting device or electronic device for a video surveillance system, the program is for a video surveillance system. The parameter setting apparatus or the electronic device (computer) can be caused to execute the parameter setting method for the video surveillance system described in the second embodiment.

本発明の実施例は、更に、コンピュータ可読プログラムを記憶した記憶媒体を提供し、そのうち、前記記憶媒体は、上述のコンピュータ可読プログラムを記憶しており、前記コンピュータ可読プログラムは、ビデオ監視システムのためのパラメータ設定装置又は電子機器(コンピュータ)に、実施例2に記載のビデオ監視システムのためのパラメータ設定方法を実行させることができる。   The embodiments of the present invention further provide a storage medium storing a computer-readable program, wherein the storage medium stores the above-described computer-readable program, the computer-readable program being for a video surveillance system. The parameter setting apparatus or the electronic device (computer) can execute the parameter setting method for the video surveillance system described in the second embodiment.

また、本発明の実施例による装置、方法などは、ソフトウェアにより実現されても良く、ハードェアにより実現されてもよく、ハードェア及びソフトウェアの組み合わせにより実現されても良い。本発明は、このようなコンピュータ可読プログラムにも関し、即ち、前記プログラムは、ロジック部品により実行される時に、前記ロジック部品に、上述の装置又は構成要素を実現させることができ、又は、前記ロジック部品に、上述の方法又はそのステップを実現させることができる。さらに、本発明は、上述のプログラムを記憶した記憶媒体、例えば、ハードディスク、磁気ディスク、光ディスク、DVD、フレッシュメモリなどにも関する。   Further, the apparatus, method, and the like according to the embodiments of the present invention may be realized by software, may be realized by hardware, or may be realized by a combination of hardware and software. The present invention also relates to such a computer-readable program, that is, when the program is executed by a logic component, the logic component can realize the above-described apparatus or component, or the logic The component can implement the above-described method or its steps. The present invention further relates to a storage medium storing the above-described program, for example, a hard disk, a magnetic disk, an optical disk, a DVD, a fresh memory, and the like.

また、以上の実施例などに関して、更に次のように付記を開示する。   In addition, regarding the above-described embodiments and the like, additional notes are disclosed as follows.

(付記1)
ビデオ監視システムのためにパラメータを設定する装置であって、
前記ビデオ監視システムのカメラにより得られた画像に基づいて、設定パラメータを生成する生成ユニット;及び
前記設定パラメータを前記ビデオ監視システムに設定する設定ユニットを含む、装置。
(Appendix 1)
A device for setting parameters for a video surveillance system,
An apparatus comprising: a generating unit for generating a setting parameter based on an image obtained by a camera of the video surveillance system; and a setting unit for setting the setting parameter in the video surveillance system.

(付記2)
付記1に記載の装置であって、
前記生成ユニットは、
前記画像を異なる領域に分割するシーン解析ユニットを含み、
前記シーン解析ユニットによる前記画像の分割結果が、前記設定パラメータ中の第一パラメータとされる、装置。
(Appendix 2)
The apparatus according to appendix 1, wherein
The generating unit is
A scene analysis unit that divides the image into different regions;
The apparatus, wherein the image division result by the scene analysis unit is set as a first parameter in the setting parameters.

(付記3)
付記2に記載の装置であって、
前記シーン解析ユニットは、前記画像の特徴に基づいて、少なくとも2つのモデルのうちから1つのモデルを選択し、選択した該モデルに基づいて、前記画像を異なる領域に分割する、装置。
(Appendix 3)
The apparatus according to appendix 2, wherein
The apparatus, wherein the scene analysis unit selects one model from at least two models based on the feature of the image, and divides the image into different regions based on the selected model.

(付記4)
付記2に記載の装置であって、
前記シーン解析ユニットが分割を行うために使用するモデルは、前記画像の異なる位置について異なる識別正確度を有する、装置。
(Appendix 4)
The apparatus according to appendix 2, wherein
The apparatus wherein the model used by the scene analysis unit to perform segmentation has different identification accuracy for different positions of the image.

(付記5)
付記2に記載の装置であって、
前記シーン解析ユニットは、前記画像の少なくとも2つのフレームに対して分割を行い、前記画像の少なくとも2つのフレームに対しての分割の結果に基づいて、前記分割結果を生成する、装置。
(Appendix 5)
The apparatus according to appendix 2, wherein
The apparatus, wherein the scene analysis unit divides at least two frames of the image and generates the division result based on a result of the division of at least two frames of the image.

(付記6)
付記2に記載の装置であって、
前記生成ユニットは、更に、
前記画像及び前記シーン解析ユニットによる前記画像の分割結果に基づいて、前記設定パラメータ中の前記第一パラメータと異なるパラメータを生成するパラメータ生成ユニットを含む、装置。
(Appendix 6)
The apparatus according to appendix 2, wherein
The generating unit further comprises:
An apparatus comprising: a parameter generation unit that generates a parameter different from the first parameter in the setting parameter based on the image and a result of dividing the image by the scene analysis unit.

(付記7)
付記6に記載の装置であって、
前記パラメータ生成ユニットは、
前記シーン解析ユニットにより分割された各領域において、前記画像に対して該領域に対応する処理を行い、
前記中間処理ユニットの処理結果の少なくとも一部が、前記設定パラメータ中の第二パラメータとされる、装置。
(Appendix 7)
The apparatus according to appendix 6, wherein
The parameter generation unit includes:
In each area divided by the scene analysis unit, processing corresponding to the area is performed on the image,
The apparatus in which at least a part of the processing result of the intermediate processing unit is set as the second parameter in the setting parameter.

(付記8)
付記7に記載の装置であって、
前記パラメータ生成ユニットは、更に、
前記中間処理ユニットの処理結果、及び、前記シーン解析ユニットによる前記画像の分割結果に基づいて、前記設定パラメータ中の第三パラメータを生成する融合ユニットを含む、装置。
(Appendix 8)
The apparatus according to appendix 7,
The parameter generation unit further includes:
An apparatus including a fusion unit that generates a third parameter in the setting parameter based on a processing result of the intermediate processing unit and a result of dividing the image by the scene analysis unit.

(付記9)
ビデオ監視システムであって、
カメラ、分析装置、及び、付記1〜8のうちの任意の一項に記載のビデオ監視システムのためにパラメータを設定する装置を含み、
前記ビデオ監視システムのためにパラメータを設定する装置は、前記カメラにより得られた画像に基づいて、設定パラメータを生成し、前記設定パラメータを前記分析装置に設定し、
前記分析装置は、前記設定パラメータに基づいて、前記カメラにより得られた画像に対して分析を行う、ビデオ監視システム。
(Appendix 9)
A video surveillance system,
A camera, an analysis device, and a device for setting parameters for the video surveillance system according to any one of appendices 1 to 8,
An apparatus for setting parameters for the video surveillance system generates a setting parameter based on an image obtained by the camera, sets the setting parameter in the analysis apparatus,
The video surveillance system, wherein the analysis device analyzes an image obtained by the camera based on the setting parameter.

(付記10)
付記9に記載のビデオ監視システムであって、
前記ビデオ監視システムは、更に、
前記カメラの状態の変化を検出する検出装置を含み、
前記検出装置により前記カメラの状態の変化が検出されたときに、前記ビデオ監視システムのためにパラメータを設定する装置は、前記設定パラメータを生成し、前記設定パラメータを前記分析装置に設定する、ビデオ監視システム。
(Appendix 10)
The video surveillance system according to attachment 9, wherein
The video surveillance system further includes:
A detection device for detecting a change in the state of the camera;
A device that sets parameters for the video surveillance system when the change in the state of the camera is detected by the detection device, generates the setting parameters, and sets the setting parameters in the analysis device. Monitoring system.

(付記11)
ビデオ監視システムのためにパラメータを設定する方法であって、
前記ビデオ監視システムのカメラにより得られた画像に基づいて、設定パラメータを生成し;及び
前記設定パラメータを前記ビデオ監視システムに設定することを含む、方法。
(Appendix 11)
A method for setting parameters for a video surveillance system, comprising:
Generating a setting parameter based on an image obtained by a camera of the video surveillance system; and setting the setting parameter in the video surveillance system.

(付記12)
付記11に記載の方法であって、
前記設定パラメータを生成することは、
前記画像を異なる領域に分割することを含み、
前記画像に対しての分割結果が、前記設定パラメータ中の第一パラメータとされる、方法。
(Appendix 12)
The method according to appendix 11, wherein
Generating the configuration parameter includes
Dividing the image into different regions,
The division result for the image is set as a first parameter in the setting parameters.

(付記13)
付記12に記載の方法であって、
前記画像を異なる領域に分割することは、
前記画像の特徴に基づいて、少なくとも2つのモデルのうちから1つのモデルを選択し、選択した該モデルに基づいて、前記画像を異なる領域に分割することを含む、方法。
(Appendix 13)
The method according to appendix 12, wherein
Dividing the image into different regions
Selecting a model from at least two models based on the features of the image and dividing the image into different regions based on the selected model.

(付記14)
付記12に記載の方法であって、
分割のために使用されるモデルは、前記画像の異なる位置について、異なる識別正確度を有する、方法。
(Appendix 14)
The method according to appendix 12, wherein
The model used for segmentation has different identification accuracy for different positions of the image.

(付記15)
付記12に記載の方法であって、
前記画像を異なる領域に分割することは、
前記画像の少なくとも2つのフレームを分割し、前記画像の少なくとも2つのフレームに対しての分割の結果に基づいて、前記分割結果を生成することを含む、方法。
(Appendix 15)
The method according to appendix 12, wherein
Dividing the image into different regions
Splitting at least two frames of the image and generating the split results based on the split results for the at least two frames of the image.

(付記16)
付記12に記載の方法であって、
前記設定パラメータを生成することは、更に、
前記画像及び前記画像に対しての分割結果に基づいて、前記設定パラメータ中の前記第一パラメータと異なるパラメータを生成することを含む、方法。
(Appendix 16)
The method according to appendix 12, wherein
Generating the configuration parameter further includes:
Generating a parameter different from the first parameter in the setting parameter based on the image and a segmentation result for the image.

(付記17)
付記16に記載の方法であって、
前記設定パラメータ中の前記第一パラメータと異なるパラメータを生成することは、
分割された各領域において、前記画像に対して該領域に対応する中間処理を行うことを含み、
前記中間処理の結果の少なくとも一部が、前記設定パラメータ中の第二パラメータとされる、方法。
(Appendix 17)
The method according to appendix 16, wherein
Generating a parameter different from the first parameter in the setting parameter,
In each divided area, performing an intermediate process corresponding to the area on the image,
The method, wherein at least a part of the result of the intermediate processing is a second parameter in the setting parameter.

(付記18)
付記17に記載の方法であって、
前記設定パラメータ中の前記第一パラメータと異なるパラメータを生成することは、更に、
前記中間処理の結果及び前記画像に対しての分割結果に基づいて、前記設定パラメータ中の第三パラメータを生成することを含む、方法。
(Appendix 18)
The method according to appendix 17, wherein
Generating a parameter different from the first parameter in the setting parameter;
Generating a third parameter in the setting parameter based on a result of the intermediate processing and a result of division on the image.

以上、本発明の好ましい実施形態を説明したが、本発明はこの実施形態に限定されず、本発明の趣旨を離脱しない限り、本発明に対するあらゆる変更は本発明の技術的範囲に属する。   The preferred embodiment of the present invention has been described above, but the present invention is not limited to this embodiment, and all modifications to the present invention belong to the technical scope of the present invention unless departing from the spirit of the present invention.

Claims (18)

ビデオ監視システムのためにパラメータを設定する装置であって、
前記ビデオ監視システムのカメラにより得られた画像に基づいて、設定パラメータを生成する生成ユニット;及び
前記設定パラメータを前記ビデオ監視システムに設定する設定ユニットを含む、装置。
A device for setting parameters for a video surveillance system,
An apparatus comprising: a generating unit for generating a setting parameter based on an image obtained by a camera of the video surveillance system; and a setting unit for setting the setting parameter in the video surveillance system.
請求項1に記載の装置であって、
前記生成ユニットは、
前記画像を異なる領域に分割するシーン解析ユニットを含み、
前記シーン解析ユニットによる前記画像の分割結果が、前記設定パラメータ中の第一パラメータとされる、装置。
The apparatus of claim 1, wherein
The generating unit is
A scene analysis unit that divides the image into different regions;
The apparatus, wherein the image division result by the scene analysis unit is set as a first parameter in the setting parameters.
請求項2に記載の装置であって、
前記シーン解析ユニットは、前記画像の特徴に基づいて、少なくとも2つのモデルのうちから1つのモデルを選択し、選択した該モデルに基づいて、前記画像を異なる領域に分割する、装置。
The apparatus according to claim 2, wherein
The apparatus, wherein the scene analysis unit selects one model from at least two models based on the feature of the image, and divides the image into different regions based on the selected model.
請求項2に記載の装置であって、
前記シーン解析ユニットが分割を行うために使用するモデルは、前記画像の異なる位置について異なる識別正確度を有する、装置。
The apparatus according to claim 2, wherein
The apparatus wherein the model used by the scene analysis unit to perform segmentation has different identification accuracy for different positions of the image.
請求項2に記載の装置であって、
前記シーン解析ユニットは、前記画像の少なくとも2つのフレームに対して分割を行い、前記画像の少なくとも2つのフレームに対しての分割の結果に基づいて、前記分割結果を生成する、装置。
The apparatus according to claim 2, wherein
The apparatus, wherein the scene analysis unit divides at least two frames of the image and generates the division result based on a result of the division of at least two frames of the image.
請求項2に記載の装置であって、
前記生成ユニットは、
前記画像及び前記シーン解析ユニットによる前記画像の分割結果に基づいて、前記設定パラメータ中の前記第一パラメータと異なるパラメータを生成するパラメータ生成ユニットを更に含む、装置。
The apparatus according to claim 2, wherein
The generating unit is
The apparatus further includes a parameter generation unit that generates a parameter different from the first parameter in the setting parameter based on the image and the division result of the image by the scene analysis unit.
請求項6に記載の装置であって、
前記パラメータ生成ユニットは、
前記シーン解析ユニットにより分割された各領域において、前記画像に対して該領域に対応する処理を行い、
前記中間処理ユニットの処理結果の少なくとも一部が、前記設定パラメータ中の第二パラメータとされる、装置。
The apparatus according to claim 6, wherein
The parameter generation unit includes:
In each area divided by the scene analysis unit, processing corresponding to the area is performed on the image,
The apparatus in which at least a part of the processing result of the intermediate processing unit is set as the second parameter in the setting parameter.
請求項7に記載の装置であって、
前記パラメータ生成ユニットは、
前記中間処理ユニットの処理結果と、前記シーン解析ユニットによる前記画像の分割結果とに基づいて、前記設定パラメータ中の第三パラメータを生成する融合ユニットを更に含む、装置。
The apparatus according to claim 7, wherein
The parameter generation unit includes:
The apparatus further includes a fusion unit that generates a third parameter in the setting parameter based on a processing result of the intermediate processing unit and a division result of the image by the scene analysis unit.
ビデオ監視システムであって、
カメラ、分析装置、及び、請求項1〜8のうちの任意の一項に記載の、ビデオ監視システムのためにパラメータを設定する装置を含み、
前記ビデオ監視システムのためにパラメータを設定する装置は、前記カメラにより得られた画像に基づいて、設定パラメータを生成し、前記設定パラメータを前記分析装置に設定し、
前記分析装置は、前記設定パラメータに基づいて、前記カメラにより得られた画像に対して分析を行う、ビデオ監視システム。
A video surveillance system,
A camera, an analysis device, and a device for setting parameters for a video surveillance system according to any one of claims 1-8,
An apparatus for setting parameters for the video surveillance system generates a setting parameter based on an image obtained by the camera, sets the setting parameter in the analysis apparatus,
The video surveillance system, wherein the analysis device analyzes an image obtained by the camera based on the setting parameter.
請求項9に記載のビデオ監視システムであって、
前記ビデオ監視システムは、
前記カメラの状態の変化を検出する検出装置を更に含み、
前記検出装置により前記カメラの状態の変化が検出されたときに、前記ビデオ監視システムのためにパラメータを設定する装置は、前記設定パラメータを生成し、前記設定パラメータを前記分析装置に設定する、ビデオ監視システム。
The video surveillance system according to claim 9, wherein
The video surveillance system includes:
A detection device for detecting a change in the state of the camera;
A device that sets parameters for the video surveillance system when the change in the state of the camera is detected by the detection device, generates the setting parameters, and sets the setting parameters in the analysis device. Monitoring system.
ビデオ監視システムのためにパラメータを設定する方法であって、
前記ビデオ監視システムのカメラにより得られた画像に基づいて、設定パラメータを生成し;及び
前記設定パラメータを前記ビデオ監視システムに設定することを含む、方法。
A method for setting parameters for a video surveillance system, comprising:
Generating a setting parameter based on an image obtained by a camera of the video surveillance system; and setting the setting parameter in the video surveillance system.
請求項11に記載の方法であって、
前記設定パラメータを生成することは、
前記画像を異なる領域に分割することを含み、
前記画像の分割結果を前記設定パラメータ中の第一パラメータとする、方法。
A method according to claim 11, comprising
Generating the configuration parameter includes
Dividing the image into different regions,
A method in which the division result of the image is set as a first parameter in the setting parameters.
請求項12に記載の方法であって、
前記画像を異なる領域に分割することは、
前記画像の特徴に基づいて、少なくとも2つのモデルのうちから1つのモデルを選択し、選択した該モデルに基づいて、前記画像を異なる領域に分割することを含む、方法。
A method according to claim 12, comprising
Dividing the image into different regions
Selecting a model from at least two models based on the features of the image and dividing the image into different regions based on the selected model.
請求項12に記載の方法であって、
分割のために使用されるモデルは、前記画像の異なる位置について異なる識別正確度を有する、方法。
A method according to claim 12, comprising
The method wherein the models used for segmentation have different identification accuracy for different positions of the image.
請求項12に記載の方法であって、
前記画像を異なる領域に分割することは、
前記画像の少なくとも2つのフレームを分割し、前記画像の少なくとも2つのフレームに対しての分割の結果に基づいて、前記分割結果を生成することを含む、方法。
A method according to claim 12, comprising
Dividing the image into different regions
Splitting at least two frames of the image and generating the split results based on the split results for the at least two frames of the image.
請求項12に記載の方法であって、
前記設定パラメータを生成することは、
前記画像及び前記画像の分割結果に基づいて、前記設定パラメータ中の前記第一パラメータと異なるパラメータを生成することを更に含む、方法。
A method according to claim 12, comprising
Generating the configuration parameter includes
The method further includes generating a parameter different from the first parameter in the setting parameter based on the image and the segmentation result of the image.
請求項16に記載の方法であって、
前記設定パラメータ中の前記第一パラメータと異なるパラメータを生成することは、
分割された各領域において、前記画像に対して該領域に対応する中間処理を行うことを含み、
前記中間処理の結果の少なくとも一部を前記設定パラメータ中の第二パラメータとする、方法。
The method of claim 16, comprising
Generating a parameter different from the first parameter in the setting parameter,
In each divided area, performing an intermediate process corresponding to the area on the image,
A method in which at least a part of the result of the intermediate processing is set as a second parameter in the setting parameter.
請求項17に記載の方法であって、
前記設定パラメータ中の前記第一パラメータと異なるパラメータを生成することは、
前記中間処理の結果及び前記画像の分割結果に基づいて、前記設定パラメータ中の第三パラメータを生成することを更に含む、方法。
The method of claim 17, comprising
Generating a parameter different from the first parameter in the setting parameter,
The method further includes generating a third parameter in the setting parameter based on the result of the intermediate processing and the result of dividing the image.
JP2019010176A 2018-03-02 2019-01-24 Video surveillance system parameter setting method, device and video surveillance system Active JP7305965B2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201810174920.3 2018-03-02
CN201810174920.3A CN110225236B (en) 2018-03-02 2018-03-02 Method and device for configuring parameters for video monitoring system and video monitoring system

Publications (2)

Publication Number Publication Date
JP2019154027A true JP2019154027A (en) 2019-09-12
JP7305965B2 JP7305965B2 (en) 2023-07-11

Family

ID=67822136

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019010176A Active JP7305965B2 (en) 2018-03-02 2019-01-24 Video surveillance system parameter setting method, device and video surveillance system

Country Status (2)

Country Link
JP (1) JP7305965B2 (en)
CN (1) CN110225236B (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022067994A (en) * 2020-10-21 2022-05-09 i-PRO株式会社 Camera installation support program, camera installation support method and camera installation support system
CN114937244A (en) * 2022-06-16 2022-08-23 慧之安信息技术股份有限公司 Examination room intelligent monitoring method based on edge calculation
JP7379260B2 (en) 2020-04-06 2023-11-14 Fcnt株式会社 Wrong-way vehicle detection device, wrong-way vehicle detection method, and wrong-way vehicle detection program

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113255708A (en) * 2020-02-10 2021-08-13 富士通株式会社 Data fusion method and device and data processing equipment

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0546770A (en) * 1991-07-25 1993-02-26 Nec Corp Area dividing system for moving image
JP2002342748A (en) * 2001-05-18 2002-11-29 Av Planning Center:Kk Method and device for detecting queue
JP2010009422A (en) * 2008-06-27 2010-01-14 Sony Corp Image processor, imaging apparatus, image processing method and program
JP6116746B1 (en) * 2016-11-17 2017-04-19 株式会社ネクスト Information processing apparatus, information processing method, and program
JP2017162456A (en) * 2016-03-11 2017-09-14 株式会社東芝 Training of restricted deconvolution network for semantic segmentation of road scene

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4970516B2 (en) * 2009-09-30 2012-07-11 日立オートモティブシステムズ株式会社 Surrounding confirmation support device
KR102203410B1 (en) * 2014-10-20 2021-01-18 삼성에스디에스 주식회사 Method and Apparatus for Setting Region of Interest
CN106571038A (en) * 2015-10-12 2017-04-19 原熙 Method for fully automatically monitoring road
CN105788286A (en) * 2016-05-19 2016-07-20 湖南博广信息科技有限公司 Intelligent red light running identifying system and vehicle behavior detecting and capturing method
EP3252658B1 (en) * 2016-05-30 2021-08-11 Kabushiki Kaisha Toshiba Information processing apparatus and information processing method
CN106485927A (en) * 2016-10-28 2017-03-08 江苏信息职业技术学院 A kind of intelligent transportation violation information harvester and acquisition method
CN107730904A (en) * 2017-06-13 2018-02-23 银江股份有限公司 Multitask vehicle driving in reverse vision detection system based on depth convolutional neural networks
CN107730906A (en) * 2017-07-11 2018-02-23 银江股份有限公司 Zebra stripes vehicle does not give precedence to the vision detection system of pedestrian behavior
CN107292291B (en) * 2017-07-19 2020-04-03 北京智芯原动科技有限公司 Vehicle identification method and system
CN107316035A (en) * 2017-08-07 2017-11-03 北京中星微电子有限公司 Object identifying method and device based on deep learning neutral net
CN107622678A (en) * 2017-10-18 2018-01-23 冯迎安 A kind of intelligent traffic control system and its method based on image procossing

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0546770A (en) * 1991-07-25 1993-02-26 Nec Corp Area dividing system for moving image
JP2002342748A (en) * 2001-05-18 2002-11-29 Av Planning Center:Kk Method and device for detecting queue
JP2010009422A (en) * 2008-06-27 2010-01-14 Sony Corp Image processor, imaging apparatus, image processing method and program
JP2017162456A (en) * 2016-03-11 2017-09-14 株式会社東芝 Training of restricted deconvolution network for semantic segmentation of road scene
JP6116746B1 (en) * 2016-11-17 2017-04-19 株式会社ネクスト Information processing apparatus, information processing method, and program

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7379260B2 (en) 2020-04-06 2023-11-14 Fcnt株式会社 Wrong-way vehicle detection device, wrong-way vehicle detection method, and wrong-way vehicle detection program
JP2022067994A (en) * 2020-10-21 2022-05-09 i-PRO株式会社 Camera installation support program, camera installation support method and camera installation support system
JP7104123B2 (en) 2020-10-21 2022-07-20 i-PRO株式会社 Camera installation support program, camera installation support method and camera installation support system
CN114937244A (en) * 2022-06-16 2022-08-23 慧之安信息技术股份有限公司 Examination room intelligent monitoring method based on edge calculation
CN114937244B (en) * 2022-06-16 2023-08-29 慧之安信息技术股份有限公司 Intelligent examination room monitoring method based on edge calculation

Also Published As

Publication number Publication date
CN110225236A (en) 2019-09-10
CN110225236B (en) 2022-06-28
JP7305965B2 (en) 2023-07-11

Similar Documents

Publication Publication Date Title
JP7305965B2 (en) Video surveillance system parameter setting method, device and video surveillance system
US8582811B2 (en) Unsupervised parameter settings for object tracking algorithms
CN104506804B (en) Motor vehicle abnormal behaviour monitoring device and its method on a kind of through street
JP6234063B2 (en) Detection of stationary objects on intersections of paths (methods, systems, and programs)
CN112990114B (en) Traffic data visualization simulation method and system based on AI identification
JP5815910B2 (en) Methods, systems, products, and computer programs for multi-queue object detection and analysis (multi-queue object detection and analysis)
KR101392294B1 (en) Video segmentation using statistical pixel modeling
US11380104B2 (en) Method and device for detecting illegal parking, and electronic device
KR100834550B1 (en) Detecting method at automatic police enforcement system of illegal-stopping and parking vehicle and system thereof
Venetianer et al. Performance evaluation of an intelligent video surveillance system–A case study
JP2017033554A (en) Video data analysis method and device, and parking place monitoring system
CN112991742B (en) Visual simulation method and system for real-time traffic data
KR100820952B1 (en) Detecting method at automatic police enforcement system of illegal-stopping and parking vehicle using single camera and system thereof
CN114781479A (en) Traffic incident detection method and device
KR102579542B1 (en) Crowd density-based hazardous area automated alert system
JP2020061127A (en) Lane change vehicle detection device, method, and video monitoring device
CN115760912A (en) Moving object tracking method, device, equipment and computer readable storage medium
CN111814668A (en) Method and device for detecting road sprinklers
CN112447060A (en) Method and device for recognizing lane and computing equipment
JP7125843B2 (en) Fault detection system
Sala et al. Measuring traffic lane‐changing by converting video into space–time still images
Al-Kadi et al. Road scene analysis for determination of road traffic density
UrRehman et al. Modeling, design and analysis of intelligent traffic control system based on integrated statistical image processing techniques
Ng et al. Traffic Impact Assessment System using Yolov5 and ByteTrack
Vujović et al. Traffic video surveillance in different weather conditions

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211007

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221026

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221129

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230126

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230530

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230612

R150 Certificate of patent or registration of utility model

Ref document number: 7305965

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150