JP6546828B2 - Modify at least one parameter used in video processing - Google Patents

Modify at least one parameter used in video processing Download PDF

Info

Publication number
JP6546828B2
JP6546828B2 JP2015205245A JP2015205245A JP6546828B2 JP 6546828 B2 JP6546828 B2 JP 6546828B2 JP 2015205245 A JP2015205245 A JP 2015205245A JP 2015205245 A JP2015205245 A JP 2015205245A JP 6546828 B2 JP6546828 B2 JP 6546828B2
Authority
JP
Japan
Prior art keywords
video sequence
parameter
video
image
video processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015205245A
Other languages
Japanese (ja)
Other versions
JP2016085739A (en
Inventor
ヨアキム バルッセン,
ヨアキム バルッセン,
マッツ バイランデール,
マッツ バイランデール,
Original Assignee
アクシス アーベー
アクシス アーベー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by アクシス アーベー, アクシス アーベー filed Critical アクシス アーベー
Publication of JP2016085739A publication Critical patent/JP2016085739A/en
Application granted granted Critical
Publication of JP6546828B2 publication Critical patent/JP6546828B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration using local operators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/143Sensing or illuminating at different wavelengths
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/22Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/20Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from infrared radiation only
    • H04N23/23Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from infrared radiation only from thermal infrared radiation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/30Transforming light or analogous information into electric information
    • H04N5/33Transforming infrared radiation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20004Adaptive image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20036Morphological image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/194Terrestrial scenes using hyperspectral data, i.e. more or other wavelengths than RGB

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • Toxicology (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Processing (AREA)

Description

本発明は、ビデオ監視の分野に関する。詳細には、現場監視用ビデオ処理アルゴリズムによって用いられる少なくとも一つのパラメータを修正するための方法、装置、及びシステムに関する。   The invention relates to the field of video surveillance. In particular, it relates to a method, apparatus and system for modifying at least one parameter used by a video processing algorithm for on-site monitoring.

多くのカメラ監視状況において、遠方の、物体の存在又は動きのなどの事象を検出することが重要である。当然、カメラから遠く離れて位置する物体は、カメラによって撮像される画像の中で小さいであろう。例えば、それらは、画像の中で数画素を含むだけかもしれない。従って、遠方の事象を検出するためには、例えば、撮像された画像の中で小さく現れる物体を検出できることが、必要である。   In many camera surveillance situations, it is important to detect events such as the presence or movement of objects in the distance. Of course, objects located far away from the camera will be small in the image captured by the camera. For example, they may only contain a few pixels in the image. Thus, in order to detect distant events, it is necessary, for example, to be able to detect small appearing objects in the captured image.

しかしながら、小さい物体を検出することは、通常、誤検出が増加するという犠牲を伴う。これは、カメラによって撮像される画像の中にノイズが存在するという事実に関係がある。ノイズは、小さい物体と容易に間違えられることがあり、逆もまた同様であり、それにより誤検出をもたらす。誤検出を減らすために、物体検出、動き検出、及び/又は物体追跡のためのビデオ処理アルゴリズムは、小さな検出(small detections)を除去するためのモルフォロジカルフィルタを含む、輝度変化閾値及びノイズフィルタリングなどのパラメータを含む。ノイズによって引き起こされる誤検出は除去されるが、現実の事象を検出するのに十分な感度はなお存在するように、パラメータは、通常、設定される。言い換えると、検出範囲と誤検出を回避することの間には、トレードオフが存在する。   However, detecting small objects usually comes at the cost of increased false positives. This relates to the fact that noise is present in the image taken by the camera. Noise can easily be mistaken for small objects, and vice versa, thereby leading to false positives. To reduce false positives, video processing algorithms for object detection, motion detection, and / or object tracking include morphological filters to remove small detections, brightness change thresholds and noise filtering etc. Including the parameters of The parameters are usually set such that false detections caused by noise are eliminated but there is still sufficient sensitivity to detect real events. In other words, there is a tradeoff between detection range and avoiding false positives.

遠方の物体を検出し識別する問題が、認められて来た。この問題を解決するために、人の位置座標を同定するためのサーマルカメラを用いることが提案された。その後、位置座標は、その人の拡大された画像を撮像するための第二のカメラ、及び詳細には、その方向とズーム、を制御するための制御手段に入力される。   The problem of detecting and identifying distant objects has been recognized. In order to solve this problem, it has been proposed to use a thermal camera to identify the position coordinates of a person. The position coordinates are then input to a second camera for capturing the magnified image of the person, and in particular to control means for controlling its direction and zoom.

そのような方法は、第二のカメラが、ある特定の目標物体を追うために、その方向とズームの水準を変化させるように制御される、という短所を有する。従って、そのような方法は、一度に一つの物体を検出するためにのみ適している。   Such a method has the disadvantage that the second camera is controlled to change its direction and zoom level to follow a particular target object. Thus, such a method is only suitable for detecting one object at a time.

それ故、改良の余地がある。詳細には、誤検出が減ると同時に、広範囲の検出を可能にする代替的方法に対する要求が存在する。   Therefore, there is room for improvement. In particular, there is a need for alternative methods that allow for a wide range of detection while reducing false positives.

従って、上記を考慮すると、誤検出が減ると同時に、広範囲の物体及び/又は活動の検出を可能にする方法と装置を提供することが、本発明の目的である。   Accordingly, in view of the above, it is an object of the present invention to provide a method and apparatus that enables detection of a wide range of objects and / or activity while reducing false positives.

本発明の第一の態様によれば、上記の目的は、動き検出アルゴリズム、物体検出アルゴリズム、又は物体追跡アルゴリズムなどの、現場監視用ビデオ処理アルゴリズムによって使用される少なくとも一つのパラメータを修正するための方法によって達成され、本方法は、
現場の第一のビデオシーケンスと第二のビデオシーケンスを受け取ることであって、第一のビデオシーケンスは、現場の温度を示す熱情報を含むように、サーマルカメラを用いて撮像される、受け取ることと、
ビデオ処理アルゴリズムを第二のビデオシーケンスに適用することであって、ビデオ処理アルゴリズムによって用いられる少なくとも一つのパラメータが、第一のビデオシーケンスに含まれる熱情報に基づいて、温度に依存するように修正される、適用することと、を含む。
According to a first aspect of the present invention, the above object is to correct at least one parameter used by a video processing algorithm for scene monitoring, such as a motion detection algorithm, an object detection algorithm, or an object tracking algorithm. Achieved by the method, the method
Receiving a first video sequence and a second video sequence of the scene, wherein the first video sequence is imaged with a thermal camera so as to include thermal information indicative of the temperature of the scene When,
Applying a video processing algorithm to the second video sequence, wherein at least one parameter used by the video processing algorithm is modified to be temperature dependent based on the thermal information contained in the first video sequence Applied, including.

上記方法により、サーマルカメラによって撮像される第一のビデオシーケンスにおける熱情報が、第二のビデオシーケンスに適用されるビデオ処理アルゴリズムの少なくとも一つのパラメータを修正する、すなわち変えるために用いられる。このように、少なくとも一つのパラメータが、現場の温度に依存するようにされる。例えば、ビデオ処理アルゴリズムが、人間の体温などの、関心のある温度を伴う選択的エリア内の小さな検出には高感度であり、他のエリアでは感度が高くないように、少なくとも一つのパラメータの修正が、適合されうる。その結果、関心のある温度に対応するエリアでは、より広い検出範囲が可能である一方で、他の温度範囲に対応するエリアでは、誤検出が低く抑えられる。   According to the method, thermal information in a first video sequence imaged by a thermal camera is used to modify or change at least one parameter of a video processing algorithm applied to a second video sequence. Thus, at least one parameter is made dependent on the temperature at the site. For example, modifying at least one parameter so that the video processing algorithm is sensitive to small detections in selective areas with temperatures of interest, such as human body temperature, and not in other areas. Can be adapted. As a result, in the area corresponding to the temperature of interest, a wider detection range is possible, while in the areas corresponding to the other temperature ranges false detections are suppressed low.

ビデオ処理アルゴリズムは、画像のシーケンスに適用される画像処理アルゴリズムであるが、現場における事象の検出のためのアルゴリズムでありうる。これは、物体検出、動き検出、及び物体追跡のためのアルゴリズムを含む。ビデオ処理アルゴリズムは、カメラ自体の機能を制御するアルゴリズムではないということに留意すべきである。   A video processing algorithm is an image processing algorithm applied to a sequence of images, but may be an algorithm for the detection of an event in the field. This includes algorithms for object detection, motion detection, and object tracking. It should be noted that the video processing algorithm is not an algorithm that controls the functions of the camera itself.

少なくとも一つのパラメータを修正することによって、パラメータの値が修正される、すなわち変更されるということが、一般に意味される。例えば、パラメータの値が、増やされることもあれば、又は減らされることもある。   It is generally meant that by modifying at least one parameter, the value of the parameter is modified, ie changed. For example, the value of the parameter may be increased or decreased.

一般に、少なくとも一つのパラメータは、第二のビデオシーケンスの画像全体に関して、修正されうる。例えば、第一のビデオシーケンスにおける熱情報が、関心のある温度にある温度を有する物体が現場に存在することを示す場合、ビデオ処理アルゴリズムが、第二のビデオシーケンスの画像の画像平面全体にわたって小さな検出に対して高感度になるように、少なくとも一つのパラメータが変更されうる。   In general, at least one parameter may be modified with respect to the entire image of the second video sequence. For example, if the thermal information in the first video sequence indicates that an object having a temperature that is at a temperature of interest is present in the field, then the video processing algorithm is small over the image plane of the second video sequence image. At least one parameter may be altered to be sensitive to detection.

少なくとも一つのパラメータもまた、画像全体にわたって修正されうるが、温度の関数としてである。すなわち、関心のない温度領域内ではパラメータの数値に何も起こらず、関心のある温度領域内でパラメータは新たな値となる。   At least one parameter may also be corrected throughout the image, but as a function of temperature. That is, nothing happens to the numerical value of the parameter in the non-interest temperature region, and the parameter becomes a new value in the temperature region of interest.

詳細には、ビデオ処理アルゴリズムによって用いられる少なくとも一つのパラメータが、第二のビデオシーケンスの画像の中の領域に関して、第一のビデオシーケンスの画像の中の対応する領域の熱情報に基づいて、変更されうる。このように、ビデオ処理アルゴリズムは、関心のある熱情報を有しうる幾つかの領域では小さな検出に対して高感度にされ、他の領域では、小さな検出に対して感度が低く(それゆえ、ノイズに対して感度が低く)されうる。   In particular, at least one parameter used by the video processing algorithm is modified with respect to the area in the image of the second video sequence based on thermal information of the corresponding area in the image of the first video sequence It can be done. Thus, the video processing algorithm is made more sensitive to small detections in some areas that may have thermal information of interest, and less sensitive to small detections in other areas (hence, Low sensitivity to noise).

熱情報とは、現場の温度を示す任意の情報を一般に意味する。例えば、熱情報は、現場の温度を示す、第一のビデオシーケンスの中の画像の輝度値を含みうる。従って、ビデオ処理アルゴリズムによって用いられる少なくとも一つのパラメータは、第一のビデオシーケンスの中の画像の輝度値に基づいて、修正されうる。   Thermal information generally means any information indicative of the temperature at the site. For example, the thermal information may include the brightness values of the images in the first video sequence indicating the temperature of the scene. Thus, at least one parameter used by the video processing algorithm may be modified based on the luminance values of the images in the first video sequence.

ビデオ処理アルゴリズムは、ある特定のタイプの物体又は幾つかの異なるタイプの物体の存在又は動きなどの、現場の異なるタイプの事象を検出する目的を有しうる。異なるタイプの物体は、異なる温度範囲と対応付けられうるので、第一のビデオシーケンスにおける熱情報に基づいて区別されうる。例えば、人体が、ある温度範囲と対応付けられうる一方、自動車の作動中のエンジンは、別の温度範囲と対応付けられうる。従って、ビデオ処理アルゴリズムの特定の目的に応じて、第一のビデオシーケンスの画像の中の異なる領域を区別するために用いられうる、少なくとも一つの関心のある既定の温度範囲が、存在しうる。少なくとも一つの関心のある既定の温度範囲は、人間の体温に対応する温度範囲を含みうる。そのような既定の温度範囲は、例えば、ユーザによって特定されうる。   Video processing algorithms may have the purpose of detecting different types of events in the scene, such as the presence or movement of a particular type of object or several different types of objects. Different types of objects may be distinguished based on thermal information in the first video sequence as they may be associated with different temperature ranges. For example, a human body may be associated with one temperature range, while an operating engine of a car may be associated with another temperature range. Thus, depending on the specific purpose of the video processing algorithm, there may be at least one predetermined temperature range of interest that may be used to distinguish different regions in the image of the first video sequence. The at least one predetermined temperature range of interest may include a temperature range corresponding to human body temperature. Such predetermined temperature range may, for example, be specified by the user.

本方法は、
サーマルカメラによって撮像された第一のビデオシーケンスの画像の中で、少なくとも一つの関心のある既定の温度範囲にある温度を示す輝度値を有する画素を同定し、
ビデオ処理アルゴリズムによって用いられる少なくとも一つのパラメータが、第一のビデオシーケンスの画像の中で同定された画素に対応する第二のビデオシーケンスの画像の領域に関して修正されることを含みうる。
This method is
Identifying, in the image of the first video sequence taken by the thermal camera, a pixel having a luminance value indicative of a temperature lying in at least one predetermined temperature range of interest;
At least one parameter used by the video processing algorithm may include being modified with respect to a region of the image of the second video sequence corresponding to a pixel identified in the image of the first video sequence.

言い換えると、関心のある熱情報を有する画素領域が、第一のビデオシーケンスの中で同定され、少なくとも一つのパラメータが、第二のビデオシーケンスの中の対応する領域に関して修正される。従って、少なくとも一つのパラメータが、人間が存在する領域などの、ある特定の関心ある温度情報を有する領域の中で修正され、ビデオ処理アルゴリズムを、そのような領域の中での事象の検出に対して高感度にしうる。   In other words, pixel regions having thermal information of interest are identified in the first video sequence, and at least one parameter is corrected for the corresponding region in the second video sequence. Thus, at least one parameter is modified in an area having certain temperature information of interest, such as an area where a human is present, and a video processing algorithm for detecting an event in such area High sensitivity.

理解されるべきであるように、第一のビデオシーケンスと第二のビデオシーケンスは、異なる解像度を有してもよく、現場のやや異なる視角から撮像されてもよい。しかしながら、第一のビデオシーケンスと第二のビデオシーケンスの間には、なお対応が存在する。より具体的には、第一のビデオシーケンスの画像の中の画素又は領域と第二のビデオシーケンスの画像の中の画素又は領域が、現場の同じ点を表す場合、第一のビデオシーケンスの画像の中の画素又は領域は、第二のビデオシーケンスの画像の中の画素又は領域に対応する。   As should be understood, the first video sequence and the second video sequence may have different resolutions and may be imaged from slightly different viewing angles of the scene. However, there is still a correspondence between the first video sequence and the second video sequence. More specifically, if the pixels or areas in the image of the first video sequence and the pixels or areas in the image of the second video sequence represent the same point in the scene, then the image of the first video sequence The pixels or regions in correspond to the pixels or regions in the image of the second video sequence.

上記に従って、少なくとも一つのパラメータが、第二のビデオシーケンスの画像の中の様々な領域に関して修正され得、その領域は、第一のビデオシーケンスの中の熱情報に基づいて同定される。従って、少なくとも一つのパラメータは、第二のビデオシーケンスの画像によって異なってもよく、その差異は、第一のビデオシーケンスの中の熱情報によって定められる。詳細には、ビデオ処理アルゴリズムによって用いられる少なくとも一つのパラメータは、第一のビデオシーケンスの画像の輝度値に基づいて修正され得、少なくとも一つのパラメータは、第一のビデオシーケンスの画像の輝度値に応じて、第二のビデオシーケンスの画像ごとに変わる。差異は、例えば、連続的であってもよいし、段階的であってもよい。このことは、少なくとも一つのパラメータが、第一のビデオシーケンスの中の温度に依存して適合されうるという点で、有利である。   In accordance with the above, at least one parameter may be corrected for various regions in the image of the second video sequence, which regions are identified based on the thermal information in the first video sequence. Thus, at least one parameter may differ depending on the image of the second video sequence, which difference is determined by the thermal information in the first video sequence. In particular, at least one parameter used by the video processing algorithm may be modified based on the luminance value of the image of the first video sequence, the at least one parameter being the luminance value of the image of the first video sequence In response, it will change from image to image of the second video sequence. The difference may be, for example, continuous or stepwise. This is advantageous in that at least one parameter can be adapted depending on the temperature in the first video sequence.

第一のビデオシーケンスの中の熱情報は、どこで、すなわち、どの領域で少なくとも一つのパラメータを修正すべきかを決めるためだけでなく、どのように又はどのくらい少なくとも一つのパラメータを修正すべきかを決めるためにも用いられうるということに、留意すべきである。少なくとも一つのパラメータが、第一のビデオシーケンスの画像の輝度値の関数として、第二のビデオシーケンスの画像によって異なることを許すことにより、修正の大きさもまた、第一のビデオシーケンスの画像の輝度値の関数となる。例えば、パラメータの増加又は減少の量が、第一のビデオシーケンスの画像の輝度値の関数であってもよい。   The thermal information in the first video sequence is not only to decide where, i.e. in which region at least one parameter should be corrected, but also to decide how or how at least one parameter should be corrected. It should be noted that it can also be used. By allowing at least one parameter to differ from the image of the second video sequence as a function of the luminance value of the image of the first video sequence, the magnitude of the correction is also determined by the luminance of the image of the first video sequence It is a function of the value. For example, the amount of increase or decrease of the parameter may be a function of the luminance value of the image of the first video sequence.

少なくとも一つのパラメータが、現場での事象の検出に関連するパラメータであってもよい。これは、物体検出、動き検出、及び物体追跡のためのパラメータを含む。   At least one parameter may be a parameter associated with the detection of an event in the field. This includes parameters for object detection, motion detection, and object tracking.

例えば、少なくとも一つのパラメータは、動き又は物体が存在しているなどの、事象の検出のための閾値を含みうる。詳細には、ビデオ処理アルゴリズムは、第二のビデオシーケンスの中の引き続く画像と画像の間の輝度値の差を閾値と比較することを含みうる。閾値は、第一のビデオシーケンスの中の熱情報に基づいて修正される。例えば、閾値は、関心のある熱情報に対応する領域で増加されうる。このように、ビデオ処理アルゴリズムは、関心のあるエリアでの事象の検出に対して高感度(ノイズに対しても高感度)にされ、他のエリアでは低い感度にされうる。   For example, at least one parameter may include a threshold for detection of an event, such as motion or an object present. In particular, the video processing algorithm may include comparing the difference in luminance values between subsequent images in the second video sequence to a threshold. The threshold is corrected based on the thermal information in the first video sequence. For example, the threshold may be increased in the area corresponding to the thermal information of interest. In this way, the video processing algorithm can be made sensitive (also sensitive to noise) to the detection of events in the area of interest and low in other areas.

少なくとも一つのパラメータは、画素クラスタとも呼ばれる、隣接する又は接続する小さな画素群の除去などの、(ノイズではないかと思われる)小さな検出の除去のためのフィルタで用いられるパラメータを含みうる。例えば、少なくとも一つのパラメータは、閾値を下回るサイズを有する隣接画素群が除去されるような、隣接画素群のサイズについての閾値を含みうる。このように、ビデオ処理アルゴリズムは、関心のあるエリアでの事象の検出に対して高感度(ノイズに対しても高感度)にされ、他のエリアでは低い感度にされうる。   At least one parameter may include a parameter used in a filter for the removal of small detections (which may be noise), such as the removal of adjacent or connected small groups of pixels, also called pixel clusters. For example, the at least one parameter may include a threshold for the size of the neighboring pixels such that neighboring pixels having a size below the threshold are removed. In this way, the video processing algorithm can be made sensitive (also sensitive to noise) to the detection of events in the area of interest and low in other areas.

例によれば、ビデオ処理アルゴリズムは、スムージングフィルタリングを含み、前記スムージングフィルタリングの少なくとも一つのパラメータが、第一のビデオシーケンスの中の熱情報に基づいて修正される。スムージングフィルタリングによって、スムージングフィルタを適用することが、意味される。スムージングフィルタリングが、第二のビデオシーケンスの画像に適用されうる。スムージングフィルタは、時間的フィルタ(時間方向でのスムージング効果を有する)及び/又は空間的フィルタ(空間におけるスムージング効果を有する)でありうる。空間的スムージングフィルタの例は、モルフォロジカルフィルタとメジアンフィルタである。   According to an example, the video processing algorithm comprises smoothing filtering, wherein at least one parameter of said smoothing filtering is modified based on the thermal information in the first video sequence. By smoothing filtering is meant applying a smoothing filter. Smoothing filtering may be applied to the images of the second video sequence. The smoothing filter may be a temporal filter (with a smoothing effect in the temporal direction) and / or a spatial filter (with a smoothing effect in space). Examples of spatial smoothing filters are morphological filters and median filters.

従って、スムージングフィルタリングは、(ノイズではないかと思われる)小さな検出の除去のためのモルフォロジカルフィルタリングを含みうる。詳細には、スムージングフィルタリングは、構造化要素を用いた第二のビデオシーケンスの画像のモルフォロジカルフィルタリングを含み得、構造化要素は、第一のビデオシーケンスの中の熱情報に基づいて修正される。修正は、構造化要素のサイズと形状のうちの少なくとも一つを修正することを含み得る。このように、ビデオ処理アルゴリズムは、関心のあるエリアでの事象の検出に対して高感度(ノイズに対しても高感度)にされ、他のエリアでは低い感度にされうる。   Thus, smoothing filtering may include morphological filtering for the removal of small detections (which may be noise). In particular, the smoothing filtering may include morphological filtering of the image of the second video sequence using a structuring element, the structuring element being modified based on thermal information in the first video sequence . The modification may include modifying at least one of the size and the shape of the structuring element. In this way, the video processing algorithm can be made sensitive (also sensitive to noise) to the detection of events in the area of interest and low in other areas.

サーマルカメラは、遠赤外線(LWIR)センサを含み得る。LWIRセンサは、他の赤外線センサがなしえない方法で可視光センサを補足するという点で、有利である。   The thermal camera may include a far infrared (LWIR) sensor. LWIR sensors are advantageous in that they complement visible light sensors in a way that other infrared sensors can not do.

第二のビデオシーケンスが、可視光カメラによって撮像されてもよい。これは、可視光カメラが、例えば、サーマルカメラより高い解像度を通常有し、それにより、検出と追跡を簡単にするという点で有利である。   A second video sequence may be imaged by a visible light camera. This is advantageous in that visible light cameras usually have higher resolution than, for example, thermal cameras, thereby simplifying detection and tracking.

第二のビデオシーケンスが、サーマルカメラによって撮像されてもよい。これは、例えば、サーマルカメラは、夜間及び他の弱光状態で有用な画像を撮像するために外部光を必要としないという点で、有利である。他の利点は、一つのカメラのみが提供されればよいという点である。   A second video sequence may be taken by the thermal camera. This is advantageous, for example, in that thermal cameras do not require external light to capture useful images at night and other low light conditions. Another advantage is that only one camera needs to be provided.

本発明の第二の態様によれば、上記の目的は、プロセッサによって実行されるときに第一の態様の方法を実行するように適合される命令を有するコンピュータ可読記憶媒体を含むコンピュータプログラム製品によって達成される。   According to a second aspect of the present invention, the above object is achieved by a computer program product comprising a computer readable storage medium having instructions adapted to perform the method of the first aspect when executed by a processor To be achieved.

本発明の第三の態様によれば、上記の目的は、動き検出アルゴリズム、物体検出アルゴリズム、又は物体追跡アルゴリズムなどの、現場監視用ビデオ処理アルゴリズムによって使用される少なくとも一つのパラメータを修正するための処理装置によって達成され、本装置は、
現場の第一のビデオシーケンスと第二のビデオシーケンスを受け取るように構成されるレシーバであって、第一のビデオシーケンスが、現場の温度を示す熱情報を含むように、サーマルカメラを用いて撮像される、レシーバと、
現場を監視するために、ビデオ処理アルゴリズムを第二のビデオシーケンスに適用するように構成されるビデオ処理コンポーネントであって、第一のビデオシーケンスに含まれる熱情報に基づいて、ビデオ処理アルゴリズムによって用いられる少なくとも一つのパラメータを修正するように構成され、その結果、ビデオ処理アルゴリズムの少なくとも一つのパラメータが温度依存になるような、ビデオ処理コンポーネントとを含む。
According to a third aspect of the invention, the above object is to correct at least one parameter used by a video processing algorithm for scene monitoring, such as a motion detection algorithm, an object detection algorithm, or an object tracking algorithm. Achieved by the processing device, the device
A receiver configured to receive a first video sequence and a second video sequence of the scene, wherein the first video sequence is imaged using a thermal camera such that the first video sequence includes thermal information indicative of the temperature of the scene The receiver to be
A video processing component configured to apply a video processing algorithm to a second video sequence to monitor a scene, for use by the video processing algorithm based on thermal information included in the first video sequence And video processing components configured to modify at least one of the parameters being performed, such that at least one parameter of the video processing algorithm is temperature dependent.

本発明の第四の態様によれば、上記の目的は、動き検出アルゴリズム、物体検出アルゴリズム、又は物体追跡アルゴリズムなどの、現場監視用ビデオ処理アルゴリズムによって使用される少なくとも一つのパラメータを修正するためのシステムによって達成され、本システムは、
現場の第一のビデオシーケンスと第二のビデオシーケンスを撮像するように構成される少なくとも一つのカメラであって、第一のビデオシーケンスを撮像するように適合されるサーマルカメラを含み、その結果、第一のビデオシーケンスが、現場の温度を示す熱情報を含むような、少なくとも一つのカメラと、
第一のビデオシーケンスと第二のビデオシーケンスを受け取り、処理し、ビデオ処理アルゴリズムによって用いられるパラメータを修正するように構成される、第三の態様による処理装置とを含む。
According to a fourth aspect of the invention, the above object is to correct at least one parameter used by a video processing algorithm for scene monitoring, such as a motion detection algorithm, an object detection algorithm, or an object tracking algorithm. Achieved by the system, the system
At least one camera configured to image the first video sequence and the second video sequence in the scene, the thermal camera adapted to image the first video sequence, such that At least one camera, such that the first video sequence includes thermal information indicative of the temperature at the site;
A processing unit according to a third aspect configured to receive and process the first video sequence and the second video sequence and to modify parameters used by the video processing algorithm.

第二の態様、第三の態様、及び第四の態様は、概して、第一の態様と同じ特徴と利点を有しうる。本発明は、別途明示的に記載されない限り、特徴の全ての可能な組み合わせに関連することが、更に留意される。   The second, third and fourth aspects may generally have the same features and advantages as the first aspect. It is further noted that the invention relates to all possible combinations of features, unless explicitly stated otherwise.

上記に加えて、本発明のさらなる目的、特徴、及び利点が、添付の図面を参照するとともに、本発明の好適な実施形態についての以下の例示的かつ非限定的な詳細な説明を通して、より良く理解されるであろう。同じ参照番号が、類似の要素に対して使用される。   In addition to the above, further objects, features, and advantages of the present invention will be better through reference to the accompanying drawings and through the following illustrative and non-limiting detailed description of preferred embodiments of the present invention. It will be understood. The same reference numbers are used for similar elements.

実施形態による、現場監視用ビデオ処理アルゴリズムによって用いられる少なくとも一つのパラメータを修正するためのシステムを示す。FIG. 8 illustrates a system for modifying at least one parameter used by a video processing algorithm for on-site monitoring, according to an embodiment. 実施形態による、現場監視用ビデオ処理アルゴリズムによって用いられる少なくとも一つのパラメータを修正するための方法のフローチャートである。FIG. 5 is a flow chart of a method for modifying at least one parameter used by a video processing algorithm for site surveillance according to an embodiment. 実施形態による、熱情報に基づく、ビデオ処理アルゴリズムによって用いられるべきパラメータの修正を示す。Fig. 6 illustrates the modification of parameters to be used by the video processing algorithm based on thermal information according to an embodiment. パラメータが、物体検出アルゴリズムの適用の前に、修正されない物体検出の例を示す。Fig. 6 shows an example of object detection where the parameters are not corrected prior to application of the object detection algorithm. パラメータが、物体検出アルゴリズムの適用の前に、実施形態によって修正される物体検出の例を示す。Fig. 6 shows an example of object detection where the parameters are modified according to an embodiment prior to application of the object detection algorithm.

これより、本発明の実施形態が示されている添付図面を参照して、本発明をより詳細に説明する。本明細書に開示されるシステム及び装置が、作動中について説明される。   The invention will now be described in more detail with reference to the accompanying drawings in which embodiments of the invention are shown. The systems and apparatus disclosed herein are described in operation.

図1は、現場102監視用システム100を示す。システム100は、ここでは2つのカメラによって示される、少なくとも一つのカメラ104a及び104b、並びに処理装置106を含む。   FIG. 1 shows a system 100 for monitoring a site 102. The system 100 includes at least one camera 104a and 104b and a processing unit 106, here represented by two cameras.

現場102は、幾つかの物体102a−fを含み得、この事例では、人102a、人102b、自動車102c、自動車102d、道路102e、及び木102fによって示される。人102a、人102b、自動車102c、及び自動車102dなどの、物体のうちの幾つかが動いていてもよく、道路102e及び木102f(少なくとも、風が吹いていない場合)などの、他の物体が静止していてもよい。物体102a−fはまた、様々な大きさであってもよく、カメラ104a−bから異なる距離に位置していてもよい。例えば、物体102aと102cは、物体102b、102d、102fと比べて、カメラ104a−bから遠く離れて位置している。小さい及び/又はカメラ104a−bから遠く離れて位置している物体は、カメラ104a−bのうちの少なくとも幾つかによって撮像される画像の中で区別することが困難でありうる。物体102a−fはまた、異なる温度又は温度範囲と対応付けられうる。例えば、人102a−bは、人間の体温に対応する温度範囲と対応付けられ得、自動車102c−dは、作動中のエンジンの温度に対応する温度範囲と対応付けられ得る。木102fなどの、他の物体は、自分自身で熱を発生しないので、周囲温度に対応する温度範囲と、通常、対応付けられる。   Site 102 may include a number of objects 102a-f, in this case illustrated by person 102a, person 102b, car 102c, car 102d, road 102e, and tree 102f. Some of the objects may be moving, such as person 102a, person 102b, car 102c, and car 102d, and other objects such as road 102e and tree 102f (at least when the wind is not blowing) It may be stationary. The objects 102a-f may also be of various sizes and may be located at different distances from the cameras 104a-b. For example, objects 102a and 102c are located further from camera 104a-b as compared to objects 102b, 102d and 102f. Objects that are small and / or remote from the cameras 104a-b may be difficult to distinguish among the images captured by at least some of the cameras 104a-b. Objects 102a-f may also be associated with different temperatures or temperature ranges. For example, persons 102a-b may be associated with a temperature range corresponding to human body temperature, and cars 102c-d may be associated with a temperature range corresponding to the temperature of the operating engine. Other objects, such as trees 102f, do not generate heat themselves and are usually associated with a temperature range corresponding to the ambient temperature.

少なくとも一つのカメラ104a−bのうちの一つ、ここではカメラ104a、が、サーマルカメラである。好ましくは、カメラ104aは、遠赤外線(LWIR)センサを含む。LWIRセンサは、他の赤外線センサとは別の方法で可視光カメラを補足するという点で、有利である。カメラ104bなどの、少なくとも一つのカメラ104a−bのうちの他のカメラが、可視光カメラであってもよい。他の例によれば、第二のカメラ104bもまた、サーマルカメラであってよい。カメラ104a−bは、主に図解の理由で、別々のカメラとして示されている。しかしながら、少なくとも一つのカメラ104a−bは、結合されたサーマル及び可視光カメラなどの単一のユニットへと結合されてもよいということが、理解されるべきである。   One of the at least one camera 104a-b, here the camera 104a, is a thermal camera. Preferably, the camera 104a includes a far infrared (LWIR) sensor. LWIR sensors are advantageous in that they complement the visible light camera differently than other infrared sensors. Another camera of the at least one camera 104a-b, such as the camera 104b, may be a visible light camera. According to another example, the second camera 104b may also be a thermal camera. The cameras 104a-b are shown as separate cameras, mainly for illustration reasons. However, it should be understood that the at least one camera 104a-b may be combined into a single unit, such as a combined thermal and visible light camera.

少なくとも一つのカメラ104a−bが、監視目的のために、現場102を眺めて、現場102のビデオシーケンスを撮像するように、準備される。より詳細には、少なくとも一つのカメラ104a−bが、現場102の第一のビデオシーケンス105aと第二のビデオシーケンス105bを撮像するように、準備される。システム100が一つのカメラ104a(その場合、サーマルカメラである)のみを含む場合には、第一のビデオシーケンス105aと第二のビデオシーケンス105bは、同じカメラにより撮像されうる。第一のビデオシーケンス105aと第二のビデオシーケンス105bは、同じビデオシーケンスであってさえよい。しかしながら、示されている例において、第一のビデオシーケンス105aは、第一の(サーマル)カメラ104aによって撮像され、第二のビデオシーケンス105bは、第二のカメラ104bによって撮像される。   At least one camera 104a-b is arranged to view the scene 102 and to capture a video sequence of the scene 102 for surveillance purposes. More particularly, at least one camera 104a-b is arranged to image the first video sequence 105a and the second video sequence 105b of the scene 102. If the system 100 includes only one camera 104a (which in this case is a thermal camera), the first video sequence 105a and the second video sequence 105b may be imaged by the same camera. The first video sequence 105a and the second video sequence 105b may even be the same video sequence. However, in the example shown, the first video sequence 105a is imaged by the first (thermal) camera 104a and the second video sequence 105b is imaged by the second camera 104b.

処理装置106は、レシーバ108と、レシーバ108と通信するビデオ処理コンポーネント110とを含む。処理装置106は、少なくとも一つのカメラ104a−bとは別に提供されてもよいし、カメラ104a−bのうちの一つの中に含まれてもよい。いずれの場合も、処理装置106は、少なくとも一つのカメラ104a−bに、有線又は無線接続で動作可能に接続され、レシーバ108を経由して、少なくとも一つのカメラ104a−bから第一のビデオシーケンス105a及び第二のビデオシーケンス105bを受け取り得る。   The processing unit 106 includes a receiver 108 and a video processing component 110 in communication with the receiver 108. The processing device 106 may be provided separately from the at least one camera 104a-b or may be included in one of the cameras 104a-b. In any case, the processing unit 106 is operatively connected to the at least one camera 104a-b in a wired or wireless connection and via the receiver 108 from the at least one camera 104a-b to the first video sequence 105a and a second video sequence 105b may be received.

ビデオ処理コンポーネント110は、現場102の監視のために、ビデオ処理アルゴリズムを第二のビデオシーケンス105bに適用するように構成される。例えば、ビデオ処理コンポーネント110は、現場102における、物体の存在及び/又は動きなどの事象を検出し、並びに物体追跡を行うように構成されうる。その目的のために適用されるビデオ処理アルゴリズムは、例えば、動き検出、物体検出、及び/又は物体追跡のための任意の既知のアルゴリズムであってよい。   The video processing component 110 is configured to apply video processing algorithms to the second video sequence 105b for monitoring of the scene 102. For example, video processing component 110 may be configured to detect an event, such as the presence and / or movement of an object at scene 102, as well as perform object tracking. The video processing algorithm applied for that purpose may be, for example, any known algorithm for motion detection, object detection, and / or object tracking.

上記のタイプのビデオ処理アルゴリズムは、閾値及び様々なフィルタに関連するパラメータなどの、事象の検出に関連するパラメータを含む少なくとも一つのパラメータと、通常、対応付けられる。ビデオ処理コンポーネント110は、ビデオ処理アルゴリズムの適用の前に、少なくとも一つのパラメータを修正するように構成される。以下でより詳細に説明されるように、少なくとも一つのパラメータのそのような修正は、第一のビデオシーケンス105aの中の情報に基づく。   Video processing algorithms of the type described above are typically associated with at least one parameter, including parameters associated with the detection of events, such as thresholds and parameters associated with various filters. Video processing component 110 is configured to modify at least one parameter prior to application of the video processing algorithm. As described in more detail below, such a modification of at least one parameter is based on the information in the first video sequence 105a.

ビデオ処理コンポーネント110は、ハードウェア、ソフトウェア又はそれらの組合せに実装されうる。詳細には、ビデオ処理コンポーネント110は、メモリ112、及び中央処理ユニットなどのプロセッサ114を含みうる。メモリ112は、(非一過性の)コンピュータ可読媒体又はストレージ装置として働き得、本明細書に記載される任意の方法に関するコンピュータコード命令を記憶しうる。詳細には、コンピュータコード命令は、プロセッサ114によって実行されるときに、本明細書に記載された任意の方法を実行するように適合される。   Video processing component 110 may be implemented in hardware, software, or a combination thereof. In particular, video processing component 110 may include memory 112 and processor 114, such as a central processing unit. Memory 112 may serve as a (non-transitory) computer readable medium or storage device, and may store computer code instructions for any of the methods described herein. In particular, computer code instructions are adapted to perform any of the methods described herein when executed by processor 114.

次に、システム100の動作及び、詳細には、処理装置106の動作が、図1、図3、及び図2のフローチャートを参照して説明される。   The operation of system 100 and, in particular, the operation of processing device 106 will now be described with reference to the flowcharts of FIGS. 1, 3 and 2.

ステップS02において、処理装置106が、レシーバ108を経由して、少なくとも一つのカメラ104a−bから第一のビデオシーケンス105a及び第二のビデオシーケンス105bを受け取る。以下の例において、第一のビデオシーケンス105aは、サーマルカメラ104aからのものであり、第二のビデオシーケンス105bは、可視光カメラ104bからのものであることが、仮定される。   In step S02, the processing device 106 receives the first video sequence 105a and the second video sequence 105b from the at least one camera 104a-b via the receiver 108. In the following example, it is assumed that the first video sequence 105a is from the thermal camera 104a and the second video sequence 105b is from the visible light camera 104b.

サーマルカメラ104aによって撮像される第一のビデオシーケンス105a、及び詳細には、第一のビデオシーケンス105aの中の画像は、現場102における温度を示す熱情報を含む。熱情報は、例えば、第一のビデオシーケンス105aの中の画像の輝度値を含み得、輝度値は現場102における温度を示す。温度は、絶対温度であってもよいし、又は現場の残余部分からのある温度偏差を表すだけでもよい。図3は、第一のビデオシーケンス105aの中の現場102の画像305aを図式的に示す。画像305aにおいて、人102a−bが、人間の体温に対応する温度範囲である第一の温度範囲に対応する輝度で映されている。画像305aにおいて、これは、第一のパターンを有する人によって示される。同様に、自動車102c、自動車102dが、例えば、作動中のエンジンの温度に対応する温度範囲である第二の温度範囲に対応する輝度で映されている。画像305bにおいて、これは、第二のパターンを有する自動車によって示される。   The first video sequence 105a captured by the thermal camera 104a, and in particular, the images in the first video sequence 105a, include thermal information indicative of the temperature at the scene. The thermal information may include, for example, luminance values of the images in the first video sequence 105a, the luminance values indicating the temperature at the scene 102. The temperature may be an absolute temperature or may only represent some temperature deviation from the rest of the site. FIG. 3 schematically shows an image 305a of the scene 102 in a first video sequence 105a. In the image 305a, the persons 102a-b are shown with the luminance corresponding to the first temperature range which is the temperature range corresponding to the human body temperature. In image 305a this is shown by the person having the first pattern. Similarly, the car 102c and the car 102d are displayed at the brightness corresponding to the second temperature range which is a temperature range corresponding to, for example, the temperature of the operating engine. In image 305b this is shown by a car having a second pattern.

続けて、ステップS04において、処理装置108のビデオ処理コンポーネント110は、第二のビデオシーケンス105bに適用されるべきビデオ処理アルゴリズムの少なくとも一つのパラメータを修正する。   Continuing, at step S04, the video processing component 110 of the processing unit 108 modifies at least one parameter of the video processing algorithm to be applied to the second video sequence 105b.

デフォルトで(従来技術で既知であるように)、ビデオ処理アルゴリズムは、第二のビデオシーケンス105bの中の画像の画像平面全体にわたって少なくとも一つのパラメータの同じ値を適用するであろう。これは、第二のビデオシーケンス105bからの画像307aを示す図3に更に示される。画像307aにおいて、ビデオ処理アルゴリズムのパラメータ309の値が、ドットパターンによって示されるように、重ねられる。パラメータの値は、画像307aの画像平面全体にわたって同じである。   By default (as known in the prior art), the video processing algorithm will apply the same value of at least one parameter across the image planes of the images in the second video sequence 105b. This is further illustrated in FIG. 3 which shows an image 307a from the second video sequence 105b. In the image 307a, the values of the parameters 309 of the video processing algorithm are superimposed as indicated by the dot pattern. The values of the parameters are the same across the image plane of the image 307a.

ビデオ処理コンポーネント110は、少なくとも一つのパラメータ309を修正し、パラメータ309が現場102における温度に依存するようにさせる。この目的のために、ビデオ処理ユニット110は、例えば、画像305aによって示されるように、第一のビデオシーケンス105aの中に含まれる熱情報に基づいて、パラメータ309を修正する。例えば、ビデオ処理ユニット110は、第二のビデオシーケンス105bの画像の画像平面全体にわたって更新された値を取るように、パラメータ309を修正しうる。   Video processing component 110 modifies at least one parameter 309 to cause parameter 309 to be dependent on the temperature at site 102. For this purpose, the video processing unit 110 corrects the parameters 309 based on the thermal information contained in the first video sequence 105a, as shown for example by the image 305a. For example, video processing unit 110 may modify parameter 309 to take updated values across the image plane of the image of second video sequence 105b.

より好ましくは、パラメータ309は、第二のビデオシーケンス105bの画像307aの異なる部分又は領域において異なる値を取るように、修正されうる。例えば、図3の画像307bに示されるように、パラメータ309は、第一の領域において第一の値309aを取り、第二の領域において第二の値309bを取り、第三の領域において第三の値309cを取りうる。   More preferably, the parameters 309 may be modified to take different values in different parts or regions of the image 307a of the second video sequence 105b. For example, as shown in image 307b of FIG. 3, parameter 309 takes a first value 309a in the first region, a second value 309b in the second region, and a third in the third region. Can take the value 309c.

領域は、画像305aにおけるなどの、第一のビデオシーケンスの中の熱情報を考慮することにより、見出されうる。より詳細には、第二のビデオシーケンス105bの中の画像307bの中の領域は、第一のビデオシーケンス105aの画像305aの中の幾つかの領域に対応しうる。ここで、画像305aと画像307bは、時間的に揃えられていると仮定される。画像305aの中の領域が、熱情報に基づいて同定され得る。例えば、領域は、人間の体温に対応する温度範囲、又は作動中のエンジンの温度に対応する温度範囲などの、関心のある既定の温度範囲に対応する輝度値(すなわち、温度値)を有する画素として、画像305aの中に同定され得る。そのように領域を同定することによって、第一の領域は、人102a、人102bに対応する画素として同定され得、第二の領域は、自動車102c、自動車102dに対応する画素として同定され得る。従って、ビデオ処理コンポーネント110は、異なる領域で異なる値を取るように、パラメータ309を修正し得る。示された例において、従って、パラメータは、人間を見出すことが予期されうる領域で第一の値309aを取り、作動中のエンジンを有する自動車を見出すことが予期されうる領域で第二の値309bを取るように修正されるであろう。   Regions may be found by considering thermal information in the first video sequence, such as in image 305a. More specifically, the regions in the image 307b in the second video sequence 105b may correspond to some regions in the image 305a of the first video sequence 105a. Here, it is assumed that the image 305a and the image 307b are temporally aligned. Regions in the image 305a may be identified based on the thermal information. For example, the region may be a pixel having a luminance value (ie, a temperature value) corresponding to a predetermined temperature range of interest, such as a temperature range corresponding to human body temperature or a temperature range corresponding to the temperature of the operating engine. Can be identified in the image 305a. By identifying the area as such, the first area can be identified as a pixel corresponding to person 102a, person 102b, and the second area can be identified as a pixel corresponding to car 102c, car 102d. Thus, video processing component 110 may modify parameter 309 to take different values in different regions. In the example shown, therefore, the parameter takes the first value 309a in the area where it can be expected to find humans and the second value 309b in the area which can be expected to find the car with the engine in operation. Will be corrected to take.

第一のビデオシーケンス105aの中の熱情報は、画像平面の中のどこでパラメータ309を修正するべきかを決めるために用いられうるだけではない。それはまた、修正の大きさ、すなわち、パラメータ309がどのくらい修正又は調整されるべきかを決めるためにも用いられうる。通常、修正の大きさは、第一のビデオシーケンス105aの中の熱情報の関数として設定されうる。より詳細には、画像305aなどの、第一のビデオシーケンス105aの画像の中の輝度値が、温度を示す。従って、パラメータの修正の大きさは、第一のビデオシーケンス105aの画像305aの輝度の関数として設定されうる。示された例において、従って、第一の値309aは、画像305aの中の人102a、人102bに対応する画素の輝度値に従って、設定され得、第二の値309bは、画像305aの中の自動車102c、自動車102dに対応する画素の輝度値に従って、設定され得る。   The thermal information in the first video sequence 105a can not only be used to decide where in the image plane the parameter 309 should be modified. It can also be used to determine the magnitude of the correction, ie how much the parameter 309 should be corrected or adjusted. Typically, the magnitude of the correction may be set as a function of the thermal information in the first video sequence 105a. More specifically, luminance values in the image of the first video sequence 105a, such as the image 305a, indicate the temperature. Thus, the magnitude of the parameter correction may be set as a function of the brightness of the image 305a of the first video sequence 105a. In the example shown, therefore, the first value 309a may be set according to the luminance value of the pixel corresponding to the person 102a, the person 102b in the image 305a, and the second value 309b is in the image 305a. It can be set according to the luminance value of the pixel corresponding to the car 102c and the car 102d.

上記の例において、パラメータ309は、画像平面の異なる部分又は領域で異なる値を取り得るということが、説明された。これは、画像平面の部分又は領域が、厳密な境界を有するということを、必ずしも意味しない。より一般的には、パラメータ309は、画像305aの中の対応する画素の輝度値の関数として画像307bの中で異なるように修正され得る。そのように、画像305aの中の輝度値(温度)は、画像305aの画像平面の中で空間的に変わるので、パラメータ309の値は、画像307bの画像平面の中で空間的に変わるであろう。   In the above example, it has been described that the parameters 309 can take different values in different parts or regions of the image plane. This does not necessarily mean that portions or regions of the image plane have strict boundaries. More generally, parameters 309 may be modified differently in image 307b as a function of the luminance value of the corresponding pixel in image 305a. As such, since the luminance values (temperatures) in the image 305a vary spatially within the image plane of the image 305a, the value of the parameter 309 will vary spatially within the image plane of the image 307b. I will.

少なくとも一つのパラメータ309は、例えば、動きを検出する、物体を検出する、及び/又は物体を追跡するために用いられる閾値であってもよい。より詳細には、第二のビデオシーケンス105bの中の連続する画像間の輝度値の変化を検出するための閾値であってもよい。例えば、ビデオ処理アルゴリズムは、現場102における、動きなどの事象を検出するために、第二のビデオシーケンス105bの中の引き続く画像間の輝度値の差を、閾値と比較し得る。輝度変化の閾値が、ビデオ処理アルゴリズムの適用の前に、ビデオ処理コンポーネント110によって、ステップS04で、修正され得る。例えば、輝度変化の閾値は、サーマルカメラ104aの画像305aによって与えられる温度が、関心のある温度範囲内にあると見出された、画像307bの部分又は領域309a及び/又は309bの中で、下げられ得る。このように、ビデオ処理アルゴリズムは、第二のビデオシーケンス105bの画像307bのそれらの部分又は領域において、輝度の変化に対して感度が高くされるであろう。他の領域では、輝度変化の閾値は、例えば、上げられるか、又は修正されないままであり得る。このようにして、他の温度範囲にある事象によって引き起こされる誤検出が、抑えられうる。更に上記のように、ビデオ処理コンポーネント110はまた、第一のビデオシーケンス105aの画像305aの中の輝度の関数として、輝度変化の閾値を修正、すなわち上昇又は低下させ得る。   At least one parameter 309 may be, for example, a threshold used to detect motion, detect an object, and / or track an object. More specifically, it may be a threshold for detecting a change in luminance value between successive images in the second video sequence 105b. For example, the video processing algorithm may compare the difference in luminance values between subsequent images in the second video sequence 105b to a threshold to detect an event such as motion at the scene 102. The luminance change threshold may be modified by the video processing component 110 at step S04 prior to application of the video processing algorithm. For example, the threshold of brightness change is lowered in the portion or region 309a and / or 309b of the image 307b at which the temperature provided by the image 305a of the thermal camera 104a is found to be within the temperature range of interest. Can be Thus, the video processing algorithm will be sensitive to changes in luminance in those portions or areas of the image 307b of the second video sequence 105b. In other areas, the brightness change threshold may for example be raised or left uncorrected. In this way, false positives caused by events in other temperature ranges can be suppressed. Further, as noted above, video processing component 110 may also modify, ie, raise or lower, the threshold of brightness change as a function of the brightness in image 305a of first video sequence 105a.

少なくとも一つのパラメータは、ノイズフィルタリング及び(おそらくはノイズによって引き起こされる)小さな検出の除去用のフィルタに関連してもよい。例えば、隣接画素群のサイズについての閾値を設定するパラメータが、存在し得る。ビデオ処理コンポーネント110が、第二のビデオシーケンスの画像の中に、又は画像間の差の中に、閾値より大きい隣接画素群を検出する場合、物体又は動きが存在することが、判定され得る。サイズが閾値より低い場合、隣接画素群は、小さすぎるので、誤検出を回避するために除去されることが、判定され得る。   At least one parameter may be associated with noise filtering and a filter for removal of small detections (possibly caused by noise). For example, there may be parameters that set a threshold for the size of the neighboring pixel group. It may be determined that an object or motion is present if the video processing component 110 detects in the images of the second video sequence, or in the differences between the images, neighboring pixels above the threshold. If the size is below the threshold, it may be determined that neighboring pixels are too small to be removed to avoid false positives.

ビデオ処理コンポーネント110はまた、エロージョン用フィルタなどの、モルフォロジカルフィルタを、第二のビデオシーケンス105bの画像又は画像間の差に適用することにより、小さな物体及び/又は動きの検出を除去し得る。詳細には、ビデオ処理コンポーネント110は、構造化要素を用いることにより、第二のビデオシーケンス105bの画像又は画像間の差をモルフォロジカルフィルタリングし得る。ビデオ処理コンポーネント110は、ビデオ処理アルゴリズムの適用前に、ステップS04において、構造化要素を修正し得る。例えば、ビデオ処理コンポーネント110は、構造化要素のサイズ及び/又は形状を修正し得る。例えば、ビデオ処理コンポーネント110は、関心のある温度範囲に対応する、第二のビデオシーケンス105bの画像307bの部分又は領域で、例えばエロージョンのために用いられる構造化要素のサイズを減少させ、他の部分又は領域では、構造化要素のサイズを増加又は修正されないままとしてもよい。このように、モルフォロジカルフィルタリング演算は、他の領域と比べて、関心のある温度範囲に対応する領域においてより多くの(そして、より小さい)検出を残し、それにより、ビデオ処理アルゴリズムが、関心のある温度範囲に対応する領域において検出に対する感度が高くなるようにし得る。   Video processing component 110 may also remove detection of small objects and / or motion by applying morphological filters, such as filters for erosion, to the images or differences between images of second video sequence 105b. In particular, the video processing component 110 may morphologically filter the images or the differences between the images of the second video sequence 105b by using structuring elements. Video processing component 110 may modify the structuring element in step S04 prior to application of the video processing algorithm. For example, video processing component 110 may modify the size and / or shape of the structuring element. For example, the video processing component 110 may, for example, reduce the size of the structuring element used for erosion, etc., in the part or the area of the image 307b of the second video sequence 105b, corresponding to the temperature range of interest. In parts or areas, the size of the structuring element may be not increased or corrected. Thus, the morphological filtering operation leaves more (and less) detection in the area corresponding to the temperature range of interest, as compared to the other areas, whereby the video processing algorithm is of interest. The sensitivity to detection may be increased in the region corresponding to a temperature range.

ビデオ処理アルゴリズムは、動き検出アルゴリズムであってもよい。2つの連続する画像を単純に比較して、2つの画像の間で輝度値を変化させた画素の数を数えることから、例えば、空間時間的スライシングを用いる、より複雑なアルゴリズムまでの範囲にわたる、様々な動き検出アルゴリズムが知られている。単純な画素差異アルゴリズムでは、輝度値の差についての閾値が、誤検出を減らすために用いられ得、輝度値の差が、変化とみなされるためには、閾値を超えなければならない。熱情報が、そのような閾値を修正するために用いられうる。更に、変化した画素の数が、予め決められた参照個数と比較され得、参照個数を下回る数の変化した画素は、動きとみなされないであろうが、参照個数より多い画素が変化した場合は、動きとみなされるであろう。熱情報が、そのような参照個数を修正するために用いられうる。   The video processing algorithm may be a motion detection algorithm. From a simple comparison of two successive images and counting the number of pixels with varying luminance values between the two images, for example, ranging from more complex algorithms using spatio-temporal slicing Various motion detection algorithms are known. In a simple pixel difference algorithm, a threshold for luminance value differences may be used to reduce false positives, and the luminance value differences must exceed the threshold to be considered as changes. Thermal information may be used to correct such thresholds. Furthermore, the number of changed pixels may be compared to a predetermined reference number, and a number of changed pixels below the reference number will not be considered motion, but if more pixels than the reference number are changed , Would be considered a move. Thermal information may be used to correct such reference numbers.

より精巧な動き検出アルゴリズムは、一つの画像を別の画像と比較するのではなく、幾つかの以前の画像の背景モデルを形成し、新しい画像を背景モデルと比較することを含み得る。背景モデルは、無限インパルス応答フィルタリングによって形成され得る。このようにして、時間フィルタリングが達成され、ノイズによって引き起こされる誤検出を減少させ得る。単純な動き検出アルゴリズムのために既に論じられたパラメータに加えて、熱情報が、そのような時間フィルタリング方法において用いられ、例えば、新しい画像の各々の影響を修正する、すなわち、新しい画像が、背景モデルの中に重み付けされる係数を修正し得る。   More sophisticated motion detection algorithms may involve forming a background model of several previous images and comparing a new image to the background model, rather than comparing one image to another. The background model may be formed by infinite impulse response filtering. In this way, temporal filtering may be achieved to reduce false detection caused by noise. In addition to the parameters already discussed for the simple motion detection algorithm, thermal information is used in such a temporal filtering method, for example, to correct the influence of each of the new images, ie the new image is the background The coefficients that are weighted into the model may be modified.

US8121424において、空間時間的スライス処理を用いる動き検出アルゴリズムが開示される。ここでは、ビデオシーケンスの画像が、頂点X、Y及びtを有する画像体積へと結合される。ここで、XとYは空間座標であり、tは時間を表わす。画像体積が、(X、t)平面又は(Y、t)平面のいずれかでスライスされる。動きの位置を突き止めるために、ビデオシーケンスの中のサーチラインに沿ってサーチが行われる。動きは、頂点のいずれとも平行でないラインを同定することによって検出され得る。静止した物体及び照明の変化は、その代わりに、頂点の一つと平行なラインとして見えるであろう。ここでは、熱情報が、例えば、画像体積の中の画像が撮像される時間tの期間を修正するため、画像体積の空間サイズを修正するため、及び/又は動きとして検出される必要のある、サーチラインに沿った隣接する類似の画素の数についての閾値を修正するために、用いられ得る。   In US Pat. No. 8,121,424, a motion detection algorithm is disclosed which uses spatio-temporal slicing. Here, the images of the video sequence are combined into an image volume having vertices X, Y and t. Here, X and Y are space coordinates, and t represents time. The image volume is sliced in either the (X, t) or (Y, t) plane. A search is performed along the search line in the video sequence to locate the motion. Motion can be detected by identifying lines that are not parallel to any of the vertices. Stationary objects and illumination changes will instead appear as lines parallel to one of the vertices. Here, thermal information needs to be detected, for example, to correct the period of time t in which the image in the image volume is taken, to correct the spatial size of the image volume, and / or as motion. It may be used to correct the threshold for the number of adjacent similar pixels along the search line.

ステップS06において、ビデオ処理コンポーネント110は、第二のビデオシーケンス105bに、修正された少なくとも一つのパラメータ309a、309b、309cを用いるビデオ処理アルゴリズムを受けさせる。概して、ビデオ処理アルゴリズムは、現場102をモニタ又は監視するときに用いられ得る出力を提供する任意のタイプのビデオ処理アルゴリズムであってよい。詳細には、ビデオ処理アルゴリズムは、周辺監視におけるなどの、遠方の事象を検出するためのアルゴリズムであってもよい。これは、動き検出アルゴリズム、物体検出アルゴリズム、及び/又は物体追跡アルゴリズムを含み得る。   In step S06, the video processing component 110 receives the second video sequence 105b with a video processing algorithm using at least one modified parameter 309a, 309b, 309c. In general, the video processing algorithm may be any type of video processing algorithm that provides an output that may be used when monitoring or monitoring the scene 102. In particular, the video processing algorithm may be an algorithm for detecting distant events, such as in perimeter surveillance. This may include motion detection algorithms, object detection algorithms, and / or object tracking algorithms.

次に、開示された方法の利益の幾つかを示すために、図4aと図4bを参照して、例が説明される。この例では、ビデオ処理アルゴリズムは、物体検出のためのアルゴリズムであり、この物体検出アルゴリズムは、物体が存在するか否かを判定するためにビデオ処理コンポーネント110によって用いられる、例えば、隣接画素の数の点での、物体のサイズについての閾値であるパラメータと対応付けられるということが、仮定される。   An example will now be described with reference to FIGS. 4a and 4b to illustrate some of the benefits of the disclosed method. In this example, the video processing algorithm is an algorithm for object detection, which is used by the video processing component 110 to determine whether an object is present, eg, the number of neighboring pixels It is assumed that it is associated with a parameter that is a threshold for the size of the object at point.

図4aは、第二のビデオシーケンス105bの画像へのビデオ処理アルゴリズムの適用前に、パラメータが修正されないケースを示し、図4bは、実施形態に従って、第二のビデオシーケンス105bの画像へのビデオ処理アルゴリズムの適用前に、パラメータが修正されるケースを示す。   Fig. 4a shows the case where the parameters are not modified before application of the video processing algorithm to the images of the second video sequence 105b, and Fig. 4b video processing to the images of the second video sequence 105b according to an embodiment. We show the case where the parameters are modified before applying the algorithm.

図4aにおいて、パラメータ409は、第二のビデオシーケンス105bの画像407aの画像平面全体にわたって同じ値を取る。パラメータ409の値は、誤った物体検出の数が減るように、すなわち、パラメータ409よりも低い幾つかの画素を含む、起こり得る物体検出が、非物体であるとして除去されるように、通常、設定される。しかしながら、これは、カメラから遠方に位置する物体などの、小さな物体を検出する可能性を犠牲にする。これは、ビデオ処理コンポーネント110によって画像407aの中に同定された物体を示す画像411aに更に示される。このケースでは、ビデオ処理アルゴリズムは、物体102b、102d及び102fを、なんとか検出した。しかしながら、とりわけ、現場102の中でカメラ104bから遠く離れた位置にある物体102a及び102cが検出されていない。これは、それらの大きさが、パラメータ409の閾値を下回ったからである。   In FIG. 4a, the parameter 409 takes the same value across the image plane of the image 407a of the second video sequence 105b. The value of parameter 409 is usually such that possible object detection is eliminated as non-objective, so that the number of erroneous object detections is reduced, ie, some pixels below parameter 409 are removed. It is set. However, this sacrifices the possibility of detecting small objects, such as objects located far from the camera. This is further shown in an image 411a showing the objects identified in the image 407a by the video processing component 110. In this case, the video processing algorithm managed to detect objects 102b, 102d and 102f. However, among other things, objects 102a and 102c located far from camera 104b in scene 102 have not been detected. This is because their magnitude is below the threshold of parameter 409.

図4bにおいて、パラメータは、物体検出アルゴリズムの適用前に、ビデオ処理コンポーネント110によって修正される(上記ステップS04を参照)。図3を参照して説明されるように、従って、パラメータは、第一のビデオシーケンス105aの中の熱情報に応じて、第二のビデオシーケンス105bの画像407bの異なる領域で異なる値409a、409、409cを取るように修正される。例えば、パラメータは、画像407bの関心のある温度範囲に対応する領域において、画像407bの他の領域と比較して低い値409a、409bを取るように設定され得る。このようにして、関心のある温度範囲に対応する領域において、他の領域と比較して、より小さい物体が、検出されることが可能となる。これは、ビデオ処理コンポーネント110によって画像407bの中に同定される物体を示す画像411bに更に示される。このケースでは、ビデオ処理アルゴリズムは、これらの領域での物体検出閾値の修正された値409a、409bにより、物体102a及び102cをも、何とか検出した。   In FIG. 4b, the parameters are modified by the video processing component 110 prior to application of the object detection algorithm (see step S04 above). As explained with reference to FIG. 3, the parameters are therefore different values 409a, 409 in different areas of the image 407b of the second video sequence 105b, depending on the thermal information in the first video sequence 105a. , Corrected to take 409c. For example, the parameters may be set to take lower values 409a, 409b in the region corresponding to the temperature range of interest of the image 407b as compared to the other regions of the image 407b. In this way, smaller objects can be detected in the area corresponding to the temperature range of interest compared to the other areas. This is further shown in an image 411b showing the object identified in the image 407b by the video processing component 110. In this case, the video processing algorithm somehow detected the objects 102a and 102c with the modified values 409a, 409b of the object detection threshold in these areas.

当業者が、多くのやり方で上述の実施形態を修正し、なおも上述の実施形態に示される本発明の利点を用いることができることが、理解されるだろう。したがって、本発明は、示された実施形態に限定されるべきではなく、添付の特許請求の範囲によってのみ定義されるべきである。さらに、当業者が理解しているように、示された実施形態は組み合わせてもよい。   It will be appreciated that one of ordinary skill in the art can modify the above-described embodiments in many ways and still use the advantages of the invention as set forth in the above-described embodiments. Accordingly, the present invention should not be limited to the illustrated embodiments, but should be defined only by the appended claims. Further, the illustrated embodiments may be combined as understood by one of ordinary skill in the art.

Claims (14)

動き検出アルゴリズム、物体検出アルゴリズム、又は物体追跡アルゴリズムなどの、現場(102)監視用ビデオ処理アルゴリズムによって用いられる少なくとも一つのパラメータ(309、409)を修正する方法であって、
前記現場(102)の第一のビデオシーケンス(105a)及び第二のビデオシーケンス(105b)を受け取ること(S02)であって、前記第一のビデオシーケンス(105a)が、前記現場(102)の温度を表わす熱情報を含むように、サーマルカメラ(104a)を用いて撮像される、受け取ることと、
前記ビデオ処理アルゴリズムによって用いられる少なくとも一つのパラメータ(309、409)の数値を、前記第一のビデオシーケンス(105a)に含まれる前記熱情報に基づいて修正すること(S04)であって、
前記ビデオ処理アルゴリズムの前記少なくとも一つのパラメータ(309、409)が温度依存になり、
前記熱情報が、前記第二のビデオシーケンスのどの領域で前記少なくとも一つのパラメータの数値が修正されるか、及び、前記領域内で前記少なくとも一つのパラメータの数値がどのくらい修正されるかを決めるために用いられ
前記少なくとも一つのパラメータの数値は、前記領域外では修正されないままである
修正することと、
前記ビデオ処理アルゴリズムを前記第二のビデオシーケンス(105b)に適用すること(S06)と、を含む方法。
A method of modifying at least one parameter (309, 409) used by a video processing algorithm for surveillance of a scene (102), such as a motion detection algorithm, an object detection algorithm, or an object tracking algorithm, comprising:
Receiving (S02) a first video sequence (105a) and a second video sequence (105b) of the scene (102), the first video sequence (105a) being of the scene (102) Imaged, received using a thermal camera (104a) to include thermal information representative of temperature;
Correcting (S04) the numerical value of at least one parameter (309, 409) used by the video processing algorithm based on the thermal information included in the first video sequence (105a);
The at least one parameter (309, 409) of the video processing algorithm becomes temperature dependent;
It said thermal information is numerically the at least one parameter in which region of the second video sequence is modified, and, to decide value of said at least one parameter in the region how much is modified It is used to,
The numerical value of the at least one parameter remains uncorrected outside the region ,
To fix and
Applying (S06) the video processing algorithm to the second video sequence (105b).
前記ビデオ処理アルゴリズムによって用いられる前記少なくとも一つのパラメータ(309、409)の数値が、前記第二のビデオシーケンス(105b)の画像(307b、407b)中の領域に関して、前記第一のビデオシーケンス(105a)の画像(305a)中の対応する領域(102a、102b、102c、102d)の熱情報に基づいて修正される、請求項1に記載の方法。 The numerical value of the at least one parameter (309, 409) used by the video processing algorithm is the first video sequence (105a) with respect to the region in the image (307b, 407b) of the second video sequence (105b). The method according to claim 1, wherein the correction is made based on the thermal information of the corresponding area (102a, 102b, 102c, 102d) in the image (305a) of. 前記熱情報が、前記第一のビデオシーケンス(105a)中の画像(305a)の輝度値を含み、前記輝度値は前記現場(102)の温度を表わし、前記ビデオ処理アルゴリズムによって用いられる前記少なくとも一つのパラメータ(309、409)の数値が、前記第一のビデオシーケンス(105a)中の画像(305a)の輝度値に基づいて修正される、請求項1又は2に記載の方法。 The thermal information includes luminance values of the image (305a) in the first video sequence (105a), the luminance value representing the temperature of the scene (102), the at least one used by the video processing algorithm The method according to claim 1 or 2, wherein the numerical value of one parameter (309, 409) is modified based on the luminance value of the image (305a) in the first video sequence (105a). 前記サーマルカメラ(104a)によって撮像された前記第一のビデオシーケンス(105a)の画像(305a)中で、少なくとも一つの関心のある既定の温度範囲にある温度を示す輝度値を有する画素(102a、102b、102c、102d)を同定することを更に含み、
前記ビデオ処理アルゴリズムによって用いられる前記少なくとも一つのパラメータ(309、409)の数値が、前記第一のビデオシーケンス(105a)の画像(305a)中で同定された前記画素(102a、102b、102c、102d)に対応する前記第二のビデオシーケンス(105b)の画像(307b、407b)の領域に対して修正される、請求項3に記載の方法。
In the image (305a) of the first video sequence (105a) taken by the thermal camera (104a), a pixel (102a,) having a luminance value indicative of a temperature lying in at least one predetermined temperature range of interest Further comprising identifying 102b, 102c, 102d),
The pixels (102a, 102b, 102c, 102d) identified in the image (305a) of the first video sequence (105a) are numerical values of the at least one parameter (309, 409) used by the video processing algorithm. The method according to claim 3, wherein the region of the image (307b, 407b) of the second video sequence (105b) corresponding to.
前記少なくとも一つの関心のある既定の温度範囲は、人間の体温に対応する温度範囲を含む、請求項4に記載の方法。   5. The method of claim 4, wherein the at least one predetermined temperature range of interest comprises a temperature range corresponding to human body temperature. 前記ビデオ処理アルゴリズムは、前記第二のビデオシーケンス(105b)中の引き続く画像と画像の間の輝度値の差を閾値と比較することを含み、前記閾値は、前記第一のビデオシーケンス(105a)中の熱情報に基づいて修正される、請求項1から5のいずれか一項に記載の方法。   The video processing algorithm comprises comparing the difference in luminance value between successive images in the second video sequence (105b) to a threshold, the threshold being the first video sequence (105a). The method according to any one of claims 1 to 5, wherein the method is corrected based on the thermal information in the medium. 前記ビデオ処理アルゴリズムは、スムージングフィルタリングを含み、前記スムージングフィルタリングの少なくとも一つのパラメータが、前記第一のビデオシーケンス(105a)中の熱情報に基づいて修正される、請求項1から6のいずれか一項に記載の方法。   The video processing algorithm comprises smoothing filtering, wherein at least one parameter of the smoothing filtering is modified based on thermal information in the first video sequence (105a). Method described in Section. 前記スムージングフィルタリングが、前記第二のビデオシーケンス(105b)の画像(307b、407b)のモルフォロジカルフィルタリングを含み、前記モルフォロジカルフィルタリングは構造化要素を使用し、前記構造化要素は、前記第一のビデオシーケンス(105a)中の熱情報に基づいて修正される、請求項7に記載の方法。   The smoothing filtering comprises morphological filtering of the image (307b, 407b) of the second video sequence (105b), wherein the morphological filtering uses a structuring element, the structuring element being the first The method according to claim 7, wherein the method is modified based on thermal information in the video sequence (105a). 前記サーマルカメラ(104a)が、遠赤外線(LWIR)センサを含む、請求項1から8のいずれか一項に記載の方法。   The method according to any of the preceding claims, wherein the thermal camera (104a) comprises a far infrared (LWIR) sensor. 前記第二のビデオシーケンス(105b)が、可視光カメラで撮像される、請求項1から9のいずれか一項に記載の方法。   The method according to any of the preceding claims, wherein the second video sequence (105b) is imaged with a visible light camera. 前記第二のビデオシーケンス(105b)が、前記サーマルカメラ(104a)で撮像される、請求項1から9のいずれか一項に記載の方法。   The method according to any of the preceding claims, wherein the second video sequence (105b) is imaged with the thermal camera (104a). プロセッサ(114)によって実行される際に、請求項1から11のいずれか一項に記載の方法を実行する命令を有するコンピュータ可読記憶媒体(112)を備えるコンピュータプログラム製品。   A computer program product comprising a computer readable storage medium (112) having instructions which, when executed by a processor (114), perform the method according to any one of the preceding claims. 動き検出アルゴリズム、物体検出アルゴリズム、又は物体追跡アルゴリズムなどの、現場(102)監視用ビデオ処理アルゴリズムによって用いられる少なくとも一つのパラメータ(309、409)を修正するための処理装置(106)であって、
前記現場(102)の第一のビデオシーケンス(105a)及び第二のビデオシーケンス(105b)を受け取るレシーバ(108)であって、前記第一のビデオシーケンス(105a)が、サーマルカメラ(104a)を用いて撮像されて、前記現場(102)の温度を表わす熱情報を含む、レシーバと、
ビデオ処理コンポーネント(110)であって、
前記第一のビデオシーケンス(105a)に含まれる前記熱情報に基づいて、前記ビデオ処理アルゴリズムによって用いられる少なくとも一つのパラメータ(309、409)の数値を修正し、かつ、前記現場(102)を監視するために、前記ビデオ処理アルゴリズムを前記第二のビデオシーケンス(105b)に適用する、ビデオ処理コンポーネント(110)であって、
前記修正の結果前記ビデオ処理アルゴリズムの前記少なくとも一つのパラメータが温度依存になるようにし、
前記熱情報が、前記第二のビデオシーケンスのどの領域で前記少なくとも一つのパラメータの数値が修正されるか、及び、前記領域内で前記少なくとも一つのパラメータの数値がどのくらい修正されるかを決めるために用いられ、前記少なくとも一つのパラメータの数値は、前記領域外では修正されないままである、ビデオ処理コンポーネントと、を含む処理装置。
A processing unit (106) for modifying at least one parameter (309, 409) used by a video processing algorithm for surveillance of a scene (102), such as a motion detection algorithm, an object detection algorithm, or an object tracking algorithm.
A receiver (108) for receiving the first video sequence (105a) and the second video sequence (105b) of the scene (102), the first video sequence (105a) comprising a thermal camera (104a) A receiver, which is imaged using the thermal information representing the temperature of the site (102);
A video processing component (110),
Based on the thermal information contained in the first video sequence (105a), modify the numerical value of at least one parameter (309, 409) used by the video processing algorithm and monitor the scene (102) A video processing component (110) applying the video processing algorithm to the second video sequence (105b) to
Making the at least one parameter of the video processing algorithm temperature dependent as a result of the correction;
It said thermal information is numerically the at least one parameter in which region of the second video sequence is modified, and, to decide value of said at least one parameter in the region how much is modified And a video processing component used in the at least one parameter value remains uncorrected outside the region .
動き検出アルゴリズム、物体検出アルゴリズム、又は物体追跡アルゴリズムなどの、現場(102)監視用ビデオ処理アルゴリズムによって用いられる少なくとも一つのパラメータ(309、409)を修正するためのシステム(100)であって、
前記現場(102)の第一のビデオシーケンス(105a)及び第二のビデオシーケンス(105b)を撮像する少なくとも一つのカメラ(104a、104b)であって、前記第一のビデオシーケンス(105a)が前記現場(102)の温度を表わす熱情報を含むように、前記第一のビデオシーケンス(105a)を撮像するサーマルカメラ(104a)を含む、少なくとも一つのカメラと、
前記第一のビデオシーケンス(105a)及び前記第二のビデオシーケンス(105b)を受け取り、処理し、ビデオ処理アルゴリズムによって用いられるパラメータを修正する、請求項13に記載の処理装置(106)と、を含むシステム。
A system (100) for modifying at least one parameter (309, 409) used by a video processing algorithm for surveillance of a scene (102), such as a motion detection algorithm, an object detection algorithm, or an object tracking algorithm.
At least one camera (104a, 104b) for imaging a first video sequence (105a) and a second video sequence (105b) of said scene (102), said first video sequence (105a) being said At least one camera including a thermal camera (104a) imaging the first video sequence (105a) to include thermal information representative of the temperature of the scene (102);
14. The processing unit (106) according to claim 13, receiving and processing the first video sequence (105a) and the second video sequence (105b) and modifying parameters used by the video processing algorithm. Including systems.
JP2015205245A 2014-10-23 2015-10-19 Modify at least one parameter used in video processing Active JP6546828B2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP14189977.3 2014-10-23
EP14189977.3A EP3012777B1 (en) 2014-10-23 2014-10-23 Modification of at least one parameter used by a video processing algorithm for monitoring of a scene

Publications (2)

Publication Number Publication Date
JP2016085739A JP2016085739A (en) 2016-05-19
JP6546828B2 true JP6546828B2 (en) 2019-07-17

Family

ID=51794763

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015205245A Active JP6546828B2 (en) 2014-10-23 2015-10-19 Modify at least one parameter used in video processing

Country Status (6)

Country Link
US (1) US10032283B2 (en)
EP (2) EP3185180B1 (en)
JP (1) JP6546828B2 (en)
KR (1) KR101869000B1 (en)
CN (1) CN105554439B (en)
TW (1) TWI623885B (en)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10496891B2 (en) * 2017-08-17 2019-12-03 Harman International Industries, Incorporated Driver assistance system and method for object detection and notification
US11341615B2 (en) * 2017-09-01 2022-05-24 Sony Corporation Image processing apparatus, image processing method, and moving body to remove noise in a distance image
EP3477941B1 (en) 2017-10-27 2020-11-25 Axis AB Method and controller for controlling a video processing unit based on the detection of newcomers in a first environment
TWI638334B (en) * 2017-11-15 2018-10-11 瑞昱半導體股份有限公司 Image processing method and electronic apparatus for foreground image extraction
CN107920205B (en) * 2017-12-04 2019-10-25 Oppo广东移动通信有限公司 Image processing method, device, storage medium and electronic equipment
KR102661590B1 (en) * 2018-04-03 2024-04-29 삼성전자주식회사 Apparatus and method for recognizing object in image
IT201800010949A1 (en) * 2018-12-10 2020-06-10 Datalogic IP Tech Srl Method and device for detecting and classifying an object
KR102201168B1 (en) * 2018-12-21 2021-01-12 인천대학교 산학협력단 Method for tracking a person using an overhead camera
EP3722992B1 (en) * 2019-04-10 2023-03-01 Teraki GmbH System and method for pre-processing images captured by a vehicle
CN112087593B (en) * 2019-06-14 2022-10-14 富士通株式会社 Video configuration updating device and method and electronic equipment
CN112329499B (en) * 2019-08-05 2024-07-09 上海高德威智能交通系统有限公司 Image processing method, device and equipment
KR102236939B1 (en) * 2019-08-20 2021-04-07 주식회사인텍 Fire pre-detection device
CN113296159B (en) * 2021-05-20 2023-10-31 星宸科技股份有限公司 Object sensing device and method
JP7382479B1 (en) 2022-12-08 2023-11-16 ソフトバンク株式会社 Image processing device, program, and image processing method

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3730985A (en) * 1970-09-18 1973-05-01 Orloff F Viewing and measuring system for remote thermal energy sources
US6215898B1 (en) * 1997-04-15 2001-04-10 Interval Research Corporation Data processing system and method
TW476221B (en) 2000-05-31 2002-02-11 Ind Tech Res Inst Image monitoring/recognition method by thermal imaging
JP2003006642A (en) 2001-06-22 2003-01-10 Toshihiko Shimizu Image processor utilizing thermal image
TWI284863B (en) 2002-08-30 2007-08-01 Ind Tech Res Inst Image recognition system for smoke and temperature distribution
JP3767541B2 (en) 2002-11-12 2006-04-19 ソニー株式会社 Light source estimation apparatus, light source estimation method, imaging apparatus, and image processing method
JP2004219277A (en) 2003-01-15 2004-08-05 Sanyo Electric Co Ltd Method and system, program, and recording medium for detection of human body
JP3988657B2 (en) * 2003-02-27 2007-10-10 日産自動車株式会社 Object detection device
JP2004295781A (en) 2003-03-28 2004-10-21 Ocean Network Entertainment:Kk Image recognition method and image recognition apparatus
US7963652B2 (en) * 2003-11-14 2011-06-21 Queen's University At Kingston Method and apparatus for calibration-free eye tracking
JP4604606B2 (en) * 2004-08-18 2011-01-05 ソニー株式会社 Face detection apparatus, face detection method, and computer program
JP5354767B2 (en) 2007-10-17 2013-11-27 株式会社日立国際電気 Object detection device
US8121424B2 (en) 2008-09-26 2012-02-21 Axis Ab System, computer program product and associated methodology for video motion detection using spatio-temporal slice processing
EP2271073B1 (en) 2009-07-01 2018-03-07 Fluke Corporation Thermography methods
EP2326091B1 (en) * 2009-11-13 2015-08-12 NTT DoCoMo, Inc. Method and apparatus for synchronizing video data
KR101172747B1 (en) 2010-08-16 2012-08-14 한국표준과학연구원 Camera tracking monitoring system and method using thermal image coordinates
JP5772272B2 (en) * 2011-06-16 2015-09-02 富士通株式会社 Information processing apparatus and information processing method
EP2549759B1 (en) * 2011-07-19 2016-01-13 Axis AB Method and system for facilitating color balance synchronization between a plurality of video cameras as well as method and system for obtaining object tracking between two or more video cameras
GB2499200B (en) * 2012-02-07 2014-12-17 Canon Kk Method and device for transitioning between an image of a first video sequence and an image for a second video sequence
US8994845B2 (en) * 2012-04-27 2015-03-31 Blackberry Limited System and method of adjusting a camera based on image data
CN102739963B (en) * 2012-06-06 2016-01-27 山东神戎电子股份有限公司 One is dual-purpose type high-temperature mobile target detection warning system and detection method round the clock
US9531964B2 (en) * 2013-03-14 2016-12-27 Drs Network & Imaging Systems, Llc Methods and system for producing a temperature map of a scene
TWM462421U (en) 2013-05-29 2013-09-21 Univ Chung Chou Sci & Tech Monitoring system

Also Published As

Publication number Publication date
CN105554439B (en) 2020-01-07
CN105554439A (en) 2016-05-04
TWI623885B (en) 2018-05-11
EP3012777A1 (en) 2016-04-27
EP3185180A1 (en) 2017-06-28
KR20160047988A (en) 2016-05-03
EP3185180B1 (en) 2019-01-02
TW201629846A (en) 2016-08-16
JP2016085739A (en) 2016-05-19
EP3012777B1 (en) 2017-03-15
KR101869000B1 (en) 2018-06-20
US10032283B2 (en) 2018-07-24
US20160117837A1 (en) 2016-04-28

Similar Documents

Publication Publication Date Title
JP6546828B2 (en) Modify at least one parameter used in video processing
US11501535B2 (en) Image processing apparatus, image processing method, and storage medium for reducing a visibility of a specific image region
EP3024227B1 (en) Image processing apparatus and image processing method
KR101071352B1 (en) Apparatus and method for tracking object based on PTZ camera using coordinate map
TWI554099B (en) Method and camera for determining an image adjustment parameter
JP5832910B2 (en) Image monitoring device
US20170004629A1 (en) Low-complexity motion detection based on image edges
JP4999794B2 (en) Still region detection method and apparatus, program and recording medium
US20150373286A1 (en) Imaging device and infrared image generation method
KR102119215B1 (en) Image displaying method, Computer program and Recording medium storing computer program for the same
JP6799325B2 (en) Image correction device, image correction method, attention point recognition device, attention point recognition method and abnormality detection system
JP6527183B2 (en) Leftover object detection device
JP4707019B2 (en) Video surveillance apparatus and method
JP2006314061A (en) Image processing apparatus and noise detecting method
JP2012026881A (en) Collapse detection system and collapse detection method
JP6939065B2 (en) Image recognition computer program, image recognition device and image recognition method
KR20090119668A (en) System for processing imaging for detecting the invasion and fire of building and method thereof
JP2008123057A (en) Suspicious person detection device
JP2013090063A (en) Monitoring device, monitoring method, and monitoring program
JP2010101073A (en) Collapse detection system and method
TW202414332A (en) A method for object detection using cropped images

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170725

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180628

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180710

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181005

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181218

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190314

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190611

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190624

R150 Certificate of patent or registration of utility model

Ref document number: 6546828

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250