JP6546828B2 - Modify at least one parameter used in video processing - Google Patents
Modify at least one parameter used in video processing Download PDFInfo
- Publication number
- JP6546828B2 JP6546828B2 JP2015205245A JP2015205245A JP6546828B2 JP 6546828 B2 JP6546828 B2 JP 6546828B2 JP 2015205245 A JP2015205245 A JP 2015205245A JP 2015205245 A JP2015205245 A JP 2015205245A JP 6546828 B2 JP6546828 B2 JP 6546828B2
- Authority
- JP
- Japan
- Prior art keywords
- video sequence
- parameter
- video
- image
- video processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012545 processing Methods 0.000 title claims description 113
- 238000001514 detection method Methods 0.000 claims description 62
- 238000000034 method Methods 0.000 claims description 30
- 238000001914 filtration Methods 0.000 claims description 19
- 238000009499 grossing Methods 0.000 claims description 14
- 230000000877 morphologic effect Effects 0.000 claims description 8
- 230000036760 body temperature Effects 0.000 claims description 6
- 238000012937 correction Methods 0.000 claims description 6
- 230000001419 dependent effect Effects 0.000 claims description 6
- 238000004590 computer program Methods 0.000 claims description 2
- 238000003384 imaging method Methods 0.000 claims 2
- 230000008859 change Effects 0.000 description 9
- 230000006870 function Effects 0.000 description 9
- 238000012544 monitoring process Methods 0.000 description 9
- 230000008901 benefit Effects 0.000 description 5
- 230000035945 sensitivity Effects 0.000 description 4
- 230000002123 temporal effect Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000000295 complement effect Effects 0.000 description 2
- 230000003628 erosive effect Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 241000282412 Homo Species 0.000 description 1
- 238000007664 blowing Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/20—Image enhancement or restoration using local operators
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
- G06V10/12—Details of acquisition arrangements; Constructional details thereof
- G06V10/14—Optical characteristics of the device performing the acquisition or on the illumination arrangements
- G06V10/143—Sensing or illuminating at different wavelengths
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/22—Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/20—Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from infrared radiation only
- H04N23/23—Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from infrared radiation only from thermal infrared radiation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/30—Transforming light or analogous information into electric information
- H04N5/33—Transforming infrared radiation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10048—Infrared image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20004—Adaptive image processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20036—Morphological image processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30232—Surveillance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/194—Terrestrial scenes using hyperspectral data, i.e. more or other wavelengths than RGB
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Signal Processing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- Toxicology (AREA)
- Image Analysis (AREA)
- Closed-Circuit Television Systems (AREA)
- Image Processing (AREA)
Description
本発明は、ビデオ監視の分野に関する。詳細には、現場監視用ビデオ処理アルゴリズムによって用いられる少なくとも一つのパラメータを修正するための方法、装置、及びシステムに関する。 The invention relates to the field of video surveillance. In particular, it relates to a method, apparatus and system for modifying at least one parameter used by a video processing algorithm for on-site monitoring.
多くのカメラ監視状況において、遠方の、物体の存在又は動きのなどの事象を検出することが重要である。当然、カメラから遠く離れて位置する物体は、カメラによって撮像される画像の中で小さいであろう。例えば、それらは、画像の中で数画素を含むだけかもしれない。従って、遠方の事象を検出するためには、例えば、撮像された画像の中で小さく現れる物体を検出できることが、必要である。 In many camera surveillance situations, it is important to detect events such as the presence or movement of objects in the distance. Of course, objects located far away from the camera will be small in the image captured by the camera. For example, they may only contain a few pixels in the image. Thus, in order to detect distant events, it is necessary, for example, to be able to detect small appearing objects in the captured image.
しかしながら、小さい物体を検出することは、通常、誤検出が増加するという犠牲を伴う。これは、カメラによって撮像される画像の中にノイズが存在するという事実に関係がある。ノイズは、小さい物体と容易に間違えられることがあり、逆もまた同様であり、それにより誤検出をもたらす。誤検出を減らすために、物体検出、動き検出、及び/又は物体追跡のためのビデオ処理アルゴリズムは、小さな検出(small detections)を除去するためのモルフォロジカルフィルタを含む、輝度変化閾値及びノイズフィルタリングなどのパラメータを含む。ノイズによって引き起こされる誤検出は除去されるが、現実の事象を検出するのに十分な感度はなお存在するように、パラメータは、通常、設定される。言い換えると、検出範囲と誤検出を回避することの間には、トレードオフが存在する。 However, detecting small objects usually comes at the cost of increased false positives. This relates to the fact that noise is present in the image taken by the camera. Noise can easily be mistaken for small objects, and vice versa, thereby leading to false positives. To reduce false positives, video processing algorithms for object detection, motion detection, and / or object tracking include morphological filters to remove small detections, brightness change thresholds and noise filtering etc. Including the parameters of The parameters are usually set such that false detections caused by noise are eliminated but there is still sufficient sensitivity to detect real events. In other words, there is a tradeoff between detection range and avoiding false positives.
遠方の物体を検出し識別する問題が、認められて来た。この問題を解決するために、人の位置座標を同定するためのサーマルカメラを用いることが提案された。その後、位置座標は、その人の拡大された画像を撮像するための第二のカメラ、及び詳細には、その方向とズーム、を制御するための制御手段に入力される。 The problem of detecting and identifying distant objects has been recognized. In order to solve this problem, it has been proposed to use a thermal camera to identify the position coordinates of a person. The position coordinates are then input to a second camera for capturing the magnified image of the person, and in particular to control means for controlling its direction and zoom.
そのような方法は、第二のカメラが、ある特定の目標物体を追うために、その方向とズームの水準を変化させるように制御される、という短所を有する。従って、そのような方法は、一度に一つの物体を検出するためにのみ適している。 Such a method has the disadvantage that the second camera is controlled to change its direction and zoom level to follow a particular target object. Thus, such a method is only suitable for detecting one object at a time.
それ故、改良の余地がある。詳細には、誤検出が減ると同時に、広範囲の検出を可能にする代替的方法に対する要求が存在する。 Therefore, there is room for improvement. In particular, there is a need for alternative methods that allow for a wide range of detection while reducing false positives.
従って、上記を考慮すると、誤検出が減ると同時に、広範囲の物体及び/又は活動の検出を可能にする方法と装置を提供することが、本発明の目的である。 Accordingly, in view of the above, it is an object of the present invention to provide a method and apparatus that enables detection of a wide range of objects and / or activity while reducing false positives.
本発明の第一の態様によれば、上記の目的は、動き検出アルゴリズム、物体検出アルゴリズム、又は物体追跡アルゴリズムなどの、現場監視用ビデオ処理アルゴリズムによって使用される少なくとも一つのパラメータを修正するための方法によって達成され、本方法は、
現場の第一のビデオシーケンスと第二のビデオシーケンスを受け取ることであって、第一のビデオシーケンスは、現場の温度を示す熱情報を含むように、サーマルカメラを用いて撮像される、受け取ることと、
ビデオ処理アルゴリズムを第二のビデオシーケンスに適用することであって、ビデオ処理アルゴリズムによって用いられる少なくとも一つのパラメータが、第一のビデオシーケンスに含まれる熱情報に基づいて、温度に依存するように修正される、適用することと、を含む。
According to a first aspect of the present invention, the above object is to correct at least one parameter used by a video processing algorithm for scene monitoring, such as a motion detection algorithm, an object detection algorithm, or an object tracking algorithm. Achieved by the method, the method
Receiving a first video sequence and a second video sequence of the scene, wherein the first video sequence is imaged with a thermal camera so as to include thermal information indicative of the temperature of the scene When,
Applying a video processing algorithm to the second video sequence, wherein at least one parameter used by the video processing algorithm is modified to be temperature dependent based on the thermal information contained in the first video sequence Applied, including.
上記方法により、サーマルカメラによって撮像される第一のビデオシーケンスにおける熱情報が、第二のビデオシーケンスに適用されるビデオ処理アルゴリズムの少なくとも一つのパラメータを修正する、すなわち変えるために用いられる。このように、少なくとも一つのパラメータが、現場の温度に依存するようにされる。例えば、ビデオ処理アルゴリズムが、人間の体温などの、関心のある温度を伴う選択的エリア内の小さな検出には高感度であり、他のエリアでは感度が高くないように、少なくとも一つのパラメータの修正が、適合されうる。その結果、関心のある温度に対応するエリアでは、より広い検出範囲が可能である一方で、他の温度範囲に対応するエリアでは、誤検出が低く抑えられる。 According to the method, thermal information in a first video sequence imaged by a thermal camera is used to modify or change at least one parameter of a video processing algorithm applied to a second video sequence. Thus, at least one parameter is made dependent on the temperature at the site. For example, modifying at least one parameter so that the video processing algorithm is sensitive to small detections in selective areas with temperatures of interest, such as human body temperature, and not in other areas. Can be adapted. As a result, in the area corresponding to the temperature of interest, a wider detection range is possible, while in the areas corresponding to the other temperature ranges false detections are suppressed low.
ビデオ処理アルゴリズムは、画像のシーケンスに適用される画像処理アルゴリズムであるが、現場における事象の検出のためのアルゴリズムでありうる。これは、物体検出、動き検出、及び物体追跡のためのアルゴリズムを含む。ビデオ処理アルゴリズムは、カメラ自体の機能を制御するアルゴリズムではないということに留意すべきである。 A video processing algorithm is an image processing algorithm applied to a sequence of images, but may be an algorithm for the detection of an event in the field. This includes algorithms for object detection, motion detection, and object tracking. It should be noted that the video processing algorithm is not an algorithm that controls the functions of the camera itself.
少なくとも一つのパラメータを修正することによって、パラメータの値が修正される、すなわち変更されるということが、一般に意味される。例えば、パラメータの値が、増やされることもあれば、又は減らされることもある。 It is generally meant that by modifying at least one parameter, the value of the parameter is modified, ie changed. For example, the value of the parameter may be increased or decreased.
一般に、少なくとも一つのパラメータは、第二のビデオシーケンスの画像全体に関して、修正されうる。例えば、第一のビデオシーケンスにおける熱情報が、関心のある温度にある温度を有する物体が現場に存在することを示す場合、ビデオ処理アルゴリズムが、第二のビデオシーケンスの画像の画像平面全体にわたって小さな検出に対して高感度になるように、少なくとも一つのパラメータが変更されうる。 In general, at least one parameter may be modified with respect to the entire image of the second video sequence. For example, if the thermal information in the first video sequence indicates that an object having a temperature that is at a temperature of interest is present in the field, then the video processing algorithm is small over the image plane of the second video sequence image. At least one parameter may be altered to be sensitive to detection.
少なくとも一つのパラメータもまた、画像全体にわたって修正されうるが、温度の関数としてである。すなわち、関心のない温度領域内ではパラメータの数値に何も起こらず、関心のある温度領域内でパラメータは新たな値となる。 At least one parameter may also be corrected throughout the image, but as a function of temperature. That is, nothing happens to the numerical value of the parameter in the non-interest temperature region, and the parameter becomes a new value in the temperature region of interest.
詳細には、ビデオ処理アルゴリズムによって用いられる少なくとも一つのパラメータが、第二のビデオシーケンスの画像の中の領域に関して、第一のビデオシーケンスの画像の中の対応する領域の熱情報に基づいて、変更されうる。このように、ビデオ処理アルゴリズムは、関心のある熱情報を有しうる幾つかの領域では小さな検出に対して高感度にされ、他の領域では、小さな検出に対して感度が低く(それゆえ、ノイズに対して感度が低く)されうる。 In particular, at least one parameter used by the video processing algorithm is modified with respect to the area in the image of the second video sequence based on thermal information of the corresponding area in the image of the first video sequence It can be done. Thus, the video processing algorithm is made more sensitive to small detections in some areas that may have thermal information of interest, and less sensitive to small detections in other areas (hence, Low sensitivity to noise).
熱情報とは、現場の温度を示す任意の情報を一般に意味する。例えば、熱情報は、現場の温度を示す、第一のビデオシーケンスの中の画像の輝度値を含みうる。従って、ビデオ処理アルゴリズムによって用いられる少なくとも一つのパラメータは、第一のビデオシーケンスの中の画像の輝度値に基づいて、修正されうる。 Thermal information generally means any information indicative of the temperature at the site. For example, the thermal information may include the brightness values of the images in the first video sequence indicating the temperature of the scene. Thus, at least one parameter used by the video processing algorithm may be modified based on the luminance values of the images in the first video sequence.
ビデオ処理アルゴリズムは、ある特定のタイプの物体又は幾つかの異なるタイプの物体の存在又は動きなどの、現場の異なるタイプの事象を検出する目的を有しうる。異なるタイプの物体は、異なる温度範囲と対応付けられうるので、第一のビデオシーケンスにおける熱情報に基づいて区別されうる。例えば、人体が、ある温度範囲と対応付けられうる一方、自動車の作動中のエンジンは、別の温度範囲と対応付けられうる。従って、ビデオ処理アルゴリズムの特定の目的に応じて、第一のビデオシーケンスの画像の中の異なる領域を区別するために用いられうる、少なくとも一つの関心のある既定の温度範囲が、存在しうる。少なくとも一つの関心のある既定の温度範囲は、人間の体温に対応する温度範囲を含みうる。そのような既定の温度範囲は、例えば、ユーザによって特定されうる。 Video processing algorithms may have the purpose of detecting different types of events in the scene, such as the presence or movement of a particular type of object or several different types of objects. Different types of objects may be distinguished based on thermal information in the first video sequence as they may be associated with different temperature ranges. For example, a human body may be associated with one temperature range, while an operating engine of a car may be associated with another temperature range. Thus, depending on the specific purpose of the video processing algorithm, there may be at least one predetermined temperature range of interest that may be used to distinguish different regions in the image of the first video sequence. The at least one predetermined temperature range of interest may include a temperature range corresponding to human body temperature. Such predetermined temperature range may, for example, be specified by the user.
本方法は、
サーマルカメラによって撮像された第一のビデオシーケンスの画像の中で、少なくとも一つの関心のある既定の温度範囲にある温度を示す輝度値を有する画素を同定し、
ビデオ処理アルゴリズムによって用いられる少なくとも一つのパラメータが、第一のビデオシーケンスの画像の中で同定された画素に対応する第二のビデオシーケンスの画像の領域に関して修正されることを含みうる。
This method is
Identifying, in the image of the first video sequence taken by the thermal camera, a pixel having a luminance value indicative of a temperature lying in at least one predetermined temperature range of interest;
At least one parameter used by the video processing algorithm may include being modified with respect to a region of the image of the second video sequence corresponding to a pixel identified in the image of the first video sequence.
言い換えると、関心のある熱情報を有する画素領域が、第一のビデオシーケンスの中で同定され、少なくとも一つのパラメータが、第二のビデオシーケンスの中の対応する領域に関して修正される。従って、少なくとも一つのパラメータが、人間が存在する領域などの、ある特定の関心ある温度情報を有する領域の中で修正され、ビデオ処理アルゴリズムを、そのような領域の中での事象の検出に対して高感度にしうる。 In other words, pixel regions having thermal information of interest are identified in the first video sequence, and at least one parameter is corrected for the corresponding region in the second video sequence. Thus, at least one parameter is modified in an area having certain temperature information of interest, such as an area where a human is present, and a video processing algorithm for detecting an event in such area High sensitivity.
理解されるべきであるように、第一のビデオシーケンスと第二のビデオシーケンスは、異なる解像度を有してもよく、現場のやや異なる視角から撮像されてもよい。しかしながら、第一のビデオシーケンスと第二のビデオシーケンスの間には、なお対応が存在する。より具体的には、第一のビデオシーケンスの画像の中の画素又は領域と第二のビデオシーケンスの画像の中の画素又は領域が、現場の同じ点を表す場合、第一のビデオシーケンスの画像の中の画素又は領域は、第二のビデオシーケンスの画像の中の画素又は領域に対応する。 As should be understood, the first video sequence and the second video sequence may have different resolutions and may be imaged from slightly different viewing angles of the scene. However, there is still a correspondence between the first video sequence and the second video sequence. More specifically, if the pixels or areas in the image of the first video sequence and the pixels or areas in the image of the second video sequence represent the same point in the scene, then the image of the first video sequence The pixels or regions in correspond to the pixels or regions in the image of the second video sequence.
上記に従って、少なくとも一つのパラメータが、第二のビデオシーケンスの画像の中の様々な領域に関して修正され得、その領域は、第一のビデオシーケンスの中の熱情報に基づいて同定される。従って、少なくとも一つのパラメータは、第二のビデオシーケンスの画像によって異なってもよく、その差異は、第一のビデオシーケンスの中の熱情報によって定められる。詳細には、ビデオ処理アルゴリズムによって用いられる少なくとも一つのパラメータは、第一のビデオシーケンスの画像の輝度値に基づいて修正され得、少なくとも一つのパラメータは、第一のビデオシーケンスの画像の輝度値に応じて、第二のビデオシーケンスの画像ごとに変わる。差異は、例えば、連続的であってもよいし、段階的であってもよい。このことは、少なくとも一つのパラメータが、第一のビデオシーケンスの中の温度に依存して適合されうるという点で、有利である。 In accordance with the above, at least one parameter may be corrected for various regions in the image of the second video sequence, which regions are identified based on the thermal information in the first video sequence. Thus, at least one parameter may differ depending on the image of the second video sequence, which difference is determined by the thermal information in the first video sequence. In particular, at least one parameter used by the video processing algorithm may be modified based on the luminance value of the image of the first video sequence, the at least one parameter being the luminance value of the image of the first video sequence In response, it will change from image to image of the second video sequence. The difference may be, for example, continuous or stepwise. This is advantageous in that at least one parameter can be adapted depending on the temperature in the first video sequence.
第一のビデオシーケンスの中の熱情報は、どこで、すなわち、どの領域で少なくとも一つのパラメータを修正すべきかを決めるためだけでなく、どのように又はどのくらい少なくとも一つのパラメータを修正すべきかを決めるためにも用いられうるということに、留意すべきである。少なくとも一つのパラメータが、第一のビデオシーケンスの画像の輝度値の関数として、第二のビデオシーケンスの画像によって異なることを許すことにより、修正の大きさもまた、第一のビデオシーケンスの画像の輝度値の関数となる。例えば、パラメータの増加又は減少の量が、第一のビデオシーケンスの画像の輝度値の関数であってもよい。 The thermal information in the first video sequence is not only to decide where, i.e. in which region at least one parameter should be corrected, but also to decide how or how at least one parameter should be corrected. It should be noted that it can also be used. By allowing at least one parameter to differ from the image of the second video sequence as a function of the luminance value of the image of the first video sequence, the magnitude of the correction is also determined by the luminance of the image of the first video sequence It is a function of the value. For example, the amount of increase or decrease of the parameter may be a function of the luminance value of the image of the first video sequence.
少なくとも一つのパラメータが、現場での事象の検出に関連するパラメータであってもよい。これは、物体検出、動き検出、及び物体追跡のためのパラメータを含む。 At least one parameter may be a parameter associated with the detection of an event in the field. This includes parameters for object detection, motion detection, and object tracking.
例えば、少なくとも一つのパラメータは、動き又は物体が存在しているなどの、事象の検出のための閾値を含みうる。詳細には、ビデオ処理アルゴリズムは、第二のビデオシーケンスの中の引き続く画像と画像の間の輝度値の差を閾値と比較することを含みうる。閾値は、第一のビデオシーケンスの中の熱情報に基づいて修正される。例えば、閾値は、関心のある熱情報に対応する領域で増加されうる。このように、ビデオ処理アルゴリズムは、関心のあるエリアでの事象の検出に対して高感度(ノイズに対しても高感度)にされ、他のエリアでは低い感度にされうる。 For example, at least one parameter may include a threshold for detection of an event, such as motion or an object present. In particular, the video processing algorithm may include comparing the difference in luminance values between subsequent images in the second video sequence to a threshold. The threshold is corrected based on the thermal information in the first video sequence. For example, the threshold may be increased in the area corresponding to the thermal information of interest. In this way, the video processing algorithm can be made sensitive (also sensitive to noise) to the detection of events in the area of interest and low in other areas.
少なくとも一つのパラメータは、画素クラスタとも呼ばれる、隣接する又は接続する小さな画素群の除去などの、(ノイズではないかと思われる)小さな検出の除去のためのフィルタで用いられるパラメータを含みうる。例えば、少なくとも一つのパラメータは、閾値を下回るサイズを有する隣接画素群が除去されるような、隣接画素群のサイズについての閾値を含みうる。このように、ビデオ処理アルゴリズムは、関心のあるエリアでの事象の検出に対して高感度(ノイズに対しても高感度)にされ、他のエリアでは低い感度にされうる。 At least one parameter may include a parameter used in a filter for the removal of small detections (which may be noise), such as the removal of adjacent or connected small groups of pixels, also called pixel clusters. For example, the at least one parameter may include a threshold for the size of the neighboring pixels such that neighboring pixels having a size below the threshold are removed. In this way, the video processing algorithm can be made sensitive (also sensitive to noise) to the detection of events in the area of interest and low in other areas.
例によれば、ビデオ処理アルゴリズムは、スムージングフィルタリングを含み、前記スムージングフィルタリングの少なくとも一つのパラメータが、第一のビデオシーケンスの中の熱情報に基づいて修正される。スムージングフィルタリングによって、スムージングフィルタを適用することが、意味される。スムージングフィルタリングが、第二のビデオシーケンスの画像に適用されうる。スムージングフィルタは、時間的フィルタ(時間方向でのスムージング効果を有する)及び/又は空間的フィルタ(空間におけるスムージング効果を有する)でありうる。空間的スムージングフィルタの例は、モルフォロジカルフィルタとメジアンフィルタである。 According to an example, the video processing algorithm comprises smoothing filtering, wherein at least one parameter of said smoothing filtering is modified based on the thermal information in the first video sequence. By smoothing filtering is meant applying a smoothing filter. Smoothing filtering may be applied to the images of the second video sequence. The smoothing filter may be a temporal filter (with a smoothing effect in the temporal direction) and / or a spatial filter (with a smoothing effect in space). Examples of spatial smoothing filters are morphological filters and median filters.
従って、スムージングフィルタリングは、(ノイズではないかと思われる)小さな検出の除去のためのモルフォロジカルフィルタリングを含みうる。詳細には、スムージングフィルタリングは、構造化要素を用いた第二のビデオシーケンスの画像のモルフォロジカルフィルタリングを含み得、構造化要素は、第一のビデオシーケンスの中の熱情報に基づいて修正される。修正は、構造化要素のサイズと形状のうちの少なくとも一つを修正することを含み得る。このように、ビデオ処理アルゴリズムは、関心のあるエリアでの事象の検出に対して高感度(ノイズに対しても高感度)にされ、他のエリアでは低い感度にされうる。 Thus, smoothing filtering may include morphological filtering for the removal of small detections (which may be noise). In particular, the smoothing filtering may include morphological filtering of the image of the second video sequence using a structuring element, the structuring element being modified based on thermal information in the first video sequence . The modification may include modifying at least one of the size and the shape of the structuring element. In this way, the video processing algorithm can be made sensitive (also sensitive to noise) to the detection of events in the area of interest and low in other areas.
サーマルカメラは、遠赤外線(LWIR)センサを含み得る。LWIRセンサは、他の赤外線センサがなしえない方法で可視光センサを補足するという点で、有利である。 The thermal camera may include a far infrared (LWIR) sensor. LWIR sensors are advantageous in that they complement visible light sensors in a way that other infrared sensors can not do.
第二のビデオシーケンスが、可視光カメラによって撮像されてもよい。これは、可視光カメラが、例えば、サーマルカメラより高い解像度を通常有し、それにより、検出と追跡を簡単にするという点で有利である。 A second video sequence may be imaged by a visible light camera. This is advantageous in that visible light cameras usually have higher resolution than, for example, thermal cameras, thereby simplifying detection and tracking.
第二のビデオシーケンスが、サーマルカメラによって撮像されてもよい。これは、例えば、サーマルカメラは、夜間及び他の弱光状態で有用な画像を撮像するために外部光を必要としないという点で、有利である。他の利点は、一つのカメラのみが提供されればよいという点である。 A second video sequence may be taken by the thermal camera. This is advantageous, for example, in that thermal cameras do not require external light to capture useful images at night and other low light conditions. Another advantage is that only one camera needs to be provided.
本発明の第二の態様によれば、上記の目的は、プロセッサによって実行されるときに第一の態様の方法を実行するように適合される命令を有するコンピュータ可読記憶媒体を含むコンピュータプログラム製品によって達成される。 According to a second aspect of the present invention, the above object is achieved by a computer program product comprising a computer readable storage medium having instructions adapted to perform the method of the first aspect when executed by a processor To be achieved.
本発明の第三の態様によれば、上記の目的は、動き検出アルゴリズム、物体検出アルゴリズム、又は物体追跡アルゴリズムなどの、現場監視用ビデオ処理アルゴリズムによって使用される少なくとも一つのパラメータを修正するための処理装置によって達成され、本装置は、
現場の第一のビデオシーケンスと第二のビデオシーケンスを受け取るように構成されるレシーバであって、第一のビデオシーケンスが、現場の温度を示す熱情報を含むように、サーマルカメラを用いて撮像される、レシーバと、
現場を監視するために、ビデオ処理アルゴリズムを第二のビデオシーケンスに適用するように構成されるビデオ処理コンポーネントであって、第一のビデオシーケンスに含まれる熱情報に基づいて、ビデオ処理アルゴリズムによって用いられる少なくとも一つのパラメータを修正するように構成され、その結果、ビデオ処理アルゴリズムの少なくとも一つのパラメータが温度依存になるような、ビデオ処理コンポーネントとを含む。
According to a third aspect of the invention, the above object is to correct at least one parameter used by a video processing algorithm for scene monitoring, such as a motion detection algorithm, an object detection algorithm, or an object tracking algorithm. Achieved by the processing device, the device
A receiver configured to receive a first video sequence and a second video sequence of the scene, wherein the first video sequence is imaged using a thermal camera such that the first video sequence includes thermal information indicative of the temperature of the scene The receiver to be
A video processing component configured to apply a video processing algorithm to a second video sequence to monitor a scene, for use by the video processing algorithm based on thermal information included in the first video sequence And video processing components configured to modify at least one of the parameters being performed, such that at least one parameter of the video processing algorithm is temperature dependent.
本発明の第四の態様によれば、上記の目的は、動き検出アルゴリズム、物体検出アルゴリズム、又は物体追跡アルゴリズムなどの、現場監視用ビデオ処理アルゴリズムによって使用される少なくとも一つのパラメータを修正するためのシステムによって達成され、本システムは、
現場の第一のビデオシーケンスと第二のビデオシーケンスを撮像するように構成される少なくとも一つのカメラであって、第一のビデオシーケンスを撮像するように適合されるサーマルカメラを含み、その結果、第一のビデオシーケンスが、現場の温度を示す熱情報を含むような、少なくとも一つのカメラと、
第一のビデオシーケンスと第二のビデオシーケンスを受け取り、処理し、ビデオ処理アルゴリズムによって用いられるパラメータを修正するように構成される、第三の態様による処理装置とを含む。
According to a fourth aspect of the invention, the above object is to correct at least one parameter used by a video processing algorithm for scene monitoring, such as a motion detection algorithm, an object detection algorithm, or an object tracking algorithm. Achieved by the system, the system
At least one camera configured to image the first video sequence and the second video sequence in the scene, the thermal camera adapted to image the first video sequence, such that At least one camera, such that the first video sequence includes thermal information indicative of the temperature at the site;
A processing unit according to a third aspect configured to receive and process the first video sequence and the second video sequence and to modify parameters used by the video processing algorithm.
第二の態様、第三の態様、及び第四の態様は、概して、第一の態様と同じ特徴と利点を有しうる。本発明は、別途明示的に記載されない限り、特徴の全ての可能な組み合わせに関連することが、更に留意される。 The second, third and fourth aspects may generally have the same features and advantages as the first aspect. It is further noted that the invention relates to all possible combinations of features, unless explicitly stated otherwise.
上記に加えて、本発明のさらなる目的、特徴、及び利点が、添付の図面を参照するとともに、本発明の好適な実施形態についての以下の例示的かつ非限定的な詳細な説明を通して、より良く理解されるであろう。同じ参照番号が、類似の要素に対して使用される。 In addition to the above, further objects, features, and advantages of the present invention will be better through reference to the accompanying drawings and through the following illustrative and non-limiting detailed description of preferred embodiments of the present invention. It will be understood. The same reference numbers are used for similar elements.
これより、本発明の実施形態が示されている添付図面を参照して、本発明をより詳細に説明する。本明細書に開示されるシステム及び装置が、作動中について説明される。 The invention will now be described in more detail with reference to the accompanying drawings in which embodiments of the invention are shown. The systems and apparatus disclosed herein are described in operation.
図1は、現場102監視用システム100を示す。システム100は、ここでは2つのカメラによって示される、少なくとも一つのカメラ104a及び104b、並びに処理装置106を含む。
FIG. 1 shows a
現場102は、幾つかの物体102a−fを含み得、この事例では、人102a、人102b、自動車102c、自動車102d、道路102e、及び木102fによって示される。人102a、人102b、自動車102c、及び自動車102dなどの、物体のうちの幾つかが動いていてもよく、道路102e及び木102f(少なくとも、風が吹いていない場合)などの、他の物体が静止していてもよい。物体102a−fはまた、様々な大きさであってもよく、カメラ104a−bから異なる距離に位置していてもよい。例えば、物体102aと102cは、物体102b、102d、102fと比べて、カメラ104a−bから遠く離れて位置している。小さい及び/又はカメラ104a−bから遠く離れて位置している物体は、カメラ104a−bのうちの少なくとも幾つかによって撮像される画像の中で区別することが困難でありうる。物体102a−fはまた、異なる温度又は温度範囲と対応付けられうる。例えば、人102a−bは、人間の体温に対応する温度範囲と対応付けられ得、自動車102c−dは、作動中のエンジンの温度に対応する温度範囲と対応付けられ得る。木102fなどの、他の物体は、自分自身で熱を発生しないので、周囲温度に対応する温度範囲と、通常、対応付けられる。
少なくとも一つのカメラ104a−bのうちの一つ、ここではカメラ104a、が、サーマルカメラである。好ましくは、カメラ104aは、遠赤外線(LWIR)センサを含む。LWIRセンサは、他の赤外線センサとは別の方法で可視光カメラを補足するという点で、有利である。カメラ104bなどの、少なくとも一つのカメラ104a−bのうちの他のカメラが、可視光カメラであってもよい。他の例によれば、第二のカメラ104bもまた、サーマルカメラであってよい。カメラ104a−bは、主に図解の理由で、別々のカメラとして示されている。しかしながら、少なくとも一つのカメラ104a−bは、結合されたサーマル及び可視光カメラなどの単一のユニットへと結合されてもよいということが、理解されるべきである。
One of the at least one
少なくとも一つのカメラ104a−bが、監視目的のために、現場102を眺めて、現場102のビデオシーケンスを撮像するように、準備される。より詳細には、少なくとも一つのカメラ104a−bが、現場102の第一のビデオシーケンス105aと第二のビデオシーケンス105bを撮像するように、準備される。システム100が一つのカメラ104a(その場合、サーマルカメラである)のみを含む場合には、第一のビデオシーケンス105aと第二のビデオシーケンス105bは、同じカメラにより撮像されうる。第一のビデオシーケンス105aと第二のビデオシーケンス105bは、同じビデオシーケンスであってさえよい。しかしながら、示されている例において、第一のビデオシーケンス105aは、第一の(サーマル)カメラ104aによって撮像され、第二のビデオシーケンス105bは、第二のカメラ104bによって撮像される。
At least one
処理装置106は、レシーバ108と、レシーバ108と通信するビデオ処理コンポーネント110とを含む。処理装置106は、少なくとも一つのカメラ104a−bとは別に提供されてもよいし、カメラ104a−bのうちの一つの中に含まれてもよい。いずれの場合も、処理装置106は、少なくとも一つのカメラ104a−bに、有線又は無線接続で動作可能に接続され、レシーバ108を経由して、少なくとも一つのカメラ104a−bから第一のビデオシーケンス105a及び第二のビデオシーケンス105bを受け取り得る。
The
ビデオ処理コンポーネント110は、現場102の監視のために、ビデオ処理アルゴリズムを第二のビデオシーケンス105bに適用するように構成される。例えば、ビデオ処理コンポーネント110は、現場102における、物体の存在及び/又は動きなどの事象を検出し、並びに物体追跡を行うように構成されうる。その目的のために適用されるビデオ処理アルゴリズムは、例えば、動き検出、物体検出、及び/又は物体追跡のための任意の既知のアルゴリズムであってよい。
The
上記のタイプのビデオ処理アルゴリズムは、閾値及び様々なフィルタに関連するパラメータなどの、事象の検出に関連するパラメータを含む少なくとも一つのパラメータと、通常、対応付けられる。ビデオ処理コンポーネント110は、ビデオ処理アルゴリズムの適用の前に、少なくとも一つのパラメータを修正するように構成される。以下でより詳細に説明されるように、少なくとも一つのパラメータのそのような修正は、第一のビデオシーケンス105aの中の情報に基づく。
Video processing algorithms of the type described above are typically associated with at least one parameter, including parameters associated with the detection of events, such as thresholds and parameters associated with various filters.
ビデオ処理コンポーネント110は、ハードウェア、ソフトウェア又はそれらの組合せに実装されうる。詳細には、ビデオ処理コンポーネント110は、メモリ112、及び中央処理ユニットなどのプロセッサ114を含みうる。メモリ112は、(非一過性の)コンピュータ可読媒体又はストレージ装置として働き得、本明細書に記載される任意の方法に関するコンピュータコード命令を記憶しうる。詳細には、コンピュータコード命令は、プロセッサ114によって実行されるときに、本明細書に記載された任意の方法を実行するように適合される。
次に、システム100の動作及び、詳細には、処理装置106の動作が、図1、図3、及び図2のフローチャートを参照して説明される。
The operation of
ステップS02において、処理装置106が、レシーバ108を経由して、少なくとも一つのカメラ104a−bから第一のビデオシーケンス105a及び第二のビデオシーケンス105bを受け取る。以下の例において、第一のビデオシーケンス105aは、サーマルカメラ104aからのものであり、第二のビデオシーケンス105bは、可視光カメラ104bからのものであることが、仮定される。
In step S02, the
サーマルカメラ104aによって撮像される第一のビデオシーケンス105a、及び詳細には、第一のビデオシーケンス105aの中の画像は、現場102における温度を示す熱情報を含む。熱情報は、例えば、第一のビデオシーケンス105aの中の画像の輝度値を含み得、輝度値は現場102における温度を示す。温度は、絶対温度であってもよいし、又は現場の残余部分からのある温度偏差を表すだけでもよい。図3は、第一のビデオシーケンス105aの中の現場102の画像305aを図式的に示す。画像305aにおいて、人102a−bが、人間の体温に対応する温度範囲である第一の温度範囲に対応する輝度で映されている。画像305aにおいて、これは、第一のパターンを有する人によって示される。同様に、自動車102c、自動車102dが、例えば、作動中のエンジンの温度に対応する温度範囲である第二の温度範囲に対応する輝度で映されている。画像305bにおいて、これは、第二のパターンを有する自動車によって示される。
The
続けて、ステップS04において、処理装置108のビデオ処理コンポーネント110は、第二のビデオシーケンス105bに適用されるべきビデオ処理アルゴリズムの少なくとも一つのパラメータを修正する。
Continuing, at step S04, the
デフォルトで(従来技術で既知であるように)、ビデオ処理アルゴリズムは、第二のビデオシーケンス105bの中の画像の画像平面全体にわたって少なくとも一つのパラメータの同じ値を適用するであろう。これは、第二のビデオシーケンス105bからの画像307aを示す図3に更に示される。画像307aにおいて、ビデオ処理アルゴリズムのパラメータ309の値が、ドットパターンによって示されるように、重ねられる。パラメータの値は、画像307aの画像平面全体にわたって同じである。
By default (as known in the prior art), the video processing algorithm will apply the same value of at least one parameter across the image planes of the images in the
ビデオ処理コンポーネント110は、少なくとも一つのパラメータ309を修正し、パラメータ309が現場102における温度に依存するようにさせる。この目的のために、ビデオ処理ユニット110は、例えば、画像305aによって示されるように、第一のビデオシーケンス105aの中に含まれる熱情報に基づいて、パラメータ309を修正する。例えば、ビデオ処理ユニット110は、第二のビデオシーケンス105bの画像の画像平面全体にわたって更新された値を取るように、パラメータ309を修正しうる。
より好ましくは、パラメータ309は、第二のビデオシーケンス105bの画像307aの異なる部分又は領域において異なる値を取るように、修正されうる。例えば、図3の画像307bに示されるように、パラメータ309は、第一の領域において第一の値309aを取り、第二の領域において第二の値309bを取り、第三の領域において第三の値309cを取りうる。
More preferably, the
領域は、画像305aにおけるなどの、第一のビデオシーケンスの中の熱情報を考慮することにより、見出されうる。より詳細には、第二のビデオシーケンス105bの中の画像307bの中の領域は、第一のビデオシーケンス105aの画像305aの中の幾つかの領域に対応しうる。ここで、画像305aと画像307bは、時間的に揃えられていると仮定される。画像305aの中の領域が、熱情報に基づいて同定され得る。例えば、領域は、人間の体温に対応する温度範囲、又は作動中のエンジンの温度に対応する温度範囲などの、関心のある既定の温度範囲に対応する輝度値(すなわち、温度値)を有する画素として、画像305aの中に同定され得る。そのように領域を同定することによって、第一の領域は、人102a、人102bに対応する画素として同定され得、第二の領域は、自動車102c、自動車102dに対応する画素として同定され得る。従って、ビデオ処理コンポーネント110は、異なる領域で異なる値を取るように、パラメータ309を修正し得る。示された例において、従って、パラメータは、人間を見出すことが予期されうる領域で第一の値309aを取り、作動中のエンジンを有する自動車を見出すことが予期されうる領域で第二の値309bを取るように修正されるであろう。
Regions may be found by considering thermal information in the first video sequence, such as in
第一のビデオシーケンス105aの中の熱情報は、画像平面の中のどこでパラメータ309を修正するべきかを決めるために用いられうるだけではない。それはまた、修正の大きさ、すなわち、パラメータ309がどのくらい修正又は調整されるべきかを決めるためにも用いられうる。通常、修正の大きさは、第一のビデオシーケンス105aの中の熱情報の関数として設定されうる。より詳細には、画像305aなどの、第一のビデオシーケンス105aの画像の中の輝度値が、温度を示す。従って、パラメータの修正の大きさは、第一のビデオシーケンス105aの画像305aの輝度の関数として設定されうる。示された例において、従って、第一の値309aは、画像305aの中の人102a、人102bに対応する画素の輝度値に従って、設定され得、第二の値309bは、画像305aの中の自動車102c、自動車102dに対応する画素の輝度値に従って、設定され得る。
The thermal information in the
上記の例において、パラメータ309は、画像平面の異なる部分又は領域で異なる値を取り得るということが、説明された。これは、画像平面の部分又は領域が、厳密な境界を有するということを、必ずしも意味しない。より一般的には、パラメータ309は、画像305aの中の対応する画素の輝度値の関数として画像307bの中で異なるように修正され得る。そのように、画像305aの中の輝度値(温度)は、画像305aの画像平面の中で空間的に変わるので、パラメータ309の値は、画像307bの画像平面の中で空間的に変わるであろう。
In the above example, it has been described that the
少なくとも一つのパラメータ309は、例えば、動きを検出する、物体を検出する、及び/又は物体を追跡するために用いられる閾値であってもよい。より詳細には、第二のビデオシーケンス105bの中の連続する画像間の輝度値の変化を検出するための閾値であってもよい。例えば、ビデオ処理アルゴリズムは、現場102における、動きなどの事象を検出するために、第二のビデオシーケンス105bの中の引き続く画像間の輝度値の差を、閾値と比較し得る。輝度変化の閾値が、ビデオ処理アルゴリズムの適用の前に、ビデオ処理コンポーネント110によって、ステップS04で、修正され得る。例えば、輝度変化の閾値は、サーマルカメラ104aの画像305aによって与えられる温度が、関心のある温度範囲内にあると見出された、画像307bの部分又は領域309a及び/又は309bの中で、下げられ得る。このように、ビデオ処理アルゴリズムは、第二のビデオシーケンス105bの画像307bのそれらの部分又は領域において、輝度の変化に対して感度が高くされるであろう。他の領域では、輝度変化の閾値は、例えば、上げられるか、又は修正されないままであり得る。このようにして、他の温度範囲にある事象によって引き起こされる誤検出が、抑えられうる。更に上記のように、ビデオ処理コンポーネント110はまた、第一のビデオシーケンス105aの画像305aの中の輝度の関数として、輝度変化の閾値を修正、すなわち上昇又は低下させ得る。
At least one
少なくとも一つのパラメータは、ノイズフィルタリング及び(おそらくはノイズによって引き起こされる)小さな検出の除去用のフィルタに関連してもよい。例えば、隣接画素群のサイズについての閾値を設定するパラメータが、存在し得る。ビデオ処理コンポーネント110が、第二のビデオシーケンスの画像の中に、又は画像間の差の中に、閾値より大きい隣接画素群を検出する場合、物体又は動きが存在することが、判定され得る。サイズが閾値より低い場合、隣接画素群は、小さすぎるので、誤検出を回避するために除去されることが、判定され得る。
At least one parameter may be associated with noise filtering and a filter for removal of small detections (possibly caused by noise). For example, there may be parameters that set a threshold for the size of the neighboring pixel group. It may be determined that an object or motion is present if the
ビデオ処理コンポーネント110はまた、エロージョン用フィルタなどの、モルフォロジカルフィルタを、第二のビデオシーケンス105bの画像又は画像間の差に適用することにより、小さな物体及び/又は動きの検出を除去し得る。詳細には、ビデオ処理コンポーネント110は、構造化要素を用いることにより、第二のビデオシーケンス105bの画像又は画像間の差をモルフォロジカルフィルタリングし得る。ビデオ処理コンポーネント110は、ビデオ処理アルゴリズムの適用前に、ステップS04において、構造化要素を修正し得る。例えば、ビデオ処理コンポーネント110は、構造化要素のサイズ及び/又は形状を修正し得る。例えば、ビデオ処理コンポーネント110は、関心のある温度範囲に対応する、第二のビデオシーケンス105bの画像307bの部分又は領域で、例えばエロージョンのために用いられる構造化要素のサイズを減少させ、他の部分又は領域では、構造化要素のサイズを増加又は修正されないままとしてもよい。このように、モルフォロジカルフィルタリング演算は、他の領域と比べて、関心のある温度範囲に対応する領域においてより多くの(そして、より小さい)検出を残し、それにより、ビデオ処理アルゴリズムが、関心のある温度範囲に対応する領域において検出に対する感度が高くなるようにし得る。
ビデオ処理アルゴリズムは、動き検出アルゴリズムであってもよい。2つの連続する画像を単純に比較して、2つの画像の間で輝度値を変化させた画素の数を数えることから、例えば、空間時間的スライシングを用いる、より複雑なアルゴリズムまでの範囲にわたる、様々な動き検出アルゴリズムが知られている。単純な画素差異アルゴリズムでは、輝度値の差についての閾値が、誤検出を減らすために用いられ得、輝度値の差が、変化とみなされるためには、閾値を超えなければならない。熱情報が、そのような閾値を修正するために用いられうる。更に、変化した画素の数が、予め決められた参照個数と比較され得、参照個数を下回る数の変化した画素は、動きとみなされないであろうが、参照個数より多い画素が変化した場合は、動きとみなされるであろう。熱情報が、そのような参照個数を修正するために用いられうる。 The video processing algorithm may be a motion detection algorithm. From a simple comparison of two successive images and counting the number of pixels with varying luminance values between the two images, for example, ranging from more complex algorithms using spatio-temporal slicing Various motion detection algorithms are known. In a simple pixel difference algorithm, a threshold for luminance value differences may be used to reduce false positives, and the luminance value differences must exceed the threshold to be considered as changes. Thermal information may be used to correct such thresholds. Furthermore, the number of changed pixels may be compared to a predetermined reference number, and a number of changed pixels below the reference number will not be considered motion, but if more pixels than the reference number are changed , Would be considered a move. Thermal information may be used to correct such reference numbers.
より精巧な動き検出アルゴリズムは、一つの画像を別の画像と比較するのではなく、幾つかの以前の画像の背景モデルを形成し、新しい画像を背景モデルと比較することを含み得る。背景モデルは、無限インパルス応答フィルタリングによって形成され得る。このようにして、時間フィルタリングが達成され、ノイズによって引き起こされる誤検出を減少させ得る。単純な動き検出アルゴリズムのために既に論じられたパラメータに加えて、熱情報が、そのような時間フィルタリング方法において用いられ、例えば、新しい画像の各々の影響を修正する、すなわち、新しい画像が、背景モデルの中に重み付けされる係数を修正し得る。 More sophisticated motion detection algorithms may involve forming a background model of several previous images and comparing a new image to the background model, rather than comparing one image to another. The background model may be formed by infinite impulse response filtering. In this way, temporal filtering may be achieved to reduce false detection caused by noise. In addition to the parameters already discussed for the simple motion detection algorithm, thermal information is used in such a temporal filtering method, for example, to correct the influence of each of the new images, ie the new image is the background The coefficients that are weighted into the model may be modified.
US8121424において、空間時間的スライス処理を用いる動き検出アルゴリズムが開示される。ここでは、ビデオシーケンスの画像が、頂点X、Y及びtを有する画像体積へと結合される。ここで、XとYは空間座標であり、tは時間を表わす。画像体積が、(X、t)平面又は(Y、t)平面のいずれかでスライスされる。動きの位置を突き止めるために、ビデオシーケンスの中のサーチラインに沿ってサーチが行われる。動きは、頂点のいずれとも平行でないラインを同定することによって検出され得る。静止した物体及び照明の変化は、その代わりに、頂点の一つと平行なラインとして見えるであろう。ここでは、熱情報が、例えば、画像体積の中の画像が撮像される時間tの期間を修正するため、画像体積の空間サイズを修正するため、及び/又は動きとして検出される必要のある、サーチラインに沿った隣接する類似の画素の数についての閾値を修正するために、用いられ得る。 In US Pat. No. 8,121,424, a motion detection algorithm is disclosed which uses spatio-temporal slicing. Here, the images of the video sequence are combined into an image volume having vertices X, Y and t. Here, X and Y are space coordinates, and t represents time. The image volume is sliced in either the (X, t) or (Y, t) plane. A search is performed along the search line in the video sequence to locate the motion. Motion can be detected by identifying lines that are not parallel to any of the vertices. Stationary objects and illumination changes will instead appear as lines parallel to one of the vertices. Here, thermal information needs to be detected, for example, to correct the period of time t in which the image in the image volume is taken, to correct the spatial size of the image volume, and / or as motion. It may be used to correct the threshold for the number of adjacent similar pixels along the search line.
ステップS06において、ビデオ処理コンポーネント110は、第二のビデオシーケンス105bに、修正された少なくとも一つのパラメータ309a、309b、309cを用いるビデオ処理アルゴリズムを受けさせる。概して、ビデオ処理アルゴリズムは、現場102をモニタ又は監視するときに用いられ得る出力を提供する任意のタイプのビデオ処理アルゴリズムであってよい。詳細には、ビデオ処理アルゴリズムは、周辺監視におけるなどの、遠方の事象を検出するためのアルゴリズムであってもよい。これは、動き検出アルゴリズム、物体検出アルゴリズム、及び/又は物体追跡アルゴリズムを含み得る。
In step S06, the
次に、開示された方法の利益の幾つかを示すために、図4aと図4bを参照して、例が説明される。この例では、ビデオ処理アルゴリズムは、物体検出のためのアルゴリズムであり、この物体検出アルゴリズムは、物体が存在するか否かを判定するためにビデオ処理コンポーネント110によって用いられる、例えば、隣接画素の数の点での、物体のサイズについての閾値であるパラメータと対応付けられるということが、仮定される。
An example will now be described with reference to FIGS. 4a and 4b to illustrate some of the benefits of the disclosed method. In this example, the video processing algorithm is an algorithm for object detection, which is used by the
図4aは、第二のビデオシーケンス105bの画像へのビデオ処理アルゴリズムの適用前に、パラメータが修正されないケースを示し、図4bは、実施形態に従って、第二のビデオシーケンス105bの画像へのビデオ処理アルゴリズムの適用前に、パラメータが修正されるケースを示す。
Fig. 4a shows the case where the parameters are not modified before application of the video processing algorithm to the images of the
図4aにおいて、パラメータ409は、第二のビデオシーケンス105bの画像407aの画像平面全体にわたって同じ値を取る。パラメータ409の値は、誤った物体検出の数が減るように、すなわち、パラメータ409よりも低い幾つかの画素を含む、起こり得る物体検出が、非物体であるとして除去されるように、通常、設定される。しかしながら、これは、カメラから遠方に位置する物体などの、小さな物体を検出する可能性を犠牲にする。これは、ビデオ処理コンポーネント110によって画像407aの中に同定された物体を示す画像411aに更に示される。このケースでは、ビデオ処理アルゴリズムは、物体102b、102d及び102fを、なんとか検出した。しかしながら、とりわけ、現場102の中でカメラ104bから遠く離れた位置にある物体102a及び102cが検出されていない。これは、それらの大きさが、パラメータ409の閾値を下回ったからである。
In FIG. 4a, the
図4bにおいて、パラメータは、物体検出アルゴリズムの適用前に、ビデオ処理コンポーネント110によって修正される(上記ステップS04を参照)。図3を参照して説明されるように、従って、パラメータは、第一のビデオシーケンス105aの中の熱情報に応じて、第二のビデオシーケンス105bの画像407bの異なる領域で異なる値409a、409、409cを取るように修正される。例えば、パラメータは、画像407bの関心のある温度範囲に対応する領域において、画像407bの他の領域と比較して低い値409a、409bを取るように設定され得る。このようにして、関心のある温度範囲に対応する領域において、他の領域と比較して、より小さい物体が、検出されることが可能となる。これは、ビデオ処理コンポーネント110によって画像407bの中に同定される物体を示す画像411bに更に示される。このケースでは、ビデオ処理アルゴリズムは、これらの領域での物体検出閾値の修正された値409a、409bにより、物体102a及び102cをも、何とか検出した。
In FIG. 4b, the parameters are modified by the
当業者が、多くのやり方で上述の実施形態を修正し、なおも上述の実施形態に示される本発明の利点を用いることができることが、理解されるだろう。したがって、本発明は、示された実施形態に限定されるべきではなく、添付の特許請求の範囲によってのみ定義されるべきである。さらに、当業者が理解しているように、示された実施形態は組み合わせてもよい。 It will be appreciated that one of ordinary skill in the art can modify the above-described embodiments in many ways and still use the advantages of the invention as set forth in the above-described embodiments. Accordingly, the present invention should not be limited to the illustrated embodiments, but should be defined only by the appended claims. Further, the illustrated embodiments may be combined as understood by one of ordinary skill in the art.
Claims (14)
前記現場(102)の第一のビデオシーケンス(105a)及び第二のビデオシーケンス(105b)を受け取ること(S02)であって、前記第一のビデオシーケンス(105a)が、前記現場(102)の温度を表わす熱情報を含むように、サーマルカメラ(104a)を用いて撮像される、受け取ることと、
前記ビデオ処理アルゴリズムによって用いられる少なくとも一つのパラメータ(309、409)の数値を、前記第一のビデオシーケンス(105a)に含まれる前記熱情報に基づいて修正すること(S04)であって、
前記ビデオ処理アルゴリズムの前記少なくとも一つのパラメータ(309、409)が温度依存になり、
前記熱情報が、前記第二のビデオシーケンスのどの領域で前記少なくとも一つのパラメータの数値が修正されるか、及び、前記領域内で前記少なくとも一つのパラメータの数値がどのくらい修正されるかを決めるために用いられ、
前記少なくとも一つのパラメータの数値は、前記領域外では修正されないままである、
修正することと、
前記ビデオ処理アルゴリズムを前記第二のビデオシーケンス(105b)に適用すること(S06)と、を含む方法。 A method of modifying at least one parameter (309, 409) used by a video processing algorithm for surveillance of a scene (102), such as a motion detection algorithm, an object detection algorithm, or an object tracking algorithm, comprising:
Receiving (S02) a first video sequence (105a) and a second video sequence (105b) of the scene (102), the first video sequence (105a) being of the scene (102) Imaged, received using a thermal camera (104a) to include thermal information representative of temperature;
Correcting (S04) the numerical value of at least one parameter (309, 409) used by the video processing algorithm based on the thermal information included in the first video sequence (105a);
The at least one parameter (309, 409) of the video processing algorithm becomes temperature dependent;
It said thermal information is numerically the at least one parameter in which region of the second video sequence is modified, and, to decide value of said at least one parameter in the region how much is modified It is used to,
The numerical value of the at least one parameter remains uncorrected outside the region ,
To fix and
Applying (S06) the video processing algorithm to the second video sequence (105b).
前記ビデオ処理アルゴリズムによって用いられる前記少なくとも一つのパラメータ(309、409)の数値が、前記第一のビデオシーケンス(105a)の画像(305a)中で同定された前記画素(102a、102b、102c、102d)に対応する前記第二のビデオシーケンス(105b)の画像(307b、407b)の領域に対して修正される、請求項3に記載の方法。 In the image (305a) of the first video sequence (105a) taken by the thermal camera (104a), a pixel (102a,) having a luminance value indicative of a temperature lying in at least one predetermined temperature range of interest Further comprising identifying 102b, 102c, 102d),
The pixels (102a, 102b, 102c, 102d) identified in the image (305a) of the first video sequence (105a) are numerical values of the at least one parameter (309, 409) used by the video processing algorithm. The method according to claim 3, wherein the region of the image (307b, 407b) of the second video sequence (105b) corresponding to.
前記現場(102)の第一のビデオシーケンス(105a)及び第二のビデオシーケンス(105b)を受け取るレシーバ(108)であって、前記第一のビデオシーケンス(105a)が、サーマルカメラ(104a)を用いて撮像されて、前記現場(102)の温度を表わす熱情報を含む、レシーバと、
ビデオ処理コンポーネント(110)であって、
前記第一のビデオシーケンス(105a)に含まれる前記熱情報に基づいて、前記ビデオ処理アルゴリズムによって用いられる少なくとも一つのパラメータ(309、409)の数値を修正し、かつ、前記現場(102)を監視するために、前記ビデオ処理アルゴリズムを前記第二のビデオシーケンス(105b)に適用する、ビデオ処理コンポーネント(110)であって、
前記修正の結果前記ビデオ処理アルゴリズムの前記少なくとも一つのパラメータが温度依存になるようにし、
前記熱情報が、前記第二のビデオシーケンスのどの領域で前記少なくとも一つのパラメータの数値が修正されるか、及び、前記領域内で前記少なくとも一つのパラメータの数値がどのくらい修正されるかを決めるために用いられ、前記少なくとも一つのパラメータの数値は、前記領域外では修正されないままである、ビデオ処理コンポーネントと、を含む処理装置。 A processing unit (106) for modifying at least one parameter (309, 409) used by a video processing algorithm for surveillance of a scene (102), such as a motion detection algorithm, an object detection algorithm, or an object tracking algorithm.
A receiver (108) for receiving the first video sequence (105a) and the second video sequence (105b) of the scene (102), the first video sequence (105a) comprising a thermal camera (104a) A receiver, which is imaged using the thermal information representing the temperature of the site (102);
A video processing component (110),
Based on the thermal information contained in the first video sequence (105a), modify the numerical value of at least one parameter (309, 409) used by the video processing algorithm and monitor the scene (102) A video processing component (110) applying the video processing algorithm to the second video sequence (105b) to
Making the at least one parameter of the video processing algorithm temperature dependent as a result of the correction;
It said thermal information is numerically the at least one parameter in which region of the second video sequence is modified, and, to decide value of said at least one parameter in the region how much is modified And a video processing component used in the at least one parameter value remains uncorrected outside the region .
前記現場(102)の第一のビデオシーケンス(105a)及び第二のビデオシーケンス(105b)を撮像する少なくとも一つのカメラ(104a、104b)であって、前記第一のビデオシーケンス(105a)が前記現場(102)の温度を表わす熱情報を含むように、前記第一のビデオシーケンス(105a)を撮像するサーマルカメラ(104a)を含む、少なくとも一つのカメラと、
前記第一のビデオシーケンス(105a)及び前記第二のビデオシーケンス(105b)を受け取り、処理し、ビデオ処理アルゴリズムによって用いられるパラメータを修正する、請求項13に記載の処理装置(106)と、を含むシステム。 A system (100) for modifying at least one parameter (309, 409) used by a video processing algorithm for surveillance of a scene (102), such as a motion detection algorithm, an object detection algorithm, or an object tracking algorithm.
At least one camera (104a, 104b) for imaging a first video sequence (105a) and a second video sequence (105b) of said scene (102), said first video sequence (105a) being said At least one camera including a thermal camera (104a) imaging the first video sequence (105a) to include thermal information representative of the temperature of the scene (102);
14. The processing unit (106) according to claim 13, receiving and processing the first video sequence (105a) and the second video sequence (105b) and modifying parameters used by the video processing algorithm. Including systems.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP14189977.3 | 2014-10-23 | ||
EP14189977.3A EP3012777B1 (en) | 2014-10-23 | 2014-10-23 | Modification of at least one parameter used by a video processing algorithm for monitoring of a scene |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016085739A JP2016085739A (en) | 2016-05-19 |
JP6546828B2 true JP6546828B2 (en) | 2019-07-17 |
Family
ID=51794763
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015205245A Active JP6546828B2 (en) | 2014-10-23 | 2015-10-19 | Modify at least one parameter used in video processing |
Country Status (6)
Country | Link |
---|---|
US (1) | US10032283B2 (en) |
EP (2) | EP3185180B1 (en) |
JP (1) | JP6546828B2 (en) |
KR (1) | KR101869000B1 (en) |
CN (1) | CN105554439B (en) |
TW (1) | TWI623885B (en) |
Families Citing this family (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10496891B2 (en) * | 2017-08-17 | 2019-12-03 | Harman International Industries, Incorporated | Driver assistance system and method for object detection and notification |
US11341615B2 (en) * | 2017-09-01 | 2022-05-24 | Sony Corporation | Image processing apparatus, image processing method, and moving body to remove noise in a distance image |
EP3477941B1 (en) | 2017-10-27 | 2020-11-25 | Axis AB | Method and controller for controlling a video processing unit based on the detection of newcomers in a first environment |
TWI638334B (en) * | 2017-11-15 | 2018-10-11 | 瑞昱半導體股份有限公司 | Image processing method and electronic apparatus for foreground image extraction |
CN107920205B (en) * | 2017-12-04 | 2019-10-25 | Oppo广东移动通信有限公司 | Image processing method, device, storage medium and electronic equipment |
KR102661590B1 (en) * | 2018-04-03 | 2024-04-29 | 삼성전자주식회사 | Apparatus and method for recognizing object in image |
IT201800010949A1 (en) * | 2018-12-10 | 2020-06-10 | Datalogic IP Tech Srl | Method and device for detecting and classifying an object |
KR102201168B1 (en) * | 2018-12-21 | 2021-01-12 | 인천대학교 산학협력단 | Method for tracking a person using an overhead camera |
EP3722992B1 (en) * | 2019-04-10 | 2023-03-01 | Teraki GmbH | System and method for pre-processing images captured by a vehicle |
CN112087593B (en) * | 2019-06-14 | 2022-10-14 | 富士通株式会社 | Video configuration updating device and method and electronic equipment |
CN112329499B (en) * | 2019-08-05 | 2024-07-09 | 上海高德威智能交通系统有限公司 | Image processing method, device and equipment |
KR102236939B1 (en) * | 2019-08-20 | 2021-04-07 | 주식회사인텍 | Fire pre-detection device |
CN113296159B (en) * | 2021-05-20 | 2023-10-31 | 星宸科技股份有限公司 | Object sensing device and method |
JP7382479B1 (en) | 2022-12-08 | 2023-11-16 | ソフトバンク株式会社 | Image processing device, program, and image processing method |
Family Cites Families (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US3730985A (en) * | 1970-09-18 | 1973-05-01 | Orloff F | Viewing and measuring system for remote thermal energy sources |
US6215898B1 (en) * | 1997-04-15 | 2001-04-10 | Interval Research Corporation | Data processing system and method |
TW476221B (en) | 2000-05-31 | 2002-02-11 | Ind Tech Res Inst | Image monitoring/recognition method by thermal imaging |
JP2003006642A (en) | 2001-06-22 | 2003-01-10 | Toshihiko Shimizu | Image processor utilizing thermal image |
TWI284863B (en) | 2002-08-30 | 2007-08-01 | Ind Tech Res Inst | Image recognition system for smoke and temperature distribution |
JP3767541B2 (en) | 2002-11-12 | 2006-04-19 | ソニー株式会社 | Light source estimation apparatus, light source estimation method, imaging apparatus, and image processing method |
JP2004219277A (en) | 2003-01-15 | 2004-08-05 | Sanyo Electric Co Ltd | Method and system, program, and recording medium for detection of human body |
JP3988657B2 (en) * | 2003-02-27 | 2007-10-10 | 日産自動車株式会社 | Object detection device |
JP2004295781A (en) | 2003-03-28 | 2004-10-21 | Ocean Network Entertainment:Kk | Image recognition method and image recognition apparatus |
US7963652B2 (en) * | 2003-11-14 | 2011-06-21 | Queen's University At Kingston | Method and apparatus for calibration-free eye tracking |
JP4604606B2 (en) * | 2004-08-18 | 2011-01-05 | ソニー株式会社 | Face detection apparatus, face detection method, and computer program |
JP5354767B2 (en) | 2007-10-17 | 2013-11-27 | 株式会社日立国際電気 | Object detection device |
US8121424B2 (en) | 2008-09-26 | 2012-02-21 | Axis Ab | System, computer program product and associated methodology for video motion detection using spatio-temporal slice processing |
EP2271073B1 (en) | 2009-07-01 | 2018-03-07 | Fluke Corporation | Thermography methods |
EP2326091B1 (en) * | 2009-11-13 | 2015-08-12 | NTT DoCoMo, Inc. | Method and apparatus for synchronizing video data |
KR101172747B1 (en) | 2010-08-16 | 2012-08-14 | 한국표준과학연구원 | Camera tracking monitoring system and method using thermal image coordinates |
JP5772272B2 (en) * | 2011-06-16 | 2015-09-02 | 富士通株式会社 | Information processing apparatus and information processing method |
EP2549759B1 (en) * | 2011-07-19 | 2016-01-13 | Axis AB | Method and system for facilitating color balance synchronization between a plurality of video cameras as well as method and system for obtaining object tracking between two or more video cameras |
GB2499200B (en) * | 2012-02-07 | 2014-12-17 | Canon Kk | Method and device for transitioning between an image of a first video sequence and an image for a second video sequence |
US8994845B2 (en) * | 2012-04-27 | 2015-03-31 | Blackberry Limited | System and method of adjusting a camera based on image data |
CN102739963B (en) * | 2012-06-06 | 2016-01-27 | 山东神戎电子股份有限公司 | One is dual-purpose type high-temperature mobile target detection warning system and detection method round the clock |
US9531964B2 (en) * | 2013-03-14 | 2016-12-27 | Drs Network & Imaging Systems, Llc | Methods and system for producing a temperature map of a scene |
TWM462421U (en) | 2013-05-29 | 2013-09-21 | Univ Chung Chou Sci & Tech | Monitoring system |
-
2014
- 2014-10-23 EP EP17155856.2A patent/EP3185180B1/en active Active
- 2014-10-23 EP EP14189977.3A patent/EP3012777B1/en active Active
-
2015
- 2015-10-12 US US14/880,416 patent/US10032283B2/en active Active
- 2015-10-16 TW TW104134100A patent/TWI623885B/en active
- 2015-10-16 CN CN201510673727.0A patent/CN105554439B/en active Active
- 2015-10-19 JP JP2015205245A patent/JP6546828B2/en active Active
- 2015-10-19 KR KR1020150145379A patent/KR101869000B1/en active IP Right Grant
Also Published As
Publication number | Publication date |
---|---|
CN105554439B (en) | 2020-01-07 |
CN105554439A (en) | 2016-05-04 |
TWI623885B (en) | 2018-05-11 |
EP3012777A1 (en) | 2016-04-27 |
EP3185180A1 (en) | 2017-06-28 |
KR20160047988A (en) | 2016-05-03 |
EP3185180B1 (en) | 2019-01-02 |
TW201629846A (en) | 2016-08-16 |
JP2016085739A (en) | 2016-05-19 |
EP3012777B1 (en) | 2017-03-15 |
KR101869000B1 (en) | 2018-06-20 |
US10032283B2 (en) | 2018-07-24 |
US20160117837A1 (en) | 2016-04-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6546828B2 (en) | Modify at least one parameter used in video processing | |
US11501535B2 (en) | Image processing apparatus, image processing method, and storage medium for reducing a visibility of a specific image region | |
EP3024227B1 (en) | Image processing apparatus and image processing method | |
KR101071352B1 (en) | Apparatus and method for tracking object based on PTZ camera using coordinate map | |
TWI554099B (en) | Method and camera for determining an image adjustment parameter | |
JP5832910B2 (en) | Image monitoring device | |
US20170004629A1 (en) | Low-complexity motion detection based on image edges | |
JP4999794B2 (en) | Still region detection method and apparatus, program and recording medium | |
US20150373286A1 (en) | Imaging device and infrared image generation method | |
KR102119215B1 (en) | Image displaying method, Computer program and Recording medium storing computer program for the same | |
JP6799325B2 (en) | Image correction device, image correction method, attention point recognition device, attention point recognition method and abnormality detection system | |
JP6527183B2 (en) | Leftover object detection device | |
JP4707019B2 (en) | Video surveillance apparatus and method | |
JP2006314061A (en) | Image processing apparatus and noise detecting method | |
JP2012026881A (en) | Collapse detection system and collapse detection method | |
JP6939065B2 (en) | Image recognition computer program, image recognition device and image recognition method | |
KR20090119668A (en) | System for processing imaging for detecting the invasion and fire of building and method thereof | |
JP2008123057A (en) | Suspicious person detection device | |
JP2013090063A (en) | Monitoring device, monitoring method, and monitoring program | |
JP2010101073A (en) | Collapse detection system and method | |
TW202414332A (en) | A method for object detection using cropped images |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170725 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180628 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180710 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20181005 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20181218 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190314 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190611 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190624 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6546828 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |