JP2000231637A - Image monitor device - Google Patents

Image monitor device

Info

Publication number
JP2000231637A
JP2000231637A JP11033024A JP3302499A JP2000231637A JP 2000231637 A JP2000231637 A JP 2000231637A JP 11033024 A JP11033024 A JP 11033024A JP 3302499 A JP3302499 A JP 3302499A JP 2000231637 A JP2000231637 A JP 2000231637A
Authority
JP
Japan
Prior art keywords
image
model
dimensional
target object
reliability
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP11033024A
Other languages
Japanese (ja)
Inventor
Akiko Konno
章子 紺野
Hideaki Uekusa
秀明 植草
Yukiyoshi Sakakibara
行良 榊原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fuji Electric Co Ltd
FFC Ltd
Original Assignee
Fuji Electric Co Ltd
FFC Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Electric Co Ltd, FFC Ltd filed Critical Fuji Electric Co Ltd
Priority to JP11033024A priority Critical patent/JP2000231637A/en
Publication of JP2000231637A publication Critical patent/JP2000231637A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To improve total monitor performance by preventing measurement precision from decreasing. SOLUTION: The image monitor device generates the positional relation among a three-dimensional scene model 11 showing the surface structure of a monitored space 1 and the arrangement of structures, a three-dimensional shape model 13 for an object body to be monitored, a three-dimensional motion model 14 for the object body to be monitored in the monitored space 1, an image pickup means 2, and the monitored space 1, extracts the object body in the monitored space 1 from an input image and traces it while performing mutual conversion between two-dimensional information and three-dimensional information in the monitored space 1 by using mutual converting means 8 and 8' according to those models and positional relation, and calculates and outputs the reliability of the result as a monitor result.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、テレビカメラなど
の撮像手段により撮像された被監視空間の画像から、対
象物体を抽出・追跡し、対象物体の有無、個数、移動速
度などの計測や、異常状態検知を目的とした画像監視装
置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method for extracting and tracking a target object from an image of a monitored space picked up by an image pickup means such as a television camera, and measuring the presence / absence, number, and moving speed of the target object. The present invention relates to an image monitoring device for detecting an abnormal state.

【0002】[0002]

【従来の技術】従来、テレビカメラなどの撮像手段によ
り撮影された監視空間の画像から移動物体を計測・監視
する装置として、例えば、特開平8−94320号の「移動物
体計測装置」がある。これは、画像から対象となる物体
位置を抽出後、三次元空間内での対象物体の運動の連続
性を利用して、2D/3D変換手段によって求めた三次元空
間内での位置・運動と、過去の物体の位置・運動情報か
ら求めた予測位置とを融合することにより、物体抽出結
果に含まれる誤差の影響を抑制し、安定して精度の良い
移動物体計測装置を実現している。
2. Description of the Related Art Conventionally, as a device for measuring and monitoring a moving object from an image in a monitoring space taken by an image pickup means such as a television camera, there is a "moving object measuring device" disclosed in Japanese Patent Application Laid-Open No. Hei 8-94320. This means that after extracting the position of the target object from the image, using the continuity of the motion of the target object in the three-dimensional space, the position and motion in the three-dimensional space obtained by the 2D / 3D conversion means are used. By integrating the predicted position obtained from the position and motion information of the past object, the influence of an error included in the object extraction result is suppressed, and a stable and accurate moving object measuring device is realized.

【0003】[0003]

【発明が解決しようとする課題】上記従来例では、三次
元空間内での物体抽出結果の一部だけに誤差が含まれて
いるような場合には、その誤差を抑制することが可能で
ある。しかし、実際の応用を考えると、以下のような場
合、対象物体位置や運動に含まれる誤差が連続して大き
くなり、上記手法だけで精度を向上させることはできな
いという問題点がある。
In the above conventional example, when an error is included only in a part of the object extraction result in the three-dimensional space, the error can be suppressed. . However, in consideration of actual applications, in the following cases, there is a problem that errors included in the position and motion of the target object continuously increase, and the accuracy cannot be improved only by the above method.

【0004】奥行きのあるような監視空間で、撮像手
段からの距離により対象物体の解像度が変化する場合。 複数の対象物体の重複が発生したり、部分的に重複し
た状態でしか物体の観測を行うことができない場合。 雨、雪、霧、発煙などの要因で視程の低下が発生し、
全体または遠方の対象物体が観測できないか、または観
測できても観測精度が著しく低下する場合。 監視領域の一部に、対象物体を隠蔽するような構造物
などが含まれており、常にその付近での対象物体の正確
な形状の観測ができない場合。
A case where the resolution of a target object changes depending on the distance from an imaging means in a monitoring space having a depth. When a plurality of target objects are overlapped or the object can be observed only in a partially overlapping state. Rain, snow, fog, smoke, and other factors can reduce visibility,
When the whole or distant target object cannot be observed, or even if it can be observed, the observation accuracy is significantly reduced. When a part of the monitoring area includes a structure that conceals the target object, and it is not always possible to observe the exact shape of the target object in the vicinity.

【0005】撮像手段の前面に飛来物や虫などの視野
障害となるものが付着しているため、常に画面の全部ま
たは一部が隠れている場合。 画像が伝送されたもので、回線状況により画像の乱れ
が発生したり、監視画像が写っていない場合。 また、これ以外にも、撮像した画像自体が何らかの原因
で処理することのできる画質に達していないような場合
についても同様の問題が発生する。本発明では、これら
の場合について、計測精度の低下の発生を防ぎ、総合的
な監視性能を向上させることを目的とする。
[0005] In the case where all or a part of the screen is always hidden due to an obstruction such as a flying object or an insect attached to the front surface of the imaging means. When the image is transmitted and the image is distorted due to the line condition or the monitoring image is not shown. In addition, a similar problem occurs in a case where the captured image itself does not reach an image quality that can be processed for some reason. An object of the present invention is to prevent a decrease in measurement accuracy from occurring in these cases and improve overall monitoring performance.

【0006】[0006]

【課題を解決するための手段】本発明では、被監視空
間、監視対象物体、撮像手段について、予め次のような
モデルを作成する。 被監視空間のおおまかな面構造や構造物配置を示す三
次元シーンモデル。 撮像手段と被監視空間との位置関係、撮像手段の画角
によって決定する二次元・三次元相互変換手段。 監視対象物体の三次元形状(サイズなど)、運動モデル
(対象物体の存在領域の拘束条件や速度、加速度範囲な
ど)。
According to the present invention, the following models are created in advance for the monitored space, the monitored object, and the imaging means. A three-dimensional scene model showing the rough surface structure and structure layout of the monitored space. Two-dimensional / three-dimensional mutual conversion means determined by the positional relationship between the imaging means and the monitored space and the angle of view of the imaging means. 3D shape (size, etc.) and motion model of the monitored object
(Restriction conditions, speed, acceleration range, etc. of the area where the target object exists).

【0007】次に、被監視空間の画像と三次元シーンモ
デルを比較し、視程の判断を行い、以後の監視対象物体
抽出・追跡が可能であるかどうかを判断する。視程につ
いて、被監視空間全体が良好であるか、遠方などに部分
的に不良な部分があるか、全体について不良であるかの
いずれであるかを判断し、視野全体について不良である
と判断された場合は、以下の処理は行わず、視程判断を
繰り返し、視程不良を監視結果として出力する。
Next, the image of the monitored space is compared with the three-dimensional scene model, the visibility is determined, and it is determined whether subsequent monitoring target object extraction / tracking is possible. For the visibility, it is determined whether the entire monitored space is good, there is a partially defective part in a distant place, or the whole is defective, and it is determined that the entire visual field is defective. In this case, the following processing is not performed, the visibility determination is repeated, and a visibility failure is output as a monitoring result.

【0008】ここで、部分的に不良、または全体に良好
と判断された場合は、画像中から監視対象物体の三次元
形状モデルと比較して監視対象物体を抽出する。画像上
の物体抽出位置(2次元座標)を2D・3D相互変換手段によ
り、三次元空間内の座標に変換する。単一の撮像手段の
場合は、例えば物体がある面に必ず接しているなどの拘
束条件が必要となる。このような拘束条件も対象物体運
動モデルに含まれる。三次元シーンモデル中の物体抽出
位置に対象物体形状モデルを配置して2D・3D相互変換手
段により、対象物体を撮像面に投影した画像を作成し、
原画像から抽出した特徴量と、モデル上での特徴量とを
比較し、比較結果を物体抽出・追跡の信頼性とする。
If it is determined that the object is partially defective or overall good, the monitored object is extracted from the image by comparing it with the three-dimensional model of the monitored object. The object extraction position (two-dimensional coordinates) on the image is converted into coordinates in a three-dimensional space by the 2D / 3D mutual conversion means. In the case of a single imaging means, for example, a constraint condition that an object is always in contact with a certain surface is required. Such a constraint condition is also included in the target object motion model. By placing the target object shape model at the object extraction position in the three-dimensional scene model and creating an image of the target object projected on the imaging surface by 2D / 3D mutual conversion means,
The feature amount extracted from the original image is compared with the feature amount on the model, and the comparison result is used as the reliability of object extraction and tracking.

【0009】さらに算出された信頼性の評価を行い、評
価の結果、信頼性が低いと判断された結果については、
出力結果への寄与を低くする。また、撮像手段から遠方
の位置にあるために、対象物体が小さくしか見えず、解
像度が低下しているような場合は、画像上での1画素の
差であっても三次元空間上で特徴量の大きな差に変換さ
れるため、結果の信頼性が低いことを検知できる。さら
に、複数の物体が重複して撮像されている場合でも、物
体抽出結果と抽出位置に三次元モデルを配置した場合の
特徴量を比較すると、物体が完全に隠れている場合を除
き、特徴量の変化の有無により重複しているかどうかを
判断することができる。
Further, the calculated reliability is evaluated. As a result of the evaluation, if the result is judged to be low in reliability,
Reduce contribution to output results. In addition, when the target object can be seen only small and the resolution is reduced because the target object is located far from the image pickup means, even if the difference is one pixel on the image, the target object is characterized in the three-dimensional space. Since the result is converted into a large difference, it is possible to detect that the result is unreliable. Furthermore, even when a plurality of objects are imaged in an overlapping manner, when the object extraction result is compared with the feature amount when the 3D model is arranged at the extraction position, the feature amount is obtained except when the object is completely hidden. Can be determined based on the presence or absence of the change.

【0010】また、視程が部分的に不良であると判断さ
れた場合は、視程不良部分での抽出結果の信頼性を低く
することで、この部分の抽出結果の全体への影響を減ら
すことができる。さらにまた、監視領域内に監視対象物
体を隠すような構造物や木などがある場合、これを三次
元シーンモデルに加えることによって、画面内の特定領
域での抽出結果の信頼性を低くし、この領域での抽出結
果が全体へ及ぼす影響を減らすことができる。
When it is determined that the visibility is partially poor, it is possible to reduce the influence of the extraction result of this portion on the entirety by lowering the reliability of the extraction result at the poor visibility portion. it can. Furthermore, when there is a structure or a tree that hides the monitoring target object in the monitoring area, by adding this to the three-dimensional scene model, the reliability of the extraction result in a specific area on the screen is reduced, The effect of the extraction result in this area on the whole can be reduced.

【0011】[0011]

【発明の実施の形態】以下、図に沿って本発明の実施形
態を説明する。図1は請求項1の発明の実施形態を示す
ブロック図である。図において、1は被監視空間、2は
撮像手段、3はA/D変換手段、4は画像メモリ、6は変
化特徴量抽出手段、7は対象物体抽出・追跡手段、8は
2D/3D変換手段、8'は3D/2D変換手段、9は信頼性算出
手段、10は監視結果出力手段を示す。11は三次元シーン
モデル、12は対象物体モデルであり、対象物体モデル12
には三次元形状モデル13、三次元運動モデル14が含まれ
る。15は三次元監視空間モデルである。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of the present invention will be described below with reference to the drawings. FIG. 1 is a block diagram showing an embodiment of the present invention. In the figure, 1 is a monitored space, 2 is an imaging unit, 3 is an A / D conversion unit, 4 is an image memory, 6 is a change feature amount extraction unit, 7 is a target object extraction and tracking unit, 8 is
2D / 3D conversion means, 8 'is 3D / 2D conversion means, 9 is reliability calculation means, and 10 is monitoring result output means. 11 is a three-dimensional scene model, 12 is a target object model, and the target object model 12
Includes a three-dimensional shape model 13 and a three-dimensional motion model 14. Reference numeral 15 denotes a three-dimensional surveillance space model.

【0012】撮像手段2は被監視空間1の画像を入力
し、その視野内での対象物体の有無、または、移動を監
視している。この実施形態では、予め、三次元シーンモ
デル11、対象物体モデル12が作成される。三次元シーン
モデル11は、被監視空間1のおおまかな面構造や構造物
の形状、位置、相対位置関係に関する情報を持つ。この
三次元シーンモデル11を使用して、特定の視点から見た
被監視空間1の画像を再構成できる。
An imaging means 2 receives an image of the monitored space 1 and monitors the presence or absence or movement of a target object within its field of view. In this embodiment, a three-dimensional scene model 11 and a target object model 12 are created in advance. The three-dimensional scene model 11 has information on the rough surface structure of the monitored space 1 and the shape, position, and relative positional relationship of the structure. Using the three-dimensional scene model 11, an image of the monitored space 1 viewed from a specific viewpoint can be reconstructed.

【0013】図2に道路を被監視空間1とした三次元シ
ーンモデル11の例を示す。図の(a)は、シーンを真上か
ら見たモデルを示し、道路面の傾き、カーブ、道路幅、
白線間隔、歩道橋の位置、幅、高さ、歩道に植えられて
いる木の高さとその間隔、道路に面した建物のサイズな
どがモデルに含まれる。図の(b)はモデルを横から見た
状態を示している。
FIG. 2 shows an example of a three-dimensional scene model 11 in which a road is a monitored space 1. (A) of the figure shows a model in which the scene is viewed from directly above, where the inclination of the road surface, the curve, the road width,
Models include white line spacing, pedestrian bridge location, width, height, height and spacing of trees planted on the sidewalk, and the size of buildings facing the road. (B) of the figure has shown the state which looked at the model from the side.

【0014】2D・3D変換手段としては、2D/3D変換手段
8と3D/2D変換手段8'があり、2D/3D変換手段8は、
撮像手段2により得られた二次元画像上の座標やサイズ
を三次元座標やサイズに変換する。すなわち、2D/3D変
換手段8は被監視空間1と撮像手段2との位置関係、レ
ンズの焦点距離により、画面上の座標やサイズを物体が
ある面に必ず接しているなどの一定の拘束条件のもとで
三次元被監視空間上の座標、サイズに変換する。また、
3D/2D変換手段8'は、三次元シーンモデル11上に対象物
体の三次元形状モデルが配置されている三次元監視空間
モデル15を撮像手段2の位置から見た二次元画像に変換
する。すなわち、3D/2D変換手段8'は三次元空間内の座
標やサイズを二次元画像内に投影する。
The 2D / 3D conversion means includes a 2D / 3D conversion means 8 and a 3D / 2D conversion means 8 '.
The coordinates and size on the two-dimensional image obtained by the imaging means 2 are converted into three-dimensional coordinates and size. In other words, the 2D / 3D conversion means 8 uses the positional relationship between the monitored space 1 and the imaging means 2 and the fixed distance conditions such that the coordinates and size on the screen are always in contact with the surface on which the object is located, depending on the focal length of the lens. Is converted into coordinates and size in the three-dimensional monitored space under Also,
The 3D / 2D conversion means 8 ′ converts the three-dimensional monitoring space model 15 in which the three-dimensional shape model of the target object is arranged on the three-dimensional scene model 11 into a two-dimensional image viewed from the position of the imaging means 2. That is, the 3D / 2D conversion means 8 'projects coordinates and sizes in a three-dimensional space into a two-dimensional image.

【0015】図3は変換手段の例を示す。対象物体が地
面(水平面)に拘束されるという条件を用いて物体の位置
を2次元座標から3次元座標へと変換している。図4は
三次元形状モデル13の例を示す。この三次元形状モデル
13は監視対象物体の実サイズや形状を表わすモデルであ
る。この図の(a)、(b)とも、監視対象物体である車両
を直方体で近似し、幅、奥行き、高さを持つモデルを作
成している。
FIG. 3 shows an example of the conversion means. The position of the object is converted from two-dimensional coordinates to three-dimensional coordinates using a condition that the target object is constrained to the ground (horizontal plane). FIG. 4 shows an example of the three-dimensional shape model 13. This three-dimensional shape model
Reference numeral 13 denotes a model representing the actual size and shape of the monitoring target object. In each of (a) and (b) of this figure, a vehicle having a width, depth, and height is created by approximating a vehicle to be monitored as a rectangular parallelepiped.

【0016】図5は三次元運動モデル14の例を示す。運
動モデル14は対象物体の代表位置と角度の変化として記
述される。例としてあげた道路を走る車両の場合は、道
路面への拘束、道路車線方向への運動、車両としての速
度、加速度の範囲などで運動モデルを表わす。
FIG. 5 shows an example of the three-dimensional motion model 14. The motion model 14 is described as a change in the representative position and angle of the target object. In the case of a vehicle running on a road as an example, a motion model is represented by a constraint on a road surface, a motion in the direction of a road lane, a range of speed and acceleration as a vehicle, and the like.

【0017】次に、この実施形態の動作を図1にもとづ
いて説明する。先ず、撮像手段2に入力された被監視空
間1の画像は、A/D変換手段3を経て、画像メモリ4に
一旦格納され、変化特徴量抽出手段6により変化領域が
抽出される。対象物体抽出・追跡手段7では、予め作成
してある各モデル11〜14と前時刻までの追跡結果や、信
頼性を参照しながら、画像上での対象物体の位置、姿勢
を抽出する。2D/3D変換手段8では、抽出した画像上の
位置・姿勢を三次元位置・姿勢に変換する。
Next, the operation of this embodiment will be described with reference to FIG. First, the image of the monitored space 1 input to the imaging unit 2 is temporarily stored in the image memory 4 via the A / D conversion unit 3, and the change area is extracted by the change feature amount extraction unit 6. The target object extraction / tracking means 7 extracts the position and orientation of the target object on the image while referring to the previously created models 11 to 14 and the tracking results up to the previous time and the reliability. The 2D / 3D conversion means 8 converts the position / posture on the extracted image into a three-dimensional position / posture.

【0018】信頼性算出手段9では、抽出された物体の
三次元シーンモデル11上での位置などに従って、抽出さ
れた物体情報がどの程度の信頼性を持つかを算出する。
たとえば、撮像手段2から遠くにある物体、構造物の影
に一部が隠れているような物体、複数の対象物体が重な
っているような場合は信頼性は低下する。監視結果出力
手段10は信頼性算出手段9から出力された物体の信頼性
を加味して監視結果を出力する。また、この信頼性は、
対象物体抽出・追跡手段7にもフィードバックされる。
The reliability calculating means 9 calculates the degree of reliability of the extracted object information according to the position of the extracted object on the three-dimensional scene model 11 and the like.
For example, if the object is far from the imaging unit 2, the object is partially hidden by the shadow of the structure, or if a plurality of target objects overlap, the reliability is reduced. The monitoring result output means 10 outputs a monitoring result in consideration of the reliability of the object output from the reliability calculating means 9. Also, this reliability is
It is also fed back to the target object extraction / tracking means 7.

【0019】次に、請求項2の発明に係る信頼性算出手
段について説明する。この実施形態では、図1の信頼性
算出手段9において、画像上で抽出された対象物体の位
置・姿勢を用い、三次元モデル上での位置に対象物体の
三次元形状モデルを抽出された姿勢で配置し、そのモデ
ルを撮像位置・角度から見た二次元画像に射影変換し、
次にモデルが理想的に観測された場合の特徴量と、実際
の監視画像から抽出された対象物体の特徴量との比較を
行い、その差異の程度をその時刻における対象物体の信
頼性とする。
Next, the reliability calculating means according to the second aspect of the present invention will be described. In this embodiment, the reliability calculation means 9 of FIG. 1 uses the position / posture of the target object extracted on the image, and the position where the three-dimensional model of the target object is extracted at the position on the three-dimensional model. The model is projected and transformed into a two-dimensional image viewed from the imaging position and angle,
Next, the feature value of the model when it is ideally observed and the feature value of the target object extracted from the actual monitoring image are compared, and the degree of the difference is regarded as the reliability of the target object at that time. .

【0020】ここで図6を用いて請求項2の発明に係る
実施形態について説明する。図の(a)は撮像手段2によ
る監視画像である。この画像から、画像処理により対象
物体として四角で囲んだ4台の車両が抽出され、それぞ
れの車両の位置・姿勢が検出される。画像から抽出され
た2次元のデータは、対象物体の運動モデルに含まれる
面への拘束条件を使用して、2D/3D変換手段8により、
三次元に変換することができる。(b)は対象物体の三次
元形状モデル13である。ここでは車両のモデルとして普
通車相当の幅、高さ、奥行きを持つ直方体を使用してい
る。
Here, an embodiment according to the second aspect of the present invention will be described with reference to FIG. (A) of the figure is a monitoring image by the imaging means 2. From this image, four vehicles surrounded by a square are extracted as target objects by image processing, and the position and orientation of each vehicle are detected. The two-dimensional data extracted from the image is converted by the 2D / 3D conversion means 8 by using a constraint condition on a plane included in the motion model of the target object.
Can be converted to three dimensions. (b) is a three-dimensional shape model 13 of the target object. Here, a rectangular parallelepiped having a width, height, and depth equivalent to that of an ordinary vehicle is used as a vehicle model.

【0021】(c)は被監視空間1の三次元シーンモデル
11を示す。この図では三次元シーンモデル11上の対象物
体抽出位置に(b)の三次元形状モデル13を配置してい
る。この図は三次元モデルを真上から見たところである
が、撮像手段2の位置・姿勢と画角を指定して、3D/2D
変換手段8'を作用させることにより、監視画像とほぼ
同等の視野を得ることができる。この結果が(d)の三次
元モデルの撮像位置からの視野である。この画像から算
出した対象物体の特徴量と実際の監視画像から抽出した
特徴量を比較し、対象物体の信頼性を算出する。
(C) is a three-dimensional scene model of the monitored space 1
11 is shown. In this figure, the three-dimensional shape model 13 of (b) is arranged at the target object extraction position on the three-dimensional scene model 11. In this figure, the three-dimensional model is seen from directly above, and the 3D / 2D
By applying the converting means 8 ', it is possible to obtain a field of view substantially equivalent to the monitoring image. The result is the field of view from the imaging position of the three-dimensional model in (d). The feature amount of the target object calculated from this image is compared with the feature amount extracted from the actual monitoring image, and the reliability of the target object is calculated.

【0022】次に、請求項3の発明に係る信頼性算出手
段について説明する。この実施形態では、複数の対象物
体が接近しているため、重複した状態でしか観測できな
いような場合に対処するものである。まず、個別の対象
物体三次元形状モデルを用いて物体抽出を行うが、複数
の物体が重複している場合、この方法では物体を抽出す
ることはできない場合がある。しかし、このような場合
でも、被監視空間1内に何らかの物体があることは検知
可能である。
Next, the reliability calculating means according to the third aspect of the present invention will be described. This embodiment addresses a case where a plurality of target objects are close to each other and can be observed only in an overlapping state. First, an object is extracted using an individual target object three-dimensional shape model. However, if a plurality of objects overlap, the object may not be extracted by this method. However, even in such a case, it is possible to detect that there is any object in the monitored space 1.

【0023】対象物体の重複方法がある程度決まってい
るような場合、三次元シーンモデル11上に三次元形状モ
デル13を重複した状態で配置したモデルを、撮像位置・
姿勢から見た二次元画像に射影変換し、モデルが理想的
に観測された場合の特徴量と、実際の監視画像から抽出
された特徴量との比較を行い、これらが一定の誤差範囲
内にあれば、重複した状態での対象物体抽出を行う。さ
らに、物体の重複の度合いにより、信頼性を算出・評価
する。
When the method of overlapping the target objects is determined to some extent, a model in which the three-dimensional shape model 13 is arranged in an overlapping state on the three-dimensional scene model 11
Projection transformation to a two-dimensional image viewed from the posture is performed, and the feature amount when the model is ideally observed is compared with the feature amount extracted from the actual monitoring image, and these are within a certain error range If there is, the target object is extracted in an overlapping state. Further, the reliability is calculated and evaluated based on the degree of overlapping of the objects.

【0024】ここで図7を用いて請求項3の発明に係る
実施形態について説明する。図の(a)は監視画像と重複
した対象物体を物体領域として抽出した画像である。四
辺形によって囲まれた部分が物体領域である。(b)は複
数の対象物体を組み合わせた三次元対象物体モデルであ
る。(c)は三次元シーンモデル上に(b)の重複した三次
元形状モデルを配置したモデルを示す。
Here, an embodiment according to the third aspect of the present invention will be described with reference to FIG. (A) of the figure is an image in which a target object overlapping a monitoring image is extracted as an object region. The part surrounded by the quadrilateral is the object area. (b) is a three-dimensional target object model obtained by combining a plurality of target objects. (c) shows a model in which the overlapped three-dimensional model of (b) is arranged on a three-dimensional scene model.

【0025】このモデルを撮像手段2の位置・角度とレ
ンズの焦点距離(画角)を指定して、3D/2D変換手段8'を
作用させることにより、監視画像とほぼ同等の視野を得
ることができる。(d)はこのようにして得られた三次元
モデルの視野である。なお、三次元モデルの重複の仕
方、配列方法は対象物体により何通りか持っておくもの
とする。(d)の画像から算出する重複物体の特徴量と
(a)の監視画像から抽出した物体領域の特徴量が一定の
誤差範囲以内にある場合、重複した物体を抽出すること
ができる。
By specifying the position and angle of the image pickup means 2 and the focal length (angle of view) of the lens and operating the 3D / 2D conversion means 8 ′, this model can obtain a field of view substantially equivalent to the surveillance image. Can be. (d) is the field of view of the three-dimensional model obtained in this way. Here, it is assumed that the overlapping method and the arrangement method of the three-dimensional model are severally set depending on the target object. (d) the feature amount of the overlapping object calculated from the image and
When the feature amount of the object region extracted from the monitoring image in (a) is within a certain error range, a duplicate object can be extracted.

【0026】次に、請求項4の発明に係る信頼性算出手
段について説明する。この実施形態では、対象物体が構
造物などの陰に隠れて、その一部分しか観測できないよ
うな場合に、対象物体が抽出された位置・姿勢を2D/3D
変換し、三次元シーンモデル中の物体抽出位置に三次元
形状モデルを配置したモデルを撮像手段の位置・姿勢と
レンズの焦点距離(画角)を指定して、3D/2D変換手段8'
を作用させ、監視映像とほぼ同等の視野を得、モデル上
での物体にどの程度の隠れが発生している可能性がある
かを求め、それをもとに対象物体抽出の信頼性を算出・
評価する。
Next, a description will be given of the reliability calculating means according to the fourth aspect of the present invention. In this embodiment, when the target object is hidden behind a structure or the like and only a part of the target object can be observed, the position / posture at which the target object is extracted is represented by 2D / 3D.
Convert the model in which the three-dimensional shape model is placed at the object extraction position in the three-dimensional scene model by specifying the position and orientation of the imaging means and the focal length (angle of view) of the lens, and convert the model into 3D / 2D conversion means 8 '.
To obtain a field of view almost equivalent to that of the surveillance video, determine how much occlusion is possible in the object on the model, and calculate the reliability of target object extraction based on that・
evaluate.

【0027】ここで図8を用いて請求項4の発明に係る
実施形態について説明する。図の(a)は監視画像とその
上で抽出された対象物体を示す。四角の囲いの中が抽出
された対象物体を示す。(b)は三次元形状モデルであ
る。(c)は三次元シーンモデルで、3D変換した物体位置
に(b)の三次元形状モデルを配置してある。(d)は(c)
の三次元シーンモデルを撮像手段2の位置・姿勢とレン
ズの焦点距離(画角)によって3D/2D変換して、監視映像
と同等の視野を得たものである。またここでは道路にか
かる歩道橋が障害物になり、その下を通過する車両の一
部が隠れているので、その部分について物体抽出の信頼
性が低下する。
Here, an embodiment according to the fourth aspect of the present invention will be described with reference to FIG. (A) of the figure shows the monitoring image and the target object extracted on it. The inside of a square box indicates the extracted target object. (b) is a three-dimensional shape model. (c) is a three-dimensional scene model in which the three-dimensional shape model of (b) is arranged at the position of the object subjected to 3D conversion. (d) is (c)
3D / 2D conversion of the three-dimensional scene model according to the position / posture of the imaging means 2 and the focal length (angle of view) of the lens, to obtain a field of view equivalent to the surveillance video. Further, here, the pedestrian bridge over the road becomes an obstacle, and a part of the vehicle passing under the pedestrian bridge is hidden, so that the reliability of object extraction for that part is reduced.

【0028】次に、請求項5の発明の実施形態について
説明する。図9はこの実施形態の構成を示すブロック図
である。図において、1は被監視空間、2は撮像手段、
3はA/D変換手段、4は画像メモリ、5は視程判断手
段、6は変化特徴量抽出手段、7は対象物体抽出・追跡
手段、8は2D/3D変換手段、8'は3D/2D変換手段、9は信
頼性算出手段、10は監視結果出力手段を示す。11は三次
元シーンモデル、12は対象物体モデルであり、対象物体
モデル12には対象物体形状モデル13、三次元運動モデル
14が含まれる。15は三次元監視空間モデルである。
Next, an embodiment of the present invention will be described. FIG. 9 is a block diagram showing the configuration of this embodiment. In the figure, 1 is a monitored space, 2 is an imaging means,
3 is A / D conversion means, 4 is image memory, 5 is visibility judgment means, 6 is change feature amount extraction means, 7 is target object extraction and tracking means, 8 is 2D / 3D conversion means, 8 'is 3D / 2D. Conversion means, 9 indicates reliability calculation means, and 10 indicates monitoring result output means. 11 is a three-dimensional scene model, 12 is a target object model, the target object model 12 is a target object shape model 13, a three-dimensional motion model
14 is included. Reference numeral 15 denotes a three-dimensional surveillance space model.

【0029】次に、この実施形態の動作を図9にもとづ
いて説明する。被監視空間1は、撮像手段2により撮像
されて、A/D変換手段3を経て、画像メモリ4に一旦格
納される。次いで視程判断手段5が、画像メモリ4に格
納された監視画像を処理して、十分な視程が確保されて
いるかどうかを判断する。また、特徴量抽出手段6で
は、物体領域らしい部分の特徴量を抽出する。対象物体
抽出・追跡手段7では、予め作成してある各モデル11〜
14と前時刻までの物体抽出結果、信頼性を参照しなが
ら、画像上での対象物体の位置・姿勢を抽出する。2D/3
D変換手段8では、抽出した画像上の位置・姿勢を三次
元シーンモデル中の位置・姿勢に変換する。
Next, the operation of this embodiment will be described with reference to FIG. The monitored space 1 is imaged by the imaging means 2, and is temporarily stored in the image memory 4 via the A / D conversion means 3. Next, the visibility determining means 5 processes the monitoring image stored in the image memory 4 to determine whether a sufficient visibility is secured. In addition, the characteristic amount extracting means 6 extracts a characteristic amount of a portion which seems to be an object region. In the target object extraction / tracking means 7, each of the models 11 to
The position and orientation of the target object on the image are extracted by referring to the object extraction results up to 14 and the previous time and the reliability. 2D / 3
The D conversion means 8 converts the position / posture on the extracted image into the position / posture in the three-dimensional scene model.

【0030】信頼性算出手段9では、抽出された物体の
シーンモデル上での位置やその時の視程から、抽出され
た物体情報がどの程度の信頼性を持つかを算出する。た
とえば、全体的な視程が確保されていない場合、撮像手
段2から遠くにある物体、構造物の影に一部が隠れてい
るような物体、複数の対象物体が重なっているような場
合は信頼性は低下する。算出された信頼性は、監視結果
出力手段10へ送られるとともに、対象物体抽出・追跡手
段7にフィードバックされる。監視結果出力手段10は評
価された信頼性に従って監視情報を出力する。
The reliability calculating means 9 calculates the degree of reliability of the extracted object information from the position of the extracted object on the scene model and the visibility at that time. For example, when the overall visibility is not ensured, an object that is far from the imaging unit 2, an object that is partially hidden by the shadow of a structure, and a case where a plurality of target objects are overlapped are reliable. Sex is reduced. The calculated reliability is sent to the monitoring result output means 10 and is fed back to the target object extracting / tracking means 7. The monitoring result output means 10 outputs monitoring information according to the evaluated reliability.

【0031】次に、請求項6の発明に係る視程判定手段
を図10にもとづいて説明する。ここでは、物体が存在し
ない場合の背景画像から物体の角などの特徴点P1〜Pnを
抽出しておき、監視画像から同様の方法で特徴点を抽出
し、一致する特徴点の割合から視程を判定する。特徴点
はなるべく対象物体が存在しても隠れないような位置に
ある点を選択する。図10の(a)は視程良好な場合の監視
画像とそこから抽出した特徴点の例である。図では、セ
ンターラインの白線の端を特徴点として検出している。
Next, the visibility determining means according to the sixth aspect of the present invention will be described with reference to FIG. Here, feature points P1 to Pn such as corners of the object are extracted from the background image when no object is present, feature points are extracted from the monitoring image in the same manner, and the visibility is determined from the ratio of the matching feature points. judge. As a feature point, a point at a position where it is not hidden even if the target object exists is selected as much as possible. FIG. 10A shows an example of a monitoring image when visibility is good and feature points extracted therefrom. In the figure, the end of the white line of the center line is detected as a feature point.

【0032】(b)は視程参照用の画像と特徴点の例であ
る。(a)と(b)ではP1〜P5の特徴点が一致するので、視
程良好と判断できる。一方、(c)は霧などで画面全体が
かすんでいるような場合の監視画像とそこから抽出した
特徴点の例である。近くの特徴点P1,P2は検出できてい
るが、遠くの特徴点ははっきりせず、検出することがで
きていない。このような場合は遠方での視程不良とな
り、遠方で抽出された対象物体の信頼性は低くなる。
FIG. 3B shows an example of an image for viewing reference and feature points. In (a) and (b), the feature points P1 to P5 match, so that it can be determined that the visibility is good. On the other hand, (c) is an example of a monitoring image in the case where the entire screen is hazy due to fog or the like and feature points extracted therefrom. Near feature points P1 and P2 can be detected, but far feature points are not clear and cannot be detected. In such a case, visibility becomes poor at a distant place, and the reliability of the target object extracted at a distant place becomes low.

【0033】次に、請求項7の発明に係る視程判定手段
を図11にもとづいて説明する。図の(a)は視程良好な場
合の監視画像のエッジ強度分布画像である。白い部分が
エッジ強度の強いことを示す。図では道路の白線や植木
の境界のエッジが出ている。(b)は視程参照用のエッジ
強度分布である。(a)と(b)では車両部分を除いて、ほ
どんどのエッジ部分が重複するので、視程良好と判断で
きる。(c)は視程不良の場合の監視画像の例である。
(d)は(c)の画像のエッジ強度分布を示す。ここではエ
ッジが出ているが、その強度は(b)と比較するとはるか
に弱く、全体的に視程が低下していることがわかる。こ
のような場合も、抽出された対象物体の信頼性は低下す
る。
Next, the visibility determining means according to the seventh aspect of the present invention will be described with reference to FIG. (A) of the figure is an edge intensity distribution image of the monitoring image when visibility is good. A white portion indicates that the edge strength is high. In the figure, the white line of the road and the edge of the border of the tree plant appear. (b) is an edge intensity distribution for visibility reference. In (a) and (b), most of the edge portions overlap except for the vehicle portion, so that it can be determined that the visibility is good. (c) is an example of a monitoring image in the case of poor visibility.
(d) shows the edge intensity distribution of the image of (c). Here, an edge is present, but the intensity is much weaker than that of (b), indicating that the visibility is reduced as a whole. Also in such a case, the reliability of the extracted target object is reduced.

【0034】次に、請求項8の発明に係る視程判定手段
を図12にもとづいて説明する。図の(a)は監視画像とそ
の中で、比較的対象物体の存在によって影響を受け難い
いくつかの領域とその色分布を示す。色分布はR,G,
Bの比率で表しても、H,S,V形式で表してもよい。
四角で囲まれた領域毎に色分布を求め、(b)の視程参照
用画像の同じ領域の色分布と比較する。(c)のように発
煙や霧が発生し、視程が低下している場合には、特定領
域内の色も視程参照用画像と比べて、白っぽく変化して
いることから、視程の低下を検知することができる。
Next, the visibility determining means according to the invention of claim 8 will be described with reference to FIG. (A) of the figure shows a monitor image, some regions in the monitor image which are relatively unaffected by the presence of the target object, and their color distributions. The color distribution is R, G,
It may be expressed in the ratio of B or in H, S, V format.
The color distribution is obtained for each region surrounded by the square, and is compared with the color distribution of the same region of the visibility reference image in (b). When smoke or fog is generated and visibility is reduced as in (c), since the color in the specific area is also whitish compared to the visibility reference image, the reduction in visibility is detected. can do.

【0035】次に、請求項9の発明に係る視程判定手段
を図13にもとづいて説明する。図の(a)は監視画像、
(b)は視程参照用テンプレートの一例である。図示例で
は画面中ほどに見える速度標識をテンプレートとして、
濃淡マッチングを行う。ここで監視画像をI(x,y),x=1,
2,・・・,X、y=1,2,・・・,Yとして、テンプレート画
像をT(u,v),u=1,2,・・・,U、v=1,2,・・・,Vとす
る。i=0,1,・・・,x−u、j=0,1,・・・,y−vまで変化
させて、類似度S(i,j)が最大値となる(i,j)がマッチン
グ位置、その時のS(i,j)の値を一致度とすると、一致度
S(i,j)は次式で表される。
Next, the visibility determining means according to the ninth aspect of the present invention will be described with reference to FIG. (A) of the figure is a monitoring image,
(b) is an example of a visibility reference template. In the example shown, the speed sign that appears in the middle of the screen is used as a template,
Perform shading matching. Here, the surveillance image is defined as I (x, y), x = 1,
X, y = 1, 2,..., Y, and the template images are T (u, v), u = 1, 2,..., U, v = 1, 2,. ···, V , x−u, j = 0, 1,..., y−v, and the similarity S (i, j) becomes the maximum value (i, j) Is the matching position, and the value of S (i, j) at that time is the matching degree.
S (i, j) is represented by the following equation.

【0036】[0036]

【数1】 (Equation 1)

【0037】この式により一致度を求めると、(a)の監
視画像内で四角で囲まれた部分でテンプレートとの一致
度が最大になったことを示す。一方、(c)のように視程
が低下している場合はマッチングした位置が異なってい
たり、位置は一致していても一致度が低いという結果に
なるので、視程の低下を検知できる。
When the degree of coincidence is obtained from this equation, it is shown that the degree of coincidence with the template is maximized in a portion surrounded by a square in the monitoring image of (a). On the other hand, if the visibility is reduced as in (c), the matching position is different, or even if the positions match, the result is that the degree of coincidence is low, so that a reduction in visibility can be detected.

【0038】[0038]

【発明の効果】以上述べたように本発明によれば、計測
精度を低下させる各種原因がある場合であっても、計測
精度の低下が防がれる。また監視結果に信頼性を付加し
たことにより、総合的な監視性能が向上する。
As described above, according to the present invention, a decrease in measurement accuracy can be prevented even when there are various causes for reducing measurement accuracy. Also, by adding reliability to the monitoring result, the overall monitoring performance is improved.

【図面の簡単な説明】[Brief description of the drawings]

【図1】請求項1の発明に係る実施形態の構成を示すブ
ロック図である。
FIG. 1 is a block diagram showing a configuration of an embodiment according to the first aspect of the present invention.

【図2】図1の三次元シーンモデルの例を示す図であ
る。
FIG. 2 is a diagram illustrating an example of the three-dimensional scene model in FIG. 1;

【図3】図1の2D/3D変換手段を示す図である。FIG. 3 is a diagram showing a 2D / 3D conversion unit of FIG. 1;

【図4】図1の三次元形状モデルの例を示す図である。FIG. 4 is a diagram showing an example of the three-dimensional shape model of FIG.

【図5】図1の三次元運動モデルの例を示す図である。FIG. 5 is a diagram showing an example of the three-dimensional motion model of FIG. 1;

【図6】請求項2の発明に係る実施形態を示す図であ
る。
FIG. 6 is a diagram showing an embodiment according to the invention of claim 2;

【図7】請求項3の発明に係る実施形態を示す図であ
る。
FIG. 7 is a diagram showing an embodiment according to the third invention.

【図8】請求項4の発明に係る実施形態を示す図であ
る。
FIG. 8 is a diagram showing an embodiment according to the invention of claim 4;

【図9】請求項5の発明に係る実施形態の構成を示すブ
ロック図である。
FIG. 9 is a block diagram showing a configuration of an embodiment according to the invention of claim 5;

【図10】請求項6の発明に係る実施形態を示す図であ
る。
FIG. 10 is a diagram showing an embodiment according to the invention of claim 6;

【図11】請求項7の発明に係る実施形態を示す図であ
る。
FIG. 11 is a view showing an embodiment according to the invention of claim 7;

【図12】請求項8の発明に係る実施形態を示す図であ
る。
FIG. 12 is a view showing an embodiment according to the invention of claim 8;

【図13】請求項9の発明に係る実施形態を示す図であ
る。
FIG. 13 is a diagram showing an embodiment according to the ninth aspect of the present invention.

【符号の説明】[Explanation of symbols]

1 被監視空間 2 撮像手段 3 A/D変換手段 4 画像メモリ 5 視程判断手段 6 変化特徴量抽出手段 7 対象物体抽出・追跡手段 8 2D/3D変換手段 8' 3D/2D変換手段 9 信頼性算出手段 10 監視結果出力手段 11 三次元シーンモデル 12 対象物体モデル 13 三次元形状モデル 14 三次元運動モデル 15 三次元監視空間モデル DESCRIPTION OF SYMBOLS 1 Monitored space 2 Imaging means 3 A / D conversion means 4 Image memory 5 Visibility judgment means 6 Change feature amount extraction means 7 Target object extraction and tracking means 8 2D / 3D conversion means 8 '3D / 2D conversion means 9 Reliability calculation Means 10 Monitoring result output means 11 3D scene model 12 Target object model 13 3D shape model 14 3D motion model 15 3D monitoring space model

───────────────────────────────────────────────────── フロントページの続き (72)発明者 植草 秀明 東京都日野市富士町1番地 株式会社エ フ・エフ・シー内 (72)発明者 榊原 行良 神奈川県川崎市川崎区田辺新田1番1号 富士電機株式会社内 Fターム(参考) 2F065 AA04 AA53 BB05 FF04 JJ03 QQ24 QQ25 QQ31 RR03 5B057 AA19 BA02 BA11 CD14 DA06 DA11 DB03 DC01 DC16 DC22 DC25 5C054 EB05 FC12 FD03 GA04 GB01 HA18  ──────────────────────────────────────────────────続 き Continued on the front page (72) Inventor Hideaki Uekusa 1st Fuji Town, Hino City, Tokyo Inside FFC Corporation (72) Inventor Yukiyoshi Sakakibara 1st Tanabe Nitta, Kawasaki-ku, Kawasaki City, Kanagawa Prefecture No. 1 Fuji Electric Co., Ltd. F term (reference) 2F065 AA04 AA53 BB05 FF04 JJ03 QQ24 QQ25 QQ31 RR03 5B057 AA19 BA02 BA11 CD14 DA06 DA11 DB03 DC01 DC16 DC22 DC25 5C054 EB05 FC12 FD03 GA04 GB01 HA18

Claims (9)

【特許請求の範囲】[Claims] 【請求項1】 被監視空間を撮像するための撮像手段
と、 被監視空間の面構造および構造物の配置を示す三次元シ
ーンモデルと、 監視対象物体の三次元形状モデルと、 監視空間内での監視対象物体の三次元運動モデルと、 撮像手段と被監視空間との位置関係および対象物体の三
次元運動モデルを用いて入力画像上での二次元情報と被
監視空間内の三次元情報とを相互に変換する相互変換手
段と、 入力画像から被監視空間内の対象物体を抽出して追跡す
る抽出・追跡手段と、 対象物体ごとに得られた抽出・追跡結果についてその信
頼性を算出する信頼性算出手段と、 算出された信頼性を監視結果とともに出力する出力手段
と、 を備えたことを特徴とする画像監視装置。
1. An imaging means for imaging a monitored space, a three-dimensional scene model showing a surface structure of a monitored space and an arrangement of a structure, a three-dimensional shape model of a monitoring target object, and The three-dimensional motion model of the monitored object, the positional relationship between the imaging means and the monitored space, and the two-dimensional information on the input image and the three-dimensional information in the monitored space using the three-dimensional motion model of the target object. Conversion means for mutually converting the object, extraction and tracking means for extracting and tracking the target object in the monitored space from the input image, and calculating the reliability of the extraction and tracking results obtained for each target object An image monitoring apparatus, comprising: a reliability calculation unit; and an output unit that outputs the calculated reliability together with a monitoring result.
【請求項2】 信頼性算出手段として、三次元シーンモ
デル中の対象物体抽出位置に三次元形状モデルを配置
し、これを撮像位置からの視野に投影変換してモデル画
像上の特徴量とし、この特徴量と撮像した画像上の特徴
量とを比較することにより信頼性を算出することを特徴
とする請求項1記載の画像監視装置。
2. A reliability calculation means comprising: arranging a three-dimensional shape model at a target object extraction position in a three-dimensional scene model, projecting the three-dimensional shape model into a field of view from an imaging position to obtain feature amounts on a model image, 2. The image monitoring apparatus according to claim 1, wherein reliability is calculated by comparing the characteristic amount with a characteristic amount on a captured image.
【請求項3】 信頼性算出手段として、三次元シーンモ
デル中から個別に対象物体を抽出することが困難であっ
てかつ重複した対象物体が存在する可能性がある場合
に、対象物体の三次元運動モデルにしたがって三次元シ
ーンモデル上に複数の三次元形状モデルを配置し、これ
を撮像位置からの視野に投影変換してモデル画像上での
複数の物体とし、これらの物体から抽出された特徴量と
実際の監視画像から抽出された特徴量を比較することに
より信頼性を算出することを特徴とする請求項1記載の
画像監視装置。
3. A method for calculating a three-dimensional image of a target object when it is difficult to individually extract the target object from a three-dimensional scene model and there is a possibility that an overlapping target object may exist. According to the motion model, a plurality of three-dimensional shape models are arranged on a three-dimensional scene model, and the three-dimensional shape models are projected and transformed into a field of view from an imaging position to be a plurality of objects on the model image, and features extracted from these objects. 2. The image monitoring apparatus according to claim 1, wherein the reliability is calculated by comparing the amount and a feature amount extracted from an actual monitoring image.
【請求項4】 信頼性算出手段として、構造物などによ
り対象物体が隠されている場合に、三次元シーンモデル
中の対象物体抽出位置に三次元形状モデルを配置し、そ
の対象物体が構造物などにより隠されている程度を用い
て信頼性を算出することを特徴とする請求項1記載の画
像監視装置。
4. When a target object is hidden by a structure or the like, a three-dimensional shape model is arranged at a target object extraction position in a three-dimensional scene model as reliability calculating means, and the target object is a structure object. 2. The image monitoring apparatus according to claim 1, wherein the reliability is calculated by using a degree hidden by the user.
【請求項5】 請求項1記載の画像監視装置において、
監視画像の視程の良否を判定する視程判定手段を備えた
ことを特徴とする画像監視装置。
5. The image monitoring device according to claim 1, wherein
An image monitoring apparatus, comprising: a visibility determination unit that determines whether the visibility of a monitoring image is good.
【請求項6】 視程判定手段として、監視画像上の特徴
点の一致度を使用することを特徴とする請求項5記載の
画像監視装置。
6. The image monitoring apparatus according to claim 5, wherein a degree of coincidence of feature points on the monitoring image is used as the visibility determining means.
【請求項7】 視程判定手段として、監視画像上の特定
領域のエッジ強度分布を使用することを特徴とする請求
項5記載の画像監視装置。
7. The image monitoring apparatus according to claim 5, wherein an edge intensity distribution of a specific area on the monitoring image is used as the visibility determining means.
【請求項8】 視程判定手段として、監視画像の特定領
域の色分布を使用することを特徴とする請求項5記載の
画像監視装置。
8. The image monitoring apparatus according to claim 5, wherein a color distribution of a specific area of the monitoring image is used as the visibility determining means.
【請求項9】 視程判定手段として、特定領域の入力画
像とモデル画像との濃淡マッチングを使用すること特徴
とする請求項5記載の画像監視装置。
9. The image monitoring apparatus according to claim 5, wherein the visibility determining means uses a density matching between the input image of the specific area and the model image.
JP11033024A 1999-02-10 1999-02-10 Image monitor device Withdrawn JP2000231637A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP11033024A JP2000231637A (en) 1999-02-10 1999-02-10 Image monitor device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP11033024A JP2000231637A (en) 1999-02-10 1999-02-10 Image monitor device

Publications (1)

Publication Number Publication Date
JP2000231637A true JP2000231637A (en) 2000-08-22

Family

ID=12375230

Family Applications (1)

Application Number Title Priority Date Filing Date
JP11033024A Withdrawn JP2000231637A (en) 1999-02-10 1999-02-10 Image monitor device

Country Status (1)

Country Link
JP (1) JP2000231637A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002014038A (en) * 2000-06-29 2002-01-18 Koito Ind Ltd Measuring apparatus for visibility status
JP2007195061A (en) * 2006-01-20 2007-08-02 Toyota Motor Corp Image processor
JP2009087316A (en) * 2007-09-11 2009-04-23 Hitachi Ltd Traffic flow measurement system
KR20120032681A (en) * 2010-09-29 2012-04-06 삼성전자주식회사 Method and apparatus for 3d object tracking
US9652850B2 (en) 2012-06-06 2017-05-16 Fujitsu Limited Subject tracking device and subject tracking method

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002014038A (en) * 2000-06-29 2002-01-18 Koito Ind Ltd Measuring apparatus for visibility status
JP2007195061A (en) * 2006-01-20 2007-08-02 Toyota Motor Corp Image processor
JP4696925B2 (en) * 2006-01-20 2011-06-08 トヨタ自動車株式会社 Image processing device
JP2009087316A (en) * 2007-09-11 2009-04-23 Hitachi Ltd Traffic flow measurement system
KR20120032681A (en) * 2010-09-29 2012-04-06 삼성전자주식회사 Method and apparatus for 3d object tracking
KR101706092B1 (en) * 2010-09-29 2017-02-14 삼성전자주식회사 Method and apparatus for 3d object tracking
US9652850B2 (en) 2012-06-06 2017-05-16 Fujitsu Limited Subject tracking device and subject tracking method

Similar Documents

Publication Publication Date Title
US20190356830A1 (en) Image distortion correction of a camera with a rolling shutter
US10602059B2 (en) Method for generating a panoramic image
JP3759429B2 (en) Obstacle detection apparatus and method
US8325979B2 (en) Method and apparatus for detecting objects from terrestrial based mobile mapping data
JP5157067B2 (en) Automatic travel map creation device and automatic travel device.
CN108692719B (en) Object detection device
US20160232410A1 (en) Vehicle speed detection
CN110826499A (en) Object space parameter detection method and device, electronic equipment and storage medium
US20050270286A1 (en) Method and apparatus for classifying an object
JP2004112144A (en) Front car tracking system and method for tracking front car
JP2004117078A (en) Obstacle detection device and method
WO2009061174A1 (en) Method of and arrangement for mapping range sensor data on image sensor data
CN110717445B (en) Front vehicle distance tracking system and method for automatic driving
KR102167835B1 (en) Apparatus and method of processing image
JP4344860B2 (en) Road plan area and obstacle detection method using stereo image
JP5539250B2 (en) Approaching object detection device and approaching object detection method
JP2022045947A5 (en)
CN109886064A (en) Determination can driving space boundary method
WO2020105499A1 (en) Image processing device, image processing method, and program
US20230324167A1 (en) Laser scanner for verifying positioning of components of assemblies
JP4752319B2 (en) Image recognition apparatus and image recognition method
JP2000231637A (en) Image monitor device
JP3605955B2 (en) Vehicle identification device
JP5903901B2 (en) Vehicle position calculation device
JP3556319B2 (en) Distance measuring device

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20060509