JP3288575B2 - Monitoring apparatus using captured image, model creation method thereof, and imaging apparatus control method - Google Patents

Monitoring apparatus using captured image, model creation method thereof, and imaging apparatus control method

Info

Publication number
JP3288575B2
JP3288575B2 JP7292996A JP7292996A JP3288575B2 JP 3288575 B2 JP3288575 B2 JP 3288575B2 JP 7292996 A JP7292996 A JP 7292996A JP 7292996 A JP7292996 A JP 7292996A JP 3288575 B2 JP3288575 B2 JP 3288575B2
Authority
JP
Japan
Prior art keywords
model
imaging
monitoring
monitoring target
partial area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP7292996A
Other languages
Japanese (ja)
Other versions
JPH09261621A (en
Inventor
秀雄 渡部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP7292996A priority Critical patent/JP3288575B2/en
Publication of JPH09261621A publication Critical patent/JPH09261621A/en
Application granted granted Critical
Publication of JP3288575B2 publication Critical patent/JP3288575B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Testing And Monitoring For Control Systems (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】この発明は、工場やプラント
などの現場の様子を撮像装置を用いて撮像して監視作業
者の表示装置に出力し、その撮像画像を監視操作の入力
画面とするようにした撮像画像を用いた監視装置とその
モデル作成方法および撮像装置制御方法に関するもので
ある。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image pickup apparatus for capturing an image of a site such as a factory or a plant using an image pickup device, outputting the image to a monitor operator's display device, and using the picked-up image as an input screen for monitoring operation. The present invention relates to a monitoring device using a captured image, a model creation method thereof, and an imaging device control method.

【0002】[0002]

【従来の技術】図23は例えば、特開平7−31953
6号公報に示された従来の撮像画像を用いた監視装置を
示す構成図であり、図において、1は計算機である。ま
た、2は撮像装置、3は表示装置、4はポインティング
デバイス、5は立体音響システムであり、これらは計算
機1に接続されている。6はマイクロホン、7はヘッド
ホンであり、これらは立体音響システム5に接続されて
いる。
2. Description of the Related Art FIG.
FIG. 6 is a configuration diagram showing a conventional monitoring apparatus using a captured image disclosed in Japanese Patent Application Publication No. 6 (JP-A-6), in which 1 is a computer. Reference numeral 2 denotes an imaging device, 3 denotes a display device, 4 denotes a pointing device, and 5 denotes a stereophonic system, which are connected to the computer 1. Reference numeral 6 denotes a microphone, 7 denotes headphones, and these are connected to the stereophonic sound system 5.

【0003】このように構成された従来の撮像画像を用
いた監視装置による対象物の検出方法は、撮像する撮像
対象の現場の監視対象物の形や配置のモデルを計算機1
上で作成し、表示装置3内の1点を指定すると撮像装置
2のパラメータからその点とモデル内における直線とを
対応させ、その直線と交わるモデル内の対象物を検出す
るようにしたものである。
[0003] The conventional method of detecting an object by the monitoring apparatus using the captured image configured as described above uses a computer 1 that calculates a model of the shape and arrangement of the monitored object at the site of the imaging object to be imaged.
Created above, when one point in the display device 3 is specified, the point is made to correspond to a straight line in the model from the parameters of the imaging device 2, and an object in the model that intersects the straight line is detected. is there.

【0004】次に動作について説明する。この撮像画像
を用いた監視装置は、計算機1により撮像パラメータの
制御が可能な撮像装置2にて撮像された撮像画像を表示
装置3に表示し、監視対象である装置をマウスなどのポ
インティングデバイス4によって直接指示できるように
したものであり、図24はその処理の手順を示すフロー
チャートである。
Next, the operation will be described. The monitoring device using the captured image displays the captured image captured by the imaging device 2 whose imaging parameter can be controlled by the computer 1 on the display device 3, and the monitoring target device is a pointing device 4 such as a mouse. FIG. 24 is a flowchart showing the procedure of the processing.

【0005】まず、ステップST1で処理が開始される
と、ステップST2において監視対象である装置を、撮
像画像が表示されている表示装置3の画面上で当該装置
の位置をポインティングデバイス4などで入力する。次
にステップST3においてその入力位置を検出し、ステ
ップST4でその位置データから撮像対象をモデル化し
た平面モデルがある3次元空間内の視線を求め、さらに
ステップST5にてその視線と平面との交点を求める。
このようにして複数の平面との間で交点が求まるが、次
にその複数の交点の中で最も視点に近い平面をステップ
ST6にて検出する。そして、その平面の交点が、平面
モデルに描かれた監視対象モデルのどの監視対象モデル
の中にあるかをステップST7で検出する。
First, when the process is started in step ST1, in step ST2, the position of the device to be monitored is input by the pointing device 4 or the like on the screen of the display device 3 on which the captured image is displayed. I do. Next, in step ST3, the input position is detected. In step ST4, a line of sight in a three-dimensional space in which a plane model that models the imaging target is obtained from the position data. In step ST5, the intersection of the line of sight and the plane is obtained. Ask for.
In this manner, an intersection is obtained between a plurality of planes. Next, a plane closest to the viewpoint among the plurality of intersections is detected in step ST6. Then, in step ST7, it is detected which of the monitoring target models of the monitoring target models drawn in the plane model has the intersection of the plane.

【0006】また、従来の撮像画像を用いた監視装置と
しては、この外にも、例えば特開平7−264458号
公報に示すようなものもある。この監視装置では対象物
の検出は次のように行われている。すなわち、撮像する
撮像対象の現場の監視対象物の形のモデルを計算機上で
作成し、撮像画像を画像処理して、その画像処理した結
果と各監視対象物のモデルとから画像の中から監視対象
物を認識して検出するようにしたものである。
[0006] In addition to the above, there is another conventional monitoring apparatus using a captured image as disclosed in Japanese Patent Application Laid-Open No. 7-264458. In this monitoring device, detection of an object is performed as follows. That is, a model of the shape of the monitoring target at the site of the imaging target to be imaged is created on a computer, the captured image is image-processed, and the result of the image processing and the model of each monitoring target are monitored from the image. The object is recognized and detected.

【0007】さらに、このような撮像画像を用いた監視
装置で用いられている撮像装置の制御方法としては、例
えば特開平7−274150号公報に記載された方式、
あるいは特開平7−319536号公報に記載された方
式などがある。前者の方式、すなわち特開平7−274
150号公報に記載された撮像装置の制御は、撮像画像
が表示されている表示装置3の表示画面上で注目したい
領域をユーザが作成することで、その領域が画面全体に
表示されるように撮像装置2を自動的に制御するように
したものである。また、後者の方式、すなわち特開平7
−319536号公報に記載された撮像装置の制御は、
撮像画像が表示されている表示装置3の表示画面上で、
注目したい監視装置を指示することにより、その監視装
置のある代表点が表示画面のどこにあるかにより、ズー
ムインやズームアウト、撮像装置2の回転を自動的に制
御するようにしたものである。
Further, as a control method of an imaging device used in such a monitoring device using a captured image, for example, a method described in JP-A-7-274150 is known.
Alternatively, there is a method described in JP-A-7-319536. The former method, that is, JP-A-7-274
The control of the imaging device described in Japanese Patent Publication No. 150 is performed such that the user creates a region of interest on the display screen of the display device 3 on which the captured image is displayed, and the region is displayed on the entire screen. The image pickup device 2 is automatically controlled. In addition, the latter method, that is,
The control of the imaging device described in JP-A-319536 is
On the display screen of the display device 3 on which the captured image is displayed,
By instructing a monitoring device to be focused on, zoom-in, zoom-out, and rotation of the imaging device 2 are automatically controlled depending on where a certain representative point of the monitoring device is located on the display screen.

【0008】[0008]

【発明が解決しようとする課題】従来の撮像画像を用い
た監視装置は以上のように構成されているので、以下の
ような課題があった。すなわち、特開平7−31953
6号公報に示された監視対象物の検出では、選択する部
分が表示装置3の表示画面上の点であり、撮像画像の表
示とモデルとの誤差により選択位置により監視対象物を
検出できない場合が発生したり、撮像画像を拡大するな
どの作業が必要となり、監視対象物が運動するような場
合には対応できなくなるなどの課題があった。また、特
開平7−264458号公報に示された監視対象の検出
においては、現場の照明や対象物の色やよごれなど撮像
対象の環境によって画像認識の認識率が左右され、撮像
対象物体を認識できない可能性があるという課題があっ
た。
Since the conventional monitoring apparatus using a captured image is configured as described above, there are the following problems. That is, JP-A-7-31953
In the detection of the monitoring target object disclosed in Japanese Patent Application Laid-Open No. 6-64, the portion to be selected is a point on the display screen of the display device 3 and the monitoring target object cannot be detected by the selected position due to an error between the display of the captured image and the model. In addition, there is a problem that work such as occurrence of an image or enlargement of a captured image is required, and it is not possible to cope with a case where the monitored object moves. In addition, in the detection of a monitoring target disclosed in Japanese Patent Application Laid-Open No. 7-264458, the recognition rate of image recognition is affected by the environment of the imaging target, such as the illumination of the site, the color of the target, and dirt. There was a problem that it might not be possible.

【0009】さらに、特開平7−274150号公報に
示された撮像装置の制御では、撮像対象モデルを有して
いないために、監視対象物の全体が撮像画像として表示
装置3に表示されていないと所望の撮像画像が得られな
いという課題があり、特開平7−319536号に記載
された撮像装置の制御においては、モデル内の監視対象
物の代表点のみを撮像装置2の制御に利用しており、監
視対象物の大きさを考慮していないために、監視対象物
に適合する撮像装置2の制御ができないという課題があ
った。
Further, in the control of the image pickup apparatus disclosed in Japanese Patent Application Laid-Open No. 7-274150, the entire monitor target is not displayed as a picked-up image on the display device 3 because it does not have an image pickup target model. In the control of the imaging device described in JP-A-7-319536, only the representative point of the monitoring target in the model is used for controlling the imaging device 2. Since the size of the monitoring target is not taken into consideration, there is a problem that the imaging device 2 that is suitable for the monitoring target cannot be controlled.

【0010】この発明は上記のような課題を解決するた
めになされたもので、監視対象の現場と撮像画像との対
応をとるために、撮像対象のモデルを有するとともに、
撮像対象の指定をユーザが設定した領域とすることがで
きるようにして、撮像画像とモデルとに誤差がある場合
でも監視対象物の検出ができる撮像画像を用いた監視装
置を得ることを目的とする。
SUMMARY OF THE INVENTION The present invention has been made to solve the above-described problems, and has a model of an imaging target in order to make a correspondence between a monitoring target site and a captured image.
It is an object of the present invention to obtain a monitoring device using a captured image that can detect a monitoring target even when there is an error between the captured image and the model by enabling the user to specify an imaging target in an area set by a user. I do.

【0011】また、この発明は、監視対象物が運動する
場合でも、その実際の運動をモデルに反映させることに
より、運動する物体にも対応できる撮像画像を用いた監
視装置を得ることを目的とする。
It is another object of the present invention to provide a monitoring apparatus using a captured image which can cope with a moving object by reflecting the actual movement in a model even when the monitored object moves. I do.

【0012】さらに、この発明は、監視対象物の撮像画
像を直接利用することにより、撮像対象モデルを作成す
ることができるモデル作成方法を得ることを目的とす
る。
It is a further object of the present invention to provide a model creation method capable of creating an imaging target model by directly using a captured image of a monitored object.

【0013】さらに、この発明は、撮像装置を監視対象
物の位置や大きさに合わせて、自動的に制御する撮像装
置制御方法を得ることを目的とする。
A further object of the present invention is to provide a method of controlling an image pickup apparatus that automatically controls the image pickup apparatus in accordance with the position and size of an object to be monitored.

【0014】[0014]

【課題を解決するための手段】請求項1記載の発明に係
る撮像画像を用いた監視装置は、実際の現場をモデル化
した撮像対象モデルを有し、表示装置の表示画面内の表
示部分領域を表示部分領域指示操作部より指示して、撮
像部分領域算出部でその表示部分領域から撮像装置の撮
像部分領域を求め、得られた撮像部分領域と撮像対象モ
デルからモデル部分領域算出部で算出したモデル部分領
域内の監視対象モデルをモデル抽出部にて抽出し、監視
情報出力処理部にてその監視対象モデルから実際の現場
の監視対象物を認識して、その監視対象物の情報を表示
制御処理部を介して表示装置に表示するようにしたもの
である。
According to a first aspect of the present invention, there is provided a monitoring apparatus using a captured image, which includes an imaging target model obtained by modeling an actual site, and a display partial area in a display screen of a display device. From the display partial region instruction operation unit, the imaging partial region calculation unit obtains the imaging partial region of the imaging device from the display partial region, and the model partial region calculation unit calculates from the obtained imaging partial region and the imaging target model. The model to be monitored in the model partial area is extracted by the model extraction unit, the monitoring information output processing unit recognizes the actual monitoring object at the actual site from the monitoring target model, and displays the information of the monitoring object. This is displayed on a display device via a control processing unit.

【0015】請求項2記載の発明に係る撮像画像を用い
た監視装置は、入力された撮像装置の撮像パラメータと
撮像部分領域を用い、モデル部分領域算出部に撮像対象
モデルでの撮像投影面を配置してモデル部分領域を作成
させ、モデル抽出部にそのモデル部分領域に重なる監視
対象モデルを監視対象物として抽出させるようにしたも
のである。
According to a second aspect of the present invention, a monitoring apparatus using a captured image uses an input imaging parameter and an imaging partial area of the imaging apparatus and causes a model partial area calculation unit to display an imaging projection plane of an imaging target model in a model partial area calculation unit. A model partial area is created by arranging the model partial area, and a model extraction unit extracts a monitoring target model overlapping the model partial area as a monitoring target.

【0016】請求項3記載の発明に係る撮像画像を用い
た監視装置は、撮像対象モデルとして3次元モデルを用
い、モデル部分領域算出部にモデル部分領域としての3
次元部分モデルを作成させて、モデル抽出部にはその3
次元部分モデルと監視対象物の3次元モデルとの干渉に
基づいて監視対象モデルの抽出を行わせるようにしたも
のである。
According to a third aspect of the present invention, there is provided a monitoring apparatus using a captured image, wherein a three-dimensional model is used as an imaging target model, and a three-dimensional model is used as a model partial area in a model partial area calculation unit.
A 3D model is created, and the model extractor
The monitoring target model is extracted based on the interference between the three-dimensional model of the monitoring target and the three-dimensional model of the monitoring target.

【0017】請求項4記載の発明に係る撮像画像を用い
た監視装置は、3次元部分モデルと干渉する監視対象モ
デルが2つ以上あった場合には、それらを所定のルール
に従ってソーティングして表示装置に表示させる機能を
モデル抽出部に持たせたものである。
According to a fourth aspect of the present invention, when there are two or more monitored models that interfere with the three-dimensional partial model, they are sorted and displayed according to a predetermined rule. The function to be displayed on the device is provided to the model extraction unit.

【0018】請求項5記載の発明に係る撮像画像を用い
た監視装置は、撮像対象モデルとしての3次元モデル
を、実際の現場の状態に基づいて変更する機能を監視情
報出力処理部に持たせて、実際の監視対象物の動きを模
擬するように3次元モデルを変更するようにしたもので
ある。
According to a fifth aspect of the present invention, there is provided a monitoring apparatus using a captured image, wherein the monitoring information output processing unit has a function of changing a three-dimensional model as an imaging target model based on an actual site condition. Thus, the three-dimensional model is changed so as to simulate the actual movement of the monitored object.

【0019】請求項6記載の発明に係る撮像画像を用い
た監視装置は、表示部分領域指示操作部より測定部分を
指定する指定情報を入力し、モデル部分領域算出部にて
その指定情報をモデル部分領域に変換して3次元モデル
内での計測計算を行うようにしたものである。
According to a sixth aspect of the present invention, there is provided a monitoring apparatus using a picked-up image, wherein designation information for designating a measurement portion is inputted from a display partial region designation operation section, and the designation information is modeled by a model partial region calculation section. It is converted into a partial area to perform measurement calculation in a three-dimensional model.

【0020】請求項7記載の発明に係る撮像画像を用い
た監視装置は、撮像対象モデルとして面モデルを用い、
撮像部分領域算出部で算出された撮像部分領域を用いて
モデル部分領域算出部が、撮像部分領域に対応するモデ
ル部分領域をその面モデル上に作成し、モデル抽出部に
てそのモデル部分領域と干渉する監視対象モデルを求め
て抽出対象の監視対象物とするものである。
According to a seventh aspect of the present invention, a monitoring apparatus using a captured image uses a surface model as an imaging target model.
The model partial area calculation unit uses the imaging partial area calculated by the imaging partial area calculation unit to create a model partial area corresponding to the imaging partial area on the surface model, and the model extraction unit A monitoring target model that interferes is obtained and used as a monitoring target object to be extracted.

【0021】請求項8記載の発明に係るモデル作成方法
は、表示画面上に映し出された監視対象物を直接指示す
ることによって得られた当該監視対象物の輪郭を撮像投
影面での輪郭に変換し、さらにそれを監視対象モデルの
輪郭図形に変換することによって監視対象モデルを作成
するようにしたものである。
According to an eighth aspect of the invention, there is provided a model creating method for converting a contour of a monitoring target object obtained by directly indicating a monitoring target object projected on a display screen into a contour on an imaging projection plane. Then, the monitoring target model is created by converting it into a contour figure of the monitoring target model.

【0022】請求項9記載の発明に係るモデル作成方法
は、さらに、各監視対象モデルの表示装置上の位置を算
出して、その監視対象モデルが作成済であることを示す
図的情報を、当該監視対象モデルの位置に対応する表示
装置上の位置に撮像画像に重ねて表示するようにしたも
のである。
According to a ninth aspect of the present invention, there is provided a model creating method, further comprising calculating a position of each monitored object model on a display device, and displaying graphical information indicating that the monitored object model has been created. This is displayed so as to be superimposed on the captured image at a position on the display device corresponding to the position of the monitoring target model.

【0023】請求項10記載の発明に係る撮像画像を用
いた監視装置は、監視情報出力処理部にて撮像対象モデ
ル内より抽出した監視対象モデルの注目点を求め、その
注目点を撮像画像が表示されている表示画面上の点に変
換して、その位置に対応する監視対象物の監視情報を撮
像画像と重ねて表示するようにしたものである。
According to a tenth aspect of the present invention, a monitoring apparatus using a captured image obtains a point of interest of a monitoring target model extracted from the imaging target model in a monitoring information output processing unit, and determines the point of interest as a captured image. This is converted into a point on the displayed display screen, and the monitoring information of the monitoring target corresponding to the position is displayed so as to overlap the captured image.

【0024】請求項11記載の発明に係る撮像装置制御
方法は、撮像対象モデル内より抽出した監視対象モデル
の注目点を求めて、それを撮像装置の座標系での方向ベ
クトルに変換し、その方向ベクトルの方向に撮像装置を
向けるための駆動制御パラメータを算出して撮像装置の
駆動制御装置に与え、撮像装置の回転を制御するように
したものである。
According to an eleventh aspect of the present invention, there is provided a method for controlling an imaging apparatus, wherein a point of interest of a monitoring target model extracted from an imaging target model is obtained, and is converted into a direction vector in a coordinate system of the imaging apparatus. A drive control parameter for directing the imaging device in the direction of the direction vector is calculated and provided to the drive control device of the imaging device to control the rotation of the imaging device.

【0025】請求項12記載の発明に係る撮像装置制御
方法は、入力された監視対象物の識別子に基づいて、撮
像対象モデル内の監視対象モデルの抽出を行うようにし
たものである。
According to a twelfth aspect of the invention, there is provided a method for controlling an imaging apparatus, wherein a monitoring target model in an imaging target model is extracted based on the input identifier of the monitoring target.

【0026】請求項13記載の発明に係る撮像装置制御
方法は、監視作業者によって指示された監視対象物の表
示画面上での位置に基づいて、撮像対象モデル内の監視
対象モデルの抽出を行うようにしたものである。
According to a thirteenth aspect of the present invention, a monitoring target model is extracted from the imaging target model based on the position on the display screen of the monitoring target specified by the monitoring operator. It is like that.

【0027】請求項14記載の発明に係る撮像装置制御
方法は、実際の現場の監視対象物について異常や故障の
発生の有無の検知結果に基づいて、撮像対象モデル内の
監視対象モデルの抽出を行うようにしたものである。
According to a fourteenth aspect of the present invention, there is provided an imaging apparatus control method for extracting a monitoring target model from an imaging target model based on a detection result of whether or not an abnormality or a failure has occurred in an actual monitoring target at a site. It is something to do.

【0028】請求項15記載の発明に係る撮像装置制御
方法は、撮像対象モデル内より抽出した監視対象モデル
の投影図形を囲む最小の2次元図形を求め、その最小2
次元図形と撮像装置の撮像領域とが一致するように撮像
装置をズームインあるいはズームアウトするための駆動
制御パラメータを算出し、それを撮像装置の駆動制御装
置に与えて撮像装置の拡大や縮小を制御するようにした
ものである。
According to a fifteenth aspect of the present invention, a minimum two-dimensional figure surrounding the projected figure of the monitoring target model extracted from the imaging target model is obtained.
A drive control parameter for zooming in or out of the imaging device is calculated so that the three-dimensional figure matches the imaging region of the imaging device, and the calculated drive control parameter is provided to the drive control device of the imaging device to control the enlargement or reduction of the imaging device. It is something to do.

【0029】[0029]

【発明の実施の形態】以下、この発明の実施の一形態を
説明する。 実施の形態1.図1はこの発明の実施の形態1による撮
像画像を用いた監視装置の構成を示すブロック図であ
る。図において、2は監視対象である工場やプラントな
どの実際の現場を撮像する撮像装置であり、3はこの撮
像装置2によって撮像された監視対象の撮像画像の表示
が行われる表示装置である。なお、これら撮像装置2お
よび表示装置3は、図23に同一符号を付して示した従
来のそれらに相当する部分である。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS One embodiment of the present invention will be described below. Embodiment 1 FIG. FIG. 1 is a block diagram showing a configuration of a monitoring device using captured images according to Embodiment 1 of the present invention. In the figure, reference numeral 2 denotes an imaging device for imaging an actual site such as a factory or a plant to be monitored, and reference numeral 3 denotes a display device for displaying a captured image of the monitoring target captured by the imaging device 2. Note that the imaging device 2 and the display device 3 are portions corresponding to those in the related art, which are denoted by the same reference numerals in FIG.

【0030】10は表示装置3の表示画面上の表示部分
領域を指示する表示部分領域指示操作部であり、その表
示部分領域の指定には図23に符号4を付して示したポ
インティングデバイスが用いられる。11は表示装置3
に対する表示の制御や表示状態の管理を処理する表示制
御処理部であり、撮像画像を表示装置3の所望の位置に
表示したり、マウスやタブレットなどのポインティング
デバイスのカーソルを表示したり、表示部分領域指示操
作部10で指示された表示部分領域の図形を表示した
り、さらには監視情報を表示するための表示制御などの
処理を行う。12は表示部分領域指示操作部10で指示
された表示部分領域から撮像装置2の撮像部分領域を求
める撮像部分領域算出部であり、表示装置3の座標系で
作成した表示部分領域の図形から撮像投影面上の撮像部
分領域を算出する。
Reference numeral 10 denotes a display partial region instruction operation unit for designating a display partial region on the display screen of the display device 3. The pointing device indicated by reference numeral 4 in FIG. Used. 11 is the display device 3
Is a display control processing unit that processes display control and display state management for the display device, displays a captured image at a desired position on the display device 3, displays a cursor of a pointing device such as a mouse or a tablet, and displays a display portion. It performs processing such as displaying a graphic of the display partial area specified by the area specifying operation unit 10 and further performing display control for displaying monitoring information. Reference numeral 12 denotes an imaging partial area calculation unit that obtains an imaging partial area of the imaging device 2 from the display partial area specified by the display partial area instruction operation unit 10, and captures an image of the display partial area created in the coordinate system of the display apparatus 3. An imaging partial area on the projection plane is calculated.

【0031】13は撮像対象である現実の世界をモデル
化した撮像対象モデルである。14はこの撮像対象モデ
ル13の中の部分領域であるモデル部分領域を算出する
モデル部分領域算出部であり、撮像部分領域算出部12
において算出された撮像部分領域と撮像対象モデル13
からモデル部分領域の算出を行う。15はこのモデル部
分領域算出部14にて算出されたモデル部分領域内の監
視対象モデルを抽出するモデル抽出部であり、撮像対象
モデル13とモデル部分領域よりモデル部分領域の中に
ある監視対象物のモデルを抽出する。16は監視作業者
の指示によって監視対象の情報を出力する監視情報出力
処理部であり、モデル抽出部15において抽出された監
視対象モデルから実際の現場の監視対象物を認識し、そ
の監視対象物の監視情報を表示制御処理部11を介して
表示装置3に出力する。
Reference numeral 13 denotes an imaging target model that models the real world as the imaging target. Reference numeral 14 denotes a model partial area calculation unit that calculates a model partial area that is a partial area in the imaging target model 13;
Imaging partial area and imaging target model 13 calculated in
Calculates the model partial region from. Reference numeral 15 denotes a model extraction unit that extracts a monitoring target model in the model partial area calculated by the model partial area calculation unit 14. The monitoring target object is located within the model partial area from the imaging target model 13 and the model partial area. Extract the model of Reference numeral 16 denotes a monitoring information output processing unit that outputs information of a monitoring target according to an instruction of a monitoring worker. The monitoring information output processing unit 16 recognizes an actual monitoring target at the site from the monitoring target model extracted by the model extracting unit 15, and performs monitoring of the monitoring target. Is output to the display device 3 via the display control processing unit 11.

【0032】また、図2はこのように構成された、この
実施の形態1による撮像画像を用いた監視装置における
処理を説明するための説明図である。図において、21
は表示装置3の表示画面であり、22は表示画面21に
表示されている撮像画像である。23は監視作業者が表
示部分領域指示操作部10を用いてその表示画面21内
に作成した表示部分領域であり、24はこの表示部分領
域23によって指示される監視対象物である。25は撮
像投影面であり、26は撮像部分領域算出部12が表示
部分領域23に基づいて撮像投影面25上に作成した撮
像部分領域である。27は図1に符号13を付して示し
た撮像対象モデルであり、28はモデル部分領域算出部
14によって撮像装置2の撮像位置や撮像方向、拡大や
縮小などの撮像パラメータを用いて配置される、撮像対
象モデル27内での撮像投影面、29は撮像対象モデル
27内のモデル部分領域である。30はモデル抽出部1
5によって抽出されたこのモデル部分領域に含まれる監
視対象モデルである。
FIG. 2 is an explanatory diagram for explaining the processing in the monitoring apparatus using the captured image according to the first embodiment configured as described above. In the figure, 21
Denotes a display screen of the display device 3, and 22 denotes a captured image displayed on the display screen 21. Reference numeral 23 denotes a display partial area created in the display screen 21 by the monitor operator using the display partial area instruction operation unit 10, and 24 denotes a monitoring target indicated by the display partial area 23. Reference numeral 25 denotes an imaging projection plane. Reference numeral 26 denotes an imaging partial area created on the imaging projection plane 25 by the imaging partial area calculation unit 12 based on the display partial area 23. Reference numeral 27 denotes an imaging target model indicated by reference numeral 13 in FIG. 1, and reference numeral 28 denotes a model partial area calculation unit 14 which is arranged by using an imaging position and an imaging direction of the imaging apparatus 2 and imaging parameters such as enlargement and reduction. The imaging projection plane in the imaging target model 27 is a model partial area in the imaging target model 27. 30 is a model extraction unit 1
5 is a monitoring target model included in this model partial area extracted by the model sub-region 5.

【0033】次に動作について説明する。図3は実施の
形態1における処理の手順を示すフローチャートであ
る。ステップST10で処理が開始されると、表示装置
3の表示画面21には撮像装置2で撮像された撮像画像
22が表示される。監視作業者はステップST11にお
いて、表示部分領域指示操作部10を用いてその撮像画
像22が表示されている表示装置3の表示画面21上
に、監視対象物24を指示するための表示部分領域23
を指示する。次に撮像部分領域算出部12がステップS
T12において、表示制御処理部11の有する表示管理
データと、表示部分領域指示操作部10にて表示画面2
1上に指示された表示部分領域23から、撮像投影面2
5上の撮像部分領域26を算出する。撮像部分領域算出
部12にて算出された撮像部分領域26は、撮像位置や
撮像方向、拡大や縮小などの撮像パラメータとともにモ
デル部分領域算出部14に渡され、モデル部分領域算出
部14はステップST13において、その撮像部分領域
26と各撮像パラメータを用いて、撮像対象モデル27
内での撮像投影面28を配置してモデル部分領域29の
算出を行う。
Next, the operation will be described. FIG. 3 is a flowchart showing a procedure of the process in the first embodiment. When the process is started in step ST10, a captured image 22 captured by the imaging device 2 is displayed on the display screen 21 of the display device 3. In step ST11, the monitoring operator uses the display partial area instruction operation unit 10 to display a display partial area 23 on the display screen 21 of the display device 3 on which the captured image 22 is displayed.
Instruct. Next, the imaging partial area calculation unit 12 performs step S
At T12, the display management data of the display control processing unit 11 and the display screen 2
1. From the display partial area 23 indicated on the
5 is calculated. The imaging partial area 26 calculated by the imaging partial area calculation unit 12 is passed to the model partial area calculation unit 14 together with the imaging position, the imaging direction, and imaging parameters such as enlargement and reduction, and the model partial area calculation unit 14 proceeds to step ST13. , An imaging target model 27 using the imaging partial area 26 and each imaging parameter.
A model partial area 29 is calculated by arranging the imaging projection plane 28 in the inside.

【0034】次にモデル抽出部15がステップST14
において、モデル部分領域算出部14の算出したモデル
部分領域29と、撮像対象モデル13内の各監視対象物
のモデルとの重なりを比較して、そのモデル部分領域2
9とそれに含まれる監視対象モデル30を抽出する。次
にステップST15に進んで、このモデル抽出部15で
抽出された監視対象モデル30が監視情報出力処理部1
6に渡され、監視情報出力処理部16はそれに基づいて
当該監視対象モデル30に対応する実際の現場の監視対
象物24を認識し、その監視対象物24の監視情報を表
示制御処理部11を介して表示装置3に出力して、当該
監視対象モデル30に関する監視情報を表示装置3に表
示する。このようにして一連の監視操作が行われ、ステ
ップST16にてその処理を終了する。
Next, the model extracting section 15 executes step ST14.
, The overlap between the model partial region 29 calculated by the model partial region calculation unit 14 and the model of each monitoring target in the imaging target model 13 is compared.
9 and the monitoring target model 30 included therein are extracted. Next, the process proceeds to step ST15, where the monitoring target model 30 extracted by the model extracting unit 15 is
The monitoring information output processing unit 16 recognizes the monitoring target 24 at the actual site corresponding to the monitoring target model 30 based on the monitoring information, and sends the monitoring information of the monitoring target 24 to the display control processing unit 11. The monitoring information about the monitoring target model 30 is displayed on the display device 3. In this way, a series of monitoring operations are performed, and the process ends in step ST16.

【0035】以上のように、この実施の形態1によれ
ば、撮像画像が表示される表示画面に対して、監視対象
物の部分領域を指定して抽出するようにしているので、
撮像画像とその撮像画像に対応する撮像対象モデルとの
誤差が生じていても確実に監視対象物の抽出が可能とな
って、監視対象物の選択に手間取ることがなくなり、ま
た、監視対象物を複数指定する場合にも、1つの部分領
域の指定でそれが可能になるなどの効果がある。
As described above, according to the first embodiment, a partial area of a monitored object is specified and extracted from a display screen on which a captured image is displayed.
Even if there is an error between the captured image and the imaging target model corresponding to the captured image, it is possible to reliably extract the monitoring target object, and it is not necessary to select a monitoring target object. Even when a plurality of areas are specified, there is an effect that the specification can be made by specifying one partial area.

【0036】実施の形態2.この実施の形態2は撮像対
象モデル13として計算機中に作成された3次元モデル
が用いられているものであり、装置構成は図1に示した
実施の形態1の場合と同様であるため、その説明は省略
する。
Embodiment 2 In the second embodiment, a three-dimensional model created in a computer is used as the imaging target model 13. Since the device configuration is the same as that of the first embodiment shown in FIG. Description is omitted.

【0037】図4はこの発明の実施の形態2で利用され
る撮像対象モデルの一例を示す模式図である。図におい
て、40は撮像対象モデル13である3次元モデルのモ
デル空間であり、41はそのモデル空間40に対して撮
像位置や撮像方向、拡大や縮小などの撮像パラメータを
用いて算出した撮像投影面、42はこの撮像投影面41
とある撮像方向をもった撮像装置である。
FIG. 4 is a schematic diagram showing an example of an imaging target model used in the second embodiment of the present invention. In the figure, reference numeral 40 denotes a model space of a three-dimensional model which is the imaging target model 13, and reference numeral 41 denotes an imaging projection plane calculated using imaging parameters such as an imaging position, an imaging direction, and enlargement and reduction with respect to the model space 40. , 42 are the imaging projection surface 41
An imaging apparatus having a certain imaging direction.

【0038】図5はこの実施の形態2におけるモデル部
分領域を示す模式図である。図において、43は撮像対
象モデル13である3次元のモデル空間40に撮像投影
面41を配置した際の、その撮像投影面41内の撮像部
分領域であり、44は撮像位置や撮像方向、拡大や縮小
などの撮像パラメータを用いて、この撮像部分領域43
よりモデル部分領域として作成した撮影領域の3次元モ
デルである。
FIG. 5 is a schematic diagram showing a model partial area according to the second embodiment. In the figure, reference numeral 43 denotes an imaging partial area in the imaging projection plane 41 when the imaging projection plane 41 is arranged in a three-dimensional model space 40 that is the imaging target model 13, and 44 denotes an imaging position, an imaging direction, and an enlargement. This imaging partial area 43 is obtained by using imaging parameters such as
This is a three-dimensional model of the photographing region created as a model partial region.

【0039】次に動作について説明する。図6は実施の
形態2における処理の手順を示したフローチャートであ
る。まずステップST20において、3次元モデルのモ
デル空間40の中に撮像パラメータを用いて、撮像投影
面41と、実際の現場と同様の位置や姿勢で配置された
撮像装置42の視点とを設定する。次いでステップST
21にてモデル部分領域算出部14が、その撮像投影面
41の中の撮像部分領域算出部12で算出された撮像部
分領域43と撮像装置42の視点から、モデル部分領域
である撮像領域の3次元モデル44を作成する。
Next, the operation will be described. FIG. 6 is a flowchart showing a procedure of a process according to the second embodiment. First, in step ST20, the imaging projection plane 41 and the viewpoint of the imaging device 42 arranged at the same position and orientation as the actual site are set using the imaging parameters in the model space 40 of the three-dimensional model. Then step ST
At 21, the model partial region calculation unit 14 determines, based on the imaging partial region 43 calculated by the imaging partial region calculation unit 12 in the imaging projection plane 41 and the viewpoint of the imaging device 42, the 3 A dimensional model 44 is created.

【0040】そしてモデル抽出部15がステップST2
2において、そのモデル部分領域としての3次元モデル
44と、撮像対象モデル13の中にある監視対象物の監
視対象モデルとの干渉チェックを行う。なお、この干渉
チェックでは、例えば多くの3次元CAD(コンピュー
タ支援設計)で実現されている干渉計算が行われる。次
にステップST23において、その干渉チェックによっ
て干渉する監視対象モデルが検出されたか否かを判断す
る。その結果、干渉する監視対象モデルがなかった場合
には、ステップST24でそのことを監視作業者に知ら
せて処理を終える。
Then, the model extracting unit 15 executes step ST2.
In 2, an interference check between the three-dimensional model 44 as the model partial region and the monitoring target model of the monitoring target in the imaging target model 13 is performed. In this interference check, for example, an interference calculation realized by many three-dimensional CADs (computer-aided design) is performed. Next, in step ST23, it is determined whether or not the monitoring target model that interferes is detected by the interference check. As a result, if there is no interfering monitoring target model, the fact is notified to the monitoring operator in step ST24, and the process is terminated.

【0041】一方、干渉する監視対象モデルが2つ以上
あった場合にはステップST25に進み、視点に近いも
のから、あるいは干渉度合いが高いものからなど、操作
の意図にあったルールに従ってそのソーティングを行
い、ステップST26においてそのソーティング内容を
監視情報出力処理部16に送り、表示制御処理部11を
介して表示装置3に表示して監視作業者に知らせる。監
視作業者はステップST27において、その表示装置3
に表示された監視対象モデルの中から適当な監視対象物
を選択する。なお、干渉する監視対象モデルが1つしか
検出されなかった場合には自動的にその1つが選択され
る。
On the other hand, if there are two or more monitoring target models that interfere with each other, the process proceeds to step ST25, where sorting is performed according to the rule intended for the operation, for example, from the one near the viewpoint or from the one with a high degree of interference. Then, in step ST26, the contents of the sorting are sent to the monitoring information output processing unit 16, and displayed on the display device 3 via the display control processing unit 11 to notify the monitoring worker. In step ST27, the monitoring operator checks the display device 3
Select an appropriate monitoring target from the monitoring target models displayed in. If only one interfering monitoring target model is detected, one of them is automatically selected.

【0042】以上のように、この実施の形態2によれ
ば、撮像対象モデルとして実際の現場の空間や監視対象
物の3次元モデルを有するため、ある監視対象物の後ろ
に隠れていて撮像画像には現われない監視対象物を指定
することができて、監視対象の範囲を拡大することがで
き、また、1つの3次元モデルを作成することで、撮像
装置の配置位置を変更した場合でも、撮像パラメータの
変更にてシステムを再構築することが可能となるため、
システムの変更に柔軟に対応することができ、撮像装置
の追加も簡単に行えるなどの効果がある。さらに、干渉
する監視対象物のモデルが2つ以上あった場合には、操
作の意図にあったルールに従ってそれをソーティングし
て表示装置に表示することにより、監視作業者が監視対
象物のモデルの中から適当なものを指定して選択するこ
とが可能になる。
As described above, according to the second embodiment, since a three-dimensional model of the actual site space and the monitored object is provided as the captured object model, the captured image is hidden behind a certain monitored object. Can be specified, the range of the monitoring target can be expanded, and even if the arrangement position of the imaging device is changed by creating one three-dimensional model, Because it is possible to rebuild the system by changing the imaging parameters,
It is possible to flexibly respond to changes in the system, and it is possible to easily add an imaging device. Further, when there are two or more models of the monitoring target that interfere with each other, the monitoring worker sorts the display according to the rule according to the intention of the operation and displays it on the display device, so that the monitoring operator can model the monitoring target. It becomes possible to specify and select an appropriate one from among them.

【0043】実施の形態3.この実施の形態3は撮像対
象モデル13として計算機中に作成された3次元モデル
を実際の現場の状態に合わせて変更することにより、3
次元モデルが監視対象物の動きを擬似するようにしたも
のである。図7はこの発明の実施の形態3による撮像画
像を用いた監視装置の構成を示すブロック図であり、各
部には図1に示した実施の形態1の対応部分と同一符号
を付してその説明を省略する。なお、監視情報出力処理
部16は、読み込んだ実際の現場の状態に基づいて、撮
像対象モデル13としての3次元モデルを実際の監視対
象物の動きを擬似するように変更する機能を有している
点で、図1に同一符号を付したものとは異なっている。
Embodiment 3 In the third embodiment, the three-dimensional model created in the computer as the imaging target model 13 is changed in accordance with the actual on-site state.
The dimensional model simulates the movement of the monitoring target. FIG. 7 is a block diagram showing a configuration of a monitoring apparatus using a captured image according to Embodiment 3 of the present invention, where the same reference numerals are assigned to the corresponding parts as in Embodiment 1 shown in FIG. Description is omitted. The monitoring information output processing unit 16 has a function of changing the three-dimensional model as the imaging target model 13 so as to simulate the movement of the actual monitoring target based on the read actual site condition. This is different from the same reference numerals in FIG.

【0044】図8は実施の形態3における監視情報出力
処理部16の処理の手順を示したフローチャートであ
る。監視情報出力処理部16はステップST30におい
て、まず実際の現場からセンサや機器などの状態を読み
込み、監視対象物の動作に関連する情報を取得する。次
にステップST31において、その得られた監視対象物
の動作に関連する情報から、撮像対象モデル13として
の3次元モデル内における配置パラメータを求める。次
にステップST32において、求めた配置パラメータに
従って、撮像対象モデル13として作成された3次元モ
デル内の監視対象モデルの配置を、実際の監視対象物の
動きを擬似するように更新する。
FIG. 8 is a flowchart showing the procedure of the process of the monitoring information output processing unit 16 according to the third embodiment. In step ST30, the monitoring information output processing unit 16 first reads the states of the sensors and devices from the actual site and acquires information related to the operation of the monitoring target. Next, in step ST31, an arrangement parameter in the three-dimensional model as the imaging target model 13 is obtained from the obtained information related to the operation of the monitoring target. Next, in step ST32, the arrangement of the monitoring target model in the three-dimensional model created as the imaging target model 13 is updated according to the obtained arrangement parameters so as to simulate the actual movement of the monitoring target.

【0045】以上のように、この実施の形態3によれ
ば、運動する監視対象に対応して監視対象モデルの配置
を変更することにより、搬送装置やロボットなどのよう
に、1つの撮像パラメータにおいても撮像画像が動的に
変化する監視対象物が存在する場合でも、撮像対象モデ
ルを動的に変化する監視対象物と同様に動的に変化させ
ることができるため、動的に変化する監視対象物の選択
が可能となり、監視対象物の種類を限定しない監視操作
が可能になるという効果がある。
As described above, according to the third embodiment, the arrangement of the monitoring target model is changed in accordance with the moving monitoring target, so that a single imaging parameter such as a transfer device or a robot can be used. Even if there is a monitoring target whose imaging image changes dynamically, the imaging target model can be dynamically changed in the same manner as the monitoring target that dynamically changes, so that the monitoring target that dynamically changes An object can be selected, and there is an effect that a monitoring operation that does not limit the type of the monitoring target can be performed.

【0046】実施の形態4.この実施の形態4は表示装
置3に映し出された撮像画像に対して長さや領域などの
測定部を指定する指定情報を入力する機能を表示部分領
域指示操作部10に持たせ、その指定情報をモデル部分
領域に変換して3次元モデル内での計測計算を行う機能
をモデル部分領域算出部14に持たせることにより、実
際の現場を対象とした長さ、面積、体積などの計測値の
取得を可能としたものである。なお、装置構成は図1に
示した実施の形態1の場合と基本的には同一であるた
め、ここではその説明は省略する。
Embodiment 4 FIG. In the fourth embodiment, the display partial area instruction operation unit 10 has a function of inputting designation information for designating a measurement unit such as a length and a region for a captured image projected on the display device 3, and the designation information is provided. Acquisition of measurement values such as length, area, volume, etc. for the actual site by providing the function of converting into a model partial area and performing measurement calculation in the three-dimensional model in the model partial area calculation unit 14 Is made possible. Note that the configuration of the apparatus is basically the same as that of the first embodiment shown in FIG. 1, and a description thereof will be omitted here.

【0047】図9はこの発明の実施の形態4による計測
の処理例を示す説明図であり、ここでは実施の形態2に
示す3次元モデルを用いた場合について示している。な
お、図9(a)は指定した2点間の距離を測定する場合
の処理例を、図9(b)は指定した領域の面積を測定す
る場合の処理例を、図9(c)は指定した対象物の高さ
を測定する場合の処理例を、図9(d)は指定した部分
の体積を測定する場合の処理例をそれぞれ示したもので
ある。
FIG. 9 is an explanatory diagram showing an example of measurement processing according to the fourth embodiment of the present invention. Here, the case where the three-dimensional model shown in the second embodiment is used is shown. 9A shows an example of processing when measuring the distance between two specified points, FIG. 9B shows an example of processing when measuring the area of a specified area, and FIG. FIG. 9D shows a processing example when measuring the height of the designated object, and FIG. 9D shows a processing example when measuring the volume of the designated portion.

【0048】すなわち、図9(a)の場合には、表示部
分領域指示操作部10より相互間の距離を測定したい2
つの点DP1とDP2を表示画面上で入力する。それら
各点DP1,DP2から実施の形態2に示した方法で、
3次元モデル内の直線ML1とML2を作成する。そし
てその直線ML1,ML2が交差する面を監視作業者に
示して選択させ、その選択面と直線ML1,ML2との
交点MP1とMP2を算出する。この算出された交点M
P1とMP2との距離を計算することにより、それを測
定したい2点DP1とDP2との間の距離の測定値とす
る。
That is, in the case of FIG. 9A, it is desired to measure the distance between the two by the display partial area instruction operation unit 10.
Two points DP1 and DP2 are input on the display screen. From the points DP1 and DP2, the method described in the second embodiment is used.
The straight lines ML1 and ML2 in the three-dimensional model are created. Then, the surveillance worker is caused to select a plane at which the straight lines ML1 and ML2 intersect, and the intersections MP1 and MP2 between the selected plane and the straight lines ML1 and ML2 are calculated. This calculated intersection M
By calculating the distance between P1 and MP2, it is used as a measured value of the distance between two points DP1 and DP2 to be measured.

【0049】また、図9(b)の場合には、表示部分領
域指示操作部10より測定したい面の領域の輪郭DSを
表示画面上で入力する。その輪郭DSから実施の形態2
に示した方法で、3次元モデル内の3次元モデルMDを
作成し、その3次元モデルMDと重なる面を監視作業者
に示して選択させる。そしてその選択面と3次元モデル
MDとの交わった領域MFを求めて、その領域MFの面
積を計算することにより、それを測定したい領域の面積
の測定値とする。
In the case of FIG. 9B, the contour DS of the area of the surface to be measured is input on the display screen by the display partial area instruction operation unit 10. Embodiment 2 from the outline DS
A three-dimensional model MD in the three-dimensional model is created by the method shown in (1), and the surface overlapping with the three-dimensional model MD is shown to the monitoring operator to be selected. Then, an area MF where the selected plane intersects with the three-dimensional model MD is obtained, and the area of the area MF is calculated to obtain a measured value of the area of the area to be measured.

【0050】さらに、図9(c)の場合には、表示部分
領域指示操作部10より測定したい位置の点DP1と、
高さを参照するための基準面を選択するための領域DS
とを表示画面上で入力する。そして上記図9(a)、図
9(b)の場合と同様の手法で3次元モデル内の点MP
1と面MSを求める。そしてその点MP1から鉛直方向
に直線MLを作成し、その直線MLと面MSとの交点M
P2を求める。この点MP1と交点MP2との距離から
高さを算出して、それを測定したい位置の高さの測定値
とする。
Further, in the case of FIG. 9 (c), a point DP1 at a position to be measured by the display partial area instruction operation unit 10
Area DS for selecting a reference plane for referencing height
Is input on the display screen. Then, the point MP in the three-dimensional model is obtained in the same manner as in FIGS. 9A and 9B.
1 and the surface MS are obtained. Then, a straight line ML is created in the vertical direction from the point MP1, and an intersection M between the straight line ML and the surface MS is created.
Find P2. The height is calculated from the distance between the point MP1 and the intersection MP2, and the calculated value is used as a measured value of the height of the position to be measured.

【0051】また、図9(d)の場合には、上記図9
(a)の場合と同様に、2つの点DP1とDP2を表示
画面上で入力して、3次元モデルの中の2点MP1とM
P2を求める。そしてこれらの点MP1とMP2を頂点
とする直方体MBを作成し、その直方体MBの体積を算
出して、それを測定したい体積の測定値とする。
In the case of FIG. 9D, FIG.
As in the case of (a), two points DP1 and DP2 are input on the display screen, and two points MP1 and M2 in the three-dimensional model are input.
Find P2. Then, a rectangular parallelepiped MB having these points MP1 and MP2 as vertices is created, the volume of the rectangular parallelepiped MB is calculated, and the calculated value is set as a measured value of the volume to be measured.

【0052】次に動作について説明する。図10は実施
の形態4における処理の手順を示すフローチャートであ
る。まずステップST40において表示部分領域指定操
作部10より、撮像画像が表示されている表示装置3の
表示画面上で、図9(a)〜(d)に示したように、そ
の計測の内容に応じて測定のための入力操作を行う。次
にモデル部分領域算出部14がステップST41におい
て、表示部分領域指定操作部10からの入力データに従
って直線や立体などのモデル部分領域を作成し、そのモ
デル部分領域と監視対象モデルとの干渉チェックを行
い、さらにステップST42で干渉をおこす監視対象モ
デルがあるかどうかを判断する。
Next, the operation will be described. FIG. 10 is a flowchart illustrating a procedure of a process according to the fourth embodiment. First, in step ST40, the display partial area designation operation unit 10 responds to the contents of the measurement on the display screen of the display device 3 on which the captured image is displayed, as shown in FIGS. Input operation for measurement. Next, in step ST41, the model partial region calculation unit 14 creates a model partial region such as a straight line or a three-dimensional object according to the input data from the display partial region designation operation unit 10, and checks for interference between the model partial region and the monitoring target model. Then, in step ST42, it is determined whether or not there is a monitoring target model that causes interference.

【0053】その結果、もし干渉をおこす監視対象モデ
ルがなければ、ステップST43において監視対象物が
ない旨を監視作業者に通知する。一方、干渉をおこす監
視対象物が2つ以上ある場合にはステップST44に進
み、実施の形態2で示したものと同様に、所定のルール
に従って測定対象面をソーティングし、ステップST4
5にてその内容を監視作業者に提示する。監視作業者は
ステップST46で必要となる監視対象面を選択し、モ
デル部分領域算出部14はそれに基づいて、測定内容に
応じた距離や面積などをステップST47で計算する。
As a result, if there is no monitoring target model that causes interference, the monitoring worker is notified in step ST43 that there is no monitoring target object. On the other hand, if there are two or more monitoring targets that cause interference, the process proceeds to step ST44, and the measurement target surface is sorted according to a predetermined rule, as in the second embodiment, and the process proceeds to step ST4.
At 5, the contents are presented to the monitoring operator. The monitoring operator selects a required monitoring target surface in step ST46, and the model partial area calculation unit 14 calculates a distance, an area, and the like according to the measurement content based on the selected monitoring target surface in step ST47.

【0054】以上のように、この実施の形態4によれ
ば、撮像画像の表示されている表示画面で指定した計測
パラメータを3次元モデルの中の計測パラメータに変換
し、実際の現場を模擬した3次元モデルを利用して種々
の計測ができるため、実現場に計測装置を設置して計測
する時間を短縮することができるとともに、水もれや油
もれなどの面積の計算など、実際の計測が複雑で困難な
場合でも、撮像画像よりすぐに計測することが可能とな
って、計測時間を大幅に短縮することができるという効
果がある。
As described above, according to the fourth embodiment, the measurement parameters specified on the display screen on which the captured image is displayed are converted into the measurement parameters in the three-dimensional model, and the actual site is simulated. Since various measurements can be performed using a three-dimensional model, the measurement time can be shortened by installing a measurement device in the realization place, and the actual calculation of the area such as water leakage and oil leakage can be performed. Even when the measurement is complicated and difficult, the measurement can be performed immediately from the captured image, and the measurement time can be greatly reduced.

【0055】実施の形態5.この実施の形態5は表示さ
れる監視対象物を1つの曲面に投影した2次元図形とし
て表現することで、モデルの管理に必要となるデータ量
や領域抽出にかかる処理時間を短縮したものである。な
お、装置構成は図1に示した実施の形態1の場合と基本
的には同一であるため、その説明は省略する。
Embodiment 5 In the fifth embodiment, the displayed monitoring target is expressed as a two-dimensional figure projected onto one curved surface, thereby reducing the data amount required for model management and the processing time required for region extraction. . Note that the configuration of the device is basically the same as that of the first embodiment shown in FIG. 1, and a description thereof will be omitted.

【0056】図11はこの発明の実施の形態5における
面モデルとモデル投影領域を示した説明図である。な
お、この図11では、実施の形態1の中の撮像対象モデ
ル13として面モデルを用いた場合の、面モデルとその
面モデルの中に撮像パラメータを用いて算出した撮像投
影面を投影してできたモデル投影領域を示しており、図
11(a)は面モデルとして平面を用いた例、図11
(b)は円筒面を用いた例、図11(c)は球面を用い
た例をそれぞれ示している。ただし、撮像装置2の上
下、左右の回転角が180度より小さい場合には平面モ
デルを利用することができ、左右の回転角が180度よ
り大きい場合には円筒面モデルが利用可能となり、さら
に上下の回転角も180度より大きい場合には球面モデ
ルが利用できる。
FIG. 11 is an explanatory diagram showing a surface model and a model projection area according to the fifth embodiment of the present invention. In FIG. 11, when a surface model is used as the imaging target model 13 in the first embodiment, the surface model and the imaging projection plane calculated using the imaging parameters are projected into the surface model. FIG. 11A shows an example in which a plane is used as a surface model.
11B illustrates an example using a cylindrical surface, and FIG. 11C illustrates an example using a spherical surface. However, when the vertical and horizontal rotation angles of the imaging device 2 are smaller than 180 degrees, a plane model can be used. When the left and right rotation angles are larger than 180 degrees, a cylindrical surface model can be used. If the vertical rotation angle is also greater than 180 degrees, a spherical model can be used.

【0057】次に動作について説明する。図12は実施
の形態5における処理の手順を示すフローチャートであ
る。まずステップST50において、面モデルのモデル
空間の中に撮像パラメータを用いて撮像投影面を配置す
る。次いでステップST51にてモデル部分領域算出部
14が、その撮像投影面の中の撮像部分領域を囲む輪郭
形状と視点から、撮像部分領域算出部12で算出された
撮像部分領域を用いて、モデル部分領域であるその撮像
部分領域に対応した面モデル上の輪郭図形を作成する。
Next, the operation will be described. FIG. 12 is a flowchart illustrating a procedure of a process according to the fifth embodiment. First, in step ST50, the imaging projection plane is arranged in the model space of the plane model using the imaging parameters. Next, in step ST51, the model partial area calculation unit 14 uses the imaging partial area calculated by the imaging partial area calculation unit 12 from the contour shape and the viewpoint surrounding the imaging partial area in the imaging projection plane, and An outline figure on the surface model corresponding to the imaging partial area, which is an area, is created.

【0058】そしてモデル抽出部15が、ステップST
52においてそのモデル部分領域としての輪郭図形と撮
像対象モデル13の中にある監視対象モデルとの干渉チ
ェックを行い、ステップST53にてその干渉チェック
によって干渉する監視対象モデルが検出されたか否かを
判断する。その結果、干渉する監視対象モデルがなかっ
た場合には、ステップST54でそのことを監視作業者
に知らせて処理を終える。一方、干渉する監視対象モデ
ルが2つ以上あった場合にはステップST55に進み、
視点に近いものから、あるいは干渉度合いが高いものか
らなど、操作の意図にあったルールに従ってそのソーテ
ィングを行い、ステップST56にてそのソーティング
内容を表示装置3に表示して監視作業者に知らせる。監
視作業者はステップST57において、その中から適当
な監視対象物の選択を行う。なお、干渉する監視対象モ
デルが1つであった場合には自動的にその1つが選択さ
れる。
Then, the model extracting unit 15 executes step ST
In step 52, an interference check is performed between the contour figure as the model partial region and the monitoring target model in the imaging target model 13, and in step ST53, it is determined whether or not an interference monitoring target model is detected by the interference check. I do. As a result, if there is no interfering monitoring target model, the fact is notified to the monitoring operator in step ST54, and the process is terminated. On the other hand, if there are two or more monitoring target models that interfere with each other, the process proceeds to step ST55,
Sorting is performed according to a rule that is appropriate for the operation, such as from a viewpoint close to the viewpoint or from a viewpoint with a high degree of interference. In step ST56, the contents of the sorting are displayed on the display device 3 to notify the monitoring operator. In step ST57, the monitoring operator selects an appropriate monitoring target from among them. If there is one monitoring target model that interferes, that one is automatically selected.

【0059】以上のように、この実施の形態5によれ
ば、撮像対象モデルとして撮像画像として表示される監
視対象物を、1つの面に投影した2次元図形として表現
しているため、モデルの管理に必要となるデータ量を削
減することが可能となり、領域抽出の処理にかかる負荷
も軽減できて、処理能力の低い装置でも高速な応答が得
られるという効果がある。
As described above, according to the fifth embodiment, the monitored object displayed as the captured image as the captured object model is expressed as a two-dimensional figure projected on one surface. The amount of data required for management can be reduced, the load on the area extraction processing can be reduced, and a high-speed response can be obtained even with a device having low processing capacity.

【0060】実施の形態6.この実施の形態6はこの発
明の撮像画像を用いた監視装置における撮像対象モデル
内の監視対象モデルの作成方法に関するものであり、撮
像画像を用いた監視装置の構成は図1に示した実施の形
態1の場合と同様であるため、ここではその説明は省略
する。図13はこの発明の実施の形態6によるモデル作
成方法の処理手順を示すフローチャートである。なお、
この図13には撮像画像を用いて面モデルを作成する場
合の処理についての一例が示されており、これは実施の
形態5で部分領域を用いて面モデルの部分モデル領域を
作成する処理と同様となる。
Embodiment 6 FIG. The sixth embodiment relates to a method of creating a monitoring target model in an imaging target model in a monitoring device using a captured image according to the present invention. The configuration of the monitoring device using the captured image is the same as that of the embodiment shown in FIG. Since this is the same as in the case of the first embodiment, the description is omitted here. FIG. 13 is a flowchart showing a processing procedure of a model creating method according to Embodiment 6 of the present invention. In addition,
FIG. 13 shows an example of a process for creating a surface model using a captured image, which is a process for creating a partial model region of a surface model using a partial region in the fifth embodiment. It becomes the same.

【0061】次に動作について説明する。まずステップ
ST60において処理が開始されると、ステップST6
1にて表示装置3に撮像画像を表示し、その表示画面に
映し出された撮像画像中の、監視対象モデルを作成した
い監視対象物の画像を表示部分領域指示操作部10を用
いてなぞったり、あるいは画像処理などによってその監
視対象物の輪郭を自動抽出するなどの方法によって、監
視対象物の輪郭を表示画面上で作成する。次にステップ
ST62において、そのようにして作成した監視対象物
の輪郭を撮像投影面での輪郭に変換し、さらにそれを監
視対象モデルである面モデルの輪郭図形に変換する。次
にステップST63において、このようにして得られた
変換図形を監視対象モデルとして、作成者が入力した当
該監視対象物の識別子とともに登録することによって撮
像対象モデル13を作成し、ステップST64にて一連
の処理を終了する。
Next, the operation will be described. First, when the process is started in step ST60, the process proceeds to step ST6.
At 1, the captured image is displayed on the display device 3, and the captured image displayed on the display screen is used to trace the image of the monitoring target object for which the monitoring target model is to be created using the display partial area instruction operation unit 10, Alternatively, the outline of the monitored object is created on the display screen by a method such as automatically extracting the outline of the monitored object by image processing or the like. Next, in step ST62, the outline of the monitoring target created in this manner is converted into an outline on the imaging projection plane, and further converted into an outline figure of a surface model which is a monitoring target model. Next, in step ST63, the converted figure thus obtained is registered as a monitoring target model together with the identifier of the monitoring target input by the creator to create the imaging target model 13. Is completed.

【0062】以上のように、この実施の形態6によれ
ば、モデル作成が必要な監視対象物を撮像画像が表示さ
れる表示画面を見ながら、その表示されている監視対象
物の撮像画像を直接利用してその輪郭を作成するだけ
で、監視対象モデルを作成することが可能となり、モデ
ル作成時間を短縮することができ、また作成者にモデル
作成のための特別な教育をする必要もないなどの効果が
ある。
As described above, according to the sixth embodiment, while observing the display screen on which the captured image is displayed, the captured image of the monitored object requiring model creation is displayed. It is possible to create a monitored model simply by directly using its outline to create a model to be monitored, reducing the time required to create the model and eliminating the need for special training for the model creator. And so on.

【0063】実施の形態7.この実施の形態7は監視対
象モデル作成の有無を作成者に知らせるようにしたモデ
ル作成方法に関するものであり、図14はこの発明の実
施の形態7によるモデル作成方法の処理例を示す説明図
である。なお、図14(a)は監視対象の撮像画像が表
示装置3に映し出されている例であり、図中の50は表
示画面、51〜53はモデル作成済みの監視対象物の表
示画像、54〜56はモデル未作成の監視対象物の表示
画像である。また、図14(b)〜図14(d)は作成
済みの監視対象モデルを表示している例であり、図14
(b)中の57〜59は作成したモデル形状を用いてそ
の監視対象モデルを撮像画像と重ねて表示したもの、図
14(c)中の60〜62は作成したモデル形状の中央
部分に円形マークを表示したもの、図14(d)中の6
3〜65は作成したモデル形状の中央部分に監視対象物
の識別子を表示したものである。図14(e)は図14
(b)に示したようなモデル作成途中に撮像装置の撮像
パラメータを変更した例であり、図中の66は表示画面
で、撮像パラメータが変化して撮像画像が左に移動した
ことに対応して、モデル作成済みの監視対象物の表示画
像も左に移動している様子を示したものである。
Embodiment 7 FIG. The seventh embodiment relates to a model creation method for notifying a creator of the presence / absence of creation of a monitoring target model. FIG. 14 is an explanatory diagram showing an example of processing of a model creation method according to a seventh embodiment of the present invention. is there. FIG. 14A shows an example in which a captured image of a monitoring target is displayed on the display device 3, in which 50 is a display screen, 51 to 53 are display images of a model-created monitoring target, and 54. Reference numerals 56 are display images of the monitoring target object for which no model has been created. FIGS. 14B to 14D show examples in which the created monitoring target models are displayed.
In FIG. 14B, reference numerals 57 to 59 denote the monitored model superimposed on the captured image using the created model shape, and reference numerals 60 to 62 in FIG. Marks displayed, 6 in FIG. 14 (d)
Reference numerals 3 to 65 indicate the identifiers of the monitoring objects in the center of the created model shape. FIG. 14E shows FIG.
This is an example in which the imaging parameters of the imaging device are changed during model creation as shown in (b). Reference numeral 66 in the drawing denotes a display screen, which corresponds to the fact that the imaging parameters have changed and the captured image has moved to the left. This shows that the display image of the monitoring target for which the model has been created is also moving to the left.

【0064】次に動作について説明する。図15は実施
の形態7における撮像対象モデル13から撮像画像が表
示されている表示画面に監視対象モデル作成の有無を知
らせる場合の処理の手順を示したフローチャートであ
る。撮像パラメータが変化しない場合には、ステップS
T70においてモデル作成作業を行ってモデル図形を作
成してその監視対象モデルを登録する。次にステップS
T71において、そのモデル図形から表示装置3に表示
するための、図14(b)に示したモデル形状57〜5
9、図14(c)に示した円形マーク60〜62、また
は図14(d)に示した監視対象物の識別子63〜65
などの図的情報を作成する。次にステップST72にお
いて、撮像対象モデル13における各監視対象モデルの
位置から表示画面上の位置を求めて、作成された図的情
報を図14(b)〜図14(d)に示すように当該監視
対象モデルに対応した撮像画像と重ねて表示する。
Next, the operation will be described. FIG. 15 is a flowchart showing the procedure of processing when notifying the presence / absence of creation of a monitoring target model on a display screen on which a captured image is displayed from the imaging target model 13 in the seventh embodiment. If the imaging parameter does not change, step S
In T70, a model creation operation is performed to create a model figure, and the monitoring target model is registered. Next, step S
At T71, the model shapes 57 to 5 shown in FIG.
9, the circular marks 60 to 62 shown in FIG. 14C or the monitoring target identifiers 63 to 65 shown in FIG.
Create graphical information such as Next, in step ST72, a position on the display screen is obtained from the position of each monitoring target model in the imaging target model 13, and the created graphical information is obtained as shown in FIGS. 14 (b) to 14 (d). The image is superimposed on the captured image corresponding to the monitoring target model.

【0065】一方、撮像パラメータが変化する場合に
は、ステップST73で撮像装置2の撮像パラメータが
変更されると、ステップST74において表示装置3の
表示画面に表示されている表示画像が当該撮像パラメー
タの変化に応じて変更される。次にステップST75に
おいて、この撮像画像を表示している表示画面の全領域
について、実施の形態5で示した抽出処理を行って面モ
デルのモデル部分領域を算出する。そしてステップST
76において、そのモデル部分領域に登録されているす
べての監視対象モデルを抽出し、ステップST71に進
んでその各モデル図形から表示装置3に表示する図的情
報を作成し、ステップST72でその作成した図的情報
をその監視対象モデルに対応した撮像画像と重ねて表示
する。
On the other hand, when the imaging parameters change, if the imaging parameters of the imaging device 2 are changed in step ST73, the display image displayed on the display screen of the display device 3 is changed in step ST74. It changes according to the change. Next, in step ST75, a model partial region of the surface model is calculated by performing the extraction processing described in the fifth embodiment on the entire region of the display screen displaying the captured image. And step ST
At 76, all the monitoring target models registered in the model partial area are extracted, and the process proceeds to step ST71 to create graphical information to be displayed on the display device 3 from each model figure, and the created graphical information is created at step ST72. The graphical information is displayed so as to overlap the captured image corresponding to the monitoring target model.

【0066】以上のように、この実施の形態7によれ
ば、モデル作成が完了しているということを示す図的情
報が監視対象物の撮像画像と重ねて表示されるため、モ
デル作成の入力画面の撮像画像を見ることでモデル作成
が完了していない監視対象物を認識でき、監視対象モデ
ルの2重作成やモデル作成抜けなどを防止することがで
きるという効果がある。
As described above, according to the seventh embodiment, the graphical information indicating that the model creation has been completed is displayed so as to overlap the captured image of the monitored object. By observing the captured image on the screen, it is possible to recognize a monitoring target object for which model creation has not been completed, and to prevent double creation of the monitoring target model or omission of model creation.

【0067】実施の形態8.この実施の形態8は監視対
象モデルの表示位置に撮像画像と重ねて監視情報を表示
するようにしたものであり、その装置構成は図1に示し
た実施の形態1の場合と基本的には同一であるため、こ
こではその説明は省略する。
Embodiment 8 FIG. In the eighth embodiment, the monitoring information is displayed so as to be superimposed on the captured image at the display position of the monitoring target model. The device configuration is basically the same as that of the first embodiment shown in FIG. Since they are the same, the description is omitted here.

【0068】図16はこの発明の実施の形態8による撮
像画像を用いた監視装置の表示例を示す説明図である。
この図16は撮像対象モデル13内の監視対象モデルか
ら、撮像画像が表示されている表示画面上の制御情報の
表示位置を求めた例で、図において、70は監視対象
物、71は監視情報の出力データが表示されるウィンド
ウである。なお、図16(a)は撮像画像に映っている
監視対象物70の監視対象モデルの中心位置を注目点と
し、その点の位置を表示画面に変換して、その位置を監
視情報の出力データを表示するウィンドウ71の左上の
位置とした例を示しており、図16(b)は監視対象物
70の監視対象モデルの右上の位置を表示画面に変換し
て、その位置をウィンドウ71の左上の位置とした例を
示している。
FIG. 16 is an explanatory diagram showing a display example of a monitoring device using captured images according to the eighth embodiment of the present invention.
FIG. 16 shows an example in which the display position of the control information on the display screen on which the captured image is displayed is obtained from the monitoring target model in the imaging target model 13. In FIG. This is a window in which the output data is displayed. FIG. 16A shows the center position of the monitoring target model of the monitoring target object 70 shown in the captured image as a point of interest, the position of the point is converted to a display screen, and the position is output as monitoring data output data. FIG. 16B shows an example in which the upper right position of the monitoring target model of the monitoring target object 70 is converted to a display screen, and the position is displayed at the upper left position of the window 71. The example shown in FIG.

【0069】次に動作について説明する。なお、撮像対
象モデル13内の監視対象モデルの位置を撮像画像が表
示されている表示画面上の点に変換する方法は実施の形
態7の処理と同様であるため、ここではその説明は省略
する。
Next, the operation will be described. Note that a method of converting the position of the monitoring target model in the imaging target model 13 into a point on the display screen on which the captured image is displayed is the same as the processing in the seventh embodiment, and thus the description thereof is omitted here. .

【0070】図17は実施の形態8における処理の手順
を示すフローチャートである。まずステップST80に
おいて監視情報出力処理部16は、入力された監視対象
物の識別子からそれに対応する監視対象モデルを抽出す
る。次にステップST81において、その監視対象モデ
ルのあらかじめ設定された点や、監視対象モデルの形状
データから作成した点などにより注目点を求める。次に
ステップST82において、その注目点を撮像画像が表
示されている表示画面上の点に変換してその位置の座標
を算出する。次にステップST83において、図16
(a)または図16(b)に示すように、算出された表
示画面上の位置に撮像画像と重ねて監視情報を表示す
る。
FIG. 17 is a flowchart showing the procedure of the process in the eighth embodiment. First, in step ST80, the monitoring information output processing unit 16 extracts a monitoring target model corresponding to the input monitoring target object identifier. Next, in step ST81, a point of interest is obtained from a preset point of the monitoring target model, a point created from the shape data of the monitoring target model, and the like. Next, in step ST82, the point of interest is converted into a point on the display screen on which the captured image is displayed, and the coordinates of the position are calculated. Next, in step ST83, FIG.
As shown in FIG. 16A or FIG. 16B, the monitoring information is displayed at the calculated position on the display screen so as to overlap the captured image.

【0071】なお、上記説明では、監視作業者が監視対
象物の識別子を入力し、監視情報出力処理部16がそれ
に基づいて撮像対象モデル13の中の監視対象モデルを
抽出するものを示したが、例えば、監視作業者が表示装
置3の表示画面上で撮像画像の監視対象物を指示するこ
とにより、監視情報出力処理部16がそれを認識して撮
像対象モデル13の中の監視対象モデルを抽出するよう
にしてもよい。
In the above description, the monitoring operator inputs the identifier of the monitoring target, and the monitoring information output processing unit 16 extracts the monitoring target model from the imaging target model 13 based on the input. For example, when the monitoring operator instructs the monitoring target of the captured image on the display screen of the display device 3, the monitoring information output processing unit 16 recognizes the monitoring target and changes the monitoring target model in the imaging target model 13. You may make it extract.

【0072】また、監視情報出力処理部16が実際の現
場の監視対象物についてその異常や故障の発生の有無を
検知して、その検知結果に基づいて撮像対象モデル13
の中の監視対象モデルの抽出を行い、監視情報として監
視情報出力処理部16が検知した異常や故障などが発生
した装置に対する異常通報や警告などの情報を、撮像画
像と重ねて表示するようにしてもよい。
Further, the monitoring information output processing section 16 detects the presence or absence of an abnormality or a failure of the monitoring target at the actual site, and based on the detection result, the imaging target model 13.
The monitoring target model is extracted from among the information, and information such as an abnormality notification or warning for a device in which an abnormality or a failure detected by the monitoring information output processing unit 16 has been detected is superimposed on the captured image as monitoring information. You may.

【0073】以上のように、この実施の形態8によれ
ば、ある監視対象物の監視情報が、その監視対象物の撮
像画像と同一の表示画面に重ねて表示されるため、監視
情報がどの監視対象物のデータかということを瞬時に認
識することが可能となって、監視作業のミスを防止で
き、監視作業から次の作業への即応性を向上させること
ができる効果がある。また、表示画面上で監視作業者が
目標の監視対象物を指定すればその監視対象物の撮像画
像に重ねて監視情報を表示することもでき、選択したあ
とに視点を移動することなく監視情報を見ることが可能
となり、さらに、撮像画像が表示されている表示画面に
現場の状況に合わせた制御情報を、その状況が生じた監
視対象物と重ねて自動的に表示することもできるため、
異常や故障などが生じた場合でも、どの監視対象物にど
のような状況が発生したかを瞬時に認識でき、監視作業
から次の作業への即応性をより向上させることができる
などの効果がある。
As described above, according to the eighth embodiment, since the monitoring information of a monitoring target is displayed on the same display screen as the captured image of the monitoring target, the monitoring information It is possible to instantly recognize whether the data is the data of the monitoring target, and it is possible to prevent a mistake in the monitoring work and to improve the responsiveness from the monitoring work to the next work. In addition, if the monitoring operator specifies the target monitoring target on the display screen, the monitoring information can be displayed on the captured image of the monitoring target, and the monitoring information can be displayed without moving the viewpoint after the selection. It is also possible to automatically display control information according to the situation of the site on the display screen on which the captured image is displayed, so that the control information can be automatically superimposed on the monitoring target in which the situation has occurred.
Even if an abnormality or failure occurs, it is possible to instantly recognize what kind of situation has occurred on which monitoring target, and to improve the responsiveness from monitoring work to the next work. is there.

【0074】実施の形態9.この実施の形態9はこの発
明による撮像画像を用いた監視装置における撮像装置の
制御方法に関するものである。なお、撮像画像を用いた
監視装置の構成は図1に示した実施の形態1の場合と同
様であるため、ここではその説明は省略する。図18は
この発明の実施の形態9による撮像装置制御方法の処理
を示す説明図であり、図において、80は撮像対象モデ
ルの中の監視対象モデルである。
Embodiment 9 The ninth embodiment relates to a control method of an imaging device in a monitoring device using a captured image according to the present invention. Note that the configuration of the monitoring device using the captured image is the same as that of the first embodiment shown in FIG. 1, and a description thereof will be omitted here. FIG. 18 is an explanatory diagram showing processing of an imaging device control method according to Embodiment 9 of the present invention. In the figure, reference numeral 80 denotes a monitoring target model among the imaging target models.

【0075】図18(a)は監視対象モデルと撮像装置
2の視線方向を説明したものである。撮像対象モデル1
3の中の監視対象モデル80の識別子からその注目点M
Pを求め、撮像パラメータから撮像装置2の座標系での
注目点MPへの方向ベクトルPVを求める。そしてその
方向ベクトルPVに撮像装置2の真正面が向くように撮
像装置2の駆動制御パラメータを算出して撮像装置2を
回転させる。また、図18(b)は撮像装置2の座標系
を示したものであり、図中のCXは左右の視線方向の座
標、CYは上下の視線方向の座標である。この場合の方
向ベクトルPVは、左右方向に−θx 、上下方向に+θ
y の方向にあることになる。
FIG. 18A illustrates the monitoring target model and the line of sight of the image pickup device 2. Imaging target model 1
3 from the identifier of the monitoring target model 80 to its attention point M
P is obtained, and a direction vector PV to the target point MP in the coordinate system of the imaging device 2 is obtained from the imaging parameters. Then, the driving control parameters of the imaging device 2 are calculated so that the front of the imaging device 2 faces the direction vector PV, and the imaging device 2 is rotated. FIG. 18B shows the coordinate system of the imaging device 2, where CX is the coordinates in the left and right viewing directions, and CY is the coordinates in the up and down viewing directions. The direction vector PV in this case is -θx in the horizontal direction and + θ in the vertical direction.
in the direction of y.

【0076】また、図19は実施の形態9における撮像
装置2を注目する監視対象物に向けて回転させた場合の
撮像画像の変化の例を示す説明図であり、図中の81が
その注目する監視対象物である。なお、図19(a)が
撮像装置2を回転する前、図19(b)が撮像装置2を
回転させた後の撮像画像を示している。
FIG. 19 is an explanatory diagram showing an example of a change in a picked-up image when the image pickup device 2 according to the ninth embodiment is rotated toward a monitored object to be watched. Reference numeral 81 in FIG. Monitoring object to be monitored. Note that FIG. 19A illustrates a captured image before the image capturing device 2 is rotated, and FIG. 19B illustrates a captured image after the image capturing device 2 is rotated.

【0077】次に動作について説明する。図20は実施
の形態9における撮像装置制御方法の処理手順を示すフ
ローチャートである。まずステップST90において、
監視作業者より入力された監視対象物81の識別子か
ら、撮像対象モデル13の中のそれに対応する監視対象
モデル80の抽出を行う。次にステップST91におい
て、その抽出された監視対象モデル80のあらかじめ設
定された点や、監視対象モデル80の形状データから作
成した点などにより注目点MPを抽出する。次にステッ
プST92においてその監視対象モデル80の注目点M
Pの方向を撮像装置2の座標系CX、CYでの方向ベク
トルPVに変換し、さらにステップST93においてそ
の方向ベクトルPVが撮像装置2の真正面となるように
撮像装置2の駆動制御パラメータを算出する。
Next, the operation will be described. FIG. 20 is a flowchart illustrating a processing procedure of an imaging device control method according to the ninth embodiment. First, in step ST90,
Based on the identifier of the monitoring target 81 input by the monitoring worker, the corresponding monitoring target model 80 in the imaging target model 13 is extracted. Next, in step ST91, a point of interest MP is extracted from a preset point of the extracted monitoring target model 80 or a point created from the shape data of the monitoring target model 80. Next, in step ST92, the target point M of the monitoring target model 80 is set.
The direction of P is converted into a direction vector PV in the coordinate system CX, CY of the imaging device 2, and in step ST93, a drive control parameter of the imaging device 2 is calculated so that the direction vector PV is directly in front of the imaging device 2. .

【0078】そして、その駆動制御パラメータが撮像装
置2の駆動領域の許容範囲内に入っているか否かをステ
ップST94において判別する。その結果、許容範囲に
収まっていればステップST95に進み、撮像装置2を
その駆動制御パラメータに従って、指定した監視対象物
81の方向に向くように自動的に制御する。一方、許容
範囲に収まっていなければステップST96において、
撮像装置2の駆動領域の許容範囲内で目標のパラメータ
に一番近いパラメータを求め、駆動制御パラメータをそ
の近似パラメータに変更した後、ステップST95に進
み、その変更された駆動制御パラメータに従って撮像装
置2を制御する。これにより、図19(a)に示すよう
に撮像画像から外れていた監視対象物81を、図19
(b)に示すように撮像画像の中心部に移動させること
ができる。
Then, it is determined in step ST94 whether or not the drive control parameter is within the allowable range of the drive area of the imaging device 2. As a result, if it falls within the allowable range, the process proceeds to step ST95, and the imaging device 2 is automatically controlled to face the designated monitoring target 81 according to the drive control parameters. On the other hand, if not within the allowable range, in step ST96,
After obtaining the parameter closest to the target parameter within the allowable range of the drive area of the imaging device 2 and changing the drive control parameter to the approximate parameter, the process proceeds to step ST95, and the imaging device 2 is operated in accordance with the changed drive control parameter. Control. As a result, the monitoring target 81 that has deviated from the captured image as shown in FIG.
It can be moved to the center of the captured image as shown in FIG.

【0079】なお、上記説明においては、監視作業者が
入力した監視対象物81の識別子に基づいて撮像対象モ
デル13の中の監視対象モデル80を抽出するものを示
したが、例えば、監視作業者が表示装置3の表示画面上
で撮像画像の監視対象物81を指示し、それを認識する
ことによって監視対象モデル80の抽出を行うようにし
てもよい。
In the above description, the monitoring target model 80 is extracted from the imaging target model 13 based on the identifier of the monitoring target 81 input by the monitoring worker. May indicate the monitoring target 81 of the captured image on the display screen of the display device 3, and the monitoring target model 80 may be extracted by recognizing the instruction.

【0080】また、監視情報出力処理部16によって実
際の現場の監視対象物81についてその異常や故障の発
生の有無を検知し、その検知結果に基づいて撮像対象モ
デル13の中の監視対象モデル80の抽出を行うように
してもよい。
The monitoring information output processing unit 16 detects whether an abnormality or a failure has occurred in the monitoring target 81 at the actual site, and based on the detection result, the monitoring target model 80 in the imaging target model 13. May be extracted.

【0081】以上のように、この実施の形態9によれ
ば、注目したい監視対象物の識別子を与えるだけで、撮
像装置が自動的にその方向を向いて、監視対象物が撮像
画像の中心へくるようになるため、監視作業者は撮像装
置の操作を行わずに注目したい監視対象物を撮像対象と
して捉えることができて、撮像装置の操作のための時間
を短縮でき、監視作業から次の作業への即応性を向上さ
せることが可能となるなどの効果がある。また、監視対
象モデルの抽出を、撮像画像が表示されている表示画面
上で注目したい監視対象物を指定することによって行う
ような場合には、さらにその監視対象物の識別子を知ら
なくても監視対象物を撮像対象として捉えることがで
き、実際の現場の監視対象物についてその異常や故障の
発生有無の検知結果に基づいて、監視対象モデルの抽出
を行うようにした場合には、監視作業者は撮像装置の操
作を行わずに異常などが発生した監視対象物を自動的に
撮像対象として捉えることができるなどの効果がある。
As described above, according to the ninth embodiment, just by giving the identifier of the object to be watched, the imaging device automatically turns in that direction, and the object to be monitored moves to the center of the captured image. As a result, the monitoring worker can catch the monitoring target that he / she wants to pay attention to as an imaging target without operating the imaging device, shorten the time for operating the imaging device, and perform the next operation from the monitoring operation. There are effects such as being able to improve responsiveness to work. Further, when the monitoring target model is extracted by designating a monitoring target to be focused on a display screen on which a captured image is displayed, the monitoring target model can be monitored without knowing the identifier of the monitoring target. When the target object can be regarded as an imaging target and the monitoring target model is extracted based on the detection result of the abnormality or failure of the monitoring target at the actual site, the monitoring worker Is effective in that a monitoring target in which an abnormality or the like has occurred can be automatically captured as an imaging target without operating the imaging device.

【0082】実施の形態10.この実施の形態10は、
実施の形態9で説明した撮像装置制御方法によって注目
する監視対象物が撮像画面の中央部にくるように撮像装
置2を制御した後、さらに撮像対象モデルの中の監視対
象物モデルが表示装置3の表示画面いっぱいに表示され
るように、撮像装置2のズームインやズームアウトの制
御を行うようにしたものである。図21はこの発明の実
施の形態10による撮像装置制御方法の処理を示した説
明図であり、図中の90は撮像対象モデル、91および
92は撮像領域、93は撮像対象モデル90の中の注目
する監視対象モデル、94は表示装置3に映された撮像
画像、95は監視対象物の撮像画像である。
Embodiment 10 FIG. This Embodiment 10
After the imaging device 2 is controlled by the imaging device control method described in the ninth embodiment so that the monitoring target object of interest is located at the center of the imaging screen, the monitoring target model in the imaging target model is further displayed on the display device 3. The zoom-in and zoom-out of the imaging device 2 are controlled so that the image is displayed on the entire display screen. FIG. 21 is an explanatory diagram showing processing of an imaging device control method according to Embodiment 10 of the present invention. In the figure, 90 is an imaging target model, 91 and 92 are imaging regions, and 93 is an imaging target model 90. A monitoring target model of interest, 94 is a captured image projected on the display device 3, and 95 is a captured image of the monitoring target.

【0083】図21(a)は撮像対象モデル90の中に
注目する監視対象モデル93があり、その監視対象モデ
ル93を含む2つの撮像領域91,92がある様子を示
したものである。また、図21(b)は表示装置3に映
された撮像画像94として、撮像領域を91とした場合
の監視対象物の撮像画像95を示した例であり、図21
(c)は撮像領域92として、前記撮像領域91と相似
な形状で監視対象モデル93を囲む最小の2次元図形を
設定した場合の、監視対象物の撮像画像95を示した例
である。
FIG. 21A shows a monitoring target model 93 to be observed in an imaging target model 90 and two imaging regions 91 and 92 including the monitoring target model 93. FIG. 21B is an example in which a captured image 95 of the monitoring target when the imaging region is 91 is shown as the captured image 94 shown on the display device 3.
(C) is an example showing a captured image 95 of the monitoring target when a minimum two-dimensional figure surrounding the monitoring target model 93 is set in a shape similar to the imaging region 91 as the imaging region 92.

【0084】次に動作について説明する。まず、実施の
形態9において述べた撮像装置2の回転制御を行って注
目対象の監視対象物が撮像画面の中央部にくるようにす
る。その後さらに、ある1つの撮像パラメータにおいて
表示装置3に表示される撮像画像の全領域の図形を作成
して、抽出した監視対象モデル93を撮像投影面に投影
してできた撮像投影図形を前記図形の相似図形で囲む図
形で最小となる2次元図形を作成する。なお、この最小
2次元図形の作成には、例えば多くの2次元CADや図
形作成ソフト等で実現されている処理が利用される。そ
して、その最小2次元図形が撮像画像の全領域となるよ
うに、撮像装置2をズームイン、ズームアウトするため
の駆動制御パラメータを作成し、それを駆動命令ととも
に撮像装置2の駆動制御部に与えることにより、撮像装
置2のズームインやズームアウトの制御も行っている。
Next, the operation will be described. First, the rotation control of the imaging apparatus 2 described in the ninth embodiment is performed so that the monitoring target object of interest comes to the center of the imaging screen. Thereafter, a figure of the entire region of the captured image displayed on the display device 3 is created for a certain imaging parameter, and the captured projected figure obtained by projecting the extracted monitoring target model 93 on the captured projection plane is displayed in the figure. A minimum two-dimensional figure is created among figures surrounded by similar figures. In addition, for the creation of the minimum two-dimensional figure, for example, processing realized by many two-dimensional CAD, figure creation software, or the like is used. Then, a drive control parameter for zooming in and out of the imaging device 2 is created so that the minimum two-dimensional figure becomes the entire region of the captured image, and the generated drive control parameter is provided to the drive control unit of the imaging device 2 together with a drive command. This also controls zoom-in and zoom-out of the imaging device 2.

【0085】ここで、図22は実施の形態10における
撮像装置2の回転制御以降の処理の手順を示すフローチ
ャートである。まずステップST100において撮像領
域91(92)の中心にある監視対象モデル93を抽出
する。次にステップST101において、その監視対象
モデル93の形状から撮像領域91(92)の2次元図
形を求める。例えばその撮像領域91(92)の形状が
長方形であればその縦・横のサイズを求める。次にステ
ップST102において、その監視対象モデル93の撮
像投影面での投影図形を囲む最小の2次元図形を撮像領
域91(92)の相似図形で作成する。例えば撮像領域
91(92)の形状が長方形であれば、その縦横比が同
一の2次元図形(長方形)で投影図形を囲む最小2次元
図形を作成する。さらにステップST103において、
その最小2次元図形の領域が撮像領域91(92)とな
るように撮像装置2をズームインまたはズームアウトす
るための駆動制御パラメータを算出する。
Here, FIG. 22 is a flowchart showing a procedure of processing after rotation control of the imaging device 2 according to the tenth embodiment. First, in step ST100, a monitoring target model 93 at the center of the imaging region 91 (92) is extracted. Next, in step ST101, a two-dimensional figure of the imaging region 91 (92) is obtained from the shape of the monitoring target model 93. For example, if the shape of the imaging region 91 (92) is a rectangle, its vertical and horizontal sizes are obtained. Next, in step ST102, the smallest two-dimensional figure surrounding the projected figure of the monitoring target model 93 on the image projected plane is created with a similar figure of the imaging area 91 (92). For example, if the shape of the imaging area 91 (92) is rectangular, a minimum two-dimensional figure surrounding the projected figure is created with a two-dimensional figure (rectangle) having the same aspect ratio. Further, in step ST103,
A drive control parameter for zooming in or zooming out the imaging apparatus 2 is calculated so that the area of the minimum two-dimensional figure becomes the imaging area 91 (92).

【0086】そして、その駆動制御パラメータが撮像装
置2の駆動領域の許容範囲内に入っているか否かをステ
ップST104において判別する。その結果、許容範囲
に収まっていればステップST105に進み、撮像装置
2をその駆動制御パラメータに従って、指定した監視対
象物の方向に向くように自動的に制御する。一方、許容
範囲に収まっていなければステップST106におい
て、撮像装置2の駆動領域の許容範囲内で目標のパラメ
ータに一番近いパラメータを求め、駆動制御パラメータ
をその近似パラメータに変更した後、ステップST10
5に進み、その変更された駆動制御パラメータに従って
撮像装置2のズームイン、ズームアウトを制御する。こ
れによって、図21(c)に示すように、表示装置3に
映る撮像画像94内に最大となるように監視対象物の撮
像画像95を表示させることができる。
Then, it is determined in step ST104 whether or not the drive control parameter is within the allowable range of the drive area of the imaging device 2. As a result, if it falls within the allowable range, the process proceeds to step ST105, and the imaging device 2 is automatically controlled according to the drive control parameters so as to face the designated monitoring target. On the other hand, if it is not within the allowable range, in step ST106, a parameter closest to the target parameter within the allowable range of the driving area of the imaging device 2 is obtained, and the drive control parameter is changed to the approximate parameter, and then, in step ST10.
Proceeding to 5, the zoom-in and zoom-out of the imaging device 2 are controlled according to the changed drive control parameters. Thereby, as shown in FIG. 21C, the captured image 95 of the monitoring target can be displayed so as to be the largest in the captured image 94 reflected on the display device 3.

【0087】以上のように、この実施の形態10によれ
ば、注目したい監視対象物を、その監視対象物が撮像画
像に入る最大の大きさとなるように、撮像装置のズーム
インやズームアウトの制御を自動的に行うことが可能と
なり、監視作業者は撮像装置の操作を行わずに適当な大
きさで監視対象物を撮像対象として捉えることが可能と
なり、撮像装置の操作のための時間を短縮ができ、監視
作業から次の作業への即応性を向上させることが可能と
なるなどの効果がある。
As described above, according to the tenth embodiment, the object to be watched is controlled to zoom in and out of the image pickup apparatus so that the object to be monitored has the maximum size that can fit in the captured image. Can be performed automatically, and the monitoring worker can view the monitoring target as an imaging target in an appropriate size without operating the imaging device, reducing the time required for operating the imaging device. This makes it possible to improve the responsiveness from the monitoring operation to the next operation.

【0088】[0088]

【発明の効果】以上のように、請求項1記載の発明によ
れば、実際の現場をモデル化した撮像対象モデルを有
し、表示装置の表示画面内の表示部分領域を指示してそ
の表示部分領域から撮像装置の撮像部分領域を求め、得
られた撮像部分領域と撮像対象モデルからモデル部分領
域内の監視対象モデルを抽出して、その監視対象モデル
から実際の現場の監視対象物を認識し、その監視対象物
の情報を表示装置に表示するように構成したので、部分
領域を用いて撮像画像に対応する撮像対象モデルの中か
ら監視対象モデルを抽出することが可能となり、撮像画
像とその撮像画像に対応する撮像対象モデルとの間に誤
差があるような場合でも、確実に監視対象モデルを抽出
することができ、監視対象物の選択に手間取ることがな
くなる効果がある。
As described above, according to the first aspect of the present invention, there is provided an imaging target model obtained by modeling an actual site, and a display partial area in a display screen of a display device is designated and displayed. Obtain the imaging partial area of the imaging device from the partial area, extract the monitoring target model in the model partial area from the obtained imaging partial area and the imaging target model, and recognize the actual target monitoring target from the monitoring target model. Then, since the configuration is such that the information of the monitoring target is displayed on the display device, it is possible to extract the monitoring target model from the imaging target model corresponding to the captured image using the partial region, and Even when there is an error between the captured image and the captured image corresponding to the captured image, it is possible to reliably extract the monitored object model, and there is an effect that it does not take much time to select the monitored object.

【0089】請求項2記載の発明によれば、モデル部分
領域の作成を入力された撮像装置の撮像パラメータと撮
像部分領域を用いて行い、そのモデル部分領域に重なる
監視対象モデルを監視対象物として抽出するように構成
したので、撮像画像とその撮像対象モデルの間に誤差が
生じていても、監視対象モデルの抽出を確実に行うこと
ができる効果がある。
According to the second aspect of the present invention, the creation of the model partial area is performed using the input imaging parameters and the imaging partial area of the imaging device, and the monitoring target model overlapping the model partial area is set as the monitoring target. Since it is configured to extract, the monitoring target model can be reliably extracted even if an error occurs between the captured image and the imaging target model.

【0090】請求項3記載の発明によれば、撮像対象モ
デルとして3次元モデルを用い、モデル部分領域算出部
において作成したモデル部分領域としての3次元部分モ
デルと、監視対象物の3次元モデルとの干渉チェックを
モデル抽出部で行い、その干渉チェックの結果に基づい
て監視対象モデルの抽出を行うように構成したので、撮
像画像に現れない監視対象物を指定することが可能とな
って、監視対象の範囲を大幅に広げることができ、さら
に、撮像装置の位置を変更した場合でも、撮像パラメー
タ中の撮像装置の配置位置を変更するだけで、システム
を容易に再構築できるようになるため、システムの変更
に柔軟に対応でき、撮像装置の追加も簡単に行える効果
がある。
According to the third aspect of the present invention, a three-dimensional model is used as a model sub-region, a three-dimensional model as a model sub-region created by a model sub-region calculation unit, and a three-dimensional model of a monitored object. Is performed by the model extraction unit, and the monitoring target model is extracted based on the result of the interference check. Therefore, it is possible to specify a monitoring target that does not appear in the captured image, and Since the range of the target can be greatly expanded, and even when the position of the imaging device is changed, the system can be easily reconfigured only by changing the arrangement position of the imaging device in the imaging parameters, There is an effect that it is possible to flexibly respond to a change in the system and to easily add an imaging device.

【0091】請求項4記載の発明によれば、複数の監視
対象モデルが3次元部分モデルと干渉する場合に、それ
らの監視対象モデルを所定のルールでソーティングして
表示するように構成したので、干渉する監視対象モデル
が2つ以上あった場合には、監視作業者がその中から最
適な監視対象モデルを選択して抽出できる効果がある。
According to the fourth aspect of the present invention, when a plurality of monitored models interfere with the three-dimensional partial model, the monitored models are sorted according to a predetermined rule and displayed. When there are two or more monitoring target models that interfere with each other, there is an effect that the monitoring operator can select and extract an optimum monitoring target model from the monitoring target models.

【0092】請求項5記載の発明によれば、実際の現場
の状態に基づいて撮像対象モデルとしての3次元モデル
を随時変更できるように構成したので、3次元モデルを
運動する実際の監視対象物の動きを模擬するように変更
することが可能となるため、実際の現場と撮像対象モデ
ルを同一にして、動的に変化する監視対象物も選択でき
るようになり、監視対象物の種類を限定しない監視操作
が可能になる効果がある。
According to the fifth aspect of the present invention, since the three-dimensional model as the imaging target model can be changed at any time based on the actual state of the site, the actual monitoring target moving the three-dimensional model can be changed. Can be changed so as to simulate the movement of the target, so that the actual site and the imaging target model can be the same, and dynamically changing monitoring targets can be selected, limiting the types of monitoring targets There is an effect that a surveillance operation that is not possible can be performed.

【0093】請求項6記載の発明によれば、表示部分領
域指示操作部より入力された測定部分を指定する指定情
報をモデル部分領域算出部でモデル部分領域に変換し、
3次元モデル内での計測計算を行うように構成したの
で、表示装置に表示された撮像画像を用いて種々の計測
が可能となり、計測装置を設置して計測する時間を短縮
できるとともに、水もれや油もれなどの面積の計算な
ど、実際の計測が複雑で困難な場合でも、撮像画像を用
いてすぐにその計測を行うことが可能となり、計測時間
を短縮できる効果がある。
According to the sixth aspect of the present invention, the designation information for designating the measurement part input from the display partial area designation operation unit is converted into the model partial area by the model partial area calculation unit.
Since the measurement calculation in the three-dimensional model is performed, various measurements can be performed using the captured image displayed on the display device, and the time for installing and measuring the measurement device can be shortened, and water can be reduced. Even when the actual measurement is complicated and difficult such as calculation of the area such as leakage or oil leakage, the measurement can be performed immediately using the captured image, and the measurement time can be shortened.

【0094】請求項7記載の発明によれば、撮像対象モ
デルとして面モデルを用い、撮像部分領域算出部の算出
した撮像部分領域に基づいて、撮像部分領域に対応する
モデル部分領域をその面モデル上に作成し、作成された
モデル部分領域と干渉する監視対象モデルを求めことに
よって監視対象物を抽出するように構成したので、撮像
対象モデルに撮像装置の回転能力に応じた面モデルを利
用することが可能となって、モデルの管理データ量を削
減することができるとともに、2次元の処理で監視対象
モデルが抽出できるため、抽出処理の負荷も軽減でき、
計算能力が低い装置でも高速な応答を得ることができる
効果がある。
According to the seventh aspect of the present invention, a surface model is used as an imaging target model, and a model partial area corresponding to the imaging partial area is determined based on the imaging partial area calculated by the imaging partial area calculation unit. Since the monitoring target object is extracted by obtaining a monitoring target model that interferes with the created model partial region, a surface model according to the rotation capability of the imaging device is used as the imaging target model. It is possible to reduce the amount of management data of the model and to extract the monitoring target model by two-dimensional processing, so that the load of the extraction processing can be reduced,
There is an effect that a high-speed response can be obtained even with a device having a low calculation capability.

【0095】請求項8記載の発明によれば、表示画面上
に映し出された監視対象物を直接指示することによって
その監視対象物の輪郭を求め、得られた輪郭を撮像投影
面での輪郭に変換した後、さらにそれを監視対象モデル
の輪郭図形に変換して監視対象モデルを作成するように
構成したので、表示装置に映し出される撮像画像を利用
して撮像対象モデルを作成することができ、モデル作成
のために特別の教育を監視作業者に対して行う必要がな
く、単純な操作だけで撮像対象モデルを作成することが
できて、モデル作成時間の短縮も可能なモデル作成方法
が得られる効果がある。
According to the eighth aspect of the present invention, the outline of the monitored object is obtained by directly specifying the monitored object projected on the display screen, and the obtained outline is converted into the outline on the imaging projection plane. After the conversion, it is further configured to create a monitoring target model by converting it to a contour figure of the monitoring target model, so that it is possible to create an imaging target model using a captured image projected on the display device, There is no need to provide special training to the monitoring workers for model creation, and a model creation method that can create an imaging target model with simple operations and can reduce the model creation time can be obtained. effective.

【0096】請求項9記載の発明によれば、各監視対象
モデルの位置に対応する表示装置上の位置を算出し、そ
の監視対象モデルが作成済であることを示す図的情報
を、当該監視対象モデルの表示装置上の位置に撮像画像
に重ねて表示するように構成したので、どの監視対象物
の監視対象モデルの作成が済み、どの監視対象物の監視
対象モデルの作成が済んでいないかが、その監視対象モ
デル作成画面である撮像画像の表示画面上で認識できる
ため、監視対象モデルの2重作成や作成抜けを防止でき
る効果がある。
According to the ninth aspect of the present invention, the position on the display device corresponding to the position of each monitoring target model is calculated, and the graphical information indicating that the monitoring target model has been created is displayed. Since the target model is configured to be superimposed on the captured image at the position on the display device, which monitoring target model has been created and which monitoring target model has not been created However, since it can be recognized on the display screen of the captured image which is the monitoring target model creation screen, there is an effect that double creation or omission of creation of the monitoring target model can be prevented.

【0097】請求項10記載の発明によれば、撮像対象
モデル内より抽出した監視対象モデルより求めた注目点
を、撮像画像が表示されている表示画面上の点に変換
し、その位置に対応する監視対象物の監視情報を撮像画
像と重ねて表示するように構成したので、監視情報とそ
の監視対象物が同一の画面に表示されて、その対応が瞬
時につくため、監視情報と監視対象物の対応の不一致を
防止でき、監視作業のミスを防ぐことができるととも
に、監視操作から次の操作への行動までの即応性を向上
できる効果がある。
According to the tenth aspect, the point of interest obtained from the monitoring target model extracted from the imaging target model is converted into a point on the display screen on which the captured image is displayed, and the point corresponding to the position is converted. The monitoring information of the monitored object to be monitored is superimposed on the captured image, so that the monitored information and the monitored object are displayed on the same screen, and the response is instantaneous. It is possible to prevent inconsistency in correspondence between objects, prevent mistakes in monitoring work, and improve responsiveness from monitoring operation to action to the next operation.

【0098】請求項11記載の発明によれば、撮像対象
モデル内より抽出した監視対象モデルより求めた注目点
を、撮像装置の座標系での方向ベクトルに変換し、撮像
装置をその方向ベクトルの方向に向けるための駆動制御
パラメータを算出して撮像装置の回転を制御するように
構成したので、撮像装置を注目したい監視対象物の方向
に自動的に向けてその監視対象物を捉えることが可能と
なり、撮像装置の操作時間を短縮することができる効果
がある。
According to the eleventh aspect of the present invention, the point of interest obtained from the monitoring target model extracted from the imaging target model is converted into a direction vector in the coordinate system of the imaging device, and the imaging device is converted into the direction vector of the direction vector. It is configured to control the rotation of the imaging device by calculating the drive control parameter for pointing in the direction, so it is possible to automatically point the imaging device in the direction of the monitoring target that you want to focus on and catch the monitoring target Thus, there is an effect that the operation time of the imaging device can be reduced.

【0099】請求項12記載の発明によれば、撮像対象
モデル内の監視対象モデルを、入力された監視対象物の
識別子に基づいて抽出するように構成したので、監視作
業者は実際の現場での監視対象物の配置情報を知らなく
とも、監視対象物の識別子を与えるだけで、その監視対
象物が撮像画像の中心にくるように、撮像装置の方向を
自動的に制御できる効果がある。
According to the twelfth aspect of the present invention, the monitoring target model in the imaging target model is configured to be extracted based on the identifier of the input monitoring target object. There is an effect that the direction of the imaging apparatus can be automatically controlled so that the monitoring target is located at the center of the captured image only by giving the monitoring target identifier without knowing the arrangement information of the monitoring target.

【0100】請求項13記載の発明によれば、撮像対象
モデル内の監視対象モデルを、監視作業者によって指示
された監視対象物の表示画面上での位置に基づいて抽出
するように構成したので、撮像画像に映っている監視対
象物を表示画面上で指定するだけで、その監視対象物が
撮像画像の中心にくるように、撮像装置の方向を自動的
に制御できる効果がある。
According to the thirteenth aspect of the present invention, the monitoring target model in the imaging target model is extracted based on the position on the display screen of the monitoring target specified by the monitoring operator. By simply designating the monitoring target in the captured image on the display screen, the direction of the imaging device can be automatically controlled so that the monitoring target is located at the center of the captured image.

【0101】請求項14記載の発明によれば、撮像対象
モデル内の監視対象モデルを、実際の現場の監視対象物
についての異常や故障の発生の有無の検知結果に基づい
て抽出するように構成したので、監視対象物に異常や故
障が発生すると、その監視対象物が撮像画像の中心にく
るように、撮像装置の方向を自動的に制御できる効果が
ある。
According to the fourteenth aspect of the present invention, the monitoring target model in the imaging target model is extracted based on the result of detecting whether an abnormality or a failure has occurred in the monitoring target at the actual site. Therefore, when an abnormality or a failure occurs in the monitored object, the direction of the imaging device can be automatically controlled so that the monitored object is located at the center of the captured image.

【0102】請求項15記載の発明によれば、抽出した
監視対象モデルの投影図形を囲む最小の2次元図形が撮
像装置の撮像領域と一致するように、撮像装置をズーム
インあるいはズームアウトするための駆動制御パラメー
タを算出し、それに基づいて撮像装置のズームイン、ズ
ームアウトの制御を行うように構成したので、監視対象
物の大きさに合わせて撮像装置の撮像範囲の拡大や縮小
を、自動的に制御することが可能となるため、撮像装置
の操作の時間を短縮することができるばかりでなく、監
視操作から次の操作への行動までの即応性を向上させる
ことができる効果がある。
According to the fifteenth aspect of the present invention, the image pickup device is zoomed in or out so that the smallest two-dimensional figure surrounding the extracted projected figure of the monitoring target model coincides with the image pickup area of the image pickup apparatus. The drive control parameters are calculated, and zoom-in and zoom-out control of the imaging device are performed based on the drive control parameters, so that the imaging range of the imaging device can be automatically enlarged or reduced according to the size of the monitoring target. Since the control can be performed, not only the operation time of the imaging apparatus can be reduced, but also the responsiveness from the monitoring operation to the action to the next operation can be improved.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 この発明の実施の形態1による撮像画像を用
いた監視装置の構成を示すブロック図である。
FIG. 1 is a block diagram illustrating a configuration of a monitoring device using captured images according to Embodiment 1 of the present invention.

【図2】 この発明の実施の形態1における処理を説明
するための説明図である。
FIG. 2 is an explanatory diagram for describing processing according to the first embodiment of the present invention.

【図3】 この発明の実施の形態1における処理の手順
を示すフローチャートである。
FIG. 3 is a flowchart showing a procedure of a process according to the first embodiment of the present invention.

【図4】 この発明の実施の形態2による撮像画像を用
いた監視装置で利用する撮像対象モデルを示す模式図で
ある。
FIG. 4 is a schematic diagram illustrating an imaging target model used in a monitoring device using a captured image according to Embodiment 2 of the present invention;

【図5】 この発明の実施の形態2におけるモデル部分
領域を示す模式図である。
FIG. 5 is a schematic diagram showing a model partial region according to Embodiment 2 of the present invention.

【図6】 この発明の実施の形態2における処理の手順
を示すフローチャートである。
FIG. 6 is a flowchart showing a procedure of a process according to the second embodiment of the present invention.

【図7】 この発明の実施の形態3による撮像画像を用
いた監視装置の構成を示すブロック図である。
FIG. 7 is a block diagram showing a configuration of a monitoring device using captured images according to Embodiment 3 of the present invention.

【図8】 この発明の実施の形態3における処理の手順
を示すフローチャートである。
FIG. 8 is a flowchart showing a procedure of processing according to Embodiment 3 of the present invention.

【図9】 この発明の実施の形態4による撮像画像を用
いた監視装置による計測処理を示す説明図である。
FIG. 9 is an explanatory diagram illustrating measurement processing by a monitoring device using a captured image according to Embodiment 4 of the present invention;

【図10】 この発明の実施の形態4における処理の手
順を示すフローチャートである。
FIG. 10 is a flowchart showing a procedure of processing according to Embodiment 4 of the present invention.

【図11】 この発明の実施の形態5による撮像画像を
用いた監視装置における面モデルとモデル投影領域を示
す説明図である。
FIG. 11 is an explanatory diagram showing a surface model and a model projection region in a monitoring device using captured images according to a fifth embodiment of the present invention.

【図12】 この発明の実施の形態5における処理の手
順を示すフローチャートである。
FIG. 12 is a flowchart showing a procedure of processing according to Embodiment 5 of the present invention.

【図13】 この発明の実施の形態6によるモデル作成
方法における処理の手順を示すフローチャートである。
FIG. 13 is a flowchart showing a procedure of processing in a model creation method according to Embodiment 6 of the present invention.

【図14】 この発明の実施の形態7によるモデル作成
方法の処理を示す説明図である。
FIG. 14 is an explanatory diagram showing a process of a model creation method according to a seventh embodiment of the present invention.

【図15】 この発明の実施の形態7における処理の手
順を示すフローチャートである。
FIG. 15 is a flowchart showing a procedure of processing according to Embodiment 7 of the present invention.

【図16】 この発明の実施の形態8による撮像画像を
用いた監視装置の表示例を示す説明図である。
FIG. 16 is an explanatory diagram illustrating a display example of a monitoring device using captured images according to Embodiment 8 of the present invention;

【図17】 この発明の実施の形態8における処理の手
順を示すフローチャートである。
FIG. 17 is a flowchart illustrating a procedure of processing according to the eighth embodiment of the present invention.

【図18】 この発明の実施の形態9による撮像装置制
御方法の処理を示す説明図である。
FIG. 18 is an explanatory diagram illustrating processing of an imaging device control method according to Embodiment 9 of the present invention;

【図19】 この発明の実施の形態9における撮像画像
の変化を示す説明図である。
FIG. 19 is an explanatory diagram showing changes in a captured image according to Embodiment 9 of the present invention.

【図20】 この発明の実施の形態9における処理の手
順を示すフローチャートである。
FIG. 20 is a flowchart showing a procedure of processing according to Embodiment 9 of the present invention.

【図21】 この発明の実施の形態10による撮像装置
制御方法の処理を示す説明図である。
FIG. 21 is an explanatory diagram illustrating processing of an imaging device control method according to Embodiment 10 of the present invention;

【図22】 この発明の実施の形態10における処理の
手順を示すフローチャートである。
FIG. 22 is a flowchart showing a procedure of processing according to Embodiment 10 of the present invention.

【図23】 従来の撮像画像を用いた監視装置の構成を
示すブロック図である。
FIG. 23 is a block diagram showing a configuration of a conventional monitoring device using captured images.

【図24】 従来の撮像画像を用いた監視装置の処理手
順を示すフローチャートである。
FIG. 24 is a flowchart illustrating a processing procedure of a monitoring apparatus using a conventional captured image.

【符号の説明】[Explanation of symbols]

2 撮像装置、3 表示装置、10 表示部分領域指示
操作部、11 表示制御処理部、12 撮像部分領域算
出部、13 撮像対象モデル、14 モデル部分領域算
出部、15 モデル抽出部、16 監視情報出力処理
部。
2 imaging device, 3 display device, 10 display partial region instruction operation unit, 11 display control processing unit, 12 imaging partial region calculation unit, 13 imaging target model, 14 model partial region calculation unit, 15 model extraction unit, 16 monitoring information output Processing unit.

───────────────────────────────────────────────────── フロントページの続き (58)調査した分野(Int.Cl.7,DB名) H04N 7/18 G05B 23/02 G06T 1/00 ──────────────────────────────────────────────────続 き Continued on the front page (58) Field surveyed (Int.Cl. 7 , DB name) H04N 7/18 G05B 23/02 G06T 1/00

Claims (15)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 監視対象である実際の現場を撮像する撮
像装置と、 前記撮像装置の撮像画像を表示する表示装置と、 前記表示装置への表示を制御する表示制御処理部と、 前記実際の現場をモデル化した撮像対象モデルと、 前記表示装置の表示画面内の表示部分領域を指示するた
めの表示部分領域指示操作部と、 前記表示部分領域指示操作部にて指示された表示部分領
域から前記撮像装置の撮像部分領域を求める撮像部分領
域算出部と、 前記撮像部分領域算出部にて求められた撮像部分領域と
前記撮像対象モデルからモデル部分領域を算出するモデ
ル部分領域算出部と、 前記モデル部分領域算出部にて算出されたモデル部分領
域内の監視対象モデルを抽出するモデル抽出部と、 前記モデル抽出部にて抽出された監視対象モデルから前
記実際の現場の監視対象物を認識し、当該監視対象物の
情報を前記表示制御処理部を介して前記表示装置に表示
する監視情報出力処理部とを備えた撮像画像を用いた監
視装置。
An imaging device that captures an image of an actual site to be monitored; a display device that displays an image captured by the imaging device; a display control processing unit that controls display on the display device; An imaging target model that models a site, a display partial area instruction operation unit for instructing a display partial area in a display screen of the display device, and a display partial area instructed by the display partial area instruction operation unit An imaging partial area calculation unit that obtains an imaging partial area of the imaging device; a model partial area calculation unit that calculates a model partial area from the imaging partial area obtained by the imaging partial area calculation unit and the imaging target model; A model extraction unit for extracting a monitoring target model in the model partial region calculated by the model partial region calculation unit; Recognizes the monitoring target in the field, the monitoring device using the captured image and a monitor information output processing unit for displaying the information of the monitored object on the display device via the display control unit.
【請求項2】 モデル部分領域算出部が、撮像部分領域
算出部の求めた撮像部分領域とともに撮像装置の撮像パ
ラメータの入力を受けて、その撮像パラメータを用いて
撮像対象モデルでの撮像投影面を配置してモデル部分領
域を作成する機能を有するものであり、 モデル抽出部が、前記モデル部分領域算出部の作成した
モデル部分領域に重なる監視対象モデルを監視対象物と
して抽出する機能を有するものであることを特徴とする
請求項1記載の撮像画像を用いた監視装置。
2. A model partial area calculation unit receives an imaging parameter of an imaging device together with an imaging partial area obtained by the imaging partial area calculation unit, and uses the imaging parameters to change an imaging projection plane of an imaging target model. A model extracting unit that has a function of extracting the monitoring target model overlapping the model partial region created by the model partial region calculating unit as a monitoring target; The monitoring device according to claim 1, wherein the monitoring device uses a captured image.
【請求項3】 実際の現場をモデル化した撮像対象モデ
ルとして3次元モデルを利用し、 モデル部分領域算出部が、前記3次元モデル内に実際の
現場と同様の位置や姿勢で撮像装置を配置して、撮像部
分領域算出部の算出した撮像部分領域を用いて撮像領域
の3次元部分モデルを作成する機能を有するものであ
り、 モデル抽出部が、前記モデル部分領域算出部の作成した
3次元部分モデルと監視対象物の3次元モデルである監
視対象モデルとの干渉を計算し、前記3次元部分モデル
との間で干渉が生じた前記監視対象モデルを監視対象物
として抽出する機能を有するものであることを特徴とす
る請求項1または請求項2記載の撮像画像を用いた監視
装置。
3. A three-dimensional model is used as an imaging target model that models an actual site, and a model partial area calculation unit arranges the imaging device in the three-dimensional model at the same position and orientation as the actual site. And a function of creating a three-dimensional partial model of the imaging region using the imaging partial region calculated by the imaging partial region calculation unit. One having a function of calculating interference between a partial model and a monitoring target model which is a three-dimensional model of the monitoring target, and extracting the monitoring target model in which interference has occurred between the three-dimensional partial model as a monitoring target. The monitoring device using a captured image according to claim 1 or 2, wherein:
【請求項4】 モデル抽出部が、モデル部分領域算出部
の作成した3次元部分モデルと干渉する監視対象モデル
が2つ以上あった場合に、前記3次元部分モデルと干渉
する監視対象モデルを所定のルールでソーティングして
表示装置に表示させる機能を有するものであることを特
徴とする請求項3記載の撮像画像を用いた監視装置。
4. When there are two or more monitoring target models that interfere with the three-dimensional partial model created by the model partial region calculating unit, the model extraction unit determines a monitoring target model that interferes with the three-dimensional partial model. 4. The monitoring apparatus according to claim 3, wherein the monitoring apparatus has a function of performing sorting according to the following rule and displaying the result on a display device.
【請求項5】 監視情報出力処理部が、実際の現場の状
態に基づいて、当該実際の現場をモデル化した撮像対象
モデルとしての3次元モデルを変更する機能を有するも
のであることを特徴とする請求項3または請求項4記載
の撮像画像を用いた監視装置。
5. The monitoring information output processing section has a function of changing a three-dimensional model as an imaging target model that models the actual site based on the state of the actual site. A monitoring device using the captured image according to claim 3.
【請求項6】 表示部分領域指示操作部が、表示装置に
映し出された撮像画像に対して、測定すべき部分を指定
する指定情報を入力する機能を有するものであり、 モデル部分領域算出部が、前記表示部分領域指示操作部
より入力された指定情報をモデル部分領域に変換すると
ともに、3次元モデル内での計測計算をする機能を有す
るものであることを特徴とする請求項3から請求項5の
うちのいずれか1項記載の撮像画像を用いた監視装置。
6. A display partial area instruction operation unit having a function of inputting designation information for designating a part to be measured with respect to a captured image projected on a display device, wherein the model partial area calculation unit 4. The apparatus according to claim 3, further comprising a function of converting designation information input from the display partial area instruction operation unit into a model partial area and performing measurement calculation in a three-dimensional model. 5. A monitoring device using the captured image according to any one of 5.
【請求項7】 実際の現場をモデル化した撮像対象モデ
ルとして面モデルを利用し、 モデル部分領域算出部が、撮像部分領域算出部で算出さ
れた撮像部分領域を用いて撮像部分領域に対応するモデ
ル部分領域を、前記面モデル上に作成する機能を有する
ものであり、 モデル抽出部が、前記モデル部分領域算出部の作成した
モデル部分領域と干渉する監視対象モデルを求め、それ
を監視対象物として抽出するものであることを特徴とす
る請求項1記載の撮像画像を用いた監視装置。
7. A plane model is used as an imaging target model obtained by modeling an actual site, and a model partial area calculation unit corresponds to an imaging partial area using the imaging partial area calculated by the imaging partial area calculation unit. A model extracting unit that has a function of creating a model partial area on the surface model, wherein a model extracting unit obtains a monitoring target model that interferes with the model partial area created by the model partial area calculating unit, 2. The monitoring apparatus using a captured image according to claim 1, wherein the monitoring apparatus extracts the image as a target.
【請求項8】 監視対象である実際の現場と撮像画像と
の対応をとるための撮像対象モデルを有し、撮像装置の
撮像パラメータを用いて前記撮像対象モデルとの対応を
とり、前記撮像画像を表示している表示装置の表示画面
上の部分領域から撮像投影面の撮像部分領域を算出して
撮像対象モデルのモデル部分領域を求め、そのモデル部
分領域に重なる監視対象モデルを抽出する撮像画像を用
いた監視装置にて、前記撮像対象モデル内の監視対象モ
デルを作成するモデル作成方法において、 前記表示装置の表示画面上に映し出された監視対象物を
直接指示することによって当該監視対象物の輪郭を作成
し、 得られた輪郭を撮像投影面での輪郭に変換し、さらにそ
れを監視対象モデルの輪郭図形に変換することによって
監視対象モデルを作成することを特徴とするモデル作成
方法。
8. An imaging target model for associating a captured image with an actual site to be monitored, wherein correspondence with the imaging target model is obtained by using imaging parameters of an imaging device, From the partial area on the display screen of the display device that displays the image, calculates the imaging partial area of the imaging projection plane, obtains the model partial area of the imaging target model, and extracts the monitoring target model overlapping the model partial area In a model creation method for creating a monitoring target model in the imaging target model, a monitoring device using the above, by directly indicating the monitoring target projected on the display screen of the display device, the monitoring target Create a contour, convert the obtained contour into a contour on the imaging projection plane, and convert it to a contour figure of the monitor model to create a monitored model. Model creation method comprising the door.
【請求項9】 各監視対象モデルの撮像対象モデル内の
位置に対応する表示装置上の位置を算出し、 作成済みの監視対象モデルについては、その監視対象モ
デルが作成済みであることを示す図的情報を作成し、当
該監視対象モデルの位置に対応する前記表示装置上の位
置に撮像画像を重ねて表示することを特徴とする請求項
9記載のモデル作成方法。
9. A diagram that calculates a position on the display device corresponding to a position of each monitoring target model in the imaging target model, and indicates that the monitoring target model has been created for the created monitoring target model. 10. The model creation method according to claim 9, wherein target information is created, and the captured image is superimposed and displayed at a position on the display device corresponding to the position of the monitoring target model.
【請求項10】 監視情報出力処理部が、撮像対象モデ
ル内の監視対象モデルを抽出して当該監視対象モデルの
注目点を求め、当該注目点を撮像画像が表示されている
表示画面上の点に変換して、その位置に撮像画像と重ね
て、対応する監視対象物の監視情報を表示する機能を有
するものであることを特徴とする請求項3、請求項5ま
たは請求項7のうちのいずれか1項記載の撮像画像を用
いた監視装置。
10. A monitoring information output processing unit extracts a monitoring target model from an imaging target model, obtains a point of interest of the monitoring target model, and determines the point of interest on a display screen on which a captured image is displayed. 8. A function of superimposing the captured image on the position and displaying the monitoring information of the corresponding monitoring target object at the position. A monitoring device using the captured image according to claim 1.
【請求項11】 監視対象である実際の現場と撮像画像
との対応をとるための撮像対象モデルを有し、撮像装置
の撮像パラメータを用いて前記撮像対象モデルとの対応
をとり、前記撮像画像を表示している表示装置の表示画
面上の部分領域から撮像投影面の撮像部分領域を算出し
て撮像対象モデルのモデル部分領域を求め、そのモデル
部分領域に重なる監視対象モデルを抽出する撮像画像を
用いた監視装置にて、前記撮像装置を制御する撮像装置
制御方法において、 前記撮像対象モデル内の監視対象モデルを抽出して当該
監視対象モデルの注目点を求め、 その注目点を前記撮像装置の座標系での方向ベクトルに
変換して、得られた前記方向ベクトルの方向に前記撮像
装置を向けるための駆動制御パラメータを算出し、 得られた前記駆動制御パラメータに基づいて前記撮像装
置の制御を行うことを特徴とする撮像装置制御方法。
11. An imaging target model for associating a captured image with an actual site to be monitored, wherein the imaging device uses an imaging parameter of an imaging device to associate with the imaging target model, and From the partial area on the display screen of the display device that displays the image, calculates the imaging partial area of the imaging projection plane, obtains the model partial area of the imaging target model, and extracts the monitoring target model overlapping the model partial area A monitoring device that controls the imaging device by using a monitoring device that extracts a monitoring target model from the imaging target model to obtain a point of interest of the monitoring target model; The drive control parameter for directing the imaging device in the direction of the obtained direction vector is calculated by converting the drive control parameter into a direction vector in the coordinate system of An imaging device control method, comprising controlling the imaging device based on parameters.
【請求項12】 撮像対象モデル内の監視対象モデルの
抽出を、入力された監視対象物の識別子に基づいて行う
ようにしたことを特徴とする請求項11記載の撮像装置
制御方法。
12. The method according to claim 11, wherein the extraction of the monitoring target model in the imaging target model is performed based on the input identifier of the monitoring target object.
【請求項13】 撮像対象モデル内の監視対象モデルの
抽出を、監視作業者によって指示された監視対象物の、
撮像画像が表示されている表示装置の表示画面上での位
置に基づいて行うようにしたことを特徴とする請求項1
1記載の撮像装置制御方法。
13. A method of extracting a monitoring target model from an imaging target model, the monitoring target object being instructed by a monitoring worker,
2. The method according to claim 1, wherein the determination is performed based on a position on a display screen of the display device on which the captured image is displayed.
2. The imaging device control method according to claim 1.
【請求項14】 実際の現場の監視対象物についての異
常や故障の発生の有無の検知を行い、撮像対象モデル内
の監視対象モデルの抽出を、前記異常や故障の発生有無
の検知結果に基づいて行うようにしたことを特徴とする
請求項11記載の撮像装置制御方法。
14. Detection of the presence or absence of an abnormality or a failure with respect to the actual monitoring target at the site, and extraction of the monitoring target model in the imaging target model based on the detection result of the occurrence of the abnormality or the failure. The method according to claim 11, wherein the control is performed by performing the following.
【請求項15】 撮像対象モデル内より抽出した監視対
象モデルの投影図形の形状に基づいて、当該投影図形を
囲む最小の2次元図形を求め、 得られた前記最小の2次元図形が撮像装置の撮像画像の
全領域と一致するように、前記撮像装置のズームインや
ズームアウトの制御を行うための駆動制御パラメータを
算出し、 得られた前記駆動制御パラメータに基づいて前記撮像装
置の制御を行うことを特徴とする請求項11から請求項
14のうちのいずれか1項記載の撮像装置制御方法。
15. A minimum two-dimensional figure surrounding the projected figure is obtained based on the shape of the projected figure of the monitoring target model extracted from the imaging target model, and the obtained minimum two-dimensional figure is used for the imaging apparatus. Calculating drive control parameters for controlling zoom-in and zoom-out of the imaging device so as to match the entire region of the captured image; and controlling the imaging device based on the obtained drive control parameters. The imaging device control method according to any one of claims 11 to 14, wherein:
JP7292996A 1996-03-27 1996-03-27 Monitoring apparatus using captured image, model creation method thereof, and imaging apparatus control method Expired - Fee Related JP3288575B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP7292996A JP3288575B2 (en) 1996-03-27 1996-03-27 Monitoring apparatus using captured image, model creation method thereof, and imaging apparatus control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP7292996A JP3288575B2 (en) 1996-03-27 1996-03-27 Monitoring apparatus using captured image, model creation method thereof, and imaging apparatus control method

Publications (2)

Publication Number Publication Date
JPH09261621A JPH09261621A (en) 1997-10-03
JP3288575B2 true JP3288575B2 (en) 2002-06-04

Family

ID=13503552

Family Applications (1)

Application Number Title Priority Date Filing Date
JP7292996A Expired - Fee Related JP3288575B2 (en) 1996-03-27 1996-03-27 Monitoring apparatus using captured image, model creation method thereof, and imaging apparatus control method

Country Status (1)

Country Link
JP (1) JP3288575B2 (en)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3665212B2 (en) * 1999-01-19 2005-06-29 沖電気工業株式会社 Remote monitoring device and remote monitoring method
US6940998B2 (en) * 2000-02-04 2005-09-06 Cernium, Inc. System for automated screening of security cameras
JP5170277B2 (en) * 2001-03-02 2013-03-27 住友大阪セメント株式会社 Monitoring system
JP2003116139A (en) * 2001-10-03 2003-04-18 Olympus Optical Co Ltd Video distribution server and video reception client system
CA2678156C (en) * 2007-02-16 2013-10-08 Mitsubishi Electric Corporation Measurement apparatus, measurement method, and feature identification apparatus
JP6028032B2 (en) * 2012-08-24 2016-11-16 富士機械製造株式会社 Electrical circuit production line support system
JP6139089B2 (en) * 2012-10-02 2017-05-31 株式会社東芝 Design support apparatus and design support method
JP6309913B2 (en) * 2015-03-31 2018-04-11 セコム株式会社 Object detection device
JP7488218B2 (en) * 2021-03-29 2024-05-21 Kddi株式会社 Information processing device, information processing method, and program

Also Published As

Publication number Publication date
JPH09261621A (en) 1997-10-03

Similar Documents

Publication Publication Date Title
CA3016539C (en) Image processing method, display device, and inspection system
US7522186B2 (en) Method and apparatus for providing immersive surveillance
JP3148045B2 (en) 3D object CG creation device
JP6171671B2 (en) Information processing apparatus, position specifying method, and position specifying program
EP1355277B1 (en) Three-dimensional computer modelling
KR100869447B1 (en) Apparatus and method for indicating a target by image processing without three-dimensional modeling
JP5093053B2 (en) Electronic camera
JP2002092647A (en) Information presentation system and model error detection system
JP3288575B2 (en) Monitoring apparatus using captured image, model creation method thereof, and imaging apparatus control method
JP6310149B2 (en) Image generation apparatus, image generation system, and image generation method
JP6265131B2 (en) Visual field display system, visual field display method, and visual field display program
JPH09212219A (en) Three-dimensional virtual model preparing device and monitor controller for controlled object
JP2006146323A (en) Face feature collating device, face feature collating method, and program
JP5854951B2 (en) Panorama image generator
JP5727207B2 (en) Image monitoring device
CN107507133A (en) A kind of realtime graphic joining method based on pipe Work robot
JP7448633B2 (en) A three-dimensional measuring device that generates position information on the surface of an object based on images captured by multiple cameras.
JP6854631B2 (en) Information visualization system, information visualization method, and program
JP3384061B2 (en) Plant monitoring method and apparatus
JP2002042139A (en) Image recognizing method and image display device
JP2020188432A (en) Device, program and method for setting imaging direction, and device, program and method for invasion detection
KR102152319B1 (en) Method of calculating position and size of object in 3d space and video surveillance system using the same
JP2001051718A (en) Plant operation monitoring method and device therefor
JPH0360989A (en) Method and device for displaying picture and remote control device
JPH10132651A (en) Plant monitoring device

Legal Events

Date Code Title Description
FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080315

Year of fee payment: 6

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090315

Year of fee payment: 7

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100315

Year of fee payment: 8

LAPS Cancellation because of no payment of annual fees