JPH10174090A - Monitor supporting device - Google Patents
Monitor supporting deviceInfo
- Publication number
- JPH10174090A JPH10174090A JP8330503A JP33050396A JPH10174090A JP H10174090 A JPH10174090 A JP H10174090A JP 8330503 A JP8330503 A JP 8330503A JP 33050396 A JP33050396 A JP 33050396A JP H10174090 A JPH10174090 A JP H10174090A
- Authority
- JP
- Japan
- Prior art keywords
- image
- gantry
- interest
- image input
- region
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Closed-Circuit Television Systems (AREA)
- Burglar Alarm Systems (AREA)
Abstract
Description
【0001】[0001]
【発明の属する技術分野】本発明は、被監視域にテレビ
カメラ等の画像入力装置が設置され、監視員が別室のモ
ニタを常時監視し続けることによってなされる一般的な
監視作業において、監視員の作業負担を軽減するととも
に、監視員が効率よく監視作業を行えるよう支援する監
視支援装置に関するものである。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a general monitoring operation in which an image input device such as a television camera is installed in a monitored area and a monitoring person constantly monitors a monitor in another room. The present invention relates to a monitoring support device that reduces the work load of a monitoring person and assists a monitoring person in performing monitoring work efficiently.
【0002】[0002]
【従来の技術】従来の監視支援装置としては、移動体追
尾装置として特開平5―346958号に記載されたも
のが知られている。これは画像処理によって移動体を検
出し、移動体を自動追尾することによって監視員の作業
負担を軽減しようとするものである。2. Description of the Related Art As a conventional monitoring support apparatus, there is known a moving object tracking apparatus described in Japanese Patent Application Laid-Open No. 5-346958. This is to reduce the work load on the observer by detecting a moving object by image processing and automatically tracking the moving object.
【0003】図7に特開平5―346958号に記載の
移動体追尾装置の構成を示している。図7において、7
01は画像入力手段である。702は第1画像メモリ
で、画像入力手段701から出力されるn番目の画像デ
ータを記憶する。703は第2画像メモリで、画像入力
手段701から出力されたn+1番目の画像データを記
憶し、かつ出力開始タイミングを変えることができる。
704は位置合わせ手段で、第1画像メモリ702と第
2画像メモリ703との画像の位置のずれベクトルを検
出する。705は移動体検出手段で、位置合わせ手段7
04により位置合わせされた第1画像メモリ702と第
2画像メモリ703との画像差により移動体を検出す
る。706は位置算出手段で、移動体検出手段705で
得られた移動体の像の重心を求め、画面中央を原点とし
た移動体の位置を算出する。707は架台で、画像入力
手段701の視野方向を自在に駆動する。708は架台
制御手段で、架台707を制御する。709はレジスタ
で、位置算出手段706の出力を記憶する。710は加
算手段で、位置合わせ手段704の出力とレジスタ70
9の出力とを加算し、第2画像メモリ703の出力開始
タイミングを制御する。711は制御手段で、第1画像
メモリ702、第2画像メモリ703、位置合わせ手段
704、移動体検出手段705、位置算出手段706、
レジスタ709、加算手段710の各処理手順を制御す
る。FIG. 7 shows a configuration of a moving object tracking device described in Japanese Patent Application Laid-Open No. 5-346958. In FIG. 7, 7
01 is an image input means. A first image memory 702 stores the n-th image data output from the image input unit 701. A second image memory 703 can store the (n + 1) th image data output from the image input unit 701 and change the output start timing.
Reference numeral 704 denotes a positioning unit which detects a displacement vector of the image position between the first image memory 702 and the second image memory 703. Reference numeral 705 denotes a moving object detecting means,
The moving object is detected based on the image difference between the first image memory 702 and the second image memory 703 aligned by the step 04. Reference numeral 706 denotes a position calculating unit that obtains the center of gravity of the image of the moving object obtained by the moving object detecting unit 705, and calculates the position of the moving object with the center of the screen as the origin. Reference numeral 707 denotes a gantry, which freely drives the viewing direction of the image input unit 701. Reference numeral 708 denotes a gantry control unit that controls the gantry 707. A register 709 stores the output of the position calculation unit 706. Reference numeral 710 denotes an adding means, which outputs the output of the positioning means 704 and the register 70.
9 to control the output start timing of the second image memory 703. Reference numeral 711 denotes a control unit, which includes a first image memory 702, a second image memory 703, a positioning unit 704, a moving object detection unit 705, a position calculation unit 706,
Each processing procedure of the register 709 and the adding means 710 is controlled.
【0004】以上のように構成された移動体追尾装置に
ついて、以下その動作について説明する。図8にその処
理手順を示している。まず、既にn番目における処理が
すべて終了して、画像入力手段701が入力したn番目
のフレームの画像データ(例えば図9(A)の画像)が
第1画像メモリ702に記憶されているものとする。し
たがって、n+1番目の処理が開始される。いま、制御
手段711の指令により画像入力手段701が入力した
n+1番目のフレームにおける画像データを第2画像メ
モリ703に記憶する。このとき視野画像はn番目にお
ける処理によりパニング(チルト)されているので、図
9(B)に示す画像のようになる(ST81)。[0004] The operation of the mobile object tracking device configured as described above will be described below. FIG. 8 shows the processing procedure. First, it is assumed that the processing of the n-th frame has already been completed and the image data of the n-th frame (for example, the image of FIG. 9A) input by the image input unit 701 is stored in the first image memory 702. I do. Therefore, the (n + 1) th process is started. Now, the image data in the (n + 1) th frame input by the image input means 701 according to the instruction of the control means 711 is stored in the second image memory 703. At this time, since the field-of-view image has been panned (tilted) by the n-th process, the image is as shown in FIG. 9B (ST81).
【0005】つぎに制御手段711が位置合わせ手段7
04の出力をクリア(ずれ量x,y=0、0)にするこ
とにより(ST82)、加算手段710の出力はレジス
タ709の内容がそのまま出力される。ここでレジスタ
709は、n番目における位置算出手段706の内容、
すなわちn番目において画面中央を原点とした座標系で
の検出された移動体の位置x(n)、y(n)が記憶さ
れているので、加算手段710は第2画像メモリ703
の出力開始タイミングをx方向にx(n)、y方向にy
(n)だけ遅らせる(または進ませる)ことにより、第
2画像メモリ703はx(n)、y(n)だけ位置が補
正された画像(図9(C)の画像)を出力する。このと
き、制御手段711が第1画像メモリ702の出力と第
2画像メモリ703の出力を位置合わせ手段704に送
る(ST83)。そこで位置合わせ手段704は図9の
(A)と(C)の画像の位置ずれベクトルを検出する
(ST84)。[0005] Next, the control means 711
By clearing the output of the register 04 (shift amount x, y = 0, 0) (ST82), the output of the adding means 710 is output as it is from the register 709. Here, the register 709 stores the contents of the n-th position calculating unit 706,
That is, since the detected positions x (n) and y (n) of the moving object in the coordinate system having the origin at the center of the screen at the n-th are stored, the adding means 710 sets the second image memory 703
Output start timing of x (n) in the x direction and y in the y direction
By delaying (or moving forward) by (n), the second image memory 703 outputs an image whose position has been corrected by x (n) and y (n) (the image in FIG. 9C). At this time, the control means 711 sends the output of the first image memory 702 and the output of the second image memory 703 to the positioning means 704 (ST83). Then, the positioning means 704 detects the displacement vector of the images of FIGS. 9A and 9C (ST84).
【0006】位置ずれベクトルの算出方法としては、例
えば、n番目における画像をgn (x,y)、n+1番
目における画像をgn+1 (x,y)とするとき、画像g
n (x,y)をx方向にξ、y方向にηずらして数式1
を最小にするようなξとηを求める。 ΣΣ|gn (x―ξ,y―η)―gn+1 (x,y)| (1) これにより図9の(A)と(C)の画像間の位置ずれベ
クトルΔx(n+1)、Δy(n+1)を検出すること
ができる。そこで制御手段711が位置合わせ手段70
4の出力、すなわち上記位置ずれベクトルΔx(n+
1)、Δy(n+1)を加算手段710へ出力すること
により、加算手段710はレジスタ709の内容=x
(n)、y(n)と位置ずれベクトルΔx(n+1)、
Δy(n+1)を加算し(ST85)、第2画像メモリ
703の出力開始タイミングをx方向にx(n)+Δx
(n+1)、y方向にy(n)+Δy(n+1)だけ遅
らせる(または進ませる)ことにより、第2画像メモリ
703はx(n)+Δx(n+1)、y(n)+Δy
(n+1)だけ位置が補正された画像を出力する。この
とき制御手段711が第1画像メモリ702の出力と第
2画像メモリ703の出力を移動体検出手段705に送
る(ST86)。As a method of calculating the displacement vector, for example, when the image at the n-th time is gn (x, y) and the image at the n + 1-th time is gn + 1 (x, y), the image g
n (x, y) is shifted by ξ in the x direction and η in the y direction,
Ξ and η that minimize. ΣΣ | gn (x−ξ, y−η) −gn + 1 (x, y) | (1) As a result, the displacement vectors Δx (n + 1) and Δy between the images of FIGS. 9A and 9C are obtained. (N + 1) can be detected. Therefore, the control unit 711 sets the positioning unit 70
4, ie, the displacement vector Δx (n +
1), by outputting Δy (n + 1) to the adding means 710, the adding means 710 makes the content of the register 709 = x
(N), y (n) and displacement vector Δx (n + 1),
Δy (n + 1) is added (ST85), and the output start timing of the second image memory 703 is set to x (n) + Δx in the x direction.
By delaying (or moving forward) by (n + 1) and y (n) + Δy (n + 1) in the y direction, the second image memory 703 stores x (n) + Δx (n + 1) and y (n) + Δy
An image whose position is corrected by (n + 1) is output. At this time, the control means 711 sends the output of the first image memory 702 and the output of the second image memory 703 to the moving object detection means 705 (ST86).
【0007】こうして、n番目の画像と、位置合わせ手
段704により位置ずれを補正させたn+1番目の画像
とが移動体検出手段705により比較され、両画像間の
差分を求めれば画像内から移動体のみを検出することが
できる(ST87)。In this way, the moving object detecting means 705 compares the n-th image with the (n + 1) -th image whose position has been corrected by the positioning means 704. If the difference between the two images is obtained, the moving object is detected from within the image. Only can be detected (ST87).
【0008】位置算出手段706は、検出された移動体
の重心を求め、画像中央位置を原点とした座標系での移
動体の位置x(n+1)、y(n+1)を算出し、レジ
スタ709の内容を更新する(ST88)とともに、架
台制御手段708に出力することにより、架台707が
制御されて画像入力手段701の視野画像の中心に移動
体を捉えることができる(ST89)。以上の動作を繰
り返すことにより移動体を追尾することができる。The position calculating means 706 calculates the center of gravity of the detected moving body, calculates the positions x (n + 1) and y (n + 1) of the moving body in a coordinate system having the origin at the center position of the image. By updating the content (ST88) and outputting it to the gantry control means 708, the gantry 707 is controlled and the moving object can be captured at the center of the visual field image of the image input means 701 (ST89). The moving object can be tracked by repeating the above operation.
【0009】[0009]
【発明が解決しようとする課題】しかしながら、上記従
来の移動体追尾装置においては、あくまでも追尾する対
象として画像処理による移動体検出により検出された移
動体のみしか考慮されていないため、殆ど移動体の存在
しない被監視域にごくたまに不審な人物等が侵入するよ
うな場合には有効であるが、複数の移動体が存在するよ
うな被監視域で監視員が監視員の判断によって特に着目
したい移動体を追尾したい場合等に不向きである。必ず
しも、監視員の着目したい物体(領域)と移動体検出に
よって検出された物体とは一致しないからである。その
事例として、デパートの売り場に設置された監視カメラ
の映像を別室のモニタを見ながら監視員が不審者を発見
・監視する場合を想定しよう。このような場合、被監視
域、すなわち売り場にはたくさんの人物(客など)が存
在し、従来技術ではどの物体を追尾したらよいか判断が
つかない。例えば最初に検出された物体を追尾し続ける
とか、新たに検出された物体を優先的に追尾する等は可
能である。しかし、このようにして決定された移動体
(追尾対象)は必ずしも監視員の着目したい物体とは一
致しないことは一目瞭然であろう。熟練した監視員は個
々の人物の細かな挙動から不審そうな人物をピックアッ
プし、その人物に着目して監視を行っている。このよう
な監視作業はモニタ室にあるジョイスティック等の遠隔
制御装置によって、監視員が監視カメラの視野方向制御
(架台制御)や画角制御(ズーム制御)を行っているの
が現状であり、この操作には相当の熟練が必要になって
いる。However, in the above-mentioned conventional moving object tracking apparatus, only the moving object detected by the detection of the moving object by the image processing is considered as the object to be tracked to the last. This is effective when a suspicious person or the like occasionally enters the non-existent monitored area.However, in the monitored area where there are multiple moving objects, the monitor should pay special attention based on the judgment of the monitor. It is not suitable when you want to track your body. This is because the object (region) that the observer wants to pay attention to does not necessarily match the object detected by the moving object detection. As an example, let's assume that an observer finds and monitors a suspicious individual while watching the video of a surveillance camera installed at a department store's sales floor in a monitor in another room. In such a case, there are many persons (customers, etc.) in the monitored area, that is, the sales floor, and it is difficult to determine which object should be tracked in the related art. For example, it is possible to keep track of the first detected object or to preferentially track a newly detected object. However, it will be apparent at a glance that the moving object (tracking target) determined in this way does not always match the object that the observer wants to pay attention to. A skilled observer picks up a suspicious person from the individual's detailed behavior and monitors the individual's attention. At present, such surveillance work is performed by a monitor using a joystick or other remote control device in a monitor room to control the direction of view of the surveillance camera (control the gantry) or control the angle of view (zoom control). The operation requires considerable skill.
【0010】本発明は、上記従来の問題を解決するもの
で、画像内に複数の移動体や静止物が存在していても、
監視員が着目したい対象物体を効率よく監視できるよう
にして、監視員の作業負担を軽減することが可能な優れ
た監視支援装置を提供することを目的とする。[0010] The present invention solves the above-mentioned conventional problems. Even if a plurality of moving or stationary objects exist in an image,
It is an object of the present invention to provide an excellent surveillance support device that enables a monitor to efficiently monitor a target object that the watcher wants to pay attention to and reduce the work load on the monitor.
【0011】[0011]
【課題を解決するための手段】上記目的を達成するため
に、本発明の監視支援装置においては、不審者等の着目
物体の存在する着目領域を、監視員がモニタを見ながら
監視員自身が画像内に指定できるマンマシン・インタフ
ェース手段と、指定された着目物体(着目領域)の方向
に画像入力手段の視野方向を自動的に制御し、画像の特
定位置に着目領域を撮像する架台制御手段とを設け、画
像内に複数の移動体や静止物が存在していても、監視員
が着目したい対象物体を効率よく監視できるようにし
て、監視員の作業負担を軽減するようにした。In order to achieve the above object, in a monitoring support apparatus according to the present invention, an observer himself / herself looks at a target area where an object of interest such as a suspicious person is present while looking at the monitor. Man-machine interface means that can be specified in the image, and gantry control means that automatically controls the direction of the field of view of the image input means in the direction of the specified object of interest (area of interest) and captures the area of interest at a specific position in the image Thus, even if a plurality of moving or stationary objects are present in the image, the monitor can efficiently monitor the target object that the user wants to pay attention to, thereby reducing the work load on the monitor.
【0012】[0012]
【発明の実施の形態】本発明の請求項1に記載の監視支
援装置は、画像入力手段と、画像入力手段の視野方向を
制御する架台と、画像入力手段によって入力された画像
をモニタし、画像内に着目領域を指定するマンマシン・
インタフェース手段と、マンマシン・インタフェース手
段によって指定された着目領域の画像内での位置情報を
もとに架台を制御する架台制御手段とを備えたものであ
る。DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS A monitoring support apparatus according to a first aspect of the present invention monitors image input means, a gantry for controlling the direction of the field of view of the image input means, and an image input by the image input means. Man-machine / specify the area of interest in the image
Interface means; and gantry control means for controlling the gantry based on positional information in the image of the region of interest specified by the man-machine interface means.
【0013】本発明の請求項2に記載の監視支援装置
は、請求項1の構成において、架台制御手段は、マンマ
シン・インタフェース手段によって指定された着目領域
が架台制御後の画像入力手段によって得られる画像の予
め設定された特定位置に撮像されるように架台を制御す
るようにしたものである。According to a second aspect of the present invention, in the monitoring support apparatus according to the first aspect, the gantry control means obtains the area of interest designated by the man-machine interface means by the image input means after the gantry control. The gantry is controlled so that an image to be taken is captured at a specific position set in advance.
【0014】上記各構成により、従来のように監視員の
判断が考慮されない移動体(しかも移動体の数はほとん
どの場合1ケに限定される)を追尾するのではなく、あ
くまでも着目対象を監視員が画像内に指定することによ
って、監視員が真に着目したい物体のみを効率よく監視
できる。したがって、従来用いられているジョイスティ
ック等による架台やズームのマニュアル操作のように熟
練を必要としないため監視員の作業負担を大幅に低減す
ることができるという作用を有する。According to the above-described configurations, instead of tracking a moving body (and the number of moving bodies is limited to one in most cases) in which the judgment of the observer is not taken into account as in the related art, the target of interest is monitored only. By specifying in the image by the worker, only the object that the watchman really wants to pay attention to can be efficiently monitored. Therefore, since there is no need for skill like a manual operation of a stand or a zoom using a joystick or the like which has been conventionally used, there is an effect that the work load on the monitor can be greatly reduced.
【0015】本発明の請求項3に記載の監視支援装置
は、画像入力手段と、画像入力手段の視野方向を制御す
る架台と、画像入力手段によって入力された画像をモニ
タし、画像内に着目領域を指定するマンマシン・インタ
フェース手段と、画像入力手段によって入力される複数
毎の画像を用いて、予め設定された画像の特定位置の物
体の移動方向を検出する移動方向検出手段と、着目領域
および/または移動方向をもとに架台を制御する架台制
御手段とを備えたものである。According to a third aspect of the present invention, there is provided a monitoring support apparatus for monitoring an image input by an image input means, a gantry for controlling a view direction of the image input means, and monitoring an image input by the image input means. Man-machine interface means for designating an area; movement direction detection means for detecting a movement direction of an object at a specific position of a preset image by using a plurality of images inputted by the image input means; And / or gantry control means for controlling the gantry based on the moving direction.
【0016】本発明の請求項4に記載の監視支援装置
は、請求項3の構成において、架台制御手段は、マンマ
シン・インタフェース手段によって指定された着目領域
が架台制御後の画像入力手段によって得られる画像の予
め設定された特定位置に撮像されるように架台を制御
し、移動方向検出手段によって検出された移動方向をも
とに常に着目領域が画像の予め設定された特定位置に撮
像されるように架台を制御するようにしたものである。According to a fourth aspect of the present invention, in the monitoring support apparatus according to the third aspect, the gantry control means obtains the area of interest designated by the man-machine interface means by the image input means after the gantry control. The gantry is controlled so that an image is taken at a preset specific position of the image to be taken, and a region of interest is always taken at a preset specific position of the image based on the moving direction detected by the moving direction detecting means. The gantry is controlled as described above.
【0017】上記各構成により、従来のように監視員の
判断が考慮されない移動体を追尾するのではなく、あく
までも着目対象を監視員が画面内に指定することによっ
て、監視員が真に着目したい物体を特定でき、しかも一
度指定した後はその物体が移動しても自動的に追尾する
ため効率よく監視できる。したがって、従来用いられて
いるジョイスティック等による架台や画角のマニュアル
操作のように熟練を必要としないため監視員の作業負担
を大幅に低減することができるという作用を有する。According to each of the above-described configurations, instead of following a moving object in which the judgment of the observer is not taken into account as in the related art, the observer simply wants to pay attention to the target by designating the target of interest on the screen. The object can be specified, and once specified, even if the object moves, the object is automatically tracked, so that efficient monitoring can be performed. Therefore, since there is no need for skill like manual operation of a stand or an angle of view using a joystick or the like which has been conventionally used, there is an effect that the work load on the observer can be greatly reduced.
【0018】本発明の請求項5に記載の監視支援装置
は、ズーム機能を具備した画像入力手段と、画像入力手
段の視野方向を制御する架台と、画像入力手段によって
入力された画像をモニタし、画像内に着目領域を指定す
るマンマシン・インタフェース手段と、画像入力手段に
よって入力される複数毎の画像を用いて、予め設定され
た画像の特定位置の物体の移動方向を検出する移動方向
検出手段と、着目領域および/または移動方向をもとに
架台を制御する架台制御手段と、着目領域の大きさ・形
状によって画像入力手段のズーム制御を行う画角制御手
段とを備えたものである。According to a fifth aspect of the present invention, there is provided a monitoring support apparatus comprising: an image input unit having a zoom function; a gantry for controlling a direction of a visual field of the image input unit; and an image input by the image input unit. Moving direction detection for detecting a moving direction of an object at a specific position of a preset image using man-machine interface means for designating a region of interest in the image and plural images inputted by the image input means; Means, gantry control means for controlling the gantry based on the region of interest and / or moving direction, and view angle control means for performing zoom control of the image input means depending on the size and shape of the region of interest. .
【0019】上記構成により、従来のように監視員の判
断が考慮されない移動体を追尾するのではなく、あくま
でも着目対象を監視員が画像内に指定することによっ
て、監視員が真に着目したい物体を特定でき、しかも着
目領域を予め設定した画像内のある特定位置に撮像され
るように架台が自動制御されるだけでなく、着目領域の
ズームアップも自動的に行うため、従来の監視作業に比
べてより簡単な操作で緻密な監視を行うことができると
いう作用を有する。According to the above configuration, instead of following a moving object in which the judgment of the observer is not taken into account as in the related art, the observer specifies the target of interest in the image to the last, so that the object that the observer really wants to pay attention to can be obtained. In addition to automatically controlling the gantry so that the area of interest can be imaged at a specific position in an image in which the area of interest has been set in advance, it also automatically zooms in on the area of interest, making conventional monitoring work easier. This has the effect that close monitoring can be performed with a simpler operation.
【0020】以下、本発明の実施の形態について、図を
参照しながら詳細に説明する。 (実施の形態1)図1は本発明の実施の形態1における
監視支援装置の構成を示すものである。図1において、
101は画像入力手段であり、被監視域の画像を撮像
し、外部に出力する。102はマンマシン・インタフェ
ース手段で、監視員等が画像入力手段101によって入
力された画像をモニタし、画像内に着目領域を指定する
ための手段であり、画像入力手段101からの画像信号
と後述の着目領域指定手段105からのグラフィック情
報を合成する合成手段103と、合成手段103によっ
て合成された画像を表示するための画像表示手段104
と、画像表示手段104に表示された画像をモニタしな
がら着目領域を指定するとともに指定された着目領域の
位置情報等を架台制御手段107に出力する着目領域指
定手段105とから構成されている。107は架台制御
手段であり、着目領域指定手段105からの位置情報等
を用いて架台106を駆動することにより画像入力手段
101の視野方向を制御する。Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. (Embodiment 1) FIG. 1 shows the configuration of a monitoring support apparatus according to Embodiment 1 of the present invention. In FIG.
An image input unit 101 captures an image of the monitored area and outputs the image to the outside. Reference numeral 102 denotes a man-machine interface unit for monitoring an image input by the image input unit 101 by a monitor or the like and specifying a region of interest in the image. Combining means 103 for combining the graphic information from the attention area designating means 105, and an image display means 104 for displaying the image combined by the combining means 103.
And a region-of-interest designating unit 105 that designates a region of interest while monitoring the image displayed on the image display unit 104 and outputs position information and the like of the designated region of interest to the gantry control unit 107. Reference numeral 107 denotes a gantry control unit, which controls the view direction of the image input unit 101 by driving the gantry 106 using position information and the like from the attention area specifying unit 105.
【0021】次に上記実施の形態1における監視支援装
置の動作について、図1および図2を参照しながら説明
する。ここでは、マンマシン・インタフェース手段10
2の具体的実現例として、図2に示すように、パソコン
を使用する場合を例にとって説明する。画像入力手段1
01で撮像された画像と、監視員がパソコンのマウス等
を操作することによって生成されるマウスカーソル等の
グラフィック情報が、パソコン内部の合成手段103に
おいて合成され、画像表示手段104(パソコンモニ
タ)に表示される。監視員は、図2(A−1)または
(A−2)に示すように、自分が着目したい領域にマウ
スカーソルを移動し、着目領域を指定する。指定された
着目領域の位置情報は、パソコンに装備された、例えば
シリアルインタフェースであるRS−232Cなどを通
して架台制御手段107に出力される。架台制御手段1
07は、着目領域の位置情報を用いて、指定された着目
領域が、図2(B)に示すように、例えば画面中央に撮
像されるように画像入力手段101の視野方向を架台1
06を駆動することによって制御する。Next, the operation of the monitoring support apparatus according to the first embodiment will be described with reference to FIGS. Here, the man-machine interface means 10
As a specific example of implementation 2, a case where a personal computer is used as shown in FIG. 2 will be described as an example. Image input means 1
01 and graphic information such as a mouse cursor generated by a monitor operating a personal computer mouse or the like in a personal computer, are synthesized by a synthesizing means 103 in the personal computer, and are displayed on an image display means 104 (a personal computer monitor). Is displayed. As shown in FIG. 2 (A-1) or (A-2), the observer moves the mouse cursor to an area to which he / she wants to pay attention, and designates the area of interest. The position information of the designated region of interest is output to the gantry control unit 107 through, for example, a serial interface such as RS-232C provided in the personal computer. Mount control means 1
07, the view direction of the image input means 101 is set to the gantry 1 so that the designated region of interest is imaged, for example, at the center of the screen as shown in FIG.
06 is driven.
【0022】このように上記実施の形態1によれば、被
監視域に複数の移動体が存在する場合などでも、監視員
が真に着目したい物体を効率よく監視できるだけでな
く、従来用いられているジョイスティック等による架台
や画角のマニュアル操作のように熟練を必要としないた
め、監視員の作業負担を大幅に低減することができる。As described above, according to the first embodiment, even when a plurality of moving objects are present in the monitored area, not only can the monitoring person efficiently monitor the object that the user really wants to pay attention to, but also can be used conventionally. Unlike the manual operation of the stand and angle of view using a joystick or the like, skill is not required, so that the work load on the observer can be greatly reduced.
【0023】(実施の形態2)図3は本発明の実施の形
態2における監視支援装置の構成を示すものである。図
3において、301は画像入力手段であり、被監視域の
画像を撮像し、外部に出力する。302はマンマシン・
インタフェース手段で、監視員が画像入力手段301に
よって入力された画像をモニタし、画像内に着目領域を
指定するための手段であり、画像入力手段301からの
画像信号と後述の着目領域指定手段305からのグラフ
ィック情報を合成する合成手段303と、合成手段30
3によって合成された画像を表示するための画像表示手
段304と、画像表示手段304に表示された画像をモ
ニタしながら着目領域を指定するとともに指定された着
目領域の位置情報等を切り替え手段311に出力する着
目領域指定手段305とから構成されている。306は
移動方向検出手段で、マンマシン・インタフェース手段
302によって指定された着目領域の物体が移動する場
合にその移動方向を検出し、自動追尾するための手段で
あり、異なる時刻に撮像された複数毎の画像を格納する
ための画像メモリ、ここでは第1画像メモリ307およ
び第2画像メモリ308と、複数毎の画像より予め設定
された画像内特定位置の移動ベクトルを検出する移動ベ
クトル検出手段309と、移動ベクトル検出手段309
によって検出された移動ベクトルから物体の移動後の位
置を算出する位置算出手段310とから構成される。3
11は切り替え手段であり、監視員によって着目領域が
指定されたときはマンマシン・インタフェース手段30
2からの位置情報を出力し、その後は、移動方向検出手
段306からの位置情報を出力するように信号の切り替
えを行う。313は架台制御手段であり、切り替え手段
311からの位置情報等を用いて架台312を駆動する
ことにより画像入力手段301の視野方向を制御する。(Embodiment 2) FIG. 3 shows a configuration of a monitoring support apparatus according to Embodiment 2 of the present invention. In FIG. 3, reference numeral 301 denotes an image input unit which captures an image of a monitored area and outputs the image to the outside. 302 is a man-machine
The interface means monitors the image input by the image input means 301 by the observer and designates a region of interest within the image. The image signal from the image input means 301 and the region of interest designation means 305 described later Combining means 303 for combining graphic information from
3. An image display unit 304 for displaying the image synthesized by the third unit 3 and a switching unit 311 for specifying a region of interest while monitoring the image displayed on the image display unit 304 and switching position information and the like of the specified region of interest. And a target area designating means 305 to be output. Reference numeral 306 denotes a moving direction detecting means for detecting the moving direction of the object in the region of interest designated by the man-machine interface means 302 and automatically tracking the object. Image memory for storing each image, here, a first image memory 307 and a second image memory 308, and a movement vector detecting means 309 for detecting a movement vector of a predetermined position in the image from a plurality of images. And the movement vector detecting means 309
And a position calculating means 310 for calculating the position of the object after the movement from the movement vector detected by the method. 3
Reference numeral 11 denotes switching means, which is a man-machine interface means 30 when a region of interest is designated by a monitor.
Then, the signal is switched so that the position information from the moving direction detecting means 306 is output. Reference numeral 313 denotes a gantry control unit that controls the view direction of the image input unit 301 by driving the gantry 312 using position information and the like from the switching unit 311.
【0024】次に上記実施の形態2における監視支援装
置の動作について、図2〜図4を参照しながら説明す
る。ここでもまた、実施の形態1と同様に、マンマシン
・インタフェース手段302の具体的実現例として、図
2または図4に示すように、パソコンを使用する場合を
例にとって説明する。画像入力手段301で撮像された
画像と、監視員がパソコンのマウス等を操作することに
よって生成されるマウスカーソル等のグラフィック情報
が、パソコン内部の合成手段303において合成され、
画像表示手段304(パソコンモニタ)に表示される。
監視員は、図2(A−1)または(A−2)に示すよう
に、自分が着目したい領域にマウスカーソルを移動し、
着目領域を指定する。指定された着目領域の位置情報
は、パソコンに装備された、例えばシリアルインタフェ
ースであるRS−232Cなどを通して切り替え手段3
11に出力される。着目領域指定時には、切り替え手段
311から位置情報が架台制御手段313に送られ、架
台制御手段313は、着目領域の位置情報を用いて、指
定された着目領域が、例えば図4(A)に示すように、
画面中央に撮像されるように画像入力装置301の視野
方向を架台312を駆動することによって制御する。Next, the operation of the monitoring support apparatus according to the second embodiment will be described with reference to FIGS. Here, as in the first embodiment, as a specific example of the realization of the man-machine interface means 302, a case where a personal computer is used as shown in FIG. 2 or FIG. 4 will be described as an example. The image captured by the image input means 301 and graphic information such as a mouse cursor generated by a monitor operating a personal computer mouse or the like are synthesized by the synthesizing means 303 inside the personal computer,
The image is displayed on the image display means 304 (personal computer monitor).
The observer moves the mouse cursor to an area he or she wants to pay attention to, as shown in FIG. 2 (A-1) or (A-2),
Specify the region of interest. The position information of the designated area of interest is switched by the switching means 3 through, for example, a serial interface such as RS-232C provided in the personal computer.
11 is output. When the region of interest is designated, the position information is sent from the switching unit 311 to the gantry control unit 313, and the gantry control unit 313 uses the position information of the region of interest to display the designated region of interest, for example, as shown in FIG. like,
The direction of the field of view of the image input device 301 is controlled by driving the gantry 312 so that the image is captured at the center of the screen.
【0025】この後、図4(A)の画面中央の矩形で示
される領域(これは予め画像内に設定される)の移動方
向を検出し続け、移動後の位置情報を用いて、図4
(B)、(C)に示すように、常に着目物体が画面中央
に撮像されるように架台312を制御する。この移動方
向を検出するのが移動方向検出手段306である。画像
入力手段301によって異なる時刻に撮像された複数毎
の画像は一旦画像メモリ、ここでは第1画像メモリ30
7および第2画像メモリ308に格納される。次に、移
動ベクトル検出手段309は、各画像メモリ307、3
08に格納された複数毎の画像より予め設定された画像
内特定位置、例えば画面中央(図4(A)の中央の矩形
領域)の移動ベクトルを検出し、位置算出手段310は
この移動ベクトルから移動後の着目物体の位置情報を算
出する。位置算出手段310によって算出された移動後
の着目物体の位置情報は切り替え手段311に送られ
る。着目領域指定時以降は、切り替え手段311は移動
方向検出手段306の出力である位置情報を架台制御手
段313に出力するように内部回路を切り替える。した
がって、架台制御手段313は、着目領域指定時以降は
画像内特定位置、例えば画面中央の移動後の位置情報を
もとに架台312を制御するため、常に着目物体が画面
中央に撮像されることになる。なお、移動ベクトルの検
出方法としては、例えば数式1を最小とするξ、ηを算
出することによって求めることができる。Thereafter, the moving direction of the region indicated by the rectangle at the center of the screen in FIG. 4A (which is set in the image in advance) is continuously detected, and the position information after the movement is used to detect the moving direction in FIG.
As shown in (B) and (C), the gantry 312 is controlled such that the object of interest is always imaged at the center of the screen. The moving direction detecting means 306 detects this moving direction. The plurality of images captured at different times by the image input unit 301 are temporarily stored in an image memory, here, the first image memory 30.
7 and the second image memory 308. Next, the movement vector detection means 309 determines whether each of the image memories 307, 3
08, a predetermined specific position in the image, for example, a movement vector at the center of the screen (the center rectangular area in FIG. 4A) is detected from the plurality of images stored in the image data 08. The position information of the target object after the movement is calculated. The position information of the object of interest after the movement calculated by the position calculating unit 310 is sent to the switching unit 311. After the attention area is specified, the switching unit 311 switches the internal circuit so that the position information output from the moving direction detection unit 306 is output to the gantry control unit 313. Therefore, since the gantry control unit 313 controls the gantry 312 based on a specific position in the image, for example, the position information after the movement of the center of the screen after the attention area is specified, the object of interest is always imaged at the center of the screen. become. In addition, as a method of detecting the movement vector, for example, the movement vector can be obtained by calculating ξ and η that minimize Expression 1.
【0026】このように上記実施の形態2によれば、被
監視域に複数の移動体が存在する場合などでも、監視員
が真に着目したい物体を正確に特定でき、しかも一度指
定した後はその物体が移動しても自動的に追尾するた
め、着目物体のみを効率よく監視できる。また、従来用
いられているジョイスティック等による架台や画角のマ
ニュアル操作のように熟練を必要としないため、監視員
の作業負担を大幅に低減することができる。As described above, according to the second embodiment, even when there are a plurality of moving objects in the monitored area, the observer can accurately specify the object that he / she really wants to pay attention to, and after specifying once, Even if the object moves, the object is automatically tracked, so that only the target object can be efficiently monitored. In addition, since it does not require skill like manual operation of a stand or an angle of view using a joystick or the like which has been conventionally used, the work load on a supervisor can be greatly reduced.
【0027】(実施の形態3)図5は本発明の実施の形
態3における監視支援装置の構成を示すものである。こ
の実施の形態3においては、実施の形態2とほぼ同じ構
成を備え、その動作もほぼ同じになっている。異なる点
は、画像入力手段501、画角制御手段514であり、
ここではこれらの構成およびその動作について図5およ
び図6を参照しながら説明する。この実施の形態3にお
いて、画像入力手段501はズーム機能を具備してい
る。マンマシン・インタフェース手段502により、例
えば図6(A)に示すように、矩形領域で着目領域が指
定され、その位置情報(矩形の端点座標や重心位置等)
が画角制御手段514に送られる。画角制御手段514
では、その位置情報から最適なズーム倍率を算出して画
像入力手段501の画角を制御する。実施の形態2で説
明した動作(この動作により得られた画像を図6(B)
に示す。)と、画角制御の動作との連動により、実施の
形態3においてモニタ画像は図6(C)のようになる。(Embodiment 3) FIG. 5 shows the configuration of a monitoring support apparatus according to Embodiment 3 of the present invention. The third embodiment has almost the same configuration as the second embodiment, and the operation is almost the same. The different points are an image input unit 501 and an angle of view control unit 514.
Here, these configurations and their operations will be described with reference to FIGS. In the third embodiment, the image input means 501 has a zoom function. For example, as shown in FIG. 6A, a region of interest is designated by the man-machine interface unit 502, and its position information (the coordinates of the end point of the rectangle, the position of the center of gravity, etc.) is specified.
Is sent to the angle-of-view control means 514. Angle-of-view control means 514
Then, the optimum zoom magnification is calculated from the position information, and the angle of view of the image input unit 501 is controlled. The operation described in the second embodiment (the image obtained by this operation is shown in FIG.
Shown in ) And the operation of the angle-of-view control, the monitor image in the third embodiment is as shown in FIG.
【0028】このように上記実施の形態3によれば、被
監視域に複数の移動体が存在する場合などでも、監視員
が真に着目したい物体を正確に特定でき、しかも一度指
定した後はその物体が移動しても自動的に追尾するため
着目物体のみを効率よく監視できる。また、指定した着
目領域の位置情報(例えば矩形の端点や重心位置)によ
って最適な画角制御を行うため、着目領域のズームモニ
タリングが可能となり、従来に比べてより簡単な操作で
緻密な監視を行うことができる。また、従来用いられて
いるジョイスティック等による架台や画角のマニュアル
操作のように熟練を必要としないため、監視員の作業負
担を大幅に低減することができる。As described above, according to the third embodiment, even when there are a plurality of moving objects in the monitored area, the observer can accurately specify the object that the user really wants to pay attention to, and after specifying once, Even if the object moves, the object is automatically tracked, so that only the target object can be efficiently monitored. In addition, since the optimum angle of view control is performed based on the position information (for example, the end point of the rectangle or the position of the center of gravity) of the designated region of interest, zoom monitoring of the region of interest becomes possible, and precise monitoring can be performed with a simpler operation than before. It can be carried out. In addition, since it does not require skill like manual operation of a stand or an angle of view using a joystick or the like which has been conventionally used, the work load on a supervisor can be greatly reduced.
【0029】[0029]
【発明の効果】以上説明したように、請求項1または2
に記載の発明によれば、不審者等の着目物体の存在する
着目領域を、監視員がモニタを見ながら監視員自身が画
像内に指定できるようにし、この指定された着目物体
(着目領域)の方向に画像入力手段の視野方向を自動的
に制御し、さらに画像の特定位置にその着目領域が撮像
されるようにしているので、従来のように監視員の判断
が考慮されない移動体(しかも移動体の数はほとんどの
場合1ケに限定される)を追尾するのではなく、あくま
でも着目対象を監視員が画像内に指定することによっ
て、監視員が真に着目したい物体のみを効率よく監視で
きる。また、従来行われているジョイスティック等によ
る架台やズームのマニュアル操作のように熟練を必要と
しないため、監視員の作業負担を大幅に低減することが
できるという効果が得られる。As described above, claim 1 or claim 2
According to the invention described in (1), it is possible for the observer to specify the target area where the target object such as a suspicious person exists in the image while watching the monitor, and the designated target object (target area) The direction of the field of view of the image input means is automatically controlled in the direction of, and the region of interest is imaged at a specific position of the image. In most cases, the number of moving objects is limited to one. Instead of tracking the object, the observer specifies the target of interest in the image to the last, thereby efficiently monitoring only the object that the observer really wants to pay attention to. it can. Further, since skill is not required unlike a conventional operation of a gantry or the like using a joystick or the like, manual operation of a monitor can be greatly reduced.
【0030】また、請求項3または4に記載の発明によ
れば、まず初めに、マンマシン・インタフェース手段に
よって設定された着目物体が予め指定された画像特定位
置に撮像されるように視野方向を制御し、その後は、そ
の着目物体が移動するようであればその移動方向を検出
し、その移動方向をもとに着目物体が常に予め設定され
た画像特定位置に撮像されるように視野方向を制御し続
けるようにしているので、従来のように監視員の判断が
考慮されない移動体を追尾するのではなく、あくまでも
着目対象を監視員が画面内に指定することによって、監
視員が真に着目したい物体を特定でき、しかも一度指定
した後はその物体が移動しても自動的に追尾するため効
率よく監視できる。また、同様に、従来行われているジ
ョイスティック等による架台や画角のマニュアル操作の
ように熟練を必要としないため、監視員の作業負担を大
幅に低減することができるという効果が得られる。According to the third or fourth aspect of the present invention, first, the field of view is changed so that the object of interest set by the man-machine interface means is picked up at a predetermined image specific position. After that, if the object of interest moves, the direction of movement is detected, and based on the direction of movement, the field of view is changed so that the object of interest is always captured at a preset image specific position. Since the control is continued, instead of following the moving object where the judgment of the observer is not taken into account as in the past, the observer designates the target of interest in the screen, so that the observer truly focuses on The object to be specified can be specified, and once specified, even if the object moves, the object is automatically tracked so that efficient monitoring can be performed. Similarly, since skill is not required unlike the conventional manual operation of the gantry and the angle of view using a joystick or the like, the effect of greatly reducing the work load on the observer can be obtained.
【0031】また、請求項5に記載の発明によれば、マ
ンマシン・インタフェース手段によって着目領域を例え
ば矩形で指定し、その矩形領域が予め設定された画像特
定位置に撮像されるように視野方向を制御し、さらに矩
形領域の大きさ・形状によって画像入力装置の画角を制
御し着目物体を自動的にズームアップしてモニタできる
ようにしているので、従来のように監視員の判断が考慮
されない移動体を追尾するのではなく、あくまでも着目
対象を監視員が画像内に指定することによって、監視員
が真に着目したい物体を特定でき、しかも着目領域を予
め設定した画像内のある特定位置に撮像されるように架
台が自動制御されるだけでなく、着目領域のズームアッ
プも自動的に行うため、従来の監視作業に比べてより簡
単な操作で緻密な監視を行うことができるという効果が
得られる。According to the fifth aspect of the present invention, the region of interest is designated by, for example, a rectangle by the man-machine interface means, and the viewing direction is set so that the rectangular region is imaged at a predetermined image specific position. Is controlled, and the angle of view of the image input device is controlled according to the size and shape of the rectangular area, so that the object of interest can be automatically zoomed up and monitored. Instead of tracking a moving object that is not monitored, the observer specifies the target of interest in the image to the last, so that the observer can specify the object that the user really wants to pay attention to, and furthermore, a specific position in the image in which the attention area is set in advance In addition to automatically controlling the gantry so that images are captured at the same time, it also automatically zooms in on the area of interest, making it easier and more precise than conventional monitoring work. There is an advantage that it is possible to perform visual.
【図1】本発明の実施の形態1における監視支援装置の
ブロック図である。FIG. 1 is a block diagram of a monitoring support device according to a first embodiment of the present invention.
【図2】本発明の実施の形態1における着目領域の指定
方法およびその動作例を説明するための説明図である。FIG. 2 is an explanatory diagram for describing a method of specifying a region of interest and an operation example thereof according to the first embodiment of the present invention.
【図3】本発明の実施の形態2における監視支援装置の
ブロック図である。FIG. 3 is a block diagram of a monitoring support device according to a second embodiment of the present invention.
【図4】本発明の実施の形態2における着目領域の指定
方法およびその動作例を説明するための説明図である。FIG. 4 is an explanatory diagram for describing a method of specifying a region of interest and an operation example thereof according to a second embodiment of the present invention.
【図5】本発明の実施の形態3における監視支援装置の
ブロック図である。FIG. 5 is a block diagram of a monitoring support device according to a third embodiment of the present invention.
【図6】本発明の実施の形態3における着目領域の指定
方法およびその動作例を説明するための説明図である。FIG. 6 is an explanatory diagram for describing a method of designating a region of interest and an operation example thereof according to Embodiment 3 of the present invention.
【図7】従来の移動体追尾装置のブロック図である。FIG. 7 is a block diagram of a conventional mobile object tracking device.
【図8】従来の移動体追尾装置の動作を説明するための
流れ図である。FIG. 8 is a flowchart for explaining the operation of a conventional mobile object tracking device.
【図9】従来の移動体追尾装置の動作例を示す説明図で
ある。FIG. 9 is an explanatory diagram showing an operation example of a conventional moving object tracking device.
101 画像入力手段 102 マンマシン・インタフェース手段 103 合成手段 104 画像表示手段 105 着目領域指定手段 106 架台 107 架台制御手段 301 画像入力手段 302 マンマシン・インタフェース手段 303 合成手段 304 画像表示手段 305 着目領域指定手段 306 移動方向検出手段 307 第1画像メモリ 308 第2画像メモリ 309 移動ベクトル検出手段 310 位置算出手段 311 切り替え手段 312 架台 313 架台制御手段 501 画像入力手段 502 マンマシン・インタフェース手段 503 合成手段 504 画像表示手段 505 着目領域指定手段 506 移動方向検出手段 507 第1画像メモリ 508 第2画像メモリ 509 移動ベクトル検出手段 510 位置算出手段 511 切り替え手段 512 架台 513 架台制御手段 514 画角制御手段 Reference Signs List 101 image input means 102 man-machine interface means 103 combining means 104 image display means 105 area-of-interest designation means 106 gantry 107 gantry control means 301 image input means 302 man-machine interface means 303 combining means 304 image display means 305 area-of-interest designation means 306 moving direction detecting means 307 first image memory 308 second image memory 309 moving vector detecting means 310 position calculating means 311 switching means 312 gantry 313 gantry controlling means 501 image input means 502 man-machine interface means 503 combining means 504 image display means 505 attention area designation means 506 movement direction detection means 507 first image memory 508 second image memory 509 movement vector detection means 510 position calculation means 511 switch Step 512 Mount 513 Mount control 514 Angle of view control
Claims (5)
向を制御する架台と、画像入力手段によって入力された
画像をモニタし、画像内に着目領域を指定するマンマシ
ン・インタフェース手段と、マンマシン・インタフェー
ス手段によって指定された着目領域の画像内での位置情
報をもとに架台を制御する架台制御手段とを備えたこと
を特徴とする監視支援装置。1. An image input means, a gantry for controlling a direction of a field of view of the image input means, a man-machine interface means for monitoring an image input by the image input means and designating a region of interest in the image, A monitoring support device comprising: a gantry control unit that controls a gantry based on positional information in an image of a region of interest specified by a machine interface unit.
ェース手段によって指定された着目領域が架台制御後の
画像入力手段によって得られる画像の予め設定された特
定位置に撮像されるように架台を制御することを特徴と
する請求項1に記載の監視支援装置。2. The gantry control means controls the gantry so that a region of interest specified by the man-machine interface means is imaged at a predetermined specific position of an image obtained by the image input means after the gantry control. The monitoring support device according to claim 1, wherein:
向を制御する架台と、画像入力手段によって入力された
画像をモニタし、画像内に着目領域を指定するマンマシ
ン・インタフェース手段と、画像入力手段によって入力
される複数毎の画像を用いて、予め設定された画像の特
定位置の物体の移動方向を検出する移動方向検出手段
と、着目領域および/または移動方向をもとに架台を制
御する架台制御手段とを備えたことを特徴とする監視支
援装置。3. An image input means, a gantry for controlling a direction of a field of view of the image input means, a man-machine interface means for monitoring an image input by the image input means and designating a region of interest in the image, A moving direction detecting means for detecting a moving direction of an object at a specific position of a preset image by using a plurality of images input by the input means, and controlling the gantry based on the region of interest and / or the moving direction And a gantry control means.
ェース手段によって指定された着目領域が架台制御後の
画像入力手段によって得られる画像の予め設定された特
定位置に撮像されるように架台を制御し、移動方向検出
手段によって検出された移動方向をもとに常に着目領域
が画像の予め設定された特定位置に撮像されるように架
台を制御することを特徴とする請求項3に記載の監視支
援装置。4. The gantry control means controls the gantry so that a region of interest specified by the man-machine interface means is imaged at a predetermined specific position of an image obtained by the image input means after the gantry control. 4. The monitoring support according to claim 3, wherein the gantry is controlled such that the region of interest is always imaged at a predetermined specific position of the image based on the moving direction detected by the moving direction detecting means. apparatus.
画像入力手段の視野方向を制御する架台と、画像入力手
段によって入力された画像をモニタし、画像内に着目領
域を指定するマンマシン・インタフェース手段と、画像
入力手段によって入力される複数毎の画像を用いて、予
め設定された画像の特定位置の物体の移動方向を検出す
る移動方向検出手段と、着目領域および/または移動方
向をもとに架台を制御する架台制御手段と、着目領域の
大きさ・形状によって画像入力手段のズーム制御を行う
画角制御手段とを備えたことを特徴とする監視支援装
置。5. An image input unit having a zoom function,
A gantry for controlling the direction of view of the image input means, a man-machine interface means for monitoring the image input by the image input means and designating a region of interest in the image, and a plurality of images input by the image input means A moving direction detecting means for detecting a moving direction of an object at a specific position of a preset image, a gantry controlling means for controlling a gantry based on the region of interest and / or the moving direction, and a size of the region of interest. A monitoring support device comprising: an angle-of-view control unit that performs zoom control of an image input unit according to a shape and a shape.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP8330503A JPH10174090A (en) | 1996-12-11 | 1996-12-11 | Monitor supporting device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP8330503A JPH10174090A (en) | 1996-12-11 | 1996-12-11 | Monitor supporting device |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH10174090A true JPH10174090A (en) | 1998-06-26 |
Family
ID=18233363
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP8330503A Pending JPH10174090A (en) | 1996-12-11 | 1996-12-11 | Monitor supporting device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH10174090A (en) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002010240A (en) * | 2000-06-21 | 2002-01-11 | Matsushita Electric Ind Co Ltd | Monitoring system |
JP2002142144A (en) * | 2000-10-31 | 2002-05-17 | Susumu Tsunoda | Remote control monitoring apparatus and remote control monitoring method |
JP2010087582A (en) * | 2008-09-29 | 2010-04-15 | Saxa Inc | Remote supervision system and its server |
JP2013128256A (en) * | 2011-12-19 | 2013-06-27 | Canon Inc | Imaging apparatus and control method thereof |
WO2013121713A1 (en) * | 2012-02-15 | 2013-08-22 | 日本電気株式会社 | Analysis processing device |
JP2017027568A (en) * | 2015-07-27 | 2017-02-02 | 守男 望月 | Shoplifting prevention warning system |
-
1996
- 1996-12-11 JP JP8330503A patent/JPH10174090A/en active Pending
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002010240A (en) * | 2000-06-21 | 2002-01-11 | Matsushita Electric Ind Co Ltd | Monitoring system |
JP2002142144A (en) * | 2000-10-31 | 2002-05-17 | Susumu Tsunoda | Remote control monitoring apparatus and remote control monitoring method |
JP2010087582A (en) * | 2008-09-29 | 2010-04-15 | Saxa Inc | Remote supervision system and its server |
JP2013128256A (en) * | 2011-12-19 | 2013-06-27 | Canon Inc | Imaging apparatus and control method thereof |
WO2013121713A1 (en) * | 2012-02-15 | 2013-08-22 | 日本電気株式会社 | Analysis processing device |
JP2017027568A (en) * | 2015-07-27 | 2017-02-02 | 守男 望月 | Shoplifting prevention warning system |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US6061055A (en) | Method of tracking objects with an imaging device | |
EP2442548B1 (en) | Control device, camera system, and program | |
JP3265893B2 (en) | Image display device | |
US20020054211A1 (en) | Surveillance video camera enhancement system | |
US20080239102A1 (en) | Camera Controller and Zoom Ratio Control Method For the Camera Controller | |
JP2004519955A (en) | How to assist an automatic video tracking system in target reacquisition | |
JP2004519956A (en) | Target selection method for automatic video tracking system | |
JP2000307928A (en) | Camera controller | |
JP2006087139A (en) | User interface system for camera control | |
KR101778744B1 (en) | Monitoring system through synthesis of multiple camera inputs | |
JP2009060201A (en) | Multi-screen monitoring system | |
JP4722537B2 (en) | Monitoring device | |
US9906710B2 (en) | Camera pan-tilt-zoom (PTZ) control apparatus | |
JP2008028876A (en) | Multi-split screen display device | |
KR20100132739A (en) | Monitoring system using dual camera and method thereof | |
US20090051770A1 (en) | Camera control method, camera control device, camera control program, and camera system | |
EP0690628A1 (en) | Method and apparatus for on-screen control of video surveillance | |
JPH10174090A (en) | Monitor supporting device | |
JP2002341755A (en) | Video display device | |
JP2005195939A (en) | Projector projection control system and method | |
JP2001243476A (en) | Method and device for monitoring moving body | |
JP3785033B2 (en) | Surveillance camera control system and surveillance camera control device | |
KR20100062575A (en) | Method to control monitoring camera and control apparatus using the same | |
JP2005167604A (en) | Image monitoring system | |
JP2004194309A (en) | Display method and display device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20050418 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20050426 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20050624 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20050719 |