WO2016152316A1 - 監視システム、監視方法、監視装置および監視装置の制御プログラム - Google Patents

監視システム、監視方法、監視装置および監視装置の制御プログラム Download PDF

Info

Publication number
WO2016152316A1
WO2016152316A1 PCT/JP2016/054346 JP2016054346W WO2016152316A1 WO 2016152316 A1 WO2016152316 A1 WO 2016152316A1 JP 2016054346 W JP2016054346 W JP 2016054346W WO 2016152316 A1 WO2016152316 A1 WO 2016152316A1
Authority
WO
WIPO (PCT)
Prior art keywords
camera
shielding object
imaged
monitoring system
edge
Prior art date
Application number
PCT/JP2016/054346
Other languages
English (en)
French (fr)
Inventor
正人 北田
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Publication of WO2016152316A1 publication Critical patent/WO2016152316A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B25/00Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Definitions

  • the present invention relates to a monitoring system, a monitoring method, a monitoring device, and a control program for the monitoring device.
  • Patent Document 1 discloses a technique for panning, tilting, and zooming an imaging apparatus so that a tracking target is located at the center of an image.
  • An object of the present invention is to provide a technique for solving the above-described problems.
  • a monitoring system provides: Video acquisition means for acquiring video using at least one camera; When there is a shielding object in the image and the entire shielding object cannot be imaged within the photographing range of one camera, the second edge portion different from the first edge portion of the shielding object into which the object has entered is imaged. Imaging control means for controlling so as to Equipped with.
  • a monitoring method comprises: A video acquisition step of acquiring video using at least one camera; When there is a shielding object in the image and the entire shielding object cannot be imaged within the photographing range of one camera, the second edge portion different from the first edge portion of the shielding object into which the object has entered is imaged.
  • a monitoring device includes: Video acquisition means for acquiring video from at least one camera; When there is a shielding object in the image and the entire shielding object cannot be imaged within the photographing range of one camera, the second edge portion different from the first edge portion of the shielding object into which the object has entered is imaged. Imaging control means for controlling so as to Equipped with.
  • a control program for a monitoring apparatus includes: A video acquisition step of acquiring video from at least one camera; When there is a shielding object in the image and the entire shielding object cannot be imaged within the photographing range of one camera, the second edge portion different from the first edge portion of the shielding object into which the object has entered is imaged.
  • FIG. 1 It is a figure which shows an example of the shielding object table with which the monitoring system which concerns on 2nd Embodiment of this invention is provided. It is a figure which shows the hardware constitutions of the monitoring system which concerns on 2nd Embodiment of this invention. It is a flowchart explaining the process sequence of the monitoring system which concerns on 2nd Embodiment of this invention. It is a block diagram which shows the structure of the monitoring system which concerns on 3rd Embodiment of this invention. It is a flowchart explaining the process sequence of the monitoring system which concerns on 3rd Embodiment of this invention. It is a figure explaining the outline of operation
  • the monitoring system 100 is a system that can track an object even when the object enters the blind spot of the shield from one edge of the shield and emerges from another edge.
  • the blind spot refers to, for example, a range that cannot be seen from a certain angle, and in this specification, refers to a region behind a shield or an obstacle that cannot be seen from the camera.
  • the monitoring system 100 includes a video acquisition unit 101 and an imaging control unit 102.
  • the video acquisition unit 101 acquires video using at least one camera.
  • the imaging control unit 102 has a second edge that is different from the first edge of the shielding object into which the target object has entered when there is a shielding object in the image and the entire shielding object cannot be imaged within the photographing range of one camera. Control to image the part.
  • FIG. 1B is a flowchart for explaining the processing procedure of the monitoring system 100 according to the present embodiment.
  • the monitoring system 100 acquires an image using at least one camera.
  • the monitoring system 100 determines whether there is a shield in the video. If there is an obstacle in the video, in step S105, the monitoring system 100 determines whether or not the entire obstacle can be imaged within the imaging range of one camera. If the image cannot be captured, in step S107, the monitoring system 100 controls the camera so as to capture a second edge that is different from the first edge of the shield into which the object has entered.
  • FIG. 2A is a diagram for explaining an outline of the problem of the monitoring system 200 according to the present embodiment.
  • FIG. 2A (a) is a diagram illustrating an example of a monitoring image by the monitoring system, and shows a state in which the monitoring target person 220, which is the target, enters the blind spot of the shield 210 on the screen 230.
  • the shield 210 is large and does not completely fit on the screen 230, and the left edge 211 is reflected on the screen 230, but the right edge opposite to the left edge 211 is It is not shown on the screen 230.
  • FIG. 2A (b) is an overhead view of the monitoring system.
  • the monitoring target person 220 shows a state of entering a blind spot behind the shield 210.
  • a line 241 and a line 242 indicate the angle of view 243 of the camera 240, that is, the imageable range in the horizontal direction.
  • FIG. 2B is a diagram for explaining an outline of the operation of the monitoring system 200 according to the present embodiment. As shown in FIG. 2B (a), when the monitoring target person 220 enters the blind spot behind the shield 210 and disappears, the monitoring system 200 loses the monitoring target person 220 and loses its sight. .
  • the monitoring system 200 widens the angle of view 243 of the camera 240 so that the right edge 212 of the shield 210 is reflected.
  • the monitoring system 200 pans the camera 240 to the right so that the right edge 212 is reflected.
  • the timing of panning the camera 240 may be when the right edge 212 is not reflected even when the angle of view 243 of the camera 240 is widened. May be the timing hidden behind the blind spot behind the shield 210.
  • the monitoring system 200 may adjust the imaging region of the camera 240 as described above and notify the monitoring person that the monitoring target person 220 is hidden behind the shield 210.
  • FIG. 3 is a block diagram showing the configuration of the monitoring system 200.
  • the monitoring system 200 includes a monitoring device 301 and a camera 302.
  • the monitoring device 301 includes a video acquisition unit 311, an imaging control unit 312, a determination unit 313, a determination unit 314, a control unit 315, and a notification unit 316.
  • the determination unit 314 has a shielding object table 341
  • the imaging control unit 312 has a camera performance table 321.
  • the video acquisition unit 311 acquires video captured by the camera 302 using, for example, the camera 302.
  • the imaging control unit 312 controls the angle of view of the camera 302 to a wide angle.
  • the imaging control unit 312 controls the shooting range by panning, tilting, and zooming the camera 302.
  • the imaging control unit 312 controls the camera 302 so that an edge that is different from the edge into which the monitoring subject 220 has entered can be imaged.
  • the camera 302 is a camera (PTZ camera) capable of panning, tilting, zooming, and the like.
  • the determination unit 313 determines the presence of a shielding object and a blind spot in the image captured by the camera 302. For example, if there is a blind spot caused by the presence of a shield or a fixed object on the ground, the obstacle is extracted from the map information, and the extracted obstacle is used as a shield. This is done by determining the blind spot.
  • the moving object when the moving object is a shielding object, a part of the background in the image taken by the camera 302 disappears from the image, and when the disappeared area has a predetermined size, the moving object Is determined as a shielding object, and the disappeared area is determined as a blind spot.
  • the method of determining the presence of the shielding object and the blind spot is not limited to these, and various methods can be used.
  • the determination unit 314 determines, for example, whether or not the entire shielding object in the image captured by the camera 302 can be captured by the camera 302.
  • Whether or not the entire shielding object can be photographed within the photographing range of the camera 302 is determined as follows, for example. First, the camera 302 is controlled to perform zooming. Extraction of the edge (boundary) of the obstruction is performed during zooming. If the extracted edge is present near the end of the image captured by the camera 302, the determination unit 314 determines that the entire shielding object cannot be imaged within the imaging range of the camera 302. On the other hand, when the extracted edge is separated from the end of the image captured by the camera 302 by a predetermined interval, it is determined that the entire shielding object can be imaged within the imaging range of the camera 302.
  • the entire shielding object does not fall within the shooting range of the camera 302, that is, the extracted edge exists near the end of the image shot by the camera 302.
  • it determines with not having imaged the whole shielding object in the imaging
  • FIG. Note that the method for determining whether or not the entire shielding object can be imaged within the imaging range of the camera 302 is not limited to the above-described method, and any method may be used as long as such a determination is possible. .
  • control unit 315 determines that the determination unit 314 cannot project an edge different from the edge intruded by the monitoring subject even if the camera 302 is controlled to pan, tilt, zoom, and the like. The following control is performed. That is, the control unit 315 controls the camera 302 so as to capture either the blind spot due to the shielding object or the edge part different from the edge part where the monitoring target person has entered the blind spot of the shielding object.
  • the camera control by the control unit 315 is specifically performed as follows. For example, the control unit 315 pans the camera 302 that has captured the edge of the shield that has entered the blind spot caused by the shield. The control unit 315 maintains the control of panning the camera 302 if the entire object to be monitored can be imaged by panning the camera 302.
  • the control unit 315 tilts the camera 302. If the entire object that the monitoring subject has entered can be imaged by tilting the camera 302, the control of tilting the camera 302 is maintained.
  • the control unit 315 zooms the camera 302, for example, widens the shooting range of the camera 302. If the entire object that the monitoring subject has entered can be imaged by zooming the camera 302, the zoomed control of the camera 302 is maintained. Note that the camera control described here is merely an example, and the order of panning, tilting, and zooming is not limited to this, and may be performed in various combinations.
  • control unit 315 controls the camera 302 so that the monitoring subject has entered. An edge portion different from the portion is imaged.
  • the notification unit 316 notifies the monitor 320 of an alarm or the like.
  • the monitoring person 320 can take various measures such as dispatching a security guard to the site based on the notified alarm.
  • FIG. 4A is a diagram illustrating an example of a camera performance table 321 included in the monitoring system 200.
  • the camera performance table 321 includes a camera No.
  • the imageable range, field angle, pan angle, and the like are stored in association with.
  • the camera 1 has a shootable range of “(X1, Y1, Z1) to (X2, Y2, Z2)”, an angle of view of “60 to 100 °”, and a pan angle of “+ 180 ° to ⁇ . 170 ".
  • the monitoring system 200 refers to the camera table 401 and controls the operation of each camera.
  • FIG. 4B is a diagram illustrating an example of the shielding object table 341 included in the monitoring system 200.
  • the shield table 341 has a camera No.
  • the horizontal size and the diagonal size of the shielding object that can be photographed are stored in association with.
  • the monitoring system 200 refers to the shielding table 402 to determine whether or not the shielding object can be imaged by one camera, and determines the pan angle of the camera.
  • the method by which the monitoring system 200 determines the pan angle of the camera is not limited to this.
  • FIG. 5 is a diagram illustrating a hardware configuration of the monitoring system 200.
  • the monitoring system 200 includes a CPU (Central Processing Unit) 501, a ROM (Read Only Memory) 502, a RAM (Random Access Memory) 503, a storage 504, and a communication control unit 505.
  • a CPU Central Processing Unit
  • ROM Read Only Memory
  • RAM Random Access Memory
  • the CPU 501 is a processor for arithmetic processing, and implements each functional component of the monitoring system 200 by executing a program. Note that the number of CPUs 501 is not limited to one, and a plurality of CPUs 501 may be included, and a GPU (GraphicsGraphProcessing Unit) for image processing may be included.
  • the ROM 502 is a read only memory and stores programs such as firmware.
  • the communication control unit 505 communicates with other devices via a network. Further, the communication control unit 505 may include a CPU independent of the CPU 501 and write or read transmission / reception data to / from the RAM 503.
  • the RAM 503 is a random access memory that the CPU 501 uses as a work area for temporary storage.
  • the RAM 503 has an area for storing data necessary for realizing the present embodiment. As such data, the monitoring system 200 temporarily stores the camera performance 531 and the shielding object 532.
  • the RAM 503 has an application execution area 533 for executing various application modules.
  • the storage 504 is a storage device that stores programs and databases necessary for realizing the present embodiment.
  • the storage 504 stores a camera performance table 401, a shielding object table 402, a monitoring program 541, and a control program 545.
  • the monitoring program 541 stores a video acquisition module 542, an imaging control module 543, and a determination module 544. These modules 542 to 544 are read into the application execution area 533 by the CPU 501 and executed.
  • the control program 545 is a program for controlling the entire monitoring system 200. Also, it is desirable to provide a DMAC (Direct Memory Access Controller) that transfers data between the RAM 503 and the storage 504 (not shown).
  • DMAC Direct Memory Access Controller
  • RAM 503 and the storage 504 shown in FIG. 5 do not show programs and data relating to general-purpose functions and other realizable functions that the monitoring system 200 has.
  • FIG. 6 is a flowchart for explaining the processing procedure of the monitoring system 200.
  • step S ⁇ b> 601 the monitoring system 200 acquires a video from the camera 302.
  • step S603 the monitoring system 200 determines whether or not the shielding object 210 in the video and its blind spot exist.
  • the monitoring system 200 determines whether the monitoring subject 220 has entered the blind spot of the shielding object 210 and the monitoring subject 220 has entered the blind spot of the shielding object 210.
  • the monitoring system 200 may determine based on the absence of the monitoring subject 220 because the monitoring subject 220 disappears in the video when the monitoring subject 220 enters the blind spot of the shield 210.
  • the monitoring system 200 determines whether or not the entire shielding object 210 can be imaged.
  • the camera 302 is controlled by executing panning, tilting, zooming, and the like so that the entire shielding object 210 can be imaged within the imaging range of the camera.
  • the monitoring system 200 can image an edge that is different from the edge where the monitoring subject 220 has entered the blind spot of the shielding object, for example, the opposite edge.
  • the camera 302 is controlled. In camera control, for example, the shooting range of the camera 302 is controlled by lowering the magnification of the camera 302 to widen the angle of view or panning or tilting the camera 302.
  • step S611 the monitoring system 200 determines whether or not an edge different from the edge where the monitoring subject 220 has entered the blind spot of the shield 210 is reflected by the control performed in step S609. If a different edge is not shown, the monitoring system 200 notifies the monitoring person 320 of an alarm in step S613.
  • the present embodiment when the object is hidden by the shielding object, different edges are imaged by camera control, so that it is possible to reduce the loss of sight of the object. Further, when a different edge cannot be imaged even by camera control, an alarm is notified to the supervisor, so that it is possible to further reduce the loss of sight of the object.
  • FIG. 7A is a diagram for explaining the configuration of the monitoring system 700 according to the present embodiment.
  • the monitoring system 700 according to the present embodiment is different from the second embodiment in that it does not have an imaging control unit. Since other configurations and operations are the same as those of the second embodiment, the same configurations and operations are denoted by the same reference numerals, and detailed description thereof is omitted.
  • the monitoring system 700 includes a monitoring device 701 and a camera 702.
  • the monitoring system 700 monitors the monitoring area with one camera 702.
  • the control unit 715 determines whether or not there is a shielding object in the acquired video, and when there is a shielding object, determines whether or not the entire shielding object can be imaged within the shooting range of one camera.
  • the control unit 715 notifies an alarm to a supervisor or the like when the entire shielding object cannot be imaged within the imaging range of the camera 702.
  • FIG. 7B is a flowchart for explaining the processing procedure of the monitoring system 700 according to the present embodiment.
  • the monitoring system 700 acquires a video using the camera 702.
  • the monitoring system 700 determines whether there is a shield in the acquired video. If there is a shield, in step S705, the monitoring system 700 determines whether the monitoring subject 220 has entered the blind spot of the shield 210 and whether the monitoring subject 220 has entered the blind spot of the shield 210. .
  • the monitoring system 700 determines whether or not the entire shielding object can be imaged within the imaging range of the camera 702. If the entire shielding object cannot be imaged within the shooting range of the camera, in step S709, the monitoring system 700 notifies an alarm to a supervisor or the like.
  • the supervisor since the alarm is notified to the supervisor when the entire shielding object cannot be imaged, the supervisor can take appropriate measures before losing sight of the object.
  • FIG. 8 is a diagram for explaining the outline of the operation of the monitoring system 800 according to the present embodiment.
  • the system configuration of the monitoring system 800 according to the present embodiment is the same as that of the third embodiment.
  • the monitoring system 800 according to the present embodiment controls other cameras to control the edge of the shielding object when the edge of the shielding object cannot be imaged even if one camera is panned. It differs in the point which images.
  • the monitoring system 800 loses sight of the monitoring target person 820 when the monitoring target person 820 enters the blind spot behind the shielding object 810 and disappears on the screen 830. End up. Therefore, as shown in FIG. 8B, the monitoring system 800 is different from the edge 811 in which the monitoring target person 820 has entered by panning or widening the camera 840 that captured the monitoring target person 820. Try to image the edge 812. However, even if the monitoring system 800 controls the camera 840, there are cases where the edge 812 cannot be imaged due to limitations on the imageable range or angle of view of the camera 840. In this case, the monitoring system 800 pans or widens another camera 850 different from the camera 840, controls the imaging range of the camera 850, and images the edge 812 with the camera 850.
  • FIG. 9 is a block diagram showing the configuration of the monitoring system 900.
  • the monitoring system 900 includes a monitoring device 901 and a camera group 902.
  • the monitoring device 901 includes a video acquisition unit 311, an imaging control unit 312, a determination unit 313, a determination unit 314, a control unit 915, and a notification unit 316.
  • the camera group 902 includes a camera 921 and a camera 922. The same components as those in FIG. 3 are denoted by the same reference numerals, and description thereof is omitted.
  • the control unit 915 is different from the edge that is different from the edge that the monitoring target person has entered.
  • the following control is performed. That is, the control unit 915 controls one of the cameras in the camera group 902 so as to capture either one of the blind spot due to the shield and the edge different from the edge where the monitoring target has entered the blind spot of the shield. To do.
  • the camera control by the control unit 915 is performed as follows.
  • the control unit 915 pans the camera that has imaged the edge of the shielding object that has entered the blind spot caused by the shielding object.
  • the control unit 915 maintains the control of panning the camera if the camera pan can capture an image of an edge that is different from the edge invaded by the monitoring target person.
  • control unit 915 tilts the camera. If the camera tilt can capture an image of an edge that is different from the edge intruded by the person to be monitored, control of tilting the camera is maintained.
  • the control unit 915 zooms the camera, for example, widens the shooting range of the camera. If the camera zoom can capture an image of an edge that is different from the edge where the person to be monitored enters, the control of zooming the camera is maintained. Note that the camera control described here is merely an example, and the order of panning, tilting, and zooming is not limited to this, and control may be performed in various combinations.
  • control unit 915 selects another camera in the camera group 902. Control and image edges and blind spots.
  • the control unit 915 controls other cameras by the same method as the control described above.
  • FIG. 10 is a flowchart for explaining the processing procedure of the monitoring system 800 according to this embodiment. Steps similar to those in FIG. 6 are denoted by the same step numbers, and description thereof is omitted.
  • the monitoring system 800 controls another camera to image an edge that is different from the edge of the shield that the monitoring subject has entered. As another camera control, the monitoring system 800, for example, pans, tilts, and zooms the camera.
  • the present invention may be applied to a system composed of a plurality of devices, or may be applied to a single device. Furthermore, the present invention can also be applied to a case where an information processing program that implements the functions of the embodiments is supplied directly or remotely to a system or apparatus. Therefore, in order to realize the functions of the present invention on a computer, a program installed on the computer, a medium storing the program, and a WWW (World Wide Web) server that downloads the program are also included in the scope of the present invention. . In particular, at least a non-transitory computer readable medium storing a program for causing a computer to execute the processing steps included in the above-described embodiments is included in the scope of the present invention.

Abstract

 対象物が遮蔽物に隠れた場合に対象物を見失うことを低減する。監視システムであって、映像取得手段と、撮像制御手段とを備えた。監視システムの備える映像取得手段は、少なくとも1つのカメラを用いて映像を取得する。監視システムの備える撮像制御手段は、前記映像中に遮蔽物が存在し、前記遮蔽物の全体を1つのカメラの撮影範囲で撮像できない場合に、対象物が侵入した前記遮蔽物の第1縁部とは異なる第2縁部を撮像するように制御する。

Description

監視システム、監視方法、監視装置および監視装置の制御プログラム
 本発明は、監視システム、監視方法、監視装置および監視装置の制御プログラムに関する。
 上記技術分野において、特許文献1には、追跡対象が画像の中央に位置するように撮像装置をパン、チルト、ズームする技術が開示されている。
特開2012-80221号公報
 しかしながら、上記文献に記載の技術では、遮蔽物の全体を把握できない場合に、対象物を見失う可能性が生じていた。
 本発明の目的は、上述の課題を解決する技術を提供することにある。
 上記目的を達成するため、本発明に係る監視システムは、
 少なくとも1つのカメラを用いて映像を取得する映像取得手段と、
 前記映像中に遮蔽物が存在し、前記遮蔽物の全体を1つのカメラの撮影範囲で撮像できない場合に、対象物が侵入した前記遮蔽物の第1縁部とは異なる第2縁部を撮像するように制御する撮像制御手段と、
 を備えた。
 上記目的を達成するため、本発明に係る監視方法は、
 少なくとも1つのカメラを用いて映像を取得する映像取得ステップと、
 前記映像中に遮蔽物が存在し、前記遮蔽物の全体を1つのカメラの撮影範囲で撮像できない場合に、対象物が侵入した前記遮蔽物の第1縁部とは異なる第2縁部を撮像するように制御する撮像制御ステップと、
 を含む。
 上記目的を達成するため、本発明に係る監視装置は、
 少なくとも1つのカメラから映像を取得する映像取得手段と、
 前記映像中に遮蔽物が存在し、前記遮蔽物の全体を1つのカメラの撮影範囲で撮像できない場合に、対象物が侵入した前記遮蔽物の第1縁部とは異なる第2縁部を撮像するように制御する撮像制御手段と、
 を備えた。
 上記目的を達成するため、本発明に係る監視装置の制御プログラムは、
 少なくとも1つのカメラから映像を取得する映像取得ステップと、
 前記映像中に遮蔽物が存在し、前記遮蔽物の全体を1つのカメラの撮影範囲で撮像できない場合に、対象物が侵入した前記遮蔽物の第1縁部とは異なる第2縁部を撮像するように制御する撮像制御ステップと、
 をコンピュータに実行させる。
 本発明によれば、対象物が遮蔽物に隠れた場合に対象物を見失うことを低減できる。
本発明の第1実施形態に係る監視システムの構成を示すブロック図である。 本発明の第1実施形態に係る監視システムの処理手順を示すフローチャートである。 本発明の第2実施形態に係る監視システムの課題の概略を説明する図である。 本発明の第2実施形態に係る監視システムの動作の概略を説明する図である。 本発明の第2実施形態に係る監視システムの構成を示すブロック図である。 本発明の第2実施形態に係る監視システムの備えるカメラ性能テーブルの一例を示す図である。 本発明の第2実施形態に係る監視システムの備える遮蔽物テーブルの一例を示す図である。 本発明の第2実施形態に係る監視システムのハードウェア構成を示す図である。 本発明の第2実施形態に係る監視システムの処理手順を説明するフローチャートである。 本発明の第3実施形態に係る監視システムの構成を示すブロック図である。 本発明の第3実施形態に係る監視システムの処理手順を説明するフローチャートである。 本発明の第4実施形態に係る監視システムの動作の概略を説明する図である。 本発明の第4実施形態に係る監視システムの構成を示すブロック図である。 本発明の第4実施形態に係る監視システムの処理手順を説明するフローチャートである。
 以下に、図面を参照して、本発明の実施の形態について例示的に詳しく説明する。ただし、以下の実施の形態に記載されている構成要素はあくまで例示であり、本発明の技術範囲をそれらのみに限定する趣旨のものではない。
 [第1実施形態]
 本発明の第1実施形態としての監視システム100について、図1Aおよび図1Bを用いて説明する。監視システム100は、対象物が遮蔽物の一の縁部から遮蔽物の死角に侵入し、他の縁部から出現した場合でも対象物を追跡可能なシステムである。死角とは、例えば、ある角度からはどうしても見えない範囲のことをいい、本明細書においては、カメラから見て撮像できない遮蔽物や障害物などの背後の領域をいう。
 図1Aに示すように、監視システム100は、映像取得部101と撮像制御部102とを含む。映像取得部101は、少なくとも1つのカメラを用いて映像を取得する。撮像制御部102は、映像中に遮蔽物が存在し、遮蔽物の全体を1つのカメラの撮影範囲で撮像できない場合に、対象物が侵入した遮蔽物の第1縁部とは異なる第2縁部を撮像するように制御する。
 図1Bは、本実施形態にかかる監視システム100の処理手順を説明するフローチャートである。ステップS101において、監視システム100は、少なくとも1つのカメラを用いて映像を取得する。ステップS103において、監視システム100は、映像中に遮蔽物が存在するか否かを判定する。映像中に遮蔽物が存在する場合、ステップS105において、監視システム100は、遮蔽物の全体を1つのカメラの撮影範囲で撮像できるか否かを判定する。撮像できない場合、ステップS107において、監視システム100は、対象物が侵入した遮蔽物の第1縁部とは異なる第2縁部を撮像するようにカメラを制御する。
 本実施形態によれば、対象物が遮蔽物に隠れた場合に対象物を見失うことを低減できる。
 [第2実施形態]
 次に本発明の第2実施形態に係る監視システムについて、図2A~図6を用いて説明する。図2Aは、本実施形態に係る監視システム200の課題の概略を説明するための図である。図2A(a)は、監視システムによる監視画像の一例を示す図であり、画面230上で、対象物である監視対象者220が遮蔽物210の死角に侵入する様子を示している。同図に示したように、遮蔽物210が大きく、画面230に収まりきっておらず、左側縁部211は、画面230に映っているが、左側縁部211とは反対側の右側縁部は画面230には映っていない。
 このような状況で監視対象者220が、遮蔽物210の背後の死角に侵入してしまうと、監視対象者220を撮像しているカメラの画角が今現在撮像している画角のままであれば、監視対象者220を捕捉することができなくなる。図2A(b)は、監視システムの俯瞰図である。監視対象者220が、遮蔽物210の背後の死角に侵入する様子を示している。線241および線242は、カメラ240の画角243、つまり水平方向の撮影可能範囲を示している。
 図2Bは、本実施形態に係る監視システム200の動作の概略を説明するための図である。監視システム200は、図2B(a)に示したように、監視対象者220が遮蔽物210の背後の死角に侵入し、姿が見えなくなると、監視対象者220をロストして、見失ってしまう。
 したがって、例えば、図2B(b)に示したように、監視システム200は、カメラ240の画角243をワイドにして、遮蔽物210の右側縁部212が映るようにする。また、例えば、図2B(c)に示したように、監視システム200は、右側縁部212が映るように、カメラ240を右側にパンする。
 カメラ240をパンするタイミングは、図2B(b)に示したように、カメラ240の画角243をワイドにしても、右側縁部212が映らない場合であってもよいし、監視対象者220が遮蔽物210の背後の死角に隠れたタイミングであってもよい。さらに、監視システム200は、上述のようにカメラ240の撮影領域を調整すると共に、監視者に対して、監視対象者220が遮蔽物210の背後に隠れたことを報知してもよい。
 図3は、監視システム200の構成を示すブロック図である。監視システム200は、監視装置301とカメラ302とを備える。監視装置301は、映像取得部311と撮像制御部312と判定部313と判定部314と制御部315と報知部316とを有する。さらに、判定部314は、遮蔽物テーブル341を有し、撮像制御部312は、カメラ性能テーブル321を有する。
 映像取得部311は、例えば、カメラ302を用いて、カメラ302で撮像した映像を取得する。
 撮像制御部312は、カメラ302の画角を広角(ワイド)に制御する。また、撮像制御部312は、カメラ302をパンやチルト、ズームなどして撮影範囲などを制御する。撮像制御部312は、監視対象者220が侵入した縁部とは異なる縁部を撮像できるようにカメラ302を制御する。なお、カメラ302は、パン(Pan)やチルト(Tilt)、ズーム(Zoom)などが可能なカメラ(PTZカメラ)である。
 判定部313は、カメラ302で撮像した映像中の遮蔽物および死角の存在を判定する。遮蔽物の存在や遮蔽物により生じた死角の判定は、例えば、地上の固定物などであれば、地図情報から障害物を抽出して、抽出した障害物を遮蔽物とし、さらに、その遮蔽物による死角を判定することにより行う。
 また、移動物が遮蔽物となる場合には、カメラ302で撮影した映像中の背景の一部が、その映像から消えて、その消えた領域が所定の大きさの場合には、その移動物を遮蔽物と判定し、さらに、消えた領域を死角と判定することなどにより行う。なお、遮蔽物の存在や死角の判定の手法はこれらに限定されず、様々な手法を用いることができる。
 判定部314は、例えば、カメラ302で撮像した映像中の遮蔽物の全体をカメラ302で撮像できるか否かを判定する。
 遮蔽物全体をカメラ302の撮影範囲で撮影できるか否かの判定は、例えば、次のように行う。まず、カメラ302を制御してズームを実施する。ズームの実施中に遮蔽物のエッジ(境界)の抽出を実施する。抽出されたエッジが、カメラ302で撮影した映像の端部付近に存在する場合には、判定部314は、遮蔽物全体をカメラ302の撮影範囲で撮像できていないと判定する。これとは反対に、抽出されたエッジが、カメラ302で撮影した映像の端部から所定間隔だけ離れている場合には、遮蔽物全体をカメラ302の撮影範囲で撮像できていると判定する。
 また、カメラ302のズームを最大、すなわち、最も広角側にしても、遮蔽物全体がカメラ302の撮影範囲に収まらない場合、つまり、抽出したエッジがカメラ302で撮影した映像の端部付近に存在する場合には、遮蔽物全体をカメラ302の撮影範囲で撮像できていないと判定する。なお、遮蔽物全体をカメラ302の撮影範囲で撮影できるか否かの判定手法は、上述した手法には限定されず、このような判定が可能な手法であればいずれの手法を用いてもよい。
 制御部315は、例えば、判定部314が、カメラ302をパン、チルト、ズームなどの制御をしても、監視対象者が侵入した縁部とは異なる縁部を映すことができないと判定した場合、次の制御を行う。つまり、制御部315は、遮蔽物による死角および監視対象者が遮蔽物の死角に侵入した縁部とは異なる縁部のいずれか一方を撮像するように、カメラ302を制御する。
 制御部315によるカメラ制御は、具体的には、次のように行う。制御部315は、例えば、監視対象者が遮蔽物によって生じた死角に侵入した遮蔽物の縁部を撮像していたカメラ302をパンする。制御部315は、カメラ302のパンにより、監視対象者が侵入した遮蔽物全体を撮像できれば、カメラ302をパンした制御を維持する。
 カメラ302のパンによっても、遮蔽物全体を撮像できなければ、制御部315は、カメラ302をチルトする。カメラ302のチルトにより、監視対象者が侵入した遮蔽物全体を撮像できれば、カメラ302をチルトした制御を維持する。
 カメラ302のチルトによっても、遮蔽物全体を撮像できなければ、制御部315は、カメラ302をズーム、例えば、カメラ302の撮影範囲を広角にする。カメラ302のズームにより、監視対象者が侵入した遮蔽物全体を撮像できれば、カメラ302をズームした制御を維持する。なお、ここで説明したカメラ制御は一例に過ぎず、パン、チルト、ズームの順序はこれに限定されず、様々な組み合わせで行ってもよい。
 そして、上述したパン、チルト、ズームの制御を組み合わせても、監視対象者が侵入した遮蔽物全体を撮像できなければ、制御部315は、カメラ302を制御して、監視対象者が侵入した縁部とは異なる縁部を撮像する。
 報知部316は、判定部314で遮蔽物の全体をカメラ302で映すことができないと判断された場合、監視者320に対してアラームなどを報知する。監視者320は、報知されたアラームに基づいて、現場に警備員などを派遣したりするなど様々な対応をすることができる。
 図4Aは、監視システム200の備えるカメラ性能テーブル321の一例を示す図である。カメラ性能テーブル321は、カメラNo.に関連付けて撮影可能範囲と画角とパン角などを記憶する。例えば、カメラ1は、撮影可能範囲が「(X1,Y1,Z1)~(X2,Y2,Z2)」であり、画角が「60~100°」であり、パン角が「+180°~-170°」であることを示している。監視システム200は、カメラテーブル401を参照して、各カメラの動作を制御する。
 図4Bは、監視システム200の備える遮蔽物テーブル341の一例を示す図である。遮蔽物テーブル341は、カメラNo.に関連付けて撮影可能な遮蔽物の横方向や対角方向の大きさなどを記憶する。監視システム200は、遮蔽物テーブル402を参照して、遮蔽物を1つのカメラで撮像可能か否かを判断したり、カメラのパン角などを決定する。しかしながら、監視システム200が、カメラのパン角などを決定する方法は、これに限定されない。
 図5は、監視システム200のハードウェア構成を示す図である。監視システム200は、CPU(Central Processing Unit)501と、ROM(Read Only Memory)502と、RAM(Random Access Memory)503と、ストレージ504と、通信制御部505とを備える。
 CPU501は、演算処理用のプロセッサであり、プログラムを実行することにより監視システム200の各機能構成部を実現する。なお、CPU501は1個に限定されず、複数個あってもよく、また、画像処理用のGPU(Graphics Processing Unit)を含んでもよい。ROM502は、リードオンリメモリであり、ファームウェアなどのプログラムを記憶する。
 通信制御部505は、ネットワークを介して他の機器などと通信する。また、通信制御部505は、CPU501とは独立したCPUを備えて、RAM503に送受信データを書き込みまたは読み出ししてもよい。
 RAM503は、CPU501が一時記憶用のワークエリアとして使用するランダムアクセスメモリである。RAM503には、本実施形態の実現に必要なデータを記憶する領域がある。このようなデータとして、監視システム200は、カメラ性能531と遮蔽物532とを一時的に保存する。また、RAM503は、各種アプリケーションモジュールを実行するためのアプリケーション実行領域533を有する。
 ストレージ504は、本実施形態の実現に必要なプログラムやデータベースなどを記憶する記憶デバイスである。ストレージ504は、カメラ性能テーブル401と、遮蔽物テーブル402と、監視プログラム541と、制御プログラム545とを格納する。
 監視プログラム541は、映像取得モジュール542と、撮像制御モジュール543と、判定モジュール544とを格納している。これらのモジュール542~544は、CPU501によりアプリケーション実行領域533に読み出され、実行される。制御プログラム545は、監視システム200の全体を制御するためのプログラムである。また、RAM503とストレージ504との間でデータを転送するDMAC(Direct Memory Access Controller)を設けるのが望ましい(図示なし)。
 なお、図5に示したRAM503やストレージ504には、監視システム200が有する汎用の機能や他の実現可能な機能に関するプログラムやデータは図示されていない。
 図6は、監視システム200の処理手順を説明するフローチャートである。
 ステップS601において、監視システム200は、カメラ302から映像を取得する。ステップS603において、監視システム200は、映像中の遮蔽物210およびその死角が存在するかを判定する。遮蔽物210が存在する場合、ステップS605において、監視システム200は、監視対象者220が遮蔽物210の死角に侵入して、監視対象者220が遮蔽物210の死角に侵入したか否かを判定する。例えば、監視システム200は、監視対象者220が遮蔽物210の死角に侵入すると映像中において、監視対象者220がいなくなるので、監視対象者220の不存在に基づいて判定してもよい。
 監視対象者220が死角に侵入した場合、ステップS607において、監視システム200は、遮蔽物210の全体が撮像可能か否かを判定する。具体的には、カメラ302をパン、チルト、ズームなどを実行して制御して、遮蔽物210の全体をカメラの撮像範囲で撮像できるようにカメラ302を制御する。
 遮蔽物210の全体が撮像できない場合、ステップS609において、監視システム200は、監視対象者220が遮蔽物の死角に侵入した縁部とは異なる縁部、例えば、反対側の縁部を撮像できるようにカメラ302を制御する。カメラ制御は、例えば、カメラ302の倍率を下げて、画角をワイドにしたり、カメラ302をパンやチルトして、カメラ302の撮影範囲を制御する。
 そして、ステップS611において、監視システム200は、ステップS609で実施した制御により、監視対象者220が遮蔽物210の死角に侵入した縁部と異なる縁部が映るか否かを判定する。異なる縁部が映らない場合、ステップS613において、監視システム200は、監視者320に対してアラームを報知する。
 本実施形態によれば、対象物が遮蔽物に隠れた場合に、カメラ制御により異なる縁部を撮像するので、対象物を見失うことを低減できる。さらに、カメラ制御によっても異なる縁部を撮像できない場合には監視者に対してアラームを報知するので、対象物を見失うことをさらに低減できる。
 [第3実施形態]
 次に本発明の第3実施形態に係る監視システム700について、図7Aおよび図7Bを用いて説明する。図7Aは、本実施形態に係る監視システム700の構成を説明するための図である。本実施形態に係る監視システム700は、上記第2実施形態と比べると、撮像制御部を有しない点で異なる。その他の構成および動作は、第2実施形態と同様であるため、同じ構成および動作については同じ符号を付してその詳しい説明を省略する。
 監視システム700は、監視装置701とカメラ702とを備える。監視システム700は、1台のカメラ702で監視領域を監視している。
 制御部715は、取得した映像中に遮蔽物が存在するか否かを判定し、遮蔽物が存在する場合、遮蔽物の全体を1つのカメラの撮影範囲で撮像できるか否かを判定する。制御部715は、カメラ702の撮影範囲で遮蔽物の全体を撮像できない場合に、監視者などにアラームを報知する。
 図7Bは、本実施形態に係る監視システム700の処理手順を説明するフローチャートである。ステップS701において、監視システム700は、カメラ702を用いて映像を取得する。ステップS703において、監視システム700は、取得した映像中に遮蔽物が存在するか否かを判定する。遮蔽物が存在する場合、ステップS705において、監視システム700は、監視対象者220が遮蔽物210の死角に侵入して、監視対象者220が遮蔽物210の死角に侵入したか否かを判定する。監視対象者220が死角に侵入した場合、ステップS707において、監視システム700は、遮蔽物の全体をカメラ702の撮影範囲で撮像できるか否かを判定する。カメラの撮影範囲で遮蔽物の全体を撮像できない場合、ステップS709において、監視システム700は、監視者などにアラームを報知する。
 本実施形態によれば、遮蔽物の全体を撮像できない場合に監視者に対してアラームを報知するので、対象物を見失う前に、監視者が適切な措置を取ることができる。
 [第4実施形態]
 次に本発明の第4実施形態に係る監視システム800について、図8~図10を用いて説明する。図8は、本実施形態に係る監視システム800の動作の概略を説明するための図である。本実施形態に係る監視システム800のシステム構成は、上記第3実施形態と同様である。本実施形態に係る監視システム800は、上記第3実施形態と比べると、1つのカメラをパンしても遮蔽物の縁部を撮像できないときに、他のカメラを制御して遮蔽物の縁部を撮像する点で異なる。
 監視システム800は、図8(a)に示したように、画面830上において、監視対象者820が遮蔽物810の背後の死角に侵入し、姿が見えなくなると、監視対象者820を見失ってしまう。そのため、監視システム800は、図8(b)に示したように、監視対象者820を撮像していたカメラ840をパンしたりワイドにして、監視対象者820が侵入した縁部811とは異なる縁部812を撮像しようとする。しかしながら、監視システム800は、カメラ840を制御しても、カメラ840の撮像可能範囲や画角の制限などから縁部812を撮像できないことがある。この場合、監視システム800は、カメラ840とは異なる別のカメラ850をパンしたりワイドにしたりして、カメラ850の撮像範囲を制御して、カメラ850で縁部812を撮像する。
 図9は、監視システム900の構成を示すブロック図である。監視システム900は、監視装置901とカメラ群902とを備える。監視装置901は、映像取得部311と撮像制御部312と判定部313と判定部314と制御部915と報知部316とを有する。カメラ群902は、カメラ921とカメラ922とを有する。なお、図3と同様の構成には同じ参照番号を付して説明を省略する。
 制御部915は、例えば、判定部314が、カメラ群902のいずれかのカメラをパン、チルト、ズームなどの制御をしても、監視対象者が侵入した縁部とは異なる縁部とは異なる縁部を映すことができないと判定した場合、次の制御を行う。つまり、制御部915は、遮蔽物による死角および監視対象者が遮蔽物の死角に侵入した縁部とは異なる縁部のいずれか一方を撮像するように、カメラ群902のいずれかのカメラを制御する。
 制御部915によるカメラ制御は、具体的には、次のように行う。制御部915は、例えば、監視対象者が遮蔽物によって生じた死角に侵入した遮蔽物の縁部を撮像していたカメラをパンする。制御部915は、カメラのパンにより、監視対象者が侵入した縁部とは異なる縁部を撮像できれば、カメラをパンした制御を維持する。
 カメラのパンによっても、異なる縁部を撮像できなければ、制御部915は、カメラをチルトする。カメラのチルトにより、監視対象者が侵入した縁部とは異なる縁部を撮像できれば、カメラをチルトした制御を維持する。
 カメラのチルトによっても、異なる縁部を撮像できなければ、制御部915は、カメラをズーム、例えば、カメラの撮影範囲を広角にする。カメラのズームにより、監視対象者が侵入した縁部とは異なる縁部を撮像できれば、カメラをズームした制御を維持する。なお、ここで説明したカメラ制御は一例に過ぎず、パン、チルト、ズームの順序はこれに限定されず、様々な組み合わせで制御を行ってもよい。
 そして、上述したパン、チルト、ズームの制御を組み合わせても、監視対象者が侵入した縁部とは異なる縁部を撮像できなければ、制御部915は、カメラ群902の中の他のカメラを制御して、縁部や死角などを撮像する。制御部915は、上述した制御と同様の手法により他のカメラの制御を行う。
 図10は、本実施形態に係る監視システム800の処理手順を説明するフローチャートである。なお、図6と同様のステップには同じステップ番号を付して説明を省略する。ステップS1001において、監視システム800は、別のカメラを制御して、監視対象者が侵入した遮蔽物の縁部とは異なる縁部を撮像する。別のカメラの制御として、監視システム800は、例えば、カメラをパン、チルト、ズームなどする。
 本実施形態によれば、1つのカメラで異なる縁部を撮像できない場合でも、別のカメラを制御して異なる縁部や死角などを撮像するので、対象物が遮蔽物に隠れた場合に対象物を見失う可能性を大幅に低減できる。
 [他の実施形態]
 以上、実施形態を参照して本願発明を説明したが、本願発明は上記実施形態に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。また、それぞれの実施形態に含まれる別々の特徴を如何様に組み合わせたシステムまたは装置も、本発明の範疇に含まれる。
 また、本発明は、複数の機器から構成されるシステムに適用されてもよいし、単体の装置に適用されてもよい。さらに、本発明は、実施形態の機能を実現する情報処理プログラムが、システムあるいは装置に直接あるいは遠隔から供給される場合にも適用可能である。したがって、本発明の機能をコンピュータで実現するために、コンピュータにインストールされるプログラム、あるいはそのプログラムを格納した媒体、そのプログラムをダウンロードさせるWWW(World Wide Web)サーバも、本発明の範疇に含まれる。特に、少なくとも、上述した実施形態に含まれる処理ステップをコンピュータに実行させるプログラムを格納した非一時的コンピュータ可読媒体(non-transitory computer readable medium)は本発明の範疇に含まれる。
この出願は、2015年3月20日に出願された日本出願特願2015-58276を基礎とする優先権を主張し、その開示の全てをここに取り込む。

Claims (8)

  1.  少なくとも1つのカメラを用いて映像を取得する映像取得手段と、
     前記映像中に遮蔽物が存在し、前記遮蔽物の全体を1つのカメラの撮影範囲で撮像できない場合に、対象物が侵入した前記遮蔽物の第1縁部とは異なる第2縁部を撮像するように制御する撮像制御手段と、
     を備えた監視システム。
  2.  前記映像中に遮蔽物およびその死角の存在を判定する第1判定手段と、
     前記遮蔽物の全体を1つのカメラの撮影範囲で撮像できるか否かを判定する第2判定手段と、をさらに備えた請求項1に記載の監視システム。
  3.  前記第2判定手段が、前記遮蔽物の全体を1台のカメラで撮像できないと判定した場合に、監視者に対して報知する報知手段をさらに備えた請求項2に記載の監視システム。
  4.  前記撮像制御手段は、前記映像中に遮蔽物が存在し、前記遮蔽物の全体を1つのカメラの撮影範囲で撮像できない場合に、前記カメラの撮影範囲を制御する請求項1乃至3のいずれか1項に記載の監視システム。
  5.  前記撮像制御手段は、
     前記カメラの制御により前記第2縁部を撮像できない場合に、他のカメラを制御して死角および前記第2縁部の少なくともいずれか一方を撮像する、請求項4に記載の監視システム。
  6.  少なくとも1つのカメラを用いて映像を取得する映像取得ステップと、
     前記映像中に遮蔽物が存在し、前記遮蔽物の全体を1つのカメラの撮影範囲で撮像できない場合に、対象物が侵入した前記遮蔽物の第1縁部とは異なる第2縁部を撮像するように制御する撮像制御ステップと、
     を含む監視方法。
  7.  少なくとも1つのカメラから映像を取得する映像取得手段と、
     前記映像中に遮蔽物が存在し、前記遮蔽物の全体を1つのカメラの撮影範囲で撮像できない場合に、対象物が侵入した前記遮蔽物の第1縁部とは異なる第2縁部を撮像するように制御する撮像制御手段と、
     を備えた監視装置。
  8.  少なくとも1つのカメラから映像を取得する映像取得ステップと、
     前記映像中に遮蔽物が存在し、前記遮蔽物の全体を1つのカメラの撮影範囲で撮像できない場合に、対象物が侵入した前記遮蔽物の第1縁部とは異なる第2縁部を撮像するように制御する撮像制御ステップと、
     をコンピュータに実行させる監視装置の制御プログラム。
PCT/JP2016/054346 2015-03-20 2016-02-15 監視システム、監視方法、監視装置および監視装置の制御プログラム WO2016152316A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015058276 2015-03-20
JP2015-058276 2015-03-20

Publications (1)

Publication Number Publication Date
WO2016152316A1 true WO2016152316A1 (ja) 2016-09-29

Family

ID=56978343

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/054346 WO2016152316A1 (ja) 2015-03-20 2016-02-15 監視システム、監視方法、監視装置および監視装置の制御プログラム

Country Status (1)

Country Link
WO (1) WO2016152316A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018142907A (ja) * 2017-02-28 2018-09-13 キヤノンマーケティングジャパン株式会社 情報処理装置、情報処理装置の制御方法及びプログラム
CN110557628A (zh) * 2018-06-04 2019-12-10 杭州海康威视数字技术股份有限公司 一种检测摄像头遮挡的方法、装置及电子设备
CN110995993A (zh) * 2019-12-06 2020-04-10 北京小米移动软件有限公司 星轨视频拍摄方法、星轨视频拍摄装置及存储介质
CN115311217A (zh) * 2022-07-26 2022-11-08 珠海视熙科技有限公司 相机镜头遮挡的监测方法、装置、系统及介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002092751A (ja) * 2000-09-18 2002-03-29 Matsushita Electric Ind Co Ltd 監視システム
JP2006310901A (ja) * 2005-04-26 2006-11-09 Victor Co Of Japan Ltd 監視システム及び監視方法
JP2009212637A (ja) * 2008-03-03 2009-09-17 Sanyo Electric Co Ltd 撮像装置
JP2012080222A (ja) * 2010-09-30 2012-04-19 Jvc Kenwood Corp 目標追跡装置、目標追跡方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002092751A (ja) * 2000-09-18 2002-03-29 Matsushita Electric Ind Co Ltd 監視システム
JP2006310901A (ja) * 2005-04-26 2006-11-09 Victor Co Of Japan Ltd 監視システム及び監視方法
JP2009212637A (ja) * 2008-03-03 2009-09-17 Sanyo Electric Co Ltd 撮像装置
JP2012080222A (ja) * 2010-09-30 2012-04-19 Jvc Kenwood Corp 目標追跡装置、目標追跡方法

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018142907A (ja) * 2017-02-28 2018-09-13 キヤノンマーケティングジャパン株式会社 情報処理装置、情報処理装置の制御方法及びプログラム
CN110557628A (zh) * 2018-06-04 2019-12-10 杭州海康威视数字技术股份有限公司 一种检测摄像头遮挡的方法、装置及电子设备
CN110995993A (zh) * 2019-12-06 2020-04-10 北京小米移动软件有限公司 星轨视频拍摄方法、星轨视频拍摄装置及存储介质
CN115311217A (zh) * 2022-07-26 2022-11-08 珠海视熙科技有限公司 相机镜头遮挡的监测方法、装置、系统及介质
CN115311217B (zh) * 2022-07-26 2023-10-31 珠海视熙科技有限公司 相机镜头遮挡的监测方法、装置、系统及介质

Similar Documents

Publication Publication Date Title
EP3641304B1 (en) Target object capturing method and device, and video monitoring device
JP5810296B2 (ja) 画像表示装置及び画像表示方法
AU2011343674B2 (en) Zooming factor computation
US9509900B2 (en) Camera control method, and camera control device for same
JP5891061B2 (ja) 映像監視装置、監視システム、監視システム構築方法
JP4241742B2 (ja) 自動追尾装置及び自動追尾方法
WO2016152316A1 (ja) 監視システム、監視方法、監視装置および監視装置の制御プログラム
WO2012169232A1 (ja) 分散画像処理システム
JPWO2016157327A1 (ja) 映像監視システム及び映像監視方法
EP2117225A1 (en) Automatic tracking device and automatic tracking method
WO2016152317A1 (ja) 映像処理システム、映像処理方法および映像処理プログラム
JP6914007B2 (ja) 情報処理装置および情報処理方法
WO2014136499A1 (ja) 監視装置、監視方法および撮像部の配置方法
KR101832274B1 (ko) 영상 촬영에 의한 지능형 방범 시스템 및 그 수행 방법
JP5141137B2 (ja) カメラ制御方法、カメラ制御装置、カメラ制御プログラムおよびカメラシステム
JP3710297B2 (ja) 撮像システム、撮像制御装置、撮像制御方法、及び記憶媒体
JP2016082506A (ja) 監視装置、監視方法及びプログラム
JP5039607B2 (ja) 撮像装置及びその制御方法
JP4855662B2 (ja) カメラシステム、カメラ制御方法、及びプログラム
JP2006319526A (ja) ネットワークカメラシステム及びその制御方法
JP6826481B2 (ja) 映像表示装置、映像表示装置の制御方法及びプログラム
CN116017136A (zh) 拍摄设备的控制方法和装置、存储介质及电子装置
KR100761817B1 (ko) 움직이는 물체를 효율적으로 추적하는 감시용 카메라시스템 및 그 제어 방법
JP2007036782A (ja) 移動物体検出装置
KR102584525B1 (ko) 영상 처리 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16768219

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16768219

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP