JP2012235355A - Network camera system and method of controlling the same - Google Patents

Network camera system and method of controlling the same Download PDF

Info

Publication number
JP2012235355A
JP2012235355A JP2011103194A JP2011103194A JP2012235355A JP 2012235355 A JP2012235355 A JP 2012235355A JP 2011103194 A JP2011103194 A JP 2011103194A JP 2011103194 A JP2011103194 A JP 2011103194A JP 2012235355 A JP2012235355 A JP 2012235355A
Authority
JP
Japan
Prior art keywords
network camera
feature information
camera system
imaging device
network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2011103194A
Other languages
Japanese (ja)
Inventor
Hiroshi Nishikawa
寛 西川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2011103194A priority Critical patent/JP2012235355A/en
Publication of JP2012235355A publication Critical patent/JP2012235355A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To automatically update setting information concerning camera setting when network cameras are replaced.SOLUTION: In a network camera system having an imaging device, and a client device which receives video data from the imaging device via a network and displays the video data on a display part, feature information is extracted on the basis of the video data acquired by the imaging device, the extracted feature information is stored in a storage medium, the feature information stored in the storage medium and newly extracted feature information are compared, and setting information containing at least one of a preset position, a masking position, and a motion detection position can be corrected on the basis of the comparison result, thereby allowing displacement to be corrected automatically when the network cameras are replaced.

Description

本発明は、ネットワークカメラシステム及びネットワークカメラシステムの制御方法に関し、特に、ネットワークカメラ交換時に用いて好適な技術に関するものである。   The present invention relates to a network camera system and a control method for the network camera system, and more particularly to a technique suitable for use when replacing a network camera.

従来、監視カメラを用いたネットワークカメラシステムにおいては、取得した映像をネットワークに配信するカメラと、遠隔地でネットワークを介してカメラ映像を受け取り、表示装置で可視可能とするクライアント機により構成される。また、クライアント機は映像を可視可能とすると共に、いろいろなカメラ設定を行う。   2. Description of the Related Art Conventionally, a network camera system using a surveillance camera includes a camera that distributes acquired video to a network and a client machine that receives camera video via a network at a remote location and makes it visible on a display device. In addition, the client machine makes video visible and performs various camera settings.

例えば、カメラの解像度、ホワイトバランス、露出、シャッタースピードなどの画質に関する設定や、IPアドレス、圧縮方式、配信画素数などのネットワーク配信に関する設定などを行う。さらには、プリセット、プライベートマスキング、動き検出における位置情報などの設定を行う。したがって、故障などによりカメラを交換する場合、以前と同じ設定をクライアント機で行い、同一の設定状態にする必要がある。   For example, settings related to image quality such as camera resolution, white balance, exposure, and shutter speed, and settings related to network distribution such as IP address, compression method, and number of distribution pixels are made. In addition, preset information, private masking, position information for motion detection, etc. are set. Therefore, when the camera is replaced due to a failure or the like, it is necessary to perform the same setting as before on the client machine so that the same setting state is obtained.

特許文献1では、以前に取得しておいた撮影位置での被写体情報を、録画装置に保存しておき、交換したカメラで新たに取得した被写体情報を、録画装置に保存しておいた被写体情報と比較する。そして、一致した場合にカメラに通知し、カメラで報知を行うカメラシステムを開示している。
また、特許文献2では、マスキング情報をカメラに着脱可能な記憶媒体に記憶し、記憶媒体に記憶されたマスキング情報に基づいてマスキングする監視システムを開示している。
In Patent Document 1, subject information at a shooting position acquired in advance is stored in a recording device, and subject information newly acquired by a replaced camera is stored in subject information stored in the recording device. Compare with And the camera system which notifies a camera when it corresponds and alert | reports with a camera is disclosed.
Patent Document 2 discloses a monitoring system in which masking information is stored in a storage medium that can be attached to and detached from the camera, and masking is performed based on the masking information stored in the storage medium.

特開2010−21920号公報JP 2010-21920 A 特開2004−364030号公報JP 2004-364030 A

しかしながら、前述の特許文献1に開示された従来技術では、交換前のカメラで撮影した被写体情報と、交換後のカメラで撮影した被写体情報とを、撮影位置を試行錯誤しながら比較する必要がある。このため、撮影位置の特定に多くの時間がかかってしまう問題点があった。また、プリセット位置のように、撮影位置が複数ある場合、プリセット位置ごとに撮影位置を比較する必要があり、プリセット位置が多い場合は非常に多くの時間がかかってしまう問題点があった。   However, in the prior art disclosed in the above-mentioned Patent Document 1, it is necessary to compare subject information photographed by the camera before replacement with subject information photographed by the camera after replacement while trial and error. . For this reason, there is a problem that it takes a lot of time to specify the photographing position. Further, when there are a plurality of shooting positions as in the preset position, it is necessary to compare the shooting positions for each preset position. When there are many preset positions, it takes a very long time.

また、前述の特許文献2に開示された従来技術では、マスキング位置を着脱可能な記憶媒体に記憶して、カメラが交換された後もマスキング可能としている。しかしながら、交換したカメラの設置位置がずれている場合は、マスキング位置が所望のプライバシー領域からずれてしまうこととなり、意味のない位置をマスキングしてしまうことになってしまう問題点があった。   In the prior art disclosed in Patent Document 2, the masking position is stored in a removable storage medium so that masking is possible even after the camera is replaced. However, when the installation position of the replaced camera is deviated, the masking position is deviated from a desired privacy area, and there is a problem that a meaningless position is masked.

本発明は前述の問題点に鑑み、ネットワークカメラの交換時に、カメラ設定に係る設定情報を自動更新できるようにすることを第1の目的とする。
また、ネットワークカメラの交換時に、位置ずれが発生したときに、位置修正を容易にできるようにすることを第2の目的とする。
In view of the above-described problems, a first object of the present invention is to automatically update setting information related to camera settings when replacing a network camera.
It is a second object of the present invention to make it possible to easily correct the position when a position shift occurs during the replacement of the network camera.

本発明のネットワークカメラシステムは、撮影装置と、前記撮影装置からの映像データを、ネットワークを介して受信して表示部に表示するクライアント機とを有するネットワークカメラシステムにおいて、前記クライアント機は、プリセット位置、マスキング位置、動き検出位置のうち、少なくとも一つを含む設定情報を入力する入力手段を具備し、前記撮影装置は、前記設定情報が示す範囲の全てまたは一部を含む撮影範囲を撮影する前記撮影装置により取得した映像データを元に特徴情報を抽出するとともに、前記抽出した特徴情報を記憶媒体に記憶し、前記設定情報を元に前記撮影装置の設定を行う制御手段を具備し、前記制御手段は、前記記憶媒体に記憶した特徴情報と、新たに抽出した特徴情報とを比較する比較手段と、前記比較手段の比較結果に基づいて前記設定情報を修正する修正手段とを具備することを特徴とする。   The network camera system of the present invention is a network camera system including a photographing device and a client device that receives video data from the photographing device via a network and displays the data on a display unit. An input means for inputting setting information including at least one of a masking position and a motion detection position, and the imaging device captures an imaging range including all or a part of the range indicated by the setting information. A control unit configured to extract feature information based on video data acquired by the imaging device, store the extracted feature information in a storage medium, and set the imaging device based on the setting information; Means for comparing the feature information stored in the storage medium with the newly extracted feature information; and the ratio Based on the comparison result of the means characterized by comprising a correction means for correcting the setting information.

本発明によればネットワークカメラの交換時に、カメラ設定に係る設定情報を自動更新できるネットワークカメラシステムを提供することができる。
また、本発明の他の特徴によれば、ネットワークカメラ交換時に、位置ずれが発生したときに、位置修正を容易にできるようにしたネットワークカメラシステムを提供することができる。
ADVANTAGE OF THE INVENTION According to this invention, the network camera system which can update the setting information which concerns on a camera setting automatically at the time of replacement | exchange of a network camera can be provided.
In addition, according to another feature of the present invention, it is possible to provide a network camera system capable of easily correcting a position when a positional deviation occurs when replacing the network camera.

第1の実施形態におけるシステムの構成を示すブロック図である。It is a block diagram which shows the structure of the system in 1st Embodiment. 第1の実施形態における制御部のブロック図である。It is a block diagram of a control part in a 1st embodiment. 第1の実施形態におけるカメラ交換前と後の表示例を示すイメージ図である。It is an image figure which shows the example of a display before and after camera replacement in 1st Embodiment. 第1の実施形態におけるシステムの動作を説明するフローチャートである。It is a flowchart explaining operation | movement of the system in 1st Embodiment. ソーベルフィルタの微分例を示すイメージ図である。It is an image figure which shows the differential example of a Sobel filter. 閾値の例を示す図である。It is a figure which shows the example of a threshold value. 第1の実施形態におけるエッジ画素線の一例を示すイメージ図である。It is an image figure which shows an example of the edge pixel line in 1st Embodiment. 第1の実施形態におけるエッジ座標例を示す図である。It is a figure which shows the example of an edge coordinate in 1st Embodiment. 第1の実施形態におけるプリセット座標の一例を示す図である。It is a figure which shows an example of the preset coordinate in 1st Embodiment. 第2の実施形態におけるシステムの構成を示すブロック図である。It is a block diagram which shows the structure of the system in 2nd Embodiment. 第2の実施形態におけるカメラ交換後の映像表示例のイメージ図である。It is an image figure of the example of a picture display after camera exchange in a 2nd embodiment. 第2の実施形態におけるシステムの動作を説明するフローチャートである。It is a flowchart explaining operation | movement of the system in 2nd Embodiment. 第2の実施形態におけるエッジ座標の一例を示す図である。It is a figure which shows an example of the edge coordinate in 2nd Embodiment. 第3の実施形態におけるネットワークカメラの外観を示す図である。It is a figure which shows the external appearance of the network camera in 3rd Embodiment. 第3の実施形態におけるシステムの構成を示すブロック図である。It is a block diagram which shows the structure of the system in 3rd Embodiment. 第3の実施形態におけるシステムの動作を説明するフローチャートである。It is a flowchart explaining operation | movement of the system in 3rd Embodiment.

以下に、本発明の好ましい実施形態を、添付の図面に基づいて詳細に説明する。
(第1の実施形態)
以下、図1〜図7を参照して、本発明の第1の実施形態による、ネットワークカメラシステムについて説明する。
図1は、本実施形態におけるシステム構成例を説明するブロック図である
図1において、1は撮影装置としてのネットワークカメラであり、撮影した映像をネットワーク11経由でクライアント機2に配信する。クライアント機2は、ネットワークカメラ1から送られてきた映像を受信して表示する。
Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.
(First embodiment)
The network camera system according to the first embodiment of the present invention will be described below with reference to FIGS.
FIG. 1 is a block diagram illustrating an example of a system configuration in the present embodiment. In FIG. 1, reference numeral 1 denotes a network camera as a photographing apparatus, which distributes photographed video to a client machine 2 via a network 11. The client machine 2 receives and displays the video sent from the network camera 1.

ネットワークカメラ1は、光学系6、撮像素子3、制御部4、SDカード5、ズーム、パン、チルトなどのメカ機構7、ズーム、パン、チルトを駆動する駆動部9、映像をネットワーク配信するためのネットワーク回路10で構成されている。以後の説明でパン、チルト、ズームのメカ機構はPTZ機構7と省略して説明する。   The network camera 1 includes an optical system 6, an image sensor 3, a control unit 4, an SD card 5, a mechanical mechanism 7 such as zoom, pan, and tilt, a drive unit 9 that drives zoom, pan, and tilt, and a network for distributing video. Network circuit 10. In the following description, the pan, tilt, and zoom mechanical mechanisms are abbreviated as PTZ mechanisms 7.

光学系6は、撮影方向から入射される光を撮像素子3上に結像する。撮像素子3は、撮影方向からの光学映像を光電変換する。
制御部4は光電変換された映像を元に、画質制御、ネットワーク配信のための圧縮処理、PTZ機構7の制御などを行うと共に、SDカード5への書き込み制御、映像の輪郭抽出処理などを行う。SDカード5は、制御部4で処理するのに必要な映像データの輪郭パラメータ、輪郭抽出結果、プリセット位置、マスキング位置、動き検出位置、ズーム情報などを記憶するためのものである。本実施形態においてはネットワークカメラ1に着脱可能に取り付けられている。
The optical system 6 forms an image of light incident from the photographing direction on the image sensor 3. The image sensor 3 photoelectrically converts an optical image from the shooting direction.
The control unit 4 performs image quality control, compression processing for network distribution, control of the PTZ mechanism 7 and the like based on the photoelectrically converted video, writing control to the SD card 5, video contour extraction processing, and the like. . The SD card 5 is used for storing image data contour parameters, contour extraction results, preset positions, masking positions, motion detection positions, zoom information, and the like necessary for processing by the control unit 4. In this embodiment, it is detachably attached to the network camera 1.

PTZ機構7は、プリセット位置に光学系6を向けるモータ、ギア、メカ的なホームポジション位置を検出するHPセンサ、回転位置検出のエンコーダ等で構成されたメカ機構である。HPセンサおよびエンコーダは、パン方向に回転するメカ機構、チルト方向に回転するメカ機構をそれぞれに具備している。   The PTZ mechanism 7 is a mechanical mechanism composed of a motor, a gear, an HP sensor for detecting a mechanical home position, an encoder for detecting a rotational position, and the like that direct the optical system 6 to a preset position. The HP sensor and the encoder each include a mechanical mechanism that rotates in the pan direction and a mechanical mechanism that rotates in the tilt direction.

クライアント機2は、通常のPC(パソコン)でよく、キーボード、マウスなどの入力部14、液晶表示器などの表示部12、CPUなどの制御部13、ネットワーク通信を行うためのネットワーク回路15、ハードディスクなどの記憶部16で構成される。   The client machine 2 may be a normal PC (personal computer), an input unit 14 such as a keyboard and a mouse, a display unit 12 such as a liquid crystal display, a control unit 13 such as a CPU, a network circuit 15 for performing network communication, and a hard disk. And the like.

図3(a)、(b)は、ネットワークカメラ1を交換した際のプリセット位置がどうなるかの一例を表したイメージ図である。
図3(a)において、61は全体映像である。ネットワークカメラ1のパン、チルト機構のそれぞれに具備されているHPセンサが検出したホームポジション62の方向に光学系6を向け、ズームを最大限ワイドにした際の映像である。
FIGS. 3A and 3B are image diagrams showing an example of what happens to the preset position when the network camera 1 is replaced.
In FIG. 3A, reference numeral 61 denotes an entire image. This is an image when the optical system 6 is directed toward the home position 62 detected by the HP sensor provided in each of the pan and tilt mechanisms of the network camera 1 and the zoom is set to the maximum wide.

63、65はユーザがクライアント機2の入力部14を用いて、セットしたプリセット位置64、66であり、ズームをユーザ指定した撮影範囲を示す。プリセット位置64、66は、後述するが、座標情報で設定され、ネットワークカメラ1の設定情報としてSDカード5に記憶される。例えば、プリセット位置64が指定する撮影範囲63は、道路を走る車を撮影する撮影範囲であり、車を検知し、車のスピードがスピードオーバかどうかを検出するために用いられる。プリセット位置66が指定する撮影範囲65は、スピードオーバした車が存在した場合に、ナンバープレートを撮影し、番号を認識するために用いられる。他の例としては、撮影範囲63で信号無視した車を検出し、同様に撮影範囲65でナンバープレートを撮影するために用いられる。前述のように、複数のプリセット位置を設定する使い方はいろいろ考えられる。例えば、設定情報が示す範囲の全てまたは一部を含む撮影範囲を撮影するよう設定してもよい。   Reference numerals 63 and 65 are preset positions 64 and 66 set by the user using the input unit 14 of the client machine 2, and indicate a shooting range in which the zoom is designated by the user. As will be described later, the preset positions 64 and 66 are set by coordinate information and stored in the SD card 5 as setting information of the network camera 1. For example, the shooting range 63 specified by the preset position 64 is a shooting range for shooting a car traveling on a road, and is used for detecting a car and detecting whether the speed of the car is overspeed. The photographing range 65 designated by the preset position 66 is used for photographing the number plate and recognizing the number when there is a vehicle overspeeding. As another example, a car in which a signal is ignored in the shooting range 63 is detected, and similarly, it is used for shooting a license plate in the shooting range 65. As described above, there are various ways to set a plurality of preset positions. For example, you may set so that the imaging | photography range containing all or one part of the range which setting information shows may be image | photographed.

図3(b)は、ネットワークカメラを交換した例を示している。
新しいネットワークカメラは、交換前のネットワークカメラに対し、右方向にずれた位置に設置されている例であり、ホームポジション位置は72の位置となる。このため、全体映像71は交換前の映像と比べ、右方向の部分を撮影している。
FIG. 3B shows an example in which the network camera is replaced.
The new network camera is an example installed at a position shifted to the right with respect to the network camera before replacement, and the home position is 72. For this reason, the entire image 71 is taken in the rightward direction compared to the image before the replacement.

プリセット位置は、本来は交換前のネットワークカメラ1で設定した位置である75、78の位置にそれぞれ設定されるべきである。しかし、ネットワークカメラ1の交換により、カメラ全体が右方向にずれてしまっており、ホームポジション位置72からの相対位置で記憶しているプリセット位置は73と76の位置となる。   The preset positions should be set to positions 75 and 78, which are positions originally set by the network camera 1 before replacement. However, the network camera 1 is replaced and the entire camera has shifted to the right, and the preset positions stored as relative positions from the home position 72 are positions 73 and 76.

本実施形態では、ネットワークカメラ1の制御部4の制御により、映像の特徴を検出し、交換したネットワークカメラのプリセット位置73、76を自動的に75、78に変更することを可能にしている。なお、図3(a)、(b)では、プリセット位置について説明したが、プライベートエリアをマスクするマスク位置や、動体検出位置などの映像解析範囲などの位置も、ネットワークカメラを交換した際、変わってしまう。本実施形態の技術を用いることにより、マスク位置や映像解析範囲などの移動も自動的に行うことが可能となる。   In this embodiment, the control of the control unit 4 of the network camera 1 detects the feature of the video, and the preset positions 73 and 76 of the replaced network camera can be automatically changed to 75 and 78. 3 (a) and 3 (b), the preset position has been described. However, the mask position for masking the private area and the position of the video analysis range such as the moving object detection position change when the network camera is replaced. End up. By using the technique of the present embodiment, it is possible to automatically move the mask position, the image analysis range, and the like.

図2は、図1に示した制御部4の内部構成例を示すブロック図である。図1と同じ構成については同一番号を付与している。
図2において、撮像素子3から入手したアナログ信号である映像信号は、入力部21によりデジタル化され、画質制御部22により、ホワイトバランスや輝度調整などが行なわれる。本実施形態において、画質制御部22は、輝度信号と色素信号で色空間を表すYCbCrフォーマットで表した映像信号を出力する。
FIG. 2 is a block diagram illustrating an internal configuration example of the control unit 4 illustrated in FIG. 1. The same components as those in FIG. 1 are given the same numbers.
In FIG. 2, a video signal that is an analog signal obtained from the image sensor 3 is digitized by the input unit 21, and white balance and brightness adjustment are performed by the image quality control unit 22. In the present embodiment, the image quality control unit 22 outputs a video signal represented in a YCbCr format that represents a color space with a luminance signal and a dye signal.

画質調整された映像信号は、圧縮処理部23により、YCbCrフォーマットをRGBフォーマットに変換し、JPEGやMPEG、H.264などの圧縮方法で圧縮して映像データを生成する。圧縮された映像データは、ネットワーク処理部24により、TCPやUDPなどのプロトコルに従い、パケット化される。パケット化された映像データはネットワーク回路10に出力され、図1のネットワーク11を介してクライアント機2に送信される。   The video signal whose image quality has been adjusted is converted from the YCbCr format to the RGB format by the compression processing unit 23, and is converted into JPEG, MPEG, H.264, or the like. Video data is generated by compression using a compression method such as H.264. The compressed video data is packetized by the network processing unit 24 in accordance with a protocol such as TCP or UDP. The packetized video data is output to the network circuit 10 and transmitted to the client machine 2 via the network 11 of FIG.

本実施形態においては、映像データを元にエッジ検出を行い、検出したエッジの特徴により映像比較を行っている。エッジ検出としては、本実施形態ではキャニーフィルタを採用している。キャニーフィルタは、ガウシアンフィルタとソーベルフィルタを組み合わせることで細線化されたエッジを検出し、エッジの連結性をあげるために上限、下限の閾値情報を使ってエッジとなる直線または曲線を検出するフィルタである。本実施形態では、図2に示すように、キャニーフィルタは、ガウシアンフィルタ25、ソーベルフィルタ26、ヒステリシス閾値処理部27により構成している。   In this embodiment, edge detection is performed based on video data, and video comparison is performed based on the detected edge characteristics. In this embodiment, a canny filter is used for edge detection. The Canny filter is a filter that detects a thin line edge by combining a Gaussian filter and a Sobel filter, and detects a straight line or a curve as an edge by using upper and lower threshold information to increase the connectivity of the edge. It is. In the present embodiment, as shown in FIG. 2, the Canny filter includes a Gaussian filter 25, a Sobel filter 26, and a hysteresis threshold processing unit 27.

画質制御部22により画質調整されたYCbCrフォーマットの映像信号は、ガウシアンフィルタ25に送信される。ガウシアンフィルタ25は、画像の濃淡値の変化を滑らかにする平滑化を行うフィルタで、YCbCrフォーマット映像信号の輝度信号であるY成分のみを用いノイズ成分を取り除く。Y成分のみを用いることにより、白黒画像での処理となる。   The video signal in the YCbCr format whose image quality has been adjusted by the image quality control unit 22 is transmitted to the Gaussian filter 25. The Gaussian filter 25 is a filter that performs smoothing to smooth the change in the gray value of the image, and removes the noise component using only the Y component that is the luminance signal of the YCbCr format video signal. By using only the Y component, processing is performed on a monochrome image.

ガウシアンフィルタ25によりノイズ成分が取り除かれた白黒画像の映像信号を元に、ソーベルフィルタ26でエッジ抽出を行う。ソーベルフィルタ26は、微分フィルタの一種であり、微分することにより、映像信号の輝度に変化があったところを検出する。YCbCrフォーマットでのY成分は8ビットで表され、0から255の値で輝度値を表現している。   Edge extraction is performed by the Sobel filter 26 based on the video signal of the black and white image from which the noise component has been removed by the Gaussian filter 25. The Sobel filter 26 is a kind of differential filter, and detects a change in the luminance of the video signal by differentiating. The Y component in the YCbCr format is represented by 8 bits, and the brightness value is expressed by a value from 0 to 255.

図5は、ソーベルフィルタ26での微分例を示す図である。
図5(a)において、評価画素nでは輝度値が20であり、評価画素n+1では輝度値が100となる急峻な輝度変化のエッジ例を示している。評価画素における輝度値は、
Y=80X+20となり、微分するとΔY=80となる。
FIG. 5 is a diagram showing an example of differentiation in the Sobel filter 26.
FIG. 5A shows an example of a sharp luminance change edge in which the evaluation pixel n has a luminance value of 20 and the evaluation pixel n + 1 has a luminance value of 100. The luminance value at the evaluation pixel is
Y = 80X + 20, and when differentiated, ΔY = 80.

図5(b)において、評価画素nでは輝度値が20であり、評価画素n+1では輝度値が60、評価画素n+2では輝度値が100となる。図5(a)と比較してなだらかな輝度変化のエッジ例を示している。評価画素における輝度値は、
Y=40X+20となり、微分するとΔY=40となる。
In FIG. 5B, the evaluation pixel n has a luminance value of 20, the evaluation pixel n + 1 has a luminance value of 60, and the evaluation pixel n + 2 has a luminance value of 100. The example of the edge of a gentle brightness | luminance change is shown compared with Fig.5 (a). The luminance value at the evaluation pixel is
Y = 40X + 20, and when differentiated, ΔY = 40.

実際のソーベルフィルタ26においては、エッジを検出する方向と直行方向に平滑化を行い、小さなエッジを削除している。ヒステリシス閾値処理部27はソーベルフィルタ26で求めたエッジ値を元に、2種類の閾値情報を用いてエッジ値の選別を行う。上限閾値以上のエッジ値の場合は、エッジ画素として選別し、下限閾値以下の場合は、エッジ画素ではないとして選別する。上限閾値未満で下限閾値以上の場合は、隣接した画素がエッジ画素であればエッジ画素として選別する。また、そうでなければ、エッジ画素ではないとして選別する。   In the actual Sobel filter 26, smoothing is performed in the direction in which edges are detected and in the orthogonal direction, and small edges are deleted. Based on the edge value obtained by the Sobel filter 26, the hysteresis threshold processing unit 27 performs edge value selection using two types of threshold information. If the edge value is equal to or greater than the upper threshold value, it is selected as an edge pixel, and if it is equal to or lower than the lower threshold value, it is selected as not being an edge pixel. If it is less than the upper threshold and greater than or equal to the lower threshold, if the adjacent pixel is an edge pixel, it is selected as an edge pixel. Otherwise, it is classified as not an edge pixel.

混乱を避けるために、エッジに関する文言を下記として以降説明する
エッジ値:ソーベルフィルタ26で求めた各画素の微分値。
エッジ画素:ソーベルフィルタ26でエッジ値が求められた画素。
閾値以上のエッジ画素:ヒステリシス閾値処理部27で閾値以上と抽出されたエッジ画素。
エッジ画素線:閾値以上のエッジ画素が連なった直線または曲線の画素の連続。
エッジ座標:エッジ画素線の終端および屈折点(折れ曲がった点)の座標。
In order to avoid confusion, the wording relating to the edge will be described below. Edge value: A differential value of each pixel obtained by the Sobel filter 26.
Edge pixel: A pixel whose edge value is obtained by the Sobel filter 26.
Edge pixels greater than or equal to threshold: edge pixels extracted by the hysteresis threshold processing unit 27 as being greater than or equal to the threshold.
Edge pixel line: A series of straight or curved pixels in which edge pixels equal to or greater than a threshold are connected.
Edge coordinates: The coordinates of the end of the edge pixel line and the refraction point (bent point).

RAM30は揮発性の記憶媒体であり、ヒステリシス閾値処理部27で、閾値以上のエッジ画素の選別が終了したエッジ画素線は、CPU29の制御により、RAM30に記憶される。   The RAM 30 is a volatile storage medium, and the edge pixel line for which the selection of edge pixels equal to or higher than the threshold is completed by the hysteresis threshold processing unit 27 is stored in the RAM 30 under the control of the CPU 29.

CPU29は、フラッシュメモリを内蔵した中央処理装置である。フラッシュメモリに記憶したマイクロ命令を実行することにより、下記に示す処理を実行する。
クライアント機2から受信したプリセット位置、ズームコマンドを元に、撮影方向を変更するため、PTZ機構制御信号を駆動部9に送信する。また、キャニーフィルタにより求めたエッジ画素線を、ヒステリシス閾値処理部27からRAM30に保存する制御を行う。
The CPU 29 is a central processing unit with a built-in flash memory. The following processing is executed by executing the microinstruction stored in the flash memory.
Based on the preset position and zoom command received from the client machine 2, a PTZ mechanism control signal is transmitted to the drive unit 9 in order to change the shooting direction. Further, control is performed to save the edge pixel line obtained by the Canny filter from the hysteresis threshold processing unit 27 to the RAM 30.

また、SDカード5が記憶しているエッジ検出のための上限、下限閾値情報をヒステリシス閾値処理部27に転送する。また、RAM30に記憶したエッジ画素線を元に、エッジ座標を求め、SDカード5へ書き込む記憶処理を行う。   Also, the upper and lower threshold information for edge detection stored in the SD card 5 is transferred to the hysteresis threshold processor 27. Further, based on the edge pixel line stored in the RAM 30, a storage process is performed in which edge coordinates are obtained and written to the SD card 5.

図4は、CPU29の制御の元、エッジ座標のSDカードへの記憶処理、およびネットワークカメラが交換された際にプリセット位置が変わってしまったときに、プリセット位置を修正する処理手順を説明するフローチャートである。具体的には、設置業者が、ネットワークカメラを設置し、SDカードを装着して電源を入れた状態で行なわれる処理である。ネットワークカメラを交換した場合は、古いネットワークカメラからSDカードを取り出し、新しいネットワークカメラに装着した後、電源を入れて開始される処理である。   FIG. 4 is a flowchart for explaining the processing procedure for correcting the preset position when the preset position changes when the network camera is exchanged under the control of the CPU 29, and the processing for storing the edge coordinates in the SD card. It is. Specifically, this is a process performed by the installer in a state where the network camera is installed, the SD card is inserted, and the power is turned on. When the network camera is replaced, the process is started after the SD card is taken out from the old network camera and attached to the new network camera, and then the power is turned on.

図4において、S401で初期設定を行う。図1で示したPTZ機構7を駆動してパン位置、チルト位置をホームポジションにセットする。次に、S402でズームをワイド端にセットして映像を取得する。これにより、図3(a)、(b)に示した全体画像61または71が取得される。   In FIG. 4, initial setting is performed in S401. The PTZ mechanism 7 shown in FIG. 1 is driven to set the pan position and tilt position to the home position. Next, in step S402, the zoom is set to the wide end to acquire an image. As a result, the entire image 61 or 71 shown in FIGS. 3A and 3B is acquired.

次に、S403の判別で、SDカード5に記憶されるフラグF1が1か否かの判別を行う。F1=1ならば、ネットワークカメラ1を交換したことを示し、エッジ情報をすでにSDカード5に記憶している状態であり、S420以降の処理を行う。また、F1=0ならば、ネットワークカメラが新規に設置されたことを示し、S404以降の処理を実行する。   Next, in S403, it is determined whether or not the flag F1 stored in the SD card 5 is 1. If F1 = 1, this indicates that the network camera 1 has been replaced, and edge information has already been stored in the SD card 5, and the processing from S420 is performed. If F1 = 0, it indicates that a network camera has been newly installed, and the processing from S404 is executed.

S404からS418は、ネットワークカメラが新規に設置されたときの処理である。
S404で、変数Xの値を1にする。
S405で、図2のガウシアンフィルタ25およびソーベルフィルタ26を用いて各画素のエッジ値を取得する。
S406で、変数Xに対応した上限閾値Na、下限閾値Nbを用いて、ヒステリシス閾値処理部27で閾値以上のエッジ画素を抽出する。
S404 to S418 are processes when a network camera is newly installed.
In S404, the value of the variable X is set to 1.
In S405, the edge value of each pixel is acquired using the Gaussian filter 25 and the Sobel filter 26 of FIG.
In S406, using the upper threshold Na and the lower threshold Nb corresponding to the variable X, the hysteresis threshold processing unit 27 extracts edge pixels that are equal to or greater than the threshold.

図6は、本実施形態における変数Xと上限閾値Na、下限閾値Nbの関係を示す図である。例えば、X=1のときは、上限閾値Naは70なので、図5(a)に示すエッジ値である微分値が80であり、エッジ画素として抽出される。図5(b)に示すエッジ値は40であり、エッジ画素として抽出されないこととなる。   FIG. 6 is a diagram illustrating the relationship between the variable X, the upper threshold Na, and the lower threshold Nb in the present embodiment. For example, when X = 1, since the upper limit threshold value Na is 70, the differential value that is the edge value shown in FIG. 5A is 80, and is extracted as an edge pixel. The edge value shown in FIG. 5B is 40, and is not extracted as an edge pixel.

X=1のとき、下限閾値Nbは35である。隣接した画素がエッジ画素として検出されている場合は、図5(b)に示すエッジ情報=40であっても、40>35なので、エッジ画素として抽出される。   When X = 1, the lower limit threshold Nb is 35. When adjacent pixels are detected as edge pixels, even if edge information = 40 shown in FIG. 5B is 40> 35, they are extracted as edge pixels.

図7(a)は、映像表示の一例を示す図である。直線的なエッジ画素線として90、91、92、93、94などがある。90、91はビルの壁面であり、周辺の空の輝度との差が少ない。各画素のエッジ情報が40であり、X=1のときの上限閾値Na=70からエッジ画素線として抽出されない。92、93は信号のための黒いポールであり、周辺の道路の輝度差が大きい。各画素のエッジ情報が70以上であり、X=1のときの上限閾値Na=70からエッジ画素線として抽出される。   FIG. 7A illustrates an example of video display. There are 90, 91, 92, 93, 94, etc. as linear edge pixel lines. Reference numerals 90 and 91 denote wall surfaces of the building, and there is little difference from the brightness of the surrounding sky. The edge information of each pixel is 40, and it is not extracted as an edge pixel line from the upper limit threshold Na = 70 when X = 1. 92 and 93 are black poles for signals, and there is a large difference in luminance between the surrounding roads. The edge information of each pixel is 70 or more, and is extracted as an edge pixel line from the upper limit threshold value Na = 70 when X = 1.

図4のフローチャートの説明に戻る。
S407で閾値Na、Nbを用いて、抽出したエッジが定数Kよりも長い直線を持つエッジ画素線があるか否かの判別を行う。判別の結果、Kよりも長いエッジ画素線があれば、S413以降の処理を行い、判別の結果、Kよりも長いエッジ画素線がなければ、S408以降の処理を行う。
Returning to the flowchart of FIG.
In S407, using the threshold values Na and Nb, it is determined whether or not there is an edge pixel line having a straight line whose extracted edge is longer than the constant K. If there is an edge pixel line longer than K as a result of determination, the processing after S413 is performed. If there is no edge pixel line longer than K as a result of determination, the processing after S408 is performed.

図7(a)の例において、95は定数Kの長さを表している。94は黒い車の背面の、エッジ画素線であり、直線だが定数Kよりも短いエッジ画素線のため、エッジ画素線として抽出されないことになる。92、93は直線であり定数Kよりも長いため、長いエッジ画素線として抽出される。以降の説明で、定数Kよりも長いエッジ画素線を、抽出エッジ画素線として説明する。   In the example of FIG. 7A, 95 represents the length of the constant K. Reference numeral 94 denotes an edge pixel line on the back of the black car, which is a straight edge pixel line shorter than the constant K, and is not extracted as an edge pixel line. Since 92 and 93 are straight lines and are longer than the constant K, they are extracted as long edge pixel lines. In the following description, an edge pixel line longer than the constant K will be described as an extracted edge pixel line.

S408で変数Xに「+1」し、S409で変数Xが9になっているか否かの判別を行う。
S406からS409は、「X=1」からカウントアップし、「X=9」になるまで実行するループ処理である。変数Xをカウントアップするごとに、図6に示す上限閾値Na、下限閾値Nbを変更して、抽出エッジ画素線の検出を繰り返す。
In S408, the variable X is incremented by "+1", and in S409, it is determined whether or not the variable X is 9.
S406 to S409 is a loop process that counts up from “X = 1” and is executed until “X = 9”. Each time the variable X is counted up, the upper limit threshold value Na and the lower limit threshold value Nb shown in FIG. 6 are changed and the detection of the extracted edge pixel line is repeated.

S406からS409のループ処理を繰り返し、X=8になって、上限閾値Na=35としても、S407の判別により抽出エッジ画素線が検出できなければ、S409の判別で、S410へ進む。例えば、撮影画像が一面青空の場合や、海を写した映像の場合が考えられる。   The loop processing from S406 to S409 is repeated, and even if X = 8 and the upper limit threshold value Na = 35, if the extracted edge pixel line cannot be detected by the determination of S407, the process proceeds to S410 by the determination of S409. For example, a case where the photographed image is a blue sky or a video showing the sea can be considered.

S410は抽出エッジ画素線がなかったことを、ユーザに知らせるためのエラー処理である。図1のブロック図には不図示だが、制御部4の制御により、エラーランプを点灯させ、エラーしたことを知らせるブザーを鳴らすなどの処理を行う。   S410 is an error process for notifying the user that there is no extracted edge pixel line. Although not shown in the block diagram of FIG. 1, processing such as turning on an error lamp and sounding a buzzer notifying that an error has occurred is performed under the control of the control unit 4.

S411では、SDカード5に記憶されているフラグF1を「0」にして、エッジ座標がSDカード5に記憶されていないことを示す。S412では、エッジ検出処理が終了したことをクライアント機に検出処理終了を通知し、終了する。   In S411, the flag F1 stored in the SD card 5 is set to “0” to indicate that the edge coordinates are not stored in the SD card 5. In step S412, the client machine is notified of the end of the edge detection process and the process ends.

S413からS118は、S407の判別で、抽出エッジ画素線が検出された際の処理を示す。
S413においては、上限、下限閾値Na、NbをSDカード5に記憶する。ネットワークカメラが交換されたときに、新しく設置されたネットワークカメラで、上限、下限閾値Na、Nbを使用するためである。
S414でエッジ座標を求める。
S413 to S118 indicate processing when the extracted edge pixel line is detected in the determination of S407.
In S413, the upper limit and lower limit threshold values Na and Nb are stored in the SD card 5. This is because when the network camera is replaced, the newly installed network camera uses the upper and lower thresholds Na and Nb.
In step S414, edge coordinates are obtained.

図7(b)は、S404からS409の処理で抽出されたエッジ画素線の例を示している。
図7(b)において、160はエッジ画素線を抽出した全体画面を示しており、本実施形態では、横方向1280画素、縦方向720画素のHD画像上でエッジ画素線を抽出している
エッジ画素線150、155の端点である終端および屈折点を抽出する。
エッジ画素線150の端点は、151、152、153である。
エッジ画素線155の端点は、156、157、158である。
FIG. 7B shows an example of edge pixel lines extracted by the processing from S404 to S409.
In FIG. 7B, 160 shows an entire screen from which edge pixel lines are extracted. In this embodiment, edge pixel lines are extracted from an HD image of 1280 pixels in the horizontal direction and 720 pixels in the vertical direction. End points and refraction points which are end points of the pixel lines 150 and 155 are extracted.
The end points of the edge pixel line 150 are 151, 152, and 153.
The end points of the edge pixel line 155 are 156, 157 and 158.

図8(a)は、エッジ画素線の端点のエッジ座標を表した例である。図7の左上をX座標=1、Y座標=1とすると、エッジ画素線の端点のエッジ座標は図8(a)に示した値となる。   FIG. 8A shows an example of the edge coordinates of the end points of the edge pixel line. If the upper left corner of FIG. 7 is X coordinate = 1 and Y coordinate = 1, the edge coordinates of the end points of the edge pixel lines are the values shown in FIG.

S415では、エッジ座標をSDカード5に記憶する。エッジ座標は、図8(a)に示すように、数値データで表しており、各エッジX座標2バイト、Y座標2バイトとしても4バイトであり、端点が6箇所の図8(a)で示した例では、全部で、24バイトで表すことができる。特許文献1に記載した例では、画像比較しており、比較する画像を記憶するため、数百Kバイトから数メガバイト必要である。本実施形態では、画像比較可能とするエッジ画素線情報を、少ないバイト数で記憶可能なことが本実施形態の特徴のひとつである。   In S415, the edge coordinates are stored in the SD card 5. As shown in FIG. 8A, the edge coordinates are represented by numerical data. Each edge has 2 bytes for X coordinates and 4 bytes for 2 bytes for Y coordinates, and FIG. 8A has 6 end points. In the example shown, it can be represented by 24 bytes in total. In the example described in Patent Document 1, images are compared, and in order to store the images to be compared, several hundred kilobytes to several megabytes are required. In the present embodiment, one feature of the present embodiment is that edge pixel line information that enables image comparison can be stored with a small number of bytes.

S416ではフラグF1に「1」をセットし、エッジ画素線抽出のための上限、下限閾値Na、Nbおよび、エッジ座標をSDカード5に記憶したことを表す。
S417では、図1のクライアント機2に映像データを送信する。ネットワークカメラ1が送信している映像は、S402でズーム倍率をワイド端にセットしているので、図3(a)に示すような全体画像がクライアント機2に送信される。
In S416, “1” is set in the flag F1, indicating that the upper and lower thresholds Na and Nb and edge coordinates for edge pixel line extraction are stored in the SD card 5.
In S417, the video data is transmitted to the client machine 2 of FIG. Since the image transmitted from the network camera 1 has the zoom magnification set to the wide end in S402, the entire image as shown in FIG.

S418ではプリセット座標、ズーム倍率を設定してSDカード5に記憶する。
プリセット座標およびズーム倍率は、図1のクライアント機2の入力部14を、例えば警備室の警備員が操作することにより入力される情報に従って設定する。設定されたプリセット座標およびズーム倍率はクライアント機2からネットワークカメラ1に送信され、ネットワークカメラ1は受信したプリセット座標およびズーム倍率をSDカード5に記憶する。
In S418, preset coordinates and zoom magnification are set and stored in the SD card 5.
The preset coordinates and zoom magnification are set according to information input by operating the input unit 14 of the client machine 2 in FIG. 1 by, for example, a security guard in the security room. The preset preset coordinates and zoom magnification are transmitted from the client machine 2 to the network camera 1, and the network camera 1 stores the received preset coordinates and zoom magnification in the SD card 5.

図8(a)は、図3(a)に示した全体映像でのプリセット位置64、66でのプリセット座標およびズーム倍率を表したものである。水平方向1280、垂直方向720画素とし左上端の座標を(1、1)として、プリセット位置64は(980、532)、プリセット位置66は(757、692)になることを表している。S418の処理後はS412に進み、クライアント機2にエッジ検出処理終了を通知し、終了する。   FIG. 8A shows preset coordinates and zoom magnifications at the preset positions 64 and 66 in the entire image shown in FIG. The horizontal position is 1280 pixels, the vertical direction is 720 pixels, the coordinates of the upper left corner are (1, 1), and the preset position 64 is (980, 532), and the preset position 66 is (757, 692). After the process of S418, the process proceeds to S412 to notify the client machine 2 of the end of the edge detection process and the process ends.

S420以降の処理はS403の判別で、F1=1であり、ネットワークカメラを交換した場合の処理である。
S420では、図2で示したガウシアンフィルタ25およびソーベルフィルタ26を用いて各画素のエッジ値を取得する。
S421では、SDカード5に記憶した上限閾値Na、および下限閾値Nbを用いて、ヒステリシス閾値処理部27で閾値以上のエッジ画素を抽出する。また、定数Kよりも長いエッジ画素線を抽出する。
The processing after S420 is processing when F1 = 1 is determined in S403 and the network camera is replaced.
In S420, the edge value of each pixel is acquired using the Gaussian filter 25 and the Sobel filter 26 shown in FIG.
In S421, using the upper threshold Na and the lower threshold Nb stored in the SD card 5, the hysteresis threshold processor 27 extracts edge pixels equal to or greater than the threshold. Also, edge pixel lines longer than the constant K are extracted.

S422では、S421で抽出したエッジ画素線のエッジ座標を求める。
S423では、S421、S422の処理でエッジ画素線が抽出でき、エッジ座標を求めることができたか否かの判別を行う。エッジ座標を求めることができなかった場合、例えば交換したネットワークカメラの撮影方向が、空を向いているときや海を向いているときなどはエッジが検出できないので、S424に進む。
In S422, the edge coordinates of the edge pixel line extracted in S421 are obtained.
In S423, it is determined whether or not an edge pixel line can be extracted by the processes in S421 and S422, and edge coordinates can be obtained. If the edge coordinates cannot be obtained, for example, when the shooting direction of the exchanged network camera is facing the sky or the sea, the edge cannot be detected, and the process proceeds to S424.

S424はエラー処理である。図1のブロック図には不図示だが、制御部4の制御により、エラーランプを点灯させる。エラーしたことを知らせるブザーを鳴らすなどの処理を行う。S424におけるエラー処理を終了後、S412に進み、エッジ検出処理が終了したことをクライアント機2に通知し、終了する。   S424 is error processing. Although not shown in the block diagram of FIG. 1, the error lamp is turned on under the control of the control unit 4. Perform processing such as sounding a buzzer to notify that an error has occurred. After completing the error process in S424, the process proceeds to S412 to notify the client machine 2 that the edge detection process is completed, and the process ends.

一方、S423の判別で、エッジ座標を求めることができた場合、S425に進み、S422で求めたエッジ座標と、S415でSDカード5に記憶したエッジ座標の比較を行う。S425の比較結果に基いて、エッジ座標の差が大きいか否かの判別をS426で行う。本実施形態では、比較結果に基いて、X軸方向、Y軸方向とも2画素分の差であれば差がないと判断し、S412に進んで、エッジ検出処理が終了したことをクライアント機2に通知し、終了する。   On the other hand, if the edge coordinates can be obtained in the determination in S423, the process proceeds to S425, and the edge coordinates obtained in S422 and the edge coordinates stored in the SD card 5 in S415 are compared. Based on the comparison result in S425, it is determined in S426 whether or not the edge coordinate difference is large. In the present embodiment, based on the comparison result, it is determined that there is no difference if there is a difference of two pixels in both the X-axis direction and the Y-axis direction, and the process proceeds to S412 to indicate that the edge detection process is completed. And exit.

S426の判別でエッジ座標の差が大きい場合、S427に進み、検出エッジ座標をSDカード5に記憶する。図8(b)は、交換したネットワークカメラで、撮像方向が図3(b)に示すように、図3(a)に比べて左にずれて設置された場合のエッジ座標を示す。図8に示すように、図8(b)のエッジ画素線1、2のX座標は、図8(a)のエッジ画素線1、2に比べ300ドット分少なく、S426の判別では差が大きい。   If the difference in edge coordinates is large in the determination in S426, the process proceeds to S427, and the detected edge coordinates are stored in the SD card 5. FIG. 8B shows edge coordinates in the case where the exchanged network camera is installed with the imaging direction shifted to the left as shown in FIG. 3A as shown in FIG. 3B. As shown in FIG. 8, the X coordinates of the edge pixel lines 1 and 2 in FIG. 8B are 300 dots fewer than the edge pixel lines 1 and 2 in FIG. 8A, and the difference in S426 is large. .

次に、S428では、エッジ座標の差を元にプリセット座標を修正する。SDカード5に、図3(a)の例におけるプリセット座標が図9(a)に示すように記憶されており、エッジ座標の差である300ドット分少なくプリセット位置を修正する。図9(b)は、修正後のプリセット座標である。   Next, in S428, the preset coordinates are corrected based on the difference in edge coordinates. The preset coordinates in the example of FIG. 3A are stored in the SD card 5 as shown in FIG. 9A, and the preset position is corrected by 300 dots, which is the difference in edge coordinates. FIG. 9B shows the preset coordinates after correction.

次に、S429で修正したプリセット座標をSDカード5に記憶し、S412に進んで、クライアント機2にエッジ検出処理終了を通知する。以上、第1の実施形態について説明した。
本実施形態においては、S423でエッジ座標が検出されなかった場合は、S424でエラー処理としていた。しかし、エッジ座標が検出されなかった場合、図6に示す上限閾値Na、下限閾値Nbを少しずつ下げていきエッジ座標を検出しやすくし、エラーになる頻度を低下するようにしてもよい。
Next, the preset coordinates corrected in S429 are stored in the SD card 5, and the process proceeds to S412 to notify the client machine 2 of the end of the edge detection process. The first embodiment has been described above.
In the present embodiment, if the edge coordinates are not detected in S423, error processing is performed in S424. However, when the edge coordinates are not detected, the upper limit threshold value Na and the lower limit threshold value Nb shown in FIG. 6 may be gradually lowered to make it easier to detect the edge coordinates and reduce the frequency of error.

本実施形態においては、S402でズームをワイドにセットし、全体画像としての映像を取得した。この他の例としては、図1に示したPTZ機構7を用いて、ネットワークカメラの撮影範囲の全体画像であるパノラマ画像を生成し、生成したパノラマ画像を元にエッジ画素線を抽出するようにしてもよい。   In this embodiment, the zoom is set to be wide in S402, and a video as an entire image is acquired. As another example, using the PTZ mechanism 7 shown in FIG. 1, a panorama image that is the entire image of the shooting range of the network camera is generated, and edge pixel lines are extracted based on the generated panorama image. May be.

また、本実施形態においては、キャニー方式を用いたエッジ検出を用い画像の特徴を抽出したが、他の方式によるエッジ検出を用いてもよく、また、輝度分布情報を用いて画像の特徴を抽出してもよい。また、輝度分布検出とエッジ検出とを組み合わせて画像の特徴情報を抽出するようにしてもよい。さらに、本実施形態においては、エッジ座標、プリセット座標をSDカード5に記憶する実施形態について説明したが、クライアント機2や録画サーバ(図示せず)に記憶するようにしてもよい。   In this embodiment, image features are extracted using edge detection using the Canny method. However, edge detection using other methods may be used, and image features are extracted using luminance distribution information. May be. Further, the feature information of the image may be extracted by combining the luminance distribution detection and the edge detection. Furthermore, in the present embodiment, the embodiment has been described in which the edge coordinates and the preset coordinates are stored in the SD card 5, but may be stored in the client machine 2 or a recording server (not shown).

(第2の実施形態)
以下、図10〜13を参照して、ネットワークカメラシステムの第2の実施形態について説明する。
図10は、本実施形態のネットワークカメラシステムの概略構成を示すブロック図である。第1の実施形態と同じブロックについては同一番号を付与している。
図10において、201はローテーション駆動機構であり、光学系6および撮像素子3で構成されるレンズユニットの撮影角度を回転する機構である。傾斜した天井や垂直の壁にネットワークカメラ1が取り付けられたとき、レンズユニットを回転して、映像が水平に取得できるようにする。
本実施形態は、傾斜した天井や垂直の壁にネットワークカメラ1が取り付けられた場合には、ネットワークカメラ1の取り付け面の角度検出、及びネットワークカメラ1の取り付け方向検出を行う。そして、角度検出及び方向検出の結果からローテーション機構201を自動的に制御して、撮影方向を最適化することを可能にしている。
(Second Embodiment)
Hereinafter, a second embodiment of the network camera system will be described with reference to FIGS.
FIG. 10 is a block diagram showing a schematic configuration of the network camera system of the present embodiment. The same blocks as those in the first embodiment are given the same numbers.
In FIG. 10, reference numeral 201 denotes a rotation drive mechanism, which is a mechanism that rotates the photographing angle of a lens unit that includes the optical system 6 and the image sensor 3. When the network camera 1 is mounted on an inclined ceiling or vertical wall, the lens unit is rotated so that the image can be acquired horizontally.
In the present embodiment, when the network camera 1 is mounted on an inclined ceiling or vertical wall, the angle of the mounting surface of the network camera 1 and the mounting direction of the network camera 1 are detected. Then, the rotation mechanism 201 is automatically controlled from the results of angle detection and direction detection, so that the photographing direction can be optimized.

図11は、図7(a)で撮影していたネットワークカメラを交換した際に、天井など水平方向に取り付けていたネットワークカメラを、壁などに垂直に取り付けた場合の映像例を示す図である。図11において、202、203は、図10の制御部4により抽出したエッジ画素線であり、図7(a)のエッジ画素線92、93と比較して、90度回転した形状で抽出される。   FIG. 11 is a diagram illustrating an example of an image when the network camera attached in a horizontal direction such as a ceiling is vertically attached to a wall or the like when the network camera photographed in FIG. 7A is replaced. . In FIG. 11, 202 and 203 are edge pixel lines extracted by the control unit 4 of FIG. 10, and are extracted in a shape rotated by 90 degrees compared to the edge pixel lines 92 and 93 of FIG. .

図12は、本実施形態において、ネットワークカメラを交換した後の処理手順を示すフローチャートである。
本実施形態において、第1の実施形態における図4に示したS401からS422は同じ処理なので、図12では省略して図示している。また、図4に示したフローチャートと同一処理のステップには同一番号を付与している。
FIG. 12 is a flowchart showing a processing procedure after replacing the network camera in the present embodiment.
In the present embodiment, since S401 to S422 shown in FIG. 4 in the first embodiment are the same processing, they are omitted in FIG. Also, the same numbers are assigned to the same processing steps as those in the flowchart shown in FIG.

図12のS423において、交換したネットワークカメラでエッジ座標ありと検出されると、S425に進み、求めたエッジ座標と、SDカード5に記憶したエッジ座標の比較を行う。
S425の比較結果に基いて、エッジ座標の差が大きいか否かの判別をS426で行う。差が大きい場合はS1210に進み、エッジ座標のX、Y方向の差を計算する。
In S423 of FIG. 12, if the replaced network camera detects that there is an edge coordinate, the process proceeds to S425, and the obtained edge coordinate is compared with the edge coordinate stored in the SD card 5.
Based on the comparison result in S425, it is determined in S426 whether or not the edge coordinate difference is large. If the difference is large, the process proceeds to S1210, and the difference between the X and Y directions of the edge coordinates is calculated.

図13(a)は、図7(b)のエッジ画素線150、155のエッジ座標を示す図であり、図8(a)と同じ値である。エッジ画素線1、2共にY方向に長い画素線を表している。図13(b)は、図11のエッジ画素線202、203のエッジ座標を示す図であり、エッジ画素線1、2共にX方向に長いエッジ画素線を表している。   FIG. 13A is a diagram illustrating the edge coordinates of the edge pixel lines 150 and 155 in FIG. 7B, which are the same values as in FIG. 8A. Both edge pixel lines 1 and 2 represent pixel lines that are long in the Y direction. FIG. 13B is a diagram illustrating the edge coordinates of the edge pixel lines 202 and 203 in FIG. 11, and both the edge pixel lines 1 and 2 represent edge pixel lines that are long in the X direction.

図13(c)および図13(d)は、S1210の処理である、エッジ座標のX、Y方向の差を計算した図である。元になった図11の画像は、図7(b)に示した画像に比べて90度傾いた画像であり、当然のことながら、X方向、Y方向の差分値は逆の値となっている。   FIGS. 13C and 13D are diagrams in which the difference between the edge coordinates in the X and Y directions, which is the processing of S1210, is calculated. The original image of FIG. 11 is an image inclined by 90 degrees compared to the image shown in FIG. 7B, and naturally the difference values in the X direction and the Y direction are opposite values. Yes.

図12のS1211で、X方向、Y方向の差分の比較を行い、差が大きいか否かの判別を行う。類似していれば、取り付け方向が同じと考えられ、第1の実施形態と同様にS427〜S429の処理に進む。   In S1211 of FIG. 12, the difference between the X direction and the Y direction is compared to determine whether or not the difference is large. If they are similar, the mounting directions are considered to be the same, and the process proceeds to S427 to S429 as in the first embodiment.

S1211の判別で差が大きい場合は、S1212に進み、X方向、Y方向を逆にして比較する。図13(c)、(d)に示した例では、逆にするとほぼ同じ差分となり、S1213の判別でS1214に進む。S1214では、図10のローテーション機構201を用いて、撮影角度を90度回転する。   If the difference is large in S1211, the process proceeds to S1212 and the comparison is made with the X and Y directions reversed. In the example shown in FIGS. 13C and 13D, if reversed, the difference is substantially the same, and the process proceeds to S1214 by the determination in S1213. In S1214, the rotation angle 201 is rotated by 90 degrees using the rotation mechanism 201 of FIG.

一方、S1213の判別で、差が大きい場合は、ネットワークカメラが斜めに取り付けられていることであり、S1215に進む。S1215では、エッジ画素線の傾斜角度を計算し、S1216で計算結果から図10に示したローテーション機構201を用いて、撮影角度を回転する。   On the other hand, if it is determined in S1213 that the difference is large, the network camera is attached obliquely, and the process proceeds to S1215. In S1215, the inclination angle of the edge pixel line is calculated, and in S1216, the imaging angle is rotated using the rotation mechanism 201 shown in FIG.

S1214、S1216で撮影角度を回転したので、撮影映像は変化しているため、S1217でエッジ座標を再設定し、その後、第1の実施形態と同様、S427以降の処理を実施する。
以上、第2の実施形態について説明した。本実施形態では、エッジ画素線の特徴によりネットワークカメラの設置状況を検出し、ローテーション機構201を用いて自動的に撮影角度を補正可能としている。
Since the shooting angle has been rotated in S1214 and S1216, the shot video has changed. Therefore, the edge coordinates are reset in S1217, and thereafter, the processing from S427 is performed as in the first embodiment.
The second embodiment has been described above. In this embodiment, the installation state of the network camera is detected based on the feature of the edge pixel line, and the photographing angle can be automatically corrected using the rotation mechanism 201.

(第3の実施形態)
以下、図14〜図16を参照して、本発明の第3の実施形態による、ネットワークカメラシステムについて説明する。
図14は、本実施形態におけるネットワークカメラのイメージ図である。
図14において、301、302、303はLEDであり、ネットワークカメラを交換するときに、設置位置ずれがあると、位置ずれしたことを設置作業者に報知するためのものであり、交換前の設置位置になるように促すことを可能としている。
(Third embodiment)
A network camera system according to the third embodiment of the present invention will be described below with reference to FIGS.
FIG. 14 is an image diagram of the network camera in the present embodiment.
In FIG. 14, reference numerals 301, 302, and 303 denote LEDs. When replacing the network camera, if there is an installation position shift, it is for informing the installation operator that the position shift has occurred. It is possible to prompt them to be in a position.

LED301は、ネットワークカメラの設置位置が右方向にずれていることを検出し、左方向に回転するように設置作業者に報知するLEDである。LED302は、ネットワークカメラの設置位置が左方向にずれていることを検出し、右方向に回転するように設置作業者に報知するLEDである。また、LED303は、設置位置のずれを検出し、点滅点灯することにより、ずれ量を報知し、ずれがなくなると、常時点灯することで、設置作業者にずれがなくなったことを報知するLEDである。   The LED 301 is an LED that detects that the installation position of the network camera is shifted in the right direction and notifies the installation worker to rotate in the left direction. The LED 302 is an LED that detects that the installation position of the network camera is shifted to the left and notifies the installation operator to rotate in the right direction. The LED 303 is an LED that detects the displacement of the installation position and informs the installation worker that the displacement is no longer present by constantly lighting when the displacement is lost by flashing and lighting. is there.

図15は、本実施形態におけるネットワークカメラシステムの概略構成を示すブロック図である。第1の実施形態と同じ構成部分は同一番号を付与し、説明を省略する。
図15において、301、302、303は、図14を参照しながら説明したLEDである。LED点灯回路304は、制御部4の制御によりLED301、302、303を点灯する回路である。
FIG. 15 is a block diagram showing a schematic configuration of the network camera system in the present embodiment. The same components as those in the first embodiment are given the same numbers, and description thereof is omitted.
In FIG. 15, reference numerals 301, 302, and 303 denote LEDs described with reference to FIG. The LED lighting circuit 304 is a circuit that lights the LEDs 301, 302, and 303 under the control of the control unit 4.

本実施形態におけるネットワークカメラ1は、撮影方向を変更するパンチルト構造は、手動で変更する構造であり、駆動部を持ち合わせていない。また、第2の実施形態では具備したローテーションも手動で変更する構造である。307は手動で変更するパンチルと及びローテーション構造である。306はズーム機構である。305は制御部4の制御により、電動でズーム機構306を駆動する駆動部である。   In the network camera 1 according to the present embodiment, the pan / tilt structure for changing the photographing direction is a structure for manually changing, and does not have a driving unit. In the second embodiment, the rotation provided is also changed manually. Reference numeral 307 denotes a punchle that is manually changed and a rotation structure. Reference numeral 306 denotes a zoom mechanism. Reference numeral 305 denotes a drive unit that electrically drives the zoom mechanism 306 under the control of the control unit 4.

図16は、本実施形態において、ネットワークカメラを交換した後の処理手順を示すフローチャートである。
本実施形態において、第1の実施形態における図4に示したS401からS422は、同じ処理なので、図16では省略して図示している。また、図4に示したフローチャートと同一処理ステップには同一番号を付与している。
FIG. 16 is a flowchart showing a processing procedure after replacing a network camera in the present embodiment.
In the present embodiment, S401 to S422 shown in FIG. 4 in the first embodiment are the same processing, and are omitted in FIG. The same processing steps as those in the flowchart shown in FIG.

図16のフローチャートにおいて、S423では、交換したネットワークカメラでSDカード5にエッジ座標が記憶されていない場合、エラー状態である。エラー状態を設置作業者に示すためにS1601に進みLED301、302、303を点滅する。
S1602で10秒タイマーにより点灯時間を確保し、S1603でLED301、302、303を消灯する。その後、S412に進みクライアント機にエッジ検出処理終了を通知して終了する。
In the flowchart of FIG. 16, in S423, if the edge coordinates are not stored in the SD card 5 in the replaced network camera, an error state occurs. In order to indicate the error state to the installation worker, the process proceeds to S1601, and the LEDs 301, 302, and 303 are blinked.
In S1602, a lighting time is secured by a 10-second timer, and in S1603, the LEDs 301, 302, and 303 are turned off. Thereafter, the process proceeds to S412 to notify the client machine of the end of the edge detection process and the process ends.

S423において、交換したネットワークカメラでSDカード5にエッジ座標が記憶されている場合、S425に進み、求めたエッジ座標とSDカード5に記憶したエッジ座標の比較を行う。S425の比較結果に基いて、エッジ座標の差が大きいか否かの判別をS426で行う。   If the edge coordinates are stored in the SD card 5 in the replaced network camera in S423, the process proceeds to S425, and the obtained edge coordinates are compared with the edge coordinates stored in the SD card 5. Based on the comparison result in S425, it is determined in S426 whether or not the edge coordinate difference is large.

判別の結果、差が小さい場合はS1604に進み、LED303を点灯し、交換したネットワークカメラの設置方向が交換する前とほぼ同じになったことを設置作業者に報知する。その後、S412に進み、クライアント機にエッジ検出処理終了を通知して終了する。   As a result of the determination, if the difference is small, the process proceeds to S1604, and the LED 303 is turned on to notify the installation operator that the installation direction of the replaced network camera is almost the same as before the replacement. Thereafter, the process proceeds to S412, where the client machine is notified of the end of the edge detection process and the process ends.

S426の判別の結果、エッジ座標の差が大きい場合は、S1605に進み、右方向にずれているか否かの判別を行う。右方向にずれている場合は、S1606に進みLED301を点滅する。次に、S1607に進み、左方向にずれているか否かの判別を行う。S1607の判別の結果、左方向にずれている場合は、S1608に進んでLED302を点滅する。本実施形態においては、LED301、302を点滅するだけの処理としているが、他の処理としては、差が大きいほど点滅周期を長くしたり、差が小さくなってくると点滅周期を短くしたりするようにしてもよい。   As a result of the determination in S426, if the difference in edge coordinates is large, the process proceeds to S1605, where it is determined whether or not there is a shift in the right direction. If it is shifted to the right, the process proceeds to S1606 and the LED 301 blinks. Next, proceeding to S1607, it is determined whether or not there is a shift to the left. As a result of the determination in S1607, if it is shifted to the left, the process proceeds to S1608 and the LED 302 blinks. In the present embodiment, the process is merely blinking the LEDs 301 and 302. However, as the other process, the blinking period is lengthened as the difference is larger, or the blinking period is shortened as the difference becomes smaller. You may do it.

第1の実施形態で示した図3(a)、(b)の映像例において、交換前のネットワークカメラの映像は、図3(a)に比べ、図3(b)の映像が左方向にずれている。これは、ネットワークカメラの設置位置が右方向にずれていることを示し、S1605の判別の結果S1606に進みLED301を点滅する。S425からS1608を繰り返すことにより、設置作業者は、LEDを見ながら設置方向を明示することが可能である。   In the video examples of FIGS. 3A and 3B shown in the first embodiment, the video of the network camera before replacement is the left of the video of FIG. 3B compared to FIG. 3A. It's off. This indicates that the installation position of the network camera is shifted to the right. As a result of the determination in S1605, the process proceeds to S1606, and the LED 301 blinks. By repeating S425 to S1608, the installation operator can clearly indicate the installation direction while viewing the LEDs.

以上、第3の実施形態について説明した。
前述した実施形態の変形例として、第2の実施形態と組み合わせることにより、ローテーション角度調整の援助をすることも可能である。水平面の天井に取り付けられていたネットワークカメラを交換した際に、傾斜した天井や垂直の壁に取り付けた場合、LEDを追加して手動でのローテーション角度の修正方向の指示表示を行うことができる。本実施形態においては、LEDにて設置方向を明示するようにしたが、他の実施形態として音声出力を行う音声ガイド装置で設置方向を報知するようにしてもよい。
The third embodiment has been described above.
As a modification of the above-described embodiment, the rotation angle adjustment can be assisted by combining with the second embodiment. When the network camera attached to the ceiling of the horizontal plane is replaced, when the camera is attached to an inclined ceiling or a vertical wall, an indication of the correction direction of the rotation angle can be manually performed by adding an LED. In the present embodiment, the installation direction is clearly indicated by the LED. However, as another embodiment, the installation direction may be notified by a voice guide device that performs voice output.

以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。   As mentioned above, although preferable embodiment of this invention was described, this invention is not limited to these embodiment, A various deformation | transformation and change are possible within the range of the summary.

(その他の実施形態)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(コンピュータプログラム)を、ネットワーク又は各種のコンピュータ読み取り可能な記憶媒体を介してシステム或いは装置に供給する。そして、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
(Other embodiments)
The present invention can also be realized by executing the following processing. That is, software (computer program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various computer-readable storage media. Then, the computer (or CPU, MPU, etc.) of the system or apparatus reads out and executes the program.

1 ネットワークカメラ、2 クライアント機、5 SDカード、14 入力部、25 ガウシアンフィルタ、26 ソーベルフィルタ、27 ヒステリシス閾値処理部、29 CPU 1 network camera, 2 client machine, 5 SD card, 14 input unit, 25 Gaussian filter, 26 Sobel filter, 27 hysteresis threshold processing unit, 29 CPU

Claims (12)

撮影装置と、前記撮影装置からの映像データを、ネットワークを介して受信して表示部に表示するクライアント機とを有するネットワークカメラシステムにおいて、
前記クライアント機は、プリセット位置、マスキング位置、動き検出位置のうち、少なくとも一つを含む設定情報を入力する入力手段を具備し、
前記撮影装置は、前記設定情報が示す範囲の全てまたは一部を含む撮影範囲を撮影する前記撮影装置により取得した映像データを元に特徴情報を抽出するとともに、前記抽出した特徴情報を記憶媒体に記憶し、前記設定情報を元に前記撮影装置の設定を行う制御手段を具備し、
前記制御手段は、前記記憶媒体に記憶した特徴情報と、新たに抽出した特徴情報とを比較する比較手段と、前記比較手段の比較結果に基づいて前記設定情報を修正する修正手段とを具備することを特徴とするネットワークカメラシステム。
In a network camera system having an imaging device and a client machine that receives video data from the imaging device via a network and displays the data on a display unit,
The client machine includes input means for inputting setting information including at least one of a preset position, a masking position, and a motion detection position,
The imaging device extracts feature information based on video data acquired by the imaging device that captures an imaging range including all or part of the range indicated by the setting information, and the extracted feature information is stored in a storage medium. Storing control means for setting the photographing apparatus based on the setting information,
The control means includes comparison means for comparing feature information stored in the storage medium with newly extracted feature information, and correction means for correcting the setting information based on a comparison result of the comparison means. A network camera system characterized by that.
前記制御手段は、エッジ検出手段と輝度分布検出手段とを具備し、
前記特徴情報は、前記エッジ検出手段または輝度分布検出手段により抽出された座標情報であることを特徴とする請求項1に記載のネットワークカメラシステム。
The control means comprises an edge detection means and a luminance distribution detection means,
The network camera system according to claim 1, wherein the feature information is coordinate information extracted by the edge detection unit or the luminance distribution detection unit.
前記エッジ検出手段は、エッジの連結性をあげるために上限、下限の閾値情報を使ってエッジ検出を行い、前記制御手段は前記閾値情報を前記記憶媒体に記憶することを特徴とする請求項2に記載のネットワークカメラシステム。   3. The edge detection unit performs edge detection using upper and lower threshold information in order to increase edge connectivity, and the control unit stores the threshold information in the storage medium. The network camera system described in 1. 前記記憶媒体は、前記撮影装置に着脱可能な記憶媒体であることを特徴とする請求項1〜3の何れか1項に記載のネットワークカメラシステム。   The network camera system according to claim 1, wherein the storage medium is a storage medium that is detachable from the photographing apparatus. 前記制御手段が前記特徴情報を抽出する際に用いる映像データは、前記撮影装置のズームをワイド端に設定した際の映像データであることを特徴とする請求項1〜4の何れか1項に記載のネットワークカメラシステム。   5. The video data used when the control means extracts the feature information is video data when the zoom of the photographing apparatus is set to a wide end. The network camera system described. 前記制御手段が前記特徴情報を抽出する際に用いる映像データは、前記撮影装置の撮影範囲の全体画像であるパノラマ画像であることを特徴とする請求項1〜4の何れか1項に記載のネットワークカメラシステム。   5. The video data used when the control unit extracts the feature information is a panoramic image that is an entire image of a shooting range of the shooting device. 6. Network camera system. 前記撮影装置はローテーション駆動手段を有するとともに、前記制御手段は前記撮影装置の取り付け面の角度を検出する角度検出手段を有し、
前記制御手段は、前記比較手段の比較結果を元に、前記角度検出手段が検出した角度から前記ローテーション駆動手段を制御することを特徴とする請求項1〜6の何れか1項に記載のネットワークカメラシステム。
The imaging device includes a rotation driving unit, and the control unit includes an angle detection unit that detects an angle of a mounting surface of the imaging device,
The network according to claim 1, wherein the control unit controls the rotation driving unit based on an angle detected by the angle detection unit based on a comparison result of the comparison unit. Camera system.
撮影装置と、撮影装置からの映像データを、ネットワークを介して受信して表示部に表示するクライアント機とで構成されるネットワークカメラシステムにおいて、
前記クライアント機は、プリセット位置、マスキング位置、動き検出位置のうち、少なくとも一つを含む設定情報を入力する入力手段を具備し、
前記撮影装置は、報知手段と、前記設定情報が示す範囲の全てまたは一部を含む撮影範囲を撮影する前記撮影装置により取得した映像を元に特徴情報を抽出するとともに、前記抽出した特徴情報を記憶媒体に記憶し、前記設定情報を元に前記撮影装置の設定を行う制御手段とを具備し、
前記制御手段は、前記記憶媒体に記憶した特徴情報と、新たに抽出した特徴情報とを比較する比較手段を有し、前記比較手段の比較結果に基づいて前記報知手段を制御することを特徴とするネットワークカメラシステム。
In a network camera system composed of a photographing device and a client machine that receives video data from the photographing device via a network and displays the data on a display unit,
The client machine includes input means for inputting setting information including at least one of a preset position, a masking position, and a motion detection position,
The imaging device extracts feature information based on a video acquired by the imaging device that captures a shooting range including all or a part of the range indicated by the notification unit and the setting information, and the extracted feature information Control means for storing in a storage medium and setting the imaging device based on the setting information;
The control means includes comparison means for comparing feature information stored in the storage medium with newly extracted feature information, and controls the notification means based on a comparison result of the comparison means. Network camera system.
前記報知手段は、LEDまたは音声出力を行う音声ガイド装置であることを特徴とする請求項8に記載のネットワークカメラシステム。   The network camera system according to claim 8, wherein the notification unit is an LED or a voice guide device that performs voice output. 前記制御手段は、前記撮影装置の取り付け方向を検出する方向検出手段を有し、
前記制御手段は、前記方向検出手段が検出した取り付け方向に基づいて前記報知手段を制御して前記撮影装置の取り付け修正を行う方向を明示することを特徴とする請求項8または9に記載のネットワークカメラシステム。
The control means has a direction detection means for detecting the mounting direction of the photographing device,
10. The network according to claim 8, wherein the control unit specifies the direction in which to correct the mounting of the photographing apparatus by controlling the notification unit based on the mounting direction detected by the direction detecting unit. 11. Camera system.
撮影装置と、前記撮影装置からの映像データを、ネットワークを介して受信して表示部に表示するクライアント機とを有するネットワークカメラシステムの制御方法において、
前記クライアント機は、プリセット位置、マスキング位置、動き検出位置のうち、少なくとも一つを含む設定情報を入力する入力工程を具備し、
前記撮影装置は、前記設定情報が示す範囲の全てまたは一部を含む撮影範囲を撮影する前記撮影装置により取得した映像データを元に特徴情報を抽出するとともに、前記抽出した特徴情報を記憶媒体に記憶し、前記設定情報を元に前記撮影装置の設定を行う制御工程を具備し、
前記制御工程は、前記記憶媒体に記憶した特徴情報と、新たに抽出した特徴情報とを比較する比較工程と、前記比較工程の比較結果に基づいて前記設定情報を修正する修正工程とを具備することを特徴とするネットワークカメラシステムの制御方法。
In a control method of a network camera system having a photographing device and a client machine that receives video data from the photographing device via a network and displays the data on a display unit,
The client machine includes an input step of inputting setting information including at least one of a preset position, a masking position, and a motion detection position,
The imaging device extracts feature information based on video data acquired by the imaging device that captures an imaging range including all or part of the range indicated by the setting information, and the extracted feature information is stored in a storage medium. Storing a control step of setting the photographing apparatus based on the setting information,
The control step includes a comparison step of comparing feature information stored in the storage medium with newly extracted feature information, and a correction step of correcting the setting information based on a comparison result of the comparison step. A network camera system control method.
報知手段を有する撮影装置と、撮影装置からの映像データを、ネットワークを介して受信して表示部に表示するクライアント機とで構成されるネットワークカメラシステムの制御方法において、
前記クライアント機は、プリセット位置、マスキング位置、動き検出位置のうち、少なくとも一つを含む設定情報を入力する入力工程を具備し、
前記撮影装置は、前記設定情報が示す範囲の全てまたは一部を含む撮影範囲を撮影する前記撮影装置により取得した映像を元に特徴情報を抽出するとともに、前記抽出した特徴情報を記憶媒体に記憶し、前記設定情報を元に前記撮影装置の設定を行う制御工程を具備し、
前記制御工程は、前記記憶媒体に記憶した特徴情報と、新たに抽出した特徴情報とを比較する比較工程を有し、前記比較工程の比較結果に基づいて前記報知手段を制御することを特徴とするネットワークカメラシステムの制御方法。
In a control method of a network camera system including an imaging device having a notification unit and a client machine that receives video data from the imaging device via a network and displays the data on a display unit,
The client machine includes an input step of inputting setting information including at least one of a preset position, a masking position, and a motion detection position,
The imaging device extracts feature information based on the video acquired by the imaging device that captures an imaging range including all or part of the range indicated by the setting information, and stores the extracted feature information in a storage medium And a control step of setting the photographing device based on the setting information,
The control step includes a comparison step of comparing the feature information stored in the storage medium with the newly extracted feature information, and controls the notification unit based on a comparison result of the comparison step. Network camera system control method.
JP2011103194A 2011-05-02 2011-05-02 Network camera system and method of controlling the same Withdrawn JP2012235355A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011103194A JP2012235355A (en) 2011-05-02 2011-05-02 Network camera system and method of controlling the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011103194A JP2012235355A (en) 2011-05-02 2011-05-02 Network camera system and method of controlling the same

Publications (1)

Publication Number Publication Date
JP2012235355A true JP2012235355A (en) 2012-11-29

Family

ID=47435238

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011103194A Withdrawn JP2012235355A (en) 2011-05-02 2011-05-02 Network camera system and method of controlling the same

Country Status (1)

Country Link
JP (1) JP2012235355A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015079497A (en) * 2013-10-16 2015-04-23 ゼロックス コーポレイションXerox Corporation Delayed vehicle identification for privacy protection
KR20150136016A (en) * 2014-05-26 2015-12-04 엑시스 에이비 Automatic configuration of a replacement camera
JP2017216556A (en) * 2016-05-31 2017-12-07 キヤノンマーケティングジャパン株式会社 Information processing device, information processing method, and program
CN107818547A (en) * 2016-09-14 2018-03-20 北京航空航天大学 The minimizing technology of the spiced salt and Gaussian mixed noise in a kind of sequence towards twilight image
WO2019188038A1 (en) * 2018-03-26 2019-10-03 株式会社日立国際電気 Surveillance camera system

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015079497A (en) * 2013-10-16 2015-04-23 ゼロックス コーポレイションXerox Corporation Delayed vehicle identification for privacy protection
KR20150136016A (en) * 2014-05-26 2015-12-04 엑시스 에이비 Automatic configuration of a replacement camera
JP2015226324A (en) * 2014-05-26 2015-12-14 アクシス アーベー Automatic configuration of replacement camera
KR101708449B1 (en) 2014-05-26 2017-02-20 엑시스 에이비 Automatic configuration of a replacement camera
US9853862B2 (en) 2014-05-26 2017-12-26 Axis Ab Automatic configuration of a replacement camera
JP2017216556A (en) * 2016-05-31 2017-12-07 キヤノンマーケティングジャパン株式会社 Information processing device, information processing method, and program
CN107818547A (en) * 2016-09-14 2018-03-20 北京航空航天大学 The minimizing technology of the spiced salt and Gaussian mixed noise in a kind of sequence towards twilight image
CN107818547B (en) * 2016-09-14 2018-12-25 北京航空航天大学 A kind of minimizing technology towards the spiced salt and Gaussian mixed noise in twilight image sequence
WO2019188038A1 (en) * 2018-03-26 2019-10-03 株式会社日立国際電気 Surveillance camera system
JPWO2019188038A1 (en) * 2018-03-26 2021-02-18 株式会社日立国際電気 Surveillance camera system

Similar Documents

Publication Publication Date Title
JP6786378B2 (en) Information processing equipment, information processing methods and programs
JP2016100696A (en) Image processing device, image processing method, and image processing system
JP2006018293A (en) Method for determining projector pixel correlated with laser point on display surface by means of pinhole projection
JP2012235355A (en) Network camera system and method of controlling the same
JP2003283964A (en) Video display apparatus
KR102193984B1 (en) Monitoring System and Method for Controlling PTZ using Fisheye Camera thereof
KR102418823B1 (en) Deep learning-based illegal parking enforcement system using wide-area detection images
US20150334373A1 (en) Image generating apparatus, imaging apparatus, and image generating method
CN103813093A (en) Imaging apparatus and imaging method thereof
CN110351475B (en) Image pickup system, information processing apparatus, control method therefor, and storage medium
JP5183152B2 (en) Image processing device
JP2016085380A (en) Controller, control method, and program
WO2020174226A1 (en) Lens calibration system
KR100585822B1 (en) Monitor system use panorama image and control method the system
JP2010243730A (en) Autofocus system
CN108540720B (en) System and method for automatically selecting optimal image for bullet time
KR101288881B1 (en) Set up a number of areas of surveillance and monitoring of surveillance cameras in the area to shoot enlarged system
JP2015186058A (en) Imaging apparatus
KR101738514B1 (en) Monitoring system employing fish-eye thermal imaging camera and monitoring method using the same
KR20150000911A (en) Auto mapping method and apparatus of screen and image
JP2007081826A (en) Monitoring system
CN113497877A (en) Image pickup apparatus, control method, and storage medium
JP2005333628A (en) Camera control apparatus, and monitoring camera system using same
JP2005117316A (en) Apparatus and method for photographing and program
WO2023002776A1 (en) Image processing device, image processing system, image processing method, and image processing program

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20140805