JP2010128727A - Image processor - Google Patents

Image processor Download PDF

Info

Publication number
JP2010128727A
JP2010128727A JP2008301809A JP2008301809A JP2010128727A JP 2010128727 A JP2010128727 A JP 2010128727A JP 2008301809 A JP2008301809 A JP 2008301809A JP 2008301809 A JP2008301809 A JP 2008301809A JP 2010128727 A JP2010128727 A JP 2010128727A
Authority
JP
Japan
Prior art keywords
coordinate system
image
area
detection
line
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008301809A
Other languages
Japanese (ja)
Other versions
JP2010128727A5 (en
Inventor
Miyuki Fujii
幸 藤井
Shigeru Ikewada
茂 池和田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Kokusai Electric Inc
Original Assignee
Hitachi Kokusai Electric Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Kokusai Electric Inc filed Critical Hitachi Kokusai Electric Inc
Priority to JP2008301809A priority Critical patent/JP2010128727A/en
Publication of JP2010128727A publication Critical patent/JP2010128727A/en
Publication of JP2010128727A5 publication Critical patent/JP2010128727A5/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Burglar Alarm Systems (AREA)
  • Alarm Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To reduce erroneous detection by effectively detecting an intruding object in an image processor that detects an object which fulfills a prescribed condition based on an image. <P>SOLUTION: The first lines A1, A2 are set for the image that is the processing subject according to an operation carried out by a user by a first line setting means in the image processor. A second line setting means sets the second lines B1, B2-1, B2-2 according to the first lines set by the first line setting means which are separated from the first lines for the image that is the processing subject. The object detection means detects the object that crosses the first lines set by the first line setting means and crosses the second lines set by the second line setting means. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、画像(映像)に基づいて侵入物(或いは、侵入者である場合もある、以下も同様)を監視する監視用のCCTV(Closed Circuit Television)装置などの画像処理装置に関し、特に、侵入物を効果的に検知(検出)する画像処理装置に関する。   The present invention relates to an image processing device such as a CCTV (Closed Circuit Television) device for monitoring an intruder (or an intruder, which may be the same hereinafter) based on an image (video), and more particularly, The present invention relates to an image processing apparatus that effectively detects (detects) an intruder.

図4には、画像処理装置により行われる侵入物の検知条件設定方法のフローチャートの一例を示してある。
図5には、侵入物の監視対象エリアの一例を示してある。
監視場所にカメラを設置し、カメラにより撮像された監視映像201が画像処理装置の入力映像として与えられる。監視映像201には、敷地内エリア202と、敷地外エリア211が存在する。敷地外エリア211から敷地内エリア202へ移動した物体の検知を行いたい場合を考える。
FIG. 4 shows an example of a flowchart of an intruder detection condition setting method performed by the image processing apparatus.
FIG. 5 shows an example of an intruder monitoring target area.
A camera is installed at a monitoring place, and a monitoring video 201 captured by the camera is given as an input video of the image processing apparatus. The monitoring video 201 includes an in-site area 202 and an off-site area 211. Consider a case where it is desired to detect an object moved from the off-site area 211 to the on-site area 202.

図4に示される手順で検知条件を設定する。
まず、方向検知ライン・検知方向設定ステップ(ステップS11)で、方向検知ラインD1と検知方向(判定方向)E1を設定する。同様に、方向検知ライン・検知方向設定ステップ(ステップS12)で、方向検知ラインD2と検知方向(判定方向)E2を設定する。
これらのステップS11、S12の設定は、ユーザ(人)の操作により人為的に行われる。
Detection conditions are set according to the procedure shown in FIG.
First, in a direction detection line / detection direction setting step (step S11), a direction detection line D1 and a detection direction (determination direction) E1 are set. Similarly, in the direction detection line / detection direction setting step (step S12), the direction detection line D2 and the detection direction (determination direction) E2 are set.
The setting of these steps S11 and S12 is artificially performed by a user (person) operation.

設定された条件を元に画像処理装置が検知を行う。
すなわち、物体221−1の軌跡222−1が方向検知ラインD1を、設定した検知方向E1にまたいだ場合に、それを検知する。
しかしながら、敷地内の物体221−2の軌跡222−2が、ノイズ等の影響で一瞬敷地外に入ってしまい、方向検知ラインD1を、設定した検知方向E1にまたいだ場合も、それを検知してしまう。
このように、本例の検知方法では、一瞬でも方向検知ラインをまたいだ物体を検知してしまうため、誤検知が多い。
The image processing apparatus performs detection based on the set conditions.
That is, when the locus 222-1 of the object 221-1 crosses the direction detection line D1 in the set detection direction E1, it is detected.
However, even if the locus 222-2 of the object 221-2 on the site enters the site for a moment due to the influence of noise or the like, and the direction detection line D1 crosses the set detection direction E1, it is detected. End up.
As described above, in the detection method of the present example, an object that straddles the direction detection line is detected even for a moment, and thus there are many false detections.

特開2001−155263号公報JP 2001-155263 A 特開2005−57743号公報JP-A-2005-57743 特開2008−176768号公報JP 2008-176768 A

上述のように、画像処理装置において、方向検知ラインを用いた侵入物の検知を行う場合には、例えば即時検知が求められるが、その結果、一瞬でも方向検知ラインを横切った物体を検知してしまうため、誤報(誤検出)につながってしまうといった問題があった。
本発明は、このような従来の課題を解決するために為されたもので、侵入物を効果的に検知することができ、例えば、誤検出を低減することができる画像処理装置を提供することを目的とする。
As described above, in an image processing apparatus, when detecting an intruder using a direction detection line, for example, immediate detection is required, but as a result, an object that crosses the direction detection line is detected even for a moment. For this reason, there is a problem that it may lead to misinformation (false detection).
The present invention has been made to solve such a conventional problem, and provides an image processing apparatus that can effectively detect an intruder, for example, can reduce erroneous detection. With the goal.

上記目的を達成するため、本発明では、画像に基づいて所定の条件を満たした物体を検出する画像処理装置において、次のような構成とした。
すなわち、第1のライン設定手段が、ユーザ(人)により行われる操作に応じて、処理対象となる画像に対して、第1のラインを設定する。第2のライン設定手段が、前記第1のライン設定手段により設定された第1のラインに応じて、それ(第1のライン)とは離隔した第2のラインを前記処理対象となる画像に対して設定する。物体検出手段が、前記第1のライン設定手段により設定された第1のラインを横切るとともに前記第2のライン設定手段により設定された第2のラインを横切った物体を検出する。なお、この場合、前記所定の条件は、「第1のラインを横切るとともに第2のラインを横切った物体を検出する条件」となり、但し、他の条件があればそれも考慮される。
In order to achieve the above object, in the present invention, an image processing apparatus that detects an object that satisfies a predetermined condition based on an image has the following configuration.
That is, the first line setting means sets the first line for the image to be processed in accordance with the operation performed by the user (person). According to the first line set by the first line setting means, the second line setting means sets a second line separated from the first line to the image to be processed. Set for The object detecting means detects an object that crosses the first line set by the first line setting means and crosses the second line set by the second line setting means. In this case, the predetermined condition is “a condition for detecting an object that crosses the first line and crosses the second line”, but any other condition is also taken into consideration.

従って、画像に基づいて画像処理を行って、所定の条件を満たした物体(画像上の物体)を検出するに際して、ユーザにより第1のラインが設定されると、第2のラインが設定され、これら両方のラインを横切った物体が検出され、例えば、第1のラインのみを横切った物体は検出されないため、侵入物を効果的に検知(検出)することができ、誤検出を低減することができる。   Therefore, when the image processing is performed based on the image and an object satisfying a predetermined condition (an object on the image) is detected, when the first line is set by the user, the second line is set, An object that crosses both of these lines is detected, for example, an object that crosses only the first line is not detected, so that an intruder can be effectively detected (detected), and false detection can be reduced. it can.

ここで、画像(映像)としては、種々なものが用いられてもよく、例えば、動画像を用いることができる。
また、検出対象とする物体としては、例えば、物や人や動物など、任意のものが用いられてもよく、また、大きさや速度などに基づいて所定のものだけ(例えば、人だけ、等)が検出対象とされてもよい。
また、物体を検出するための条件としては、種々なものが用いられてもよく、複数の条件が組み合わされて用いられてもよい。
また、第1のラインや第2のラインとしては、種々なものが用いられてもよく、例えば、直線(線分)や、折れ線や、曲線などを用いることができる。
Here, various images (video) may be used, and for example, a moving image can be used.
Further, as an object to be detected, for example, an arbitrary object such as an object, a person, or an animal may be used, and only a predetermined object based on size, speed, etc. (for example, only a person) May be detected.
Various conditions for detecting the object may be used, or a plurality of conditions may be used in combination.
Moreover, various things may be used as a 1st line or a 2nd line, for example, a straight line (line segment), a broken line, a curve, etc. can be used.

また、第1のラインに応じて第2のラインを設定する方法としては、種々なものが用いられてもよく、例えば、第1のラインに対して所定の距離(例えば、実際の距離、或いは、画像上の見かけの距離、など)だけ離隔して平行に離れた位置に第2のラインを設定する方法を用いることができ、また、例えば、検出対象とする物体の移動方向が設定されているような場合には、第1のラインに対してその方向にずれた第2のラインを設定することができる。
また、第1のラインに応じて第2のラインを設定する方法は、例えば、予め画像処理装置のメモリに設定されて記憶されるが、他の構成例として、離隔距離などのように第2のラインを設定するために必要な情報の一部又は全部をユーザから受け付けるような態様が用いられてもよい。
Various methods may be used as a method for setting the second line in accordance with the first line. For example, a predetermined distance (for example, an actual distance or a distance from the first line) may be used. , Apparent distance on the image, etc.) can be used to set the second line at a position separated in parallel, and for example, the moving direction of the object to be detected is set In such a case, it is possible to set a second line shifted in that direction with respect to the first line.
The method of setting the second line according to the first line is, for example, set and stored in advance in the memory of the image processing apparatus. As another configuration example, the second line such as a separation distance is used. An aspect may be used in which part or all of information necessary for setting the line is received from the user.

[以下、他の構成例]
以下で、他の構成例を示す。
(1)前記所定の条件には、物体の移動方向の条件が含まれる。この場合、設定された移動方向の条件に適合した方向に移動する物体を検出する。移動方向としては、一方向であってもよく、或いは、両方向であってもよい。また、移動方向としては、一例として、ラインを横切るときに、ラインのどちら側からどちら側(反対側)へ横切るかという方向(ラインを横切る方向)を用いることができる。
また、この場合、例えば、第2のラインは、設定された移動方向の条件に適合した方向に所定の距離だけ第1のラインから離れた位置に設定される。一方向の場合には1本設定され、両方向の場合には2本設定される。
また、両方向の場合には、2本の第2のラインのうち、例えば、第1のラインと1本の第2のラインを横切れば物体を検出する条件を用いることや、或いは、第1のラインと2本の第2のラインの全てを横切れば物体を検出する条件を用いることができる。
[Other configuration examples]
Other configuration examples will be shown below.
(1) The predetermined condition includes a condition of the moving direction of the object. In this case, an object moving in a direction suitable for the set moving direction condition is detected. The moving direction may be one direction or both directions. In addition, as a moving direction, for example, when crossing a line, a direction (a direction crossing the line) as to which side of the line is crossed from which side (opposite side) can be used.
In this case, for example, the second line is set at a position away from the first line by a predetermined distance in a direction that matches the set moving direction condition. One is set for one direction, and two is set for both directions.
Further, in the case of both directions, for example, a condition for detecting an object if the first line and one second line are crossed between the two second lines, or the first line is used. If the line and all of the two second lines are crossed, a condition for detecting an object can be used.

(2)前記所定の条件には、エリア(領域)の条件が含まれる。例えば、除外エリアの条件では、除外エリアの中に存在していた物体については検出しない。
具体例として、ユーザにより行われる操作に応じて処理対象となる画像に対して第1のエリアを設定する第1のエリア設定手段と、前記第1のエリア設定手段により設定された第1のエリアに応じてそのエリア(第1のエリア)を縮小した第2のエリアを前記処理対象となる画像に対して設定する第2のエリア設定手段と、前記第2のエリア設定手段により設定された第2のエリアに基づく所定の条件(例えば、除外エリアの条件など)を用いて物体を検出する物体検出手段と、を備える。
ここで、第1のエリアを縮小した第2のエリアを設定する方法としては、種々なものが用いられてもよく、例えば、第1のエリア(一例として、除外エリア)のうちで他のエリア(一例として、除外しないエリア)と接する境界の所を縮小した(他のエリアから離隔した)第2のエリアを設定するようなことができる。
(2) The predetermined condition includes an area condition. For example, the condition of the exclusion area does not detect an object that exists in the exclusion area.
As a specific example, a first area setting unit that sets a first area for an image to be processed according to an operation performed by a user, and a first area set by the first area setting unit And a second area setting means for setting a second area obtained by reducing the area (first area) for the image to be processed, and a second area set by the second area setting means. Object detection means for detecting an object using a predetermined condition (for example, an exclusion area condition) based on the second area.
Here, various methods may be used as a method for setting the second area obtained by reducing the first area. For example, other areas of the first area (excluded area as an example) may be used. It is possible to set a second area in which the boundary that touches (as an example, an area not excluded) is reduced (separated from other areas).

(3)例えば、ラインの条件とエリアの条件の両方(組み合わせ)を満たした場合に物体を検出するようなことができる。
また、ラインの条件やエリアの条件などが複数存在する場合に、それぞれの条件毎に、使用する条件の組み合わせをユーザにより設定することが可能な構成とすることもできる。
[以上、他の構成例]
(3) For example, an object can be detected when both the line condition and the area condition (combination) are satisfied.
In addition, when there are a plurality of line conditions, area conditions, and the like, the user can set a combination of conditions to be used for each condition.
[End of other configuration examples]

以上説明したように、本発明に係る画像処理装置によると、侵入物を効果的に検知することができ、例えば、誤検出を低減することができる。   As described above, according to the image processing apparatus of the present invention, an intruder can be detected effectively, and for example, erroneous detection can be reduced.

本発明に係る実施例を図面を参照して説明する。
図6には、本発明の一実施例に係る画像処理装置1の構成例を示してある。
本例の画像処理装置1は、入力部11と、出力部12と、記憶部13と、制御部14を備えている。
入力部11は、外部のカメラなどから監視対象となる映像(画像)を入力する機能や、ユーザ(人)の操作により各種の指示(制御)や情報を入力するためのキーやマウスなどの機能や、外部の装置から各種の指示(制御)や情報の信号を入力する機能などを有している。
出力部12は、ユーザに対して映像や各種の情報を画面に表示する機能や、ユーザに対して各種の音(音声)を出力する機能や、外部の装置に対して各種の指示(制御)や情報の信号を出力する機能などを有している。
Embodiments according to the present invention will be described with reference to the drawings.
FIG. 6 shows a configuration example of the image processing apparatus 1 according to an embodiment of the present invention.
The image processing apparatus 1 of this example includes an input unit 11, an output unit 12, a storage unit 13, and a control unit 14.
The input unit 11 has a function of inputting a video (image) to be monitored from an external camera or the like, and a function of keys and a mouse for inputting various instructions (control) and information by a user (person) operation. And a function of inputting various instructions (control) and information signals from an external device.
The output unit 12 has a function of displaying video and various information on the screen to the user, a function of outputting various sounds (voices) to the user, and various instructions (control) to an external device. And a function for outputting information signals.

記憶部13は、メモリを用いて構成されており、処理対象となる映像や検知条件などの各種の情報を記憶する機能や、各種の処理に使用されるプログラムを記憶する機能などを有している。
制御部14は、画像処理装置1において行われる各種の処理を制御する機能を有している。制御部14は、例えば、CPU(Central Processing Unit)を有しており、各種のプログラムを実行することにより各種の処理を実行する。
The storage unit 13 is configured using a memory, and has a function of storing various types of information such as images to be processed and detection conditions, a function of storing programs used for various types of processing, and the like. Yes.
The control unit 14 has a function of controlling various processes performed in the image processing apparatus 1. The control unit 14 has, for example, a CPU (Central Processing Unit), and executes various processes by executing various programs.

本例の画像処理装置1により行われる侵入物の検知処理の一例を示す。
図1には、本例の画像処理装置1により行われる侵入物の検知条件設定方法のフローチャートの一例を示してある。
図2には、侵入物の監視対象エリアの一例を示してある。
本例では、特定の移動方向へ移動した物体を検知する際に用いる、方向検知ラインを自動的に二重化する処理を行う。
An example of the intruder detection process performed by the image processing apparatus 1 of the present example is shown.
FIG. 1 shows an example of a flowchart of an intruder detection condition setting method performed by the image processing apparatus 1 of this example.
FIG. 2 shows an example of an intruder monitoring target area.
In this example, a process of automatically duplicating the direction detection line used when detecting an object moved in a specific movement direction is performed.

監視場所にカメラを設置し、カメラにより撮像された監視映像101が画像処理装置1に入力映像として与えられる。
監視映像101で、敷地外エリア111から敷地内エリアZ1へ移動した物体のみを検知し、敷地内エリアZ1に存在する物体や、敷地内エリアZ1から敷地外エリア111へ移動した物体は検知しない、という条件で、侵入物(上述のように、或いは、侵入者である場合もある、以下も同様)の検知を行う。
A camera is installed at a monitoring place, and a monitoring video 101 captured by the camera is given to the image processing apparatus 1 as an input video.
In the monitoring video 101, only an object moved from the off-site area 111 to the in-site area Z1 is detected, and an object existing in the on-site area Z1 or an object moved from the on-site area Z1 to the off-site area 111 is not detected. Under such conditions, an intruder (as described above, or may be an intruder, and so on) is detected.

まず、方向検知ライン・検知方向設定ステップ(ステップS1)で、敷地外エリア111から敷地内エリアZ1へ移動する物体を検知するための方向検知ラインA1及び検知方向(判定方向)C1を設定する。なお、この検知方向C1は一方向となっている。設定すると、判定用方向検知ライン算出ステップ(ステップS2)が自動的に実行され、判定用方向検知ラインB1が設定される。
ここで、判定用方向検知ラインB1は、設定された方向検知ラインA1の始点、終点から、検知方向C1(本例の場合には、設定された方向検知ラインA1の上方向)に数m奥(例えば、1m奥)の位置を算出することによって得られる。判定用方向検知ラインB1を設定する仕方(例えば、計算式等)は、本例では、予め装置に設定されて記憶されており、他の構成例として、ユーザによって指定されてもよい。
First, in a direction detection line / detection direction setting step (step S1), a direction detection line A1 and a detection direction (determination direction) C1 for detecting an object moving from the off-site area 111 to the in-site area Z1 are set. The detection direction C1 is one direction. When set, the determination direction detection line calculation step (step S2) is automatically executed, and the determination direction detection line B1 is set.
Here, the determination direction detection line B1 is several meters behind from the start point and end point of the set direction detection line A1 in the detection direction C1 (upward direction of the set direction detection line A1 in this example). It is obtained by calculating the position (for example, 1 m deep). In this example, the method of setting the determination direction detection line B1 (for example, a calculation formula) is set and stored in advance in the apparatus, and may be specified by the user as another configuration example.

なお、この判定用方向検知ラインB1の算出は、例えば、予め設定されたカメラ設置条件(例えば、カメラの俯角、カメラの高さ、水平方向の視野角、CCDサイズ、焦点距離などの1つ以上)などを用いて行うことができる(例えば、特許文献2、特許文献3や特願2007−176039号を参照。)。すなわち、カメラの設置条件によってカメラにより撮像される映像の見え方は変化し、実際の撮像対象(映像に映っているもの)の配置や大きさ(長さや幅や距離など)等とは異なるものとなるため、例えば、これらの違い(座標の違い)を考慮して、判定用方向検知ラインB1を設定することができる。
また、m(メートル)等の実際の長さと画面上での画素数とを変換する算出についても、同様に行うことが可能である(例えば、特許文献2や特願2007−176039号を参照。)。
The determination direction detection line B1 is calculated by, for example, one or more preset camera installation conditions (eg, camera depression angle, camera height, horizontal viewing angle, CCD size, focal length, etc. (See, for example, Patent Document 2, Patent Document 3 and Japanese Patent Application No. 2007-176039). In other words, the appearance of the image captured by the camera changes depending on the installation conditions of the camera, and is different from the actual arrangement and size (length, width, distance, etc.) of the object to be imaged (what is reflected in the image) Therefore, for example, the determination direction detection line B1 can be set in consideration of these differences (coordinate differences).
The calculation for converting the actual length such as m (meter) and the number of pixels on the screen can be performed in the same manner (see, for example, Patent Document 2 and Japanese Patent Application No. 2007-176039). ).

同様に、方向検知ライン・検知方向設定ステップ(ステップS3)で、方向検知ラインA2及び検知方向(判定方向)C2を設定する。なお、この検知方向C2は両方向となっている。設定すると、判定用方向検知ライン算出ステップ(ステップS4)が自動的に実行され、2本の判定用方向検知ラインB2−1、B2−2が設定される。ここで、この判定用方向検知ラインB2−1、B2−2は、上記した判定用方向検知ラインB1と同様の方法で計算されるが、方向検知ラインA2の検知方向C2は両方向となっているため、設定した方向検知ラインA2の両側(例えば、左右)にそれぞれ、判定用方法検知ラインB2−1、B2−2が自動的に設定される。   Similarly, in the direction detection line / detection direction setting step (step S3), the direction detection line A2 and the detection direction (determination direction) C2 are set. The detection direction C2 is both directions. When set, the determination direction detection line calculation step (step S4) is automatically executed, and two determination direction detection lines B2-1 and B2-2 are set. Here, the determination direction detection lines B2-1 and B2-2 are calculated by the same method as the above-described determination direction detection line B1, but the detection direction C2 of the direction detection line A2 is both directions. Therefore, determination method detection lines B2-1 and B2-2 are automatically set on both sides (for example, left and right) of the set direction detection line A2.

次に、敷地内エリアZ1に存在する物体を確実に排除するために、検知除外エリア設定ステップ(ステップS5)で、検知除外エリアZ1(本例では、敷地内エリアZ1と同一のエリア)を設定する。例えば、検知除外エリアZ1で検知された物体については、方向検知ラインA1及び判定用方向検知ラインB1を横切った場合でも検知しない、といった判定方法を用いることができる。   Next, in order to surely exclude objects existing in the site area Z1, in the detection exclusion area setting step (step S5), the detection exclusion area Z1 (in this example, the same area as the site area Z1) is set. To do. For example, it is possible to use a determination method in which an object detected in the detection exclusion area Z1 is not detected even when it crosses the direction detection line A1 and the determination direction detection line B1.

検知除外エリアZ1は、例えば、ユーザにより複数の点を指定することにより設定し、具体例として、点131a、点131b、点131c、点131d、点131eと順番に指定することにより設定する。本例では、これら複数の点で囲まれる内側のエリアを検知除外エリアZ1として設定する。設定すると、判定用検知除外エリア算出ステップ(ステップS6)が実行され、検知除外エリアZ1を構成する点131a、点131b、点131c、点131d、点131eのうち、敷地外エリア111と隣接する点131c、点131d、点131eに対して、数m奥(例えば、1m奥)の位置の点132c、点132d、点132eが算出され、判定用検知除外エリアZ2が設定される。本例では、奥に新たな位置が算出されなかった点131a、点131bと奥に新たな位置が算出された点132c、点132d、点132eで囲まれる内側のエリアを判定用検知除外エリアZ2として設定する。   The detection exclusion area Z1 is set, for example, by designating a plurality of points by the user. As a specific example, the detection exclusion area Z1 is set by designating points 131a, 131b, 131c, 131d, and 131e in order. In this example, an inner area surrounded by the plurality of points is set as the detection exclusion area Z1. When set, the determination exclusion area calculation step for determination (step S6) is executed, and among the points 131a, 131b, 131c, 131d, and 131e constituting the detection exclusion area Z1, points adjacent to the off-site area 111 With respect to 131c, 131d, and 131e, points 132c, 132d, and 132e at a position several m deep (for example, 1 m deep) are calculated, and the detection exclusion area Z2 for determination is set. In this example, the inner area surrounded by the points 131a and 131b where the new position is not calculated in the back and the points 132c, 132d and 132e where the new position is calculated is determined as the detection exclusion area Z2 for determination. Set as.

ここで、点132c、点132d、点132eを数m奥にする理由は、敷地外エリア111に存在する物体の足元位置が正確に得られなかった場合における検知もれを少なくするためである。このような点(判定用検知除外エリアZ2を構成する点)を設定する仕方(例えば、計算式等)は、本例では、予め装置に設定されて記憶されており、他の構成例として、ユーザによって指定されてもよい。
なお、点132c、点132d、点132eの算出方法としては、例えば、判定用方向検知ラインB1、B2−1、B2−2の算出方法と同様な方法(例えば、カメラによる見え方と実際の配置等との違いを考慮した方法)を用いることができる。
ステップS1、S3、S5の設定は、ユーザ(人)の操作により人為的に行われ、また、ステップS2、S4、S6の算出(ラインやエリアの作成)は、装置により自動的に行われる。
Here, the reason why the point 132c, the point 132d, and the point 132e are set to be several meters deep is to reduce detection leakage when the foot position of the object existing in the off-site area 111 is not accurately obtained. In this example, a method of setting such points (points constituting the detection exclusion area Z2 for determination) (for example, a calculation formula) is set and stored in advance in the apparatus. As another configuration example, It may be specified by the user.
In addition, as a calculation method of the point 132c, the point 132d, and the point 132e, for example, a method similar to the calculation method of the determination direction detection lines B1, B2-1, and B2-2 (for example, how the camera looks and how it is actually arranged) And the like) can be used.
The settings of steps S1, S3, and S5 are artificially performed by a user (person) operation, and the calculations of steps S2, S4, and S6 (creation of lines and areas) are automatically performed by the apparatus.

画像処理装置1では、監視映像101について画像処理を行うことにより、設定された条件を元に侵入物の検知を行う。
すなわち、監視映像101において、物体121−1の軌跡122−1が、設定した検知方向C1に、方向検知ラインA1及び判定用方向検知ラインB1の両方を横切った場合に、侵入物(本例では、侵入者)があったとして検知する。また、敷地内エリアZ1の物体121−2の軌跡122−2は、設定した検知方向C1に、方向検知ラインA1を横切っているが、判定用方向検知ラインB1を横切っていないため、侵入物として検知しない。
In the image processing apparatus 1, an intruder is detected based on the set condition by performing image processing on the monitoring video 101.
That is, in the monitoring video 101, when the trajectory 122-1 of the object 121-1 crosses both the direction detection line A1 and the determination direction detection line B1 in the set detection direction C1, an intruder (in this example, , Intruder) is detected. In addition, the trajectory 122-2 of the object 121-2 in the site area Z1 crosses the direction detection line A1 in the set detection direction C1, but does not cross the direction detection line B1 for determination. Not detected.

次に、検知エリアと方向検知ラインを組み合わせて判定する際における設定方法について説明する。
図3には、検知条件組み合わせ設定のための画面141の一例を示してある。
まず、検知設定領域151で、それぞれのラインやエリアについて、検知条件として使用するか否かをオン又はオフ(ON/OFF)を選択して設定する。ここで、オンは検知することを示し、オフは検知しないことを示す。
Next, a setting method when determining by combining the detection area and the direction detection line will be described.
FIG. 3 shows an example of a screen 141 for setting detection condition combinations.
First, in the detection setting area 151, whether or not each line or area is used as a detection condition is set by selecting ON or OFF (ON / OFF). Here, ON indicates that detection is performed, and OFF indicates that detection is not performed.

本例では、敷地外エリア111から敷地内Z1へ移動する物体を検知するために、方向検知ラインA1、方向検知ラインA2について、両方とも、オンに設定する。このため、方向検知ラインA1、A2のいずれかを(所定の方向で、判定用方向検知ラインも含めて)横切ったら検知する。
また、検知除外エリアZ1は、本例では、敷地内の物体を確実に排除するために設定したものであり、検知除外エリアZ1(本例では、判定用検知除外エリアZ2)に物体がいても検知はしないため、検知条件としてはオフに設定する。
In this example, both the direction detection line A1 and the direction detection line A2 are set to ON in order to detect an object moving from the off-site area 111 to the in-site Z1. For this reason, when any of the direction detection lines A1 and A2 is crossed (including the determination direction detection line in a predetermined direction), the detection is performed.
In this example, the detection exclusion area Z1 is set in order to reliably exclude objects in the site, and even if there is an object in the detection exclusion area Z1 (in this example, the detection exclusion area Z2 for determination). Since detection is not performed, the detection condition is set to off.

検知設定領域151でオンに設定されたものに対して、検知条件組み合わせ設定領域152で、組み合わせて判断する条件を設定することができる。例えば、方向検知ラインA1と組み合わせて使用する条件として、検知除外エリアZ1で「未検知」と設定する。この設定をすることにより、方向検知ラインA1を(所定の方向で、判定用方向検知ラインも含めて)横切った物体が、過去に検知除外エリアZ1(本例では、判定用検知除外エリアZ2)で検知されていたら、その物体は検知しない。また、方向検知ラインA1を(所定の方向で、判定用方向検知ラインも含めて)横切った物体が、過去に検知除外エリアZ1(本例では、判定用検知除外エリアZ2)で検知されていなかった場合には、侵入物として検知する。これにより、敷地内エリアZ1に存在する物体(例えば、物や人)を確実に検知対象から排除することができる。
また、方向検知ラインA2については、組み合わせて使用する条件を設けないため、本例では、「−」を設定してある。
Conditions that are determined in combination can be set in the detection condition combination setting area 152 for those that are set to ON in the detection setting area 151. For example, “undetected” is set in the detection exclusion area Z1 as a condition to be used in combination with the direction detection line A1. By performing this setting, an object that has crossed the direction detection line A1 (including the determination direction detection line in a predetermined direction) has detected in the past the detection exclusion area Z1 (in this example, the detection detection exclusion area Z2). If it is detected by, the object is not detected. In addition, an object that has crossed the direction detection line A1 (in a predetermined direction, including the direction detection line for determination) has not been detected in the detection exclusion area Z1 (in this example, the detection exclusion area Z2 for determination) in the past. If it is detected, it is detected as an intruder. Thereby, the object (for example, thing or person) which exists in the site area Z1 can be reliably excluded from the detection target.
In addition, in this example, “−” is set for the direction detection line A <b> 2 because a condition for use in combination is not provided.

ここで、それぞれの物体が検知除外エリアZ1(本例では、判定用検知除外エリアZ2)に存在するか否かは、例えば、監視映像101の画像処理を行うことにより検出することができる。また、各物体については、例えば、その大きさや形状などに基づいて識別することができる。そして、本例では、過去に検知除外エリアZ1(本例では、判定用検知除外エリアZ2)に存在した物体の情報がメモリに記憶される。   Here, whether or not each object exists in the detection exclusion area Z1 (in this example, the detection exclusion area Z2 for determination) can be detected by performing image processing of the monitoring video 101, for example. Each object can be identified based on, for example, its size and shape. In this example, information on an object that has previously existed in the detection exclusion area Z1 (in this example, the detection exclusion area Z2 for determination) is stored in the memory.

以上のように、本例の画像処理装置1(或いは、それに設けられた画像処理ソフトウエア)では、例えば、監視領域内を撮像する複数のテレビジョンカメラから得られた映像信号を処理し、指定した方向に移動する侵入物を検知するに際して、方向検知ラインを自動的に二重化し、ヒステリシスを設ける機能を有する。
また、本例の画像処理装置1(或いは、それに設けられた画像処理ソフトウエア)では、例えば、検知エリアや方向検知ライン等の複数の検知条件を有しており、検知エリアや方向検知ライン等による検知/未検知の状態を組み合わせて、最終的な判定を行う機能を有する。
As described above, in the image processing apparatus 1 of this example (or the image processing software provided therein), for example, video signals obtained from a plurality of television cameras that capture images in the monitoring area are processed and designated. When detecting an intruder that moves in the specified direction, it has a function of automatically doubling the direction detection line and providing hysteresis.
In addition, the image processing apparatus 1 of this example (or the image processing software provided therein) has a plurality of detection conditions such as a detection area and a direction detection line. It has a function of making a final determination by combining the detection / non-detection states.

従って、本例の画像処理装置1(或いは、それに設けられた画像処理ソフトウエア)では、移動方向による検知を行う場合に、方向検知ラインが設定されると、自動的に方向検知ラインの設定を二重化して、ヒステリシスを持たせた検知(判定)を行うことにより、物体の誤検出を低減させて、安定に判定することを可能とすることができる。
具体例として、方向検知ラインや検知方向が設定された際に、設定された方向検知ラインや検知方向を元に、検知方向に数m離れた位置に判定用の方向検知ラインを自動的に算出して設定し、これら2つの方向検知ラインの両方を横切った(超えた)物体を検知することで、誤検知を低減することができ、例えば、一瞬だけ1つの方向検知ラインをまたいだような物体の誤検知を防ぐことができる。
また、エリアや方向検知ライン等を用いた検知状況(検知/未検知の設定)を組み合わせて検知を行うことで、より現場に合わせた設定を行うことが可能である。
Therefore, in the image processing apparatus 1 of this example (or the image processing software provided therein), when the direction detection line is set when performing detection based on the moving direction, the direction detection line is automatically set. By performing the detection (determination) with duplexing and having hysteresis, it is possible to reduce erroneous detection of an object and to perform stable determination.
As a specific example, when a direction detection line or detection direction is set, a direction detection line for determination is automatically calculated at a position several meters away from the detection direction based on the set direction detection line or detection direction. By setting and detecting an object that crosses (exceeds) both of these two direction detection lines, it is possible to reduce false detections. For example, it is possible to cross one direction detection line for a moment. Object false detection can be prevented.
In addition, it is possible to perform settings that are more suited to the site by performing detection by combining detection conditions (detection / non-detection settings) using areas, direction detection lines, and the like.

なお、本例の画像処理装置1では、ユーザにより行われる操作に応じて第1のライン(本例では、方向検知ラインA1、A2)を設定する機能により第1のライン設定手段が構成されており、第1のラインに応じて第2のライン(本例では、判定用方向検知ラインB1、B2−1、B2−2)を設定する機能により第2のライン設定手段が構成されており、第1のラインと第2のラインの両方を用いて画像上の物体(画像に映る物体)を検出する機能により物体検出手段が構成されている。   In the image processing apparatus 1 of this example, the first line setting means is configured by the function of setting the first line (in this example, the direction detection lines A1 and A2) according to the operation performed by the user. The second line setting means is configured by the function of setting the second line (in this example, the determination direction detection lines B1, B2-1, B2-2) according to the first line, The object detection means is configured by a function of detecting an object on the image (an object shown in the image) using both the first line and the second line.

ここで、本発明に係るシステムや装置などの構成としては、必ずしも以上に示したものに限られず、種々な構成が用いられてもよい。また、本発明は、例えば、本発明に係る処理を実行する方法或いは方式や、このような方法や方式を実現するためのプログラムや当該プログラムを記録する記録媒体などとして提供することも可能であり、また、種々なシステムや装置として提供することも可能である。
また、本発明の適用分野としては、必ずしも以上に示したものに限られず、本発明は、種々な分野に適用することが可能なものである。
また、本発明に係るシステムや装置などにおいて行われる各種の処理としては、例えばプロセッサやメモリ等を備えたハードウエア資源においてプロセッサがROM(Read Only Memory)に格納された制御プログラムを実行することにより制御される構成が用いられてもよく、また、例えば当該処理を実行するための各機能手段が独立したハードウエア回路として構成されてもよい。
また、本発明は上記の制御プログラムを格納したフロッピー(登録商標)ディスクやCD(Compact Disc)−ROM等のコンピュータにより読み取り可能な記録媒体や当該プログラム(自体)として把握することもでき、当該制御プログラムを当該記録媒体からコンピュータに入力してプロセッサに実行させることにより、本発明に係る処理を遂行させることができる。
Here, the configuration of the system and apparatus according to the present invention is not necessarily limited to the configuration described above, and various configurations may be used. The present invention can also be provided as, for example, a method or method for executing the processing according to the present invention, a program for realizing such a method or method, or a recording medium for recording the program. It is also possible to provide various systems and devices.
The application field of the present invention is not necessarily limited to the above-described fields, and the present invention can be applied to various fields.
In addition, as various processes performed in the system and apparatus according to the present invention, for example, the processor executes a control program stored in a ROM (Read Only Memory) in hardware resources including a processor and a memory. A controlled configuration may be used, and for example, each functional unit for executing the processing may be configured as an independent hardware circuit.
The present invention can also be understood as a computer-readable recording medium such as a floppy (registered trademark) disk or a CD (Compact Disc) -ROM storing the control program, and the program (itself). The processing according to the present invention can be performed by inputting the program from the recording medium to the computer and causing the processor to execute the program.

[以下、特願2007−176039号の開示内容の一部]
以下で、参考として、特願2007−176039号の開示内容の一部(出願内容そのままではない箇所もある)を示しておく。以下の内容は、主に、カメラから見た映像と実際のもの(映像に映っているもの)との座標変換や、ユーザによる領域等(本実施例では、例えば、ラインや点など)の設定などに関する事項である。必要に応じて、本願発明に利用することが可能である。
なお、以下の説明は参考であり、本願発明の内容は、以上の説明で十分に理解や実施することが可能であると思料するが、必要であれば、以下の内容が参考とされてもよい。
[Hereinafter, a part of disclosure content of Japanese Patent Application No. 2007-176039]
Hereinafter, as a reference, a part of the disclosure content of Japanese Patent Application No. 2007-176039 (some portions of the application content are not as they are) is shown. The following contents are mainly the coordinate conversion between the video viewed from the camera and the actual video (what is shown in the video), and the setting of the user's area, etc. (for example, lines and dots in this embodiment). It is a matter regarding. It can be used for the present invention as needed.
It should be noted that the following description is a reference, and the content of the present invention is considered to be sufficiently understood and implemented by the above description, but the following content may be referred to if necessary. Good.

まず、技術思想の概念(1)〜(3)を示す。
(1)画像を処理する画像処理装置において、撮像装置(例えば、カメラ)による撮像時の座標系である第1の座標系(この例では、カメラ座標系と言う)の画像が当該撮像装置の配置に基づいて基準となる平面上に設けられた第2の座標系(この例では、シーン座標系と言う)の画像へ変換された当該画像(第2の座標系の画像)を表示する表示手段と、前記表示手段により表示された画像に関する設定情報をユーザから受け付ける受付手段と、前記受付手段により受け付けられた設定情報を第2の座標系の情報から撮像装置の配置によらない基準となる平面上に設けられた第3の座標系(この例では、ワールド座標系と言う)の情報へ変換する座標系変換手段と、を備えたことを特徴とする画像処理装置。
従って、各撮像装置の配置に応じた画像を見ることができて遠近による見かけ上の大きさの違いが無い第2の座標系の画像を見て、ユーザ(人)により設定情報を入力することにより、ユーザにとって設定情報の設定を感覚的に(例えば、視覚的に)分かり易く容易に行うことができ、また、第2の座標系の設定情報が撮像装置の配置によらない第3の座標系の設定情報へ変換されることにより、配置が異なる撮像装置においても設定情報の共有を可能とすることができる。
これにより、例えば、異なる配置を有する複数の撮像装置を用いる場合や或いは撮像装置の配置を変更するような場合においても、撮像装置により撮像される画像に対する領域などの情報の設定に要する作業の負担を低減することができる。また、撮像装置を追加する場合や、設定情報を追加或いは変更する場合などにおいても、設定情報を効率的に設定することができる。
First, the concepts (1) to (3) of the technical idea are shown.
(1) In an image processing apparatus that processes an image, an image of a first coordinate system (referred to as a camera coordinate system in this example) that is a coordinate system at the time of imaging by an imaging apparatus (for example, a camera) Display that displays the image (second coordinate system image) converted to an image of a second coordinate system (referred to as a scene coordinate system in this example) provided on a reference plane based on the arrangement Means for accepting setting information relating to the image displayed by the display means from the user, and setting information received by the accepting means becomes a reference that does not depend on the arrangement of the imaging device from the information in the second coordinate system. An image processing apparatus comprising: coordinate system conversion means for converting into information of a third coordinate system (referred to as a world coordinate system in this example) provided on a plane.
Therefore, the user (person) inputs setting information by looking at the image of the second coordinate system in which an image corresponding to the arrangement of each imaging device can be seen and there is no difference in apparent size depending on perspective. Thus, the setting information can be easily and intuitively understood (for example, visually) for the user, and the second coordinate system setting information does not depend on the arrangement of the imaging device. By converting into system setting information, it is possible to share setting information even in imaging apparatuses having different arrangements.
Thus, for example, even when a plurality of imaging devices having different arrangements are used or when the arrangement of the imaging devices is changed, the burden of work required for setting information such as an area for an image captured by the imaging device Can be reduced. In addition, the setting information can be efficiently set even when an imaging device is added, or when setting information is added or changed.

(2)前記(1)に記載の画像処理装置において、前記座標系変換手段は、所定の配置を有する一の撮像装置により撮像された画像に基づいて取得された第3の座標系の設定情報を、前記所定の配置とは異なる配置に対応した第2の座標系の情報へ変換し、当該画像処理装置は、前記座標系変換手段により変換された情報(第2の座標系の設定情報)を、前記所定の配置とは異なる配置を有する前記一の撮像装置とは異なる撮像装置又は配置が変更された前記一の撮像装置により得られる画像に関して設定する変換情報設定手段を備えた、ことを特徴とする画像処理装置。
従って、第3の座標系の設定情報を取得して、その情報を任意の配置(撮像装置の配置)に対応した第2の座標系の情報へ変換することにより、例えば、異なる配置を有する複数の撮像装置を用いる場合や或いは撮像装置の配置を変更するような場合においても、撮像装置により撮像される画像に対する領域などの情報の設定に要する作業の負担を低減することができる。
(2) In the image processing apparatus according to (1), the coordinate system conversion unit is a setting information of a third coordinate system acquired based on an image captured by one imaging apparatus having a predetermined arrangement. Is converted into information of a second coordinate system corresponding to an arrangement different from the predetermined arrangement, and the image processing apparatus converts the information converted by the coordinate system conversion means (setting information of the second coordinate system). Conversion information setting means for setting an image obtained by an imaging device different from the one imaging device having an arrangement different from the predetermined arrangement or an image obtained by the one imaging device having a changed arrangement. A featured image processing apparatus.
Therefore, by acquiring setting information of the third coordinate system and converting the information into information of the second coordinate system corresponding to an arbitrary arrangement (arrangement of the imaging device), for example, a plurality of pieces having different arrangements Even when the image pickup apparatus is used or when the arrangement of the image pickup apparatus is changed, it is possible to reduce a burden of work required for setting information such as a region for an image picked up by the image pickup apparatus.

(3)前記(1)又は前記(2)に記載の画像処理装置において、前記画像に関する設定情報として、監視する領域を指定する情報又は検出の対象に関する情報のうちの少なくとも一方が用いられる、ことを特徴とする画像処理装置。
従って、これらの情報を、異なる配置を有する同一又は異なる撮像装置の間で共有することができる。
なお、検出の対象に関する情報としては、種々な情報が用いられてもよく、例えば、対象の大きさや幅や高さや長さなどに関する閾値の情報を用いることができる。一例として、対象の大きさ等がその閾値以上である場合(又は、その閾値以下や、ある範囲(範囲を表す閾値)内などでもよい)に、その対象を検出するような処理を行うことができる。
(3) In the image processing apparatus according to (1) or (2), at least one of information specifying a region to be monitored and information regarding a detection target is used as the setting information regarding the image. An image processing apparatus.
Therefore, these pieces of information can be shared between the same or different imaging devices having different arrangements.
Note that various types of information may be used as the information regarding the detection target. For example, threshold information regarding the size, width, height, length, and the like of the target may be used. As an example, when the size or the like of the target is equal to or greater than the threshold (or may be equal to or smaller than the threshold or within a certain range (threshold indicating the range)), a process for detecting the target may be performed. it can.

ここで、撮像時の座標系である第1の座標系(カメラ座標系)としては、例えば、撮像装置(例えば、カメラ)の視点で見た座標系が用いられる。
また、基準となる平面上に設けられた第2の座標系(シーン座標系)としては、例えば、地面の平面を基準となる平面として、当該平面(地面)に対して真上から見た座標系が用いられる。第2の座標系は、撮像装置の配置に依存して異なり得る。
また、基準となる平面上に設けられた第3の座標系(ワールド座標系)としては、例えば、地面の平面を基準となる平面として、当該平面(地面)に対して真上から見た座標系が用いられる。第3の座標系は、撮像装置の配置に依存せずに一定である。
Here, as a first coordinate system (camera coordinate system) that is a coordinate system at the time of imaging, for example, a coordinate system viewed from the viewpoint of an imaging device (for example, a camera) is used.
Further, as the second coordinate system (scene coordinate system) provided on the reference plane, for example, the ground plane is used as a reference plane, and the coordinates viewed from directly above the plane (ground) are used. A system is used. The second coordinate system may be different depending on the arrangement of the imaging device.
In addition, as a third coordinate system (world coordinate system) provided on the reference plane, for example, the ground plane is used as a reference plane, and coordinates viewed from directly above the plane (ground) are used. A system is used. The third coordinate system is constant without depending on the arrangement of the imaging device.

なお、基準となる平面の座標系(第2の座標系や第3の座標系)は、例えば、予めユーザにより設定されて、画像処理装置のメモリに記憶されている。基準となる平面としては、一例として、地面を真上から見た当該地面の平面が用いられるが、地面は完全には平らではないことや、必ずしも完全に地面の平面にしなくてもよい場合もあることなどから、実用上で有効な程度で、ずれがあってもよい。
具体例として、第2の座標系は、撮像装置毎に、設置位置を原点として、高さ方向をz軸として、初期的な視点方向(或いは、雲台の方向などのように所定の方向)に応じて予め決められた直交するx軸及びy軸から構成され、また、第3の座標系は、高さ方向をZ軸として、予め決められた直交するX軸及びY軸から構成される。
Note that the reference plane coordinate system (second coordinate system or third coordinate system) is set in advance by the user and stored in the memory of the image processing apparatus, for example. As a reference plane, for example, the ground plane viewed from directly above the ground is used. However, the ground plane is not completely flat or may not necessarily be completely ground plane. For some reasons, there may be a deviation in a practically effective level.
As a specific example, the second coordinate system is an initial viewpoint direction (or a predetermined direction such as a pan head direction) with the installation position as the origin and the height direction as the z-axis for each imaging device. The third coordinate system is composed of a predetermined orthogonal X-axis and Y-axis with the height direction as the Z-axis. .

また、第1の座標系(カメラ座標系)と第2の座標系(シーン座標系)との座標変換は、例えば、撮像装置(例えば、カメラ)の設置状況や撮像状況に応じたパラメータを用いて行うことができる。
また、第2の座標系(シーン座標系)と第3の座標系(ワールド座標系)とは、例えば、同一の基準となる平面上に設けられるため、これらの座標変換は、回転や平行移動により行うことができる。具体的には、第2の座標系の原点と第3の座標系の原点との差異(位置の差異)を補正するために平行移動し、第2の座標系の平面上の座標軸(例えば、直交するx軸及びy軸)と第3の座標系の平面上の座標軸との差異(角度の差異)を補正するために回転する。なお、第2の座標系と第3の座標系とで、基準となる平面が異なっていて平行である(つまり、高さ方向のみ異なる)場合には、高さ方向の移動の処理を加えて、これらの座標変換を行うことができる。
また、必要に応じて、第1の座標系と第3の座標系との間で直接的に座標変換が行われてもよい。
The coordinate conversion between the first coordinate system (camera coordinate system) and the second coordinate system (scene coordinate system) uses, for example, parameters according to the installation status and imaging status of the imaging device (for example, camera). Can be done.
Further, since the second coordinate system (scene coordinate system) and the third coordinate system (world coordinate system) are provided on the same reference plane, for example, these coordinate transformations can be performed by rotation or parallel movement. Can be performed. Specifically, in order to correct the difference (positional difference) between the origin of the second coordinate system and the origin of the third coordinate system, the coordinate axis on the plane of the second coordinate system (for example, In order to correct the difference (angle difference) between the coordinate axes on the plane of the third coordinate system and the orthogonal coordinate axes x and y). When the second coordinate system and the third coordinate system have different reference planes and are parallel (that is, only the height direction is different), a process for moving in the height direction is added. These coordinate transformations can be performed.
Further, if necessary, coordinate conversion may be directly performed between the first coordinate system and the third coordinate system.

具体的には、画像処理装置では、例えば、設定された基準となる平面の座標系(第2の座標系や第3の座標系)と、設置された撮像装置(例えば、カメラ)の配置や焦点距離などに基づく座標系(第1の座標系)との間で、変換式(数式)などを用いて、直接的に或いは間接的に、互いに座標変換を行うことが可能である。
撮像装置の配置や焦点距離などの情報は、例えば、ユーザにより画像処理装置に設定されてもよく、或いは、画像処理装置が撮像装置などからの情報に基づいて(自動的に)検出してもよく、或いは、画像処理装置が撮像装置の配置や焦点距離などを制御し、その制御により実現される撮像装置の配置や焦点距離などの情報を用いてもよい。
Specifically, in the image processing apparatus, for example, the arrangement of a plane coordinate system (second coordinate system or third coordinate system) serving as a set reference and an installed imaging apparatus (for example, a camera) It is possible to perform coordinate conversion with each other directly or indirectly using a conversion formula (formula) or the like with a coordinate system (first coordinate system) based on a focal length or the like.
Information such as the arrangement and focal length of the imaging device may be set in the image processing device by a user, or may be detected (automatically) based on information from the imaging device or the like. Alternatively, the image processing apparatus may control the arrangement and focal length of the imaging device, and information such as the arrangement and focal length of the imaging device realized by the control may be used.

また、ユーザにより入力される情報を受け付ける態様としては、例えば、画面に表示された第2の座標系(或いは、他の構成例として、他の座標系)の画像を見ながらユーザが操作部を操作して情報を入力することができるような態様や、ユーザから受け付けた例えば領域や大きさや長さや数値などの情報をその画面上に表示するような態様を用いることにより、ユーザにとって利便性を高めることが可能である。   In addition, as an aspect of receiving information input by the user, for example, the user can operate the operation unit while viewing an image of the second coordinate system (or another coordinate system as another configuration example) displayed on the screen. By using a mode in which information can be input by operating, or a mode in which information such as area, size, length, and numerical values received from the user is displayed on the screen, convenience is provided to the user. It is possible to increase.

次に、具体例を示しておく。なお、監視装置は、例えば、画像処理装置を構成する装置となる。
図7(a)〜図7(f)を参照して、領域設定処理(なお、ラインや点の設定処理などにも適用可能である)の流れを説明する。
図7(a)には、画像入力処理ステップにおいて第1の撮像装置により撮像された入力画像1121の一例を示してある。また、多角形の監視領域(点線)1122の一例を示してある。
図7(b)には、画像入力処理ステップにおいて第2の撮像装置により撮像された入力画像1131の一例を示してある。また、多角形の監視領域(点線)1132の一例を示してある。
図7(c)には、画像入力処理ステップにおいて第3の撮像装置により撮像された入力画像1141の一例を示してある。また、多角形の監視領域(点線)1142の一例を示してある。
Next, a specific example will be shown. Note that the monitoring device is, for example, a device constituting the image processing device.
With reference to FIGS. 7A to 7F, the flow of region setting processing (which can also be applied to line and point setting processing, etc.) will be described.
FIG. 7A shows an example of the input image 1121 captured by the first imaging device in the image input processing step. An example of a polygonal monitoring area (dotted line) 1122 is shown.
FIG. 7B shows an example of an input image 1131 captured by the second imaging device in the image input processing step. An example of a polygonal monitoring area (dotted line) 1132 is shown.
FIG. 7C shows an example of the input image 1141 captured by the third imaging device in the image input processing step. An example of a polygonal monitoring area (dotted line) 1142 is shown.

図7(d)には、第1の監視装置について、第1の撮像装置の位置や撮像角度や焦点距離などの情報に基づいて、入力画像1121を撮像装置が設置された地面に対して平行な平面に投影したシーン座標系のシーン画像1151の一例を示してある。また、監視領域(点線)1152の一例を示してある。
図7(e)には、第2の監視装置について、第2の撮像装置の位置や撮像角度や焦点距離などの情報に基づいて、入力画像1131を撮像装置が設置された地面に対して平行な平面に投影したシーン座標系のシーン画像1161の一例を示してある。
図7(f)には、第3の監視装置について、第3の撮像装置の位置や撮像角度や焦点距離などの情報に基づいて、入力画像1141を撮像装置が設置された地面に対して平行な平面に投影したシーン座標系のシーン画像1171の一例を示してある。
In FIG. 7D, the input image 1121 is parallel to the ground on which the imaging device is installed, based on information such as the position of the first imaging device, the imaging angle, and the focal length of the first monitoring device. An example of a scene image 1151 of a scene coordinate system projected on a simple plane is shown. An example of the monitoring area (dotted line) 1152 is shown.
In FIG. 7E, the input image 1131 is parallel to the ground on which the imaging device is installed, based on information such as the position of the second imaging device, the imaging angle, and the focal length of the second monitoring device. An example of a scene image 1161 of a scene coordinate system projected on a simple plane is shown.
In FIG. 7F, for the third monitoring device, the input image 1141 is parallel to the ground on which the imaging device is installed based on information such as the position, imaging angle, and focal length of the third imaging device. An example of a scene image 1171 of a scene coordinate system projected on a simple plane is shown.

本例では、領域設定処理は、最初に、各撮像装置の位置や撮像角度などによって座標軸が異なるカメラ座標系で表現される入力画像1121、1131、1141を、各撮像装置の位置や撮像角度などに依存するシーン座標系で表現されたシーン画像1151、1161、1171へ変換し、そして、シーン座標系上に表現されたシーン画像(例えば、シーン画像1151)上で所望する監視領域1152を設定することで実現する。この場合、各撮像装置毎に、その位置や撮像角度に応じて見える画像を用いて、監視領域を設定することができるため、人にとって監視領域の設定が感覚的に分かり易く容易となり、また、遠近による見かけ上の大きさの違いも無く設定を行い易い。なお、この場合、監視領域の設定作業は、例えば、表示装置の画面に表示されたシーン座標系のシーン画像を人が見ながら行われる。
また、この場合、シーン座標系で設定された領域情報は、ワールド座標系の情報へ変換されて記憶される。
In this example, in the region setting process, first, input images 1121, 1131, and 1141 expressed in a camera coordinate system having different coordinate axes depending on the position and imaging angle of each imaging device are used. Are converted into scene images 1151, 1161, and 1171 expressed in the scene coordinate system depending on the image, and a desired monitoring area 1152 is set on the scene image (for example, the scene image 1151) expressed on the scene coordinate system. It will be realized. In this case, for each imaging device, the monitoring area can be set using an image that can be seen according to its position and imaging angle. There is no difference in the apparent size due to perspective, making it easy to set. In this case, the monitoring area setting operation is performed, for example, while a person watches a scene image of the scene coordinate system displayed on the screen of the display device.
In this case, the area information set in the scene coordinate system is converted into information in the world coordinate system and stored.

他の例として、領域設定処理は、最初に、各撮像装置の位置や撮像角度などによって座標軸が異なるカメラ座標系で表現される入力画像1121、1131、1141を、各撮像装置の位置や撮像角度などに依存せずに常に座標軸が一定となるワールド座標系で表現できるシーン画像(シーン画像1151、1161、1171に対応するもの)へ変換し、そして、ワールド座標系上に表現したシーン画像(例えば、シーン画像1151に対応するもの)上で所望する監視領域(監視領域1152に対応するもの)を設定することで実現する。なお、この場合、監視領域の設定作業は、例えば、表示装置の画面に表示されたワールド座標系のシーン画像を人が見ながら行われる。   As another example, in the region setting process, first, input images 1121, 1131, and 1141 expressed in a camera coordinate system having different coordinate axes depending on the position and imaging angle of each imaging device are used. The scene image can be expressed in the world coordinate system (corresponding to the scene images 1151, 1161, 1171) which is always constant without depending on the coordinate axis, and the scene image expressed on the world coordinate system (for example, This is realized by setting a desired monitoring area (corresponding to the monitoring area 1152) on the scene image 1151). In this case, the monitoring area setting operation is performed, for example, while a person watches a scene image of the world coordinate system displayed on the screen of the display device.

ここで、どのような条件で撮像された入力画像についても、シーン座標系又はワールド座標系のシーン画像へ変換すれば全て同一のワールド座標系で表現することが可能であるため、シーン座標系上又はワールド座標系上で設定した監視領域(例えば、監視領域1152に対応するもの)を、同じ領域を一部分でも撮像する全ての監視装置に対して適用することができる利点がある。   Here, any input image captured under any conditions can be expressed in the same world coordinate system if converted to a scene image in the scene coordinate system or the world coordinate system. Alternatively, there is an advantage that a monitoring area set on the world coordinate system (for example, one corresponding to the monitoring area 1152) can be applied to all monitoring apparatuses that capture even a part of the same area.

次に、カメラ座標系の座標とワールド座標系の座標との間の変換処理方法の一例を示す。本例では、この変換処理は、例えば、画像処理プロセッサ(CPUなどでもよい)により行われる。
なお、本例では、カメラ座標系からワールド座標系への直接的な座標変換は場合によっては計算が複雑となることや、シーン座標系が領域などの設定に役立つことなどから、最初に、ワールド座標系を回転や並行移動した座標系であって撮像装置21の鉛直下向きベクトルと地面との交点を原点とするシーン座標系へカメラ座標系から変換し、その後に、シーン座標系からワールド座標系へ変換する処理を示す。
つまり、本例では、カメラ座標系とシーン座標系との変換や、シーン座標系とワールド座標系との変換を行う。
Next, an example of a conversion processing method between the coordinates of the camera coordinate system and the coordinates of the world coordinate system will be described. In this example, this conversion process is performed by, for example, an image processing processor (CPU or the like).
In this example, the direct coordinate conversion from the camera coordinate system to the world coordinate system may be complicated in some cases, and the scene coordinate system may be useful for setting the area. A coordinate system obtained by rotating or translating the coordinate system and converting from the camera coordinate system to a scene coordinate system having the intersection of the vertically downward vector of the imaging device 21 and the ground as the origin, and then changing from the scene coordinate system to the world coordinate system The process of converting to
That is, in this example, conversion between the camera coordinate system and the scene coordinate system and conversion between the scene coordinate system and the world coordinate system are performed.

具体的には、本例では、撮像装置21により撮像されたカメラ座標系で表現される入力画像1121から、地面に対して平行な平面に投影したワールド座標系で表現することが可能なシーン画像(シーン画像1151に対応するもの)への変換処理について説明する。なお、この変換の逆変換を行うことで、ワールド座標系の座標からカメラ座標系の座標へ変換することもできる。
本例では、カメラ座標系の入力画像1121からシーン画像1151への変換はカメラ座標系からシーン座標系への座標変換により行う。また、シーン座標系はワールド座標系を単純に回転や平行移動した直交座標系であるため、シーン画像1151は、その回転や平行移動の逆変換を行うことにより、ワールド座標系上で表現することができる。
Specifically, in this example, a scene image that can be expressed in a world coordinate system projected on a plane parallel to the ground from an input image 1121 expressed in a camera coordinate system imaged by the imaging device 21. The conversion process to (corresponding to the scene image 1151) will be described. In addition, it is also possible to convert from the coordinates of the world coordinate system to the coordinates of the camera coordinate system by performing inverse conversion of this conversion.
In this example, conversion from the input image 1121 in the camera coordinate system to the scene image 1151 is performed by coordinate conversion from the camera coordinate system to the scene coordinate system. Further, since the scene coordinate system is an orthogonal coordinate system obtained by simply rotating or translating the world coordinate system, the scene image 1151 can be expressed on the world coordinate system by performing inverse transformation of the rotation or translation. Can do.

図8(a)には、地面に対して水平な方向で(真横から)撮像装置21を見た場合の様子の一例を示してある。
図8(b)には、地面に対して垂直な方向で(真上から)撮像装置21を見た場合の様子の一例を示してある。
図8(a)及び図8(b)は、シーン座標系で表現されている。本例では、シーン座標系は、原点Oを撮像装置21の鉛直下向き(z方向)で基準となる平面(地面)と交差する点として、地面の平面上にx軸及びy軸を取り、高さ方向にz軸を取る直交座標系である。また、撮像装置21が向いている視線方向(光軸方向)にr軸を設けてある。
FIG. 8A shows an example of a state when the imaging device 21 is viewed in a direction horizontal to the ground (from the side).
FIG. 8B shows an example of a state when the imaging device 21 is viewed in a direction perpendicular to the ground (from directly above).
8A and 8B are expressed in the scene coordinate system. In this example, the scene coordinate system takes the x-axis and the y-axis on the ground plane as the point where the origin O intersects the reference plane (ground) vertically downward (z direction) of the imaging device 21, It is an orthogonal coordinate system taking the z axis in the vertical direction. In addition, an r-axis is provided in the line-of-sight direction (optical axis direction) in which the imaging device 21 faces.

本例では、撮像装置21の設置の高さをHで表しており、撮像装置21の俯角をθで表しており、撮像装置21の縦方向の視野角をθで表している。
また、撮像装置21の横方向の視野角をθで表している。なお、撮像装置21の縦方向の視野角θは、撮像装置21の横方向の視野角θから撮像素子のアスペクト比(縦横比)によって算出することができる。
また、撮像装置21により撮像される画像の視野の中で、撮像装置21から最も近い所までの水平距離をLで表しており、撮像装置21から最も遠い所までの水平距離をLで表している。
In this example, represents the height of installation of the imaging device 21 are expressed on H, the depression angle of the imaging device 21 are expressed on theta T, the viewing angle in the vertical direction of the image pickup device 21 in theta V.
Also, it represents the viewing angle in the lateral direction of the image pickup device 21 in theta H. Incidentally, the viewing angle theta V in the vertical direction of the image pickup apparatus 21 can be calculated by the aspect ratio of the image pickup device (aspect ratio) from the viewing angle theta H in the lateral direction of the image pickup device 21.
Further, in the field of view of the image captured by the imaging device 21, the horizontal distance from the imaging device 21 to the nearest place is represented by LN , and the horizontal distance from the imaging device 21 to the farthest place is represented by LF . Represents.

まず、例えば、撮像装置21の位置や方向を変更するための電動台座(カメラ雲台)の現在の方向(例えば、雲台の正面を原点として、パン角θ、チルト角θ)を取得し、撮像装置21の撮像レンズの現在の焦点距離fを取得する。これらの取得した情報に基づいて、撮像範囲の位置を算出する。
撮像範囲の位置の算出方法を示す。本例では、説明を簡易化するために、監視対象領域は平面であり、地面の凹凸が無いとする。
撮像装置21の横方向の視野角である画角θは(式1)により求められる。
First, for example, the current direction of the electric pedestal (camera head) for changing the position and direction of the imaging device 21 (for example, the pan angle θ P and the tilt angle θ T with the front of the head as the origin) is acquired. The current focal length f of the imaging lens of the imaging device 21 is acquired. Based on the acquired information, the position of the imaging range is calculated.
A method for calculating the position of the imaging range will be described. In this example, in order to simplify the description, it is assumed that the monitoring target area is a plane and has no unevenness on the ground.
The angle of view θ H that is the viewing angle in the horizontal direction of the imaging device 21 is obtained by (Equation 1).

Figure 2010128727
Figure 2010128727

ここで、wは、撮像装置21の撮像素子である例えばCCD素子の横幅であり、一例として、1/3インチ(素子サイズ4.8mm×3.6mm)の撮像素子を使用した場合には、w=4.8mmである。また、1/3インチの撮像素子を使用して、撮像レンズの焦点距離をf=8.00mmとした場合には、撮像装置21の画角は、θ=33.4°となる。すなわち、撮像装置21の視野は横方向に33.4°の範囲を有する。 Here, w is the horizontal width of, for example, a CCD element that is an image pickup element of the image pickup device 21. As an example, when an image pickup element of 1/3 inch (element size 4.8 mm × 3.6 mm) is used, w = 4.8 mm. When a 1/3 inch imaging device is used and the focal length of the imaging lens is f = 8.00 mm, the angle of view of the imaging device 21 is θ H = 33.4 °. In other words, the field of view of the imaging device 21 has a range of 33.4 ° in the lateral direction.

通常、撮像装置21は、監視対象領域と比べて、高い位置に設置される場合が多い。このため、雲台の現在の方向θに応じて、撮像装置21の真下の領域には撮像することができない領域が発生する。この領域は、撮像装置21から視線方向Lの範囲に現れる。それ以上の所定の領域(距離Lと距離Lとの間の領域)は、撮像装置21の視野に入る。
これらの距離L、Lについて説明する。
撮像装置21の縦方向の視野角である画角θは(式2)により求められる。
Usually, the imaging device 21 is often installed at a higher position than the monitoring target area. Therefore, depending on the current direction theta T of the camera platform, in the area beneath the imaging device 21 is a region that can not occur be imaged. This region appears in the range of the line-of-sight direction LN from the imaging device 21. A predetermined region beyond that (the region between the distance L N and the distance L F ) enters the field of view of the imaging device 21.
The distances L N and L F will be described.
The angle of view θ V that is the viewing angle in the vertical direction of the imaging device 21 is obtained by (Expression 2).

Figure 2010128727
Figure 2010128727

ここで、hは、撮像装置21の撮像素子である例えばCCD素子の縦幅であり、一例として、1/3インチの撮像素子を使用した場合には、h=3.6mmである。また、1/3インチの撮像素子を使用して、撮像レンズの焦点距離をf=8.00mmとした場合には、撮像装置21の画角は、θ=25.4°となる。すなわち、撮像装置21の視野は、縦方向に25.4°の範囲を有する。
距離L及び距離Lは、(式3)により求められる。
Here, h is the vertical width of, for example, a CCD element, which is an image pickup element of the image pickup device 21. For example, when a 1/3 inch image pickup element is used, h = 3.6 mm. In addition, when a 1/3 inch imaging device is used and the focal length of the imaging lens is f = 8.00 mm, the angle of view of the imaging device 21 is θ V = 25.4 °. That is, the field of view of the imaging device 21 has a range of 25.4 ° in the vertical direction.
The distance L N and the distance L F are obtained by (Equation 3).

Figure 2010128727
Figure 2010128727

この結果、撮像装置21により撮像することができる範囲は、図8(a)に示される撮像装置21と距離Lの点と距離Lの点で囲まれる三角形の領域の内部と、図8(b)に示される点P1、P2、P3、P4で囲まれる台形の領域の内部となる。
一例として、1/3インチの撮像素子を使用して、撮像レンズの焦点距離をf=8.00mmとし、雲台の現在の方向をθ=30°とし、撮像装置21の設置高をH=5.0mとした場合には、L=5.42m、L=16.1mとなる。
As a result, a range that can be imaged by the imaging device 21, and the internal region of the triangle surrounded by the terms of the point and the distance L F of the imaging device 21 and the distance L N shown in FIG. 8 (a), 8 The inside of the trapezoidal region surrounded by the points P1, P2, P3, and P4 shown in (b).
As an example, using a 1/3 inch imaging device, the focal length of the imaging lens is f = 8.00 mm, the current direction of the camera platform is θ T = 30 °, and the installation height of the imaging device 21 is H = 5.0 m, L N = 5.42 m and L F = 16.1 m.

上述のように、撮像装置21の視野範囲の位置は、(式1)〜(式3)により演算される。
この結果に基づいて、視野範囲に含まれるカメラ座標系の画像上の各位置(x’、y’)をシーン座標系の(x、y)座標へ変換することができる。
例えば、画像上(x’、y’)で表される画素が図8(a)における点Cの位置を撮像したものである場合、入力画像1121の縦方向の画素数を480画素とすると、点Cを撮像する俯角θは(式4)により表される。
As described above, the position of the field-of-view range of the imaging device 21 is calculated by (Expression 1) to (Expression 3).
Based on this result, each position (x ′, y ′) on the image of the camera coordinate system included in the visual field range can be converted to the (x, y) coordinate of the scene coordinate system.
For example, when the pixel represented by (x ′, y ′) on the image is an image of the position of the point C in FIG. 8A, if the number of pixels in the vertical direction of the input image 1121 is 480 pixels, The depression angle θ y for imaging the point C is expressed by (Equation 4).

Figure 2010128727
Figure 2010128727

また、カメラ座標における画素(x’、y’)が、例えば、図8(b)における点Dの位置(空間的な位置は図8(a)における点Cの位置と同じもの)を撮像したものである場合、入力画像1121の横方向の画素数を640とすると、点Dを撮像する回転角θは(式5)により表される。 In addition, the pixel (x ′, y ′) in the camera coordinates images, for example, the position of the point D in FIG. 8B (the spatial position is the same as the position of the point C in FIG. 8A). If the input image 1121 has a horizontal pixel count of 640, the rotation angle θ x at which the point D is imaged is represented by (Equation 5).

Figure 2010128727
Figure 2010128727

ここで、θは、撮像装置21のパン角であり、本例では、x軸と撮像装置21の光軸とのなす角を示す。従って、カメラ座標系の入力画像1121上の(x’、y’)で表される任意の位置の画素は、シーン座標系のシーン画像1151の座標(x、y)として、(式6)により求められる。 Here, θ P is the pan angle of the imaging device 21, and in this example, indicates the angle formed by the x axis and the optical axis of the imaging device 21. Therefore, a pixel at an arbitrary position represented by (x ′, y ′) on the input image 1121 in the camera coordinate system is expressed as (x, y) in the scene image 1151 in the scene coordinate system according to (Expression 6). Desired.

Figure 2010128727
Figure 2010128727

すなわち、シーン画像1151は、入力画像1121を(式1)〜(式6)に従って座標変換することで得られる。なお、視野範囲の位置の座標は、撮像装置21のパンやチルトやズームにより変化し得る。また、シーン座標系に変換した画像は、(式4)〜(式6)で表される変換の逆変換を行うことで、カメラ座標系に戻すことができる。
ここでは、第1の撮像装置(撮像装置21)について説明したが、他の撮像装置により撮影されたカメラ座標における入力画像1131、1141についても、(式1)〜(式6)と同様な座標変換を行うことで、シーン座標系上で表現されるシーン画像1161、1171へ変換することができる。
That is, the scene image 1151 is obtained by performing coordinate conversion of the input image 1121 according to (Expression 1) to (Expression 6). Note that the coordinates of the position of the visual field range can be changed by panning, tilting, or zooming of the imaging device 21. Further, the image converted into the scene coordinate system can be returned to the camera coordinate system by performing inverse conversion of the conversion expressed by (Expression 4) to (Expression 6).
Here, the first imaging device (imaging device 21) has been described, but the same coordinates as in (Equation 1) to (Equation 6) also apply to input images 1131 and 1141 in camera coordinates taken by other imaging devices. By performing the conversion, the image can be converted into scene images 1161 and 1171 expressed on the scene coordinate system.

ここで、上述した座標変換法で得られるシーン座標系は、各撮像装置の位置からの鉛直方向と地面との交点に原点を取る座標系であるため、それぞれのシーン画像1151、1161、1171の座標系は異なる。
このため、全ての監視装置(全ての撮像装置)から得られたシーン画像1151、1161、1171を統一された座標系で見るためには、各シーン座標系から唯一の座標系であるワールド座標系への座標変換が必要となる。
Here, since the scene coordinate system obtained by the coordinate transformation method described above is a coordinate system having an origin at the intersection of the vertical direction from the position of each imaging device and the ground, each scene image 1151, 1161, 1171 The coordinate system is different.
For this reason, in order to view the scene images 1151, 1161, 1171 obtained from all the monitoring devices (all the imaging devices) in a unified coordinate system, the world coordinate system which is the only coordinate system from each scene coordinate system. Coordinate conversion to is required.

例えば、ワールド座標系が、その原点Oに対して、地面の平面上から鉛直上向きにz軸を取り、地面の平面上にx軸及びy軸を取る直交座標系であるとすると、各シーン座標系が地面の平面上にx軸及びy軸を取って各撮像装置の鉛直方向にz軸を取る直交座標系であることから、各シーン座標系はワールド座標系を回転や平行移動した座標系となる。このため、各シーン座標系の座標(x、y、z)は、ワールド座標系上におけるシーン座標系の原点O’の位置ベクトルをOO’=(q、qとし、ワールド座標系とシーン座標系との回転角をθとすると、ワールド座標系の座標(x、y、z)としては(式7)により表現される。 For example, suppose that the world coordinate system is an orthogonal coordinate system that takes the z w axis vertically upward from the ground plane and the x w axis and the y w axis on the ground plane with respect to the origin O w . Since each scene coordinate system is an orthogonal coordinate system that takes the x-axis and y-axis on the ground plane and takes the z-axis in the vertical direction of each imaging device, each scene coordinate system rotates or parallels the world coordinate system. It becomes the moved coordinate system. For this reason, the coordinates (x, y, z) of each scene coordinate system are represented by the position vector of the origin O ′ of the scene coordinate system on the world coordinate system as O w O ′ = (q x , q y ) T Assuming that the rotation angle between the coordinate system and the scene coordinate system is θ, the coordinates (x w , y w , z w ) of the world coordinate system are expressed by (Expression 7).

Figure 2010128727
Figure 2010128727

(式7)により、図9(a)に示されるように、シーン画像1151をワールド座標系上で表現することができる。
図9(a)には、シーン画像1151をワールド座標系上で表現したもの(シーン画像1181)と、多角形の監視領域(点線)1182(図7(d)における監視領域1152に対応するもの)を示してある。
By (Expression 7), as shown in FIG. 9A, the scene image 1151 can be expressed on the world coordinate system.
9A shows a scene image 1151 represented on the world coordinate system (scene image 1181) and a polygonal monitoring area (dotted line) 1182 (corresponding to the monitoring area 1152 in FIG. 7D). ) Is shown.

特に、このようにして得られるワールド座標系上のシーン画像1181(及びシーン画像系上のシーン画像1151)は、監視領域の地図と相似の関係にあり、例えば、道路などは平行な線として表示される。また、画像中に写る植木の大きさや、標識の大きさなどは、実際の大きさ(例えば、メートル法による単位)に比例したものとなる。
例えば、カメラ座標系の画像を用いた従来の領域指定方法では、建物から一定距離の領域を指定するような場合に、画像上の位置によって見かけの大きさが異なってしまう問題があったが、本例のように、(各撮像装置毎に個別のシーン座標系における、又は、全ての撮像装置に共通なワールド座標系における)シーン画像を用いて領域を指定する場合には、画像上の位置によって見かけの大きさが異なる問題は発生しない。
In particular, the scene image 1181 on the world coordinate system (and the scene image 1151 on the scene image system) obtained in this way has a similar relationship with the map of the monitoring area, and for example, roads are displayed as parallel lines. Is done. In addition, the size of the plant and the size of the sign appearing in the image are proportional to the actual size (for example, metric units).
For example, in the conventional area designation method using an image of the camera coordinate system, there is a problem that the apparent size differs depending on the position on the image when an area of a certain distance from the building is designated. When specifying an area using a scene image (in an individual scene coordinate system for each imaging device or in a world coordinate system common to all imaging devices) as in this example, the position on the image The problem of different apparent sizes does not occur.

次に、以上で述べた各手法によって、シーン座標(或いは、ワールド座標でもよい)を用いて監視領域を設定する方法及び監視装置間で監視領域の情報を共有する方法について説明する。
監視領域の設定や共有を行うために、まず、各監視装置において撮像した入力画像1121、1131、1141を、(式1)〜(式6)によって、それぞれ、シーン座標系のシーン画像1151、1161、1171へ変換する。次に、例えば1つの監視装置において、入力装置を用いて、そのシーン座標系のシーン画像1151上で監視を所望する領域を例えば多角形1152で設定する。そして、(式7)により、各シーン座標系のシーン画像1151、1161、1171及び設定された監視領域1152の座標系をワールド座標系へ変換する。
Next, a method for setting a monitoring area using scene coordinates (or world coordinates) by each method described above and a method for sharing monitoring area information between monitoring apparatuses will be described.
In order to set and share the monitoring area, first, the input images 1121, 1131, and 1141 captured by each monitoring device are converted into scene images 1151 and 1161 of the scene coordinate system by (Expression 1) to (Expression 6), respectively. , 1171. Next, for example, in one monitoring apparatus, an area desired to be monitored is set by, for example, a polygon 1152 on the scene image 1151 of the scene coordinate system using the input device. Then, according to (Expression 7), the coordinate system of the scene images 1151, 1161, 1171 and the set monitoring area 1152 of each scene coordinate system is converted into the world coordinate system.

図9(b)には、ワールド座標系上で表現した各シーン画像1191、1192、1193(それぞれシーン画像1151、1161、1171に対応するもの)及び監視領域(点線)1194(監視領域1152に対応するもの)の一例を示してある。
監視装置では、ワールド座標系で表現される監視領域1194の情報を、例えば記憶装置に保存するなどして、他の監視装置と共有できるように保持しておく。そして、監視装置は、当該監視装置上で定めた監視領域1194のワールド座標の情報を、必要に応じて、他の監視装置に対してネットワークを介して伝送する。
FIG. 9B shows scene images 1191, 1192, 1193 (corresponding to scene images 1151, 1161, 1171) and a monitoring area (dotted line) 1194 (corresponding to the monitoring area 1152) expressed on the world coordinate system. An example is shown.
In the monitoring device, information of the monitoring area 1194 expressed in the world coordinate system is stored so that it can be shared with other monitoring devices, for example, by storing it in a storage device. And the monitoring apparatus transmits the information of the world coordinate of the monitoring area | region 1194 defined on the said monitoring apparatus to another monitoring apparatus via a network as needed.

なお、本例では、例えば外部I/F回路により接続するネットワークを介して監視領域1194のワールド座標の情報を伝送する場合を示したが、他の構成例として、外部I/F回路などに接続されるCD−RAMなどの可搬な媒体を利用して伝送を行うことも可能である。   In this example, the case where the world coordinate information of the monitoring area 1194 is transmitted via a network connected by an external I / F circuit, for example, is shown. However, as another configuration example, the information is connected to an external I / F circuit or the like. It is also possible to perform transmission using a portable medium such as a CD-RAM.

次に、例えば、各監視装置に対して、入力装置などを用いて、受信された監視領域1194のワールド座標の情報に基づいて監視領域を設定するように指示を出す。これに応じて、各監視装置では、それぞれの監視装置が持つ画像処理プロセッサにより、受信された監視領域1194の情報に基づく領域設定を行う。
具体的には、監視領域1194と各シーン画像1192、1193は、ワールド座標系上では図9(b)に示されるように表現できるため、それぞれのシーン画像1192、1193と監視領域1194とが重複する領域の座標を、各監視装置における監視領域として設定する。つまり、1つの監視装置上で決定した監視領域1194(監視領域1152に対応するもの)と同等な監視領域を、他の監視装置で共有して設定することができる。また、ワールド座標系上での監視領域の設定情報をそれぞれの監視装置に対応するシーン座標系の情報やカメラ座標系の情報へ変換して設定することができる。
Next, for example, each monitoring apparatus is instructed to set a monitoring area based on the received world coordinate information of the monitoring area 1194 using an input device or the like. In response to this, each monitoring apparatus performs area setting based on the received information of the monitoring area 1194 by the image processor included in each monitoring apparatus.
Specifically, since the monitoring area 1194 and the scene images 1192 and 1193 can be expressed as shown in FIG. 9B on the world coordinate system, the respective scene images 1192 and 1193 and the monitoring area 1194 overlap. The coordinates of the area to be set are set as the monitoring area in each monitoring device. That is, a monitoring area equivalent to the monitoring area 1194 determined on one monitoring apparatus (corresponding to the monitoring area 1152) can be shared and set by other monitoring apparatuses. Further, the setting information of the monitoring area on the world coordinate system can be set by converting into the information on the scene coordinate system and the information on the camera coordinate system corresponding to each monitoring device.

例えば、従来の方法で複数台の監視装置に対して監視領域を設定する場合には、監視する全ての撮像装置により撮像された画像のそれぞれ毎に対して、マウスなどの入力装置を用いて、手動で直接的に、その監視領域を例えば図7(a)、図7(b)、図7(c)における多角形1122、1132、1142のように設定する必要があり、監視装置の数が増えるほど、領域の設定作業に時間と労力がかかっていた。
これに対して、本例の場合には、1つの監視装置によって得られたシーン座標系(或いは、ワールド座標系)のシーン画像に対して、例えば図7(d)における多角形1152のように監視領域の設定を行えば、監視装置の台数に係らず、他の全ての監視装置に対して、前記監視領域と等しい監視領域を自動的且つ瞬時に設定することが可能である。
[以上、特願2007−176039号の開示内容の一部]
For example, when setting a monitoring area for a plurality of monitoring devices by a conventional method, an input device such as a mouse is used for each of the images captured by all the imaging devices to be monitored, It is necessary to set the monitoring area directly and manually like the polygons 1122, 1132, and 1142 in FIGS. 7A, 7B, and 7C, for example. The more it took, the more time and effort it took to set the area.
On the other hand, in the case of this example, the scene image of the scene coordinate system (or the world coordinate system) obtained by one monitoring device, for example, a polygon 1152 in FIG. If the monitoring area is set, regardless of the number of monitoring apparatuses, it is possible to automatically and instantaneously set a monitoring area equal to the monitoring area for all other monitoring apparatuses.
[Part of the disclosure of Japanese Patent Application No. 2007-176039]

本発明の一実施例に係る検知条件設定方法の処理の手順の一例を示す図である。It is a figure which shows an example of the process sequence of the detection condition setting method which concerns on one Example of this invention. 本発明の一実施例に係る監視対象エリアの一例を示す図である。It is a figure which shows an example of the monitoring object area which concerns on one Example of this invention. 本発明の一実施例に係る検知条件組み合わせ設定のための画面の一例を示す図である。It is a figure which shows an example of the screen for the detection condition combination setting which concerns on one Example of this invention. 背景技術に係る検知条件設定方法の処理の手順の一例を示す図である。It is a figure which shows an example of the process sequence of the detection condition setting method which concerns on background art. 背景技術に係る監視対象エリアの一例を示す図である。It is a figure which shows an example of the monitoring object area which concerns on background art. 本発明の一実施例に係る画像処理装置の構成例を示す図である。It is a figure which shows the structural example of the image processing apparatus which concerns on one Example of this invention. (a)は第1の撮像装置により撮像される入力画像の一例を示す図であり、(b)は第2の撮像装置により撮像される入力画像の一例を示す図であり、(c)は第3の撮像装置により撮像される入力画像の一例を示す図であり、(d)は第1の監視装置によるシーン画像の一例を示す図であり、(e)は第2の監視装置によるシーン画像の一例を示す図であり、(f)は第3の監視装置によるシーン画像の一例を示す図である。(A) is a figure which shows an example of the input image imaged by the 1st imaging device, (b) is a figure which shows an example of the input image imaged by the 2nd imaging device, (c) is It is a figure which shows an example of the input image imaged by the 3rd imaging device, (d) is a figure which shows an example of the scene image by a 1st monitoring apparatus, (e) is a scene by a 2nd monitoring apparatus. It is a figure which shows an example of an image, (f) is a figure which shows an example of the scene image by a 3rd monitoring apparatus. (a)は座標変換を説明するための図であり、(b)は座標変換を説明するための図である。(A) is a figure for demonstrating coordinate transformation, (b) is a figure for demonstrating coordinate transformation. (a)は領域指定の方法を説明するための図であり、(b)は領域指定の方法を説明するための図である。(A) is a figure for demonstrating the method of area | region designation | designated, (b) is a figure for demonstrating the method of area | region designation | designated.

符号の説明Explanation of symbols

1・・画像処理装置、 11・・入力部、 12・・出力部、 13・・記憶部、 14・・制御部、
101・・監視映像、 111・・敷地外エリア、 121−1、121−2・・物体、 122−1、122−2・・物体の軌跡、 131a〜131e、132c〜132d・・点、 A1、A2・・方向検知ライン、 B1、B2−1、B2−2・・判定用方向検知ライン、 C1、C2・・検知方向(判定方向)、 Z1・・敷地内エリア(本実施例では、検知除外エリアと同一)、 Z2・・判定用検知除外エリア、
141・・画面、 151・・検知設定領域、 152・・検知条件組み合わせ設定領域、
201・・監視映像、 202・・敷地内エリア、 211・・敷地外エリア、 221−1、221−2・・物体、 222−1、222−2・・物体の軌跡、 D1、D2・・方向検知ライン、 E1、E2・・検知方向(判定方向)、
1 .. Image processing device 11.. Input section 12.. Output section 13.. Storage section 14.
101 .. surveillance video, 111 .. off-site area, 121-1, 121-2 .. object, 122-1, 122-2 .. trajectory of object, 131 a to 131 e, 132 c to 132 d .. point, A 1, A2 ... Direction detection line, B1, B2-1, B2-2 ... Determination direction detection line, C1, C2 ... Detection direction (judgment direction), Z1 ... Site area (in this example, detection exclusion) Same as the area), Z2 ...
141 .. screen, 151 .. detection setting area, 152 .. detection condition combination setting area,
201 .. surveillance video, 202 .. site area, 211 .. off-site area, 221-1, 221-2 .. object, 222-1, 222-2 .. object trajectory, D1, D2 .. direction Detection line, E1, E2, ... Detection direction (judgment direction),

Claims (1)

画像に基づいて所定の条件を満たした物体を検出する画像処理装置において、
ユーザにより行われる操作に応じて処理対象となる画像に対して第1のラインを設定する第1のライン設定手段と、
前記第1のライン設定手段により設定された第1のラインに応じてそれとは離隔した第2のラインを前記処理対象となる画像に対して設定する第2のライン設定手段と、
前記第1のライン設定手段により設定された第1のラインを横切るとともに前記第2のライン設定手段により設定された第2のラインを横切った物体を検出する物体検出手段と、
を備えたことを特徴とする画像処理装置。
In an image processing apparatus that detects an object that satisfies a predetermined condition based on an image,
First line setting means for setting a first line for an image to be processed in accordance with an operation performed by a user;
Second line setting means for setting a second line separated from the first line according to the first line set by the first line setting means for the image to be processed;
Object detecting means for detecting an object that crosses the first line set by the first line setting means and crosses the second line set by the second line setting means;
An image processing apparatus comprising:
JP2008301809A 2008-11-27 2008-11-27 Image processor Pending JP2010128727A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008301809A JP2010128727A (en) 2008-11-27 2008-11-27 Image processor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008301809A JP2010128727A (en) 2008-11-27 2008-11-27 Image processor

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2012273389A Division JP5574551B2 (en) 2012-12-14 2012-12-14 Image processing apparatus and image processing method

Publications (2)

Publication Number Publication Date
JP2010128727A true JP2010128727A (en) 2010-06-10
JP2010128727A5 JP2010128727A5 (en) 2012-01-19

Family

ID=42329082

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008301809A Pending JP2010128727A (en) 2008-11-27 2008-11-27 Image processor

Country Status (1)

Country Link
JP (1) JP2010128727A (en)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120057634A1 (en) * 2010-09-02 2012-03-08 Fang Shi Systems and Methods for Video Content Analysis
JP2012243161A (en) * 2011-05-20 2012-12-10 Canon Inc Image processing apparatus and image processing method
KR20140036637A (en) * 2012-09-17 2014-03-26 에스케이텔레콤 주식회사 Method for setting region for video surveillance, apparatus therefor
KR20140039929A (en) * 2012-09-25 2014-04-02 에스케이텔레콤 주식회사 Method for setting event rule and apparatus for monitoring event using the method
KR20140039930A (en) * 2012-09-25 2014-04-02 에스케이텔레콤 주식회사 Method for setting event rule according to interested boundary and apparatus for monitoring event using the method
JP2014179923A (en) * 2013-03-15 2014-09-25 Canon Inc Information processing apparatus, control method and program of information processing apparatus
WO2014203403A1 (en) * 2013-06-17 2014-12-24 富士通株式会社 Image processing device, image processing method, and image processing program
JP2017108402A (en) * 2016-12-01 2017-06-15 キヤノン株式会社 Information processing device and control method for the same
JPWO2016157327A1 (en) * 2015-03-27 2018-02-15 日本電気株式会社 Video surveillance system and video surveillance method
US10410063B2 (en) 2012-06-28 2019-09-10 Canon Kabushiki Kaisha Setting apparatus and setting method
JP2020010340A (en) * 2015-03-23 2020-01-16 日本電気株式会社 Monitoring device, monitoring system, monitoring method, and program
JP7358868B2 (en) 2019-09-13 2023-10-11 株式会社リコー Communication terminal, communication system, location management method, and program
JP7378223B2 (en) 2018-08-07 2023-11-13 キヤノン株式会社 Detection device and its control method

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0950585A (en) * 1995-08-07 1997-02-18 Hitachi Ltd Intruder monitoring device
JP2007233919A (en) * 2006-03-03 2007-09-13 Meidensha Corp Intruder detection apparatus by imaging processing
JP2008123186A (en) * 2006-10-17 2008-05-29 Chuo Electronics Co Ltd Trespasser detecting apparatus and trespasser recording system using the same

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0950585A (en) * 1995-08-07 1997-02-18 Hitachi Ltd Intruder monitoring device
JP2007233919A (en) * 2006-03-03 2007-09-13 Meidensha Corp Intruder detection apparatus by imaging processing
JP2008123186A (en) * 2006-10-17 2008-05-29 Chuo Electronics Co Ltd Trespasser detecting apparatus and trespasser recording system using the same

Cited By (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9609348B2 (en) 2010-09-02 2017-03-28 Intersil Americas LLC Systems and methods for video content analysis
US20120057634A1 (en) * 2010-09-02 2012-03-08 Fang Shi Systems and Methods for Video Content Analysis
US20120057640A1 (en) * 2010-09-02 2012-03-08 Fang Shi Video Analytics for Security Systems and Methods
US8824554B2 (en) * 2010-09-02 2014-09-02 Intersil Americas LLC Systems and methods for video content analysis
US20140369417A1 (en) * 2010-09-02 2014-12-18 Intersil Americas LLC Systems and methods for video content analysis
US9514541B2 (en) 2011-05-20 2016-12-06 Canon Kabushiki Kaisha Image processing apparatus and image processing method
JP2012243161A (en) * 2011-05-20 2012-12-10 Canon Inc Image processing apparatus and image processing method
US10410063B2 (en) 2012-06-28 2019-09-10 Canon Kabushiki Kaisha Setting apparatus and setting method
KR20140036637A (en) * 2012-09-17 2014-03-26 에스케이텔레콤 주식회사 Method for setting region for video surveillance, apparatus therefor
KR101924336B1 (en) * 2012-09-17 2018-12-03 에스케이 텔레콤주식회사 Method for Setting Region for Video Surveillance, Apparatus Therefor
KR20140039929A (en) * 2012-09-25 2014-04-02 에스케이텔레콤 주식회사 Method for setting event rule and apparatus for monitoring event using the method
KR101970129B1 (en) * 2012-09-25 2019-08-13 에스케이 텔레콤주식회사 Method for Setting Event Rule and Apparatus for Monitoring Event Using The Method
KR20140039930A (en) * 2012-09-25 2014-04-02 에스케이텔레콤 주식회사 Method for setting event rule according to interested boundary and apparatus for monitoring event using the method
KR101960741B1 (en) * 2012-09-25 2019-03-21 에스케이 텔레콤주식회사 Method for Setting Event Rule According to Interested Boundary and Apparatus for Monitoring Event Using The Method
JP2014179923A (en) * 2013-03-15 2014-09-25 Canon Inc Information processing apparatus, control method and program of information processing apparatus
JPWO2014203403A1 (en) * 2013-06-17 2017-02-23 富士通株式会社 Image processing apparatus, image processing method, and image processing program
WO2014203403A1 (en) * 2013-06-17 2014-12-24 富士通株式会社 Image processing device, image processing method, and image processing program
JP2020010340A (en) * 2015-03-23 2020-01-16 日本電気株式会社 Monitoring device, monitoring system, monitoring method, and program
US10957052B2 (en) 2015-03-23 2021-03-23 Nec Corporation Monitoring apparatus, monitoring system, monitoring method, and computer-readable storage medium
JPWO2016157327A1 (en) * 2015-03-27 2018-02-15 日本電気株式会社 Video surveillance system and video surveillance method
US11019268B2 (en) 2015-03-27 2021-05-25 Nec Corporation Video surveillance system and video surveillance method
US11228715B2 (en) 2015-03-27 2022-01-18 Nec Corporation Video surveillance system and video surveillance method
JP2017108402A (en) * 2016-12-01 2017-06-15 キヤノン株式会社 Information processing device and control method for the same
JP7378223B2 (en) 2018-08-07 2023-11-13 キヤノン株式会社 Detection device and its control method
JP7358868B2 (en) 2019-09-13 2023-10-11 株式会社リコー Communication terminal, communication system, location management method, and program

Similar Documents

Publication Publication Date Title
JP2010128727A (en) Image processor
US11373408B2 (en) Image processing apparatus, monitoring system, image processing method, and program
US10061486B2 (en) Area monitoring system implementing a virtual environment
JP6741009B2 (en) Monitoring information generation device, shooting direction estimation device, monitoring information generation method, shooting direction estimation method, and program
CN108347657B (en) Method and device for displaying bullet screen information
US20160210785A1 (en) Augmented reality system and method for positioning and mapping
JP4976939B2 (en) Image processing device
CN111526328B (en) Video monitoring inspection method, device, terminal and storage medium
JP5574551B2 (en) Image processing apparatus and image processing method
TW201539385A (en) Intrusion detection with directional sensing
US20180020203A1 (en) Information processing apparatus, method for panoramic image display, and non-transitory computer-readable storage medium
JP2009105802A (en) Camera installation simulator program
JP2023041931A (en) Evaluation device, evaluation method, and program
US20180278914A1 (en) Image generation system and image generation method
KR20110088995A (en) Method and system to visualize surveillance camera videos within 3d models, and program recording medium
JP6299602B2 (en) Information processing apparatus, information processing method, program, and information processing system
US10489921B2 (en) Behavior analysis apparatus and behavior analysis method
US20220180592A1 (en) Collaborative Augmented Reality Measurement Systems and Methods
US20160205379A1 (en) Remote Monitoring System and Monitoring Method
JP7467107B2 (en) Image processing device, image processing method, and program
JP6581280B1 (en) Monitoring device, monitoring system, monitoring method, monitoring program
WO2020234912A1 (en) Mobile device, position display method, and position display program
JP2012058353A (en) Image display device and control method thereof
US20180135996A1 (en) Navigation system and navigation method
JP6620846B2 (en) 3D intrusion detection system and 3D intrusion detection method

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20101128

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20110509

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111118

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111118

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121017

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121023

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20130312