JP2020065218A - Image processing program, image processing apparatus, image processing system, and image processing method - Google Patents

Image processing program, image processing apparatus, image processing system, and image processing method Download PDF

Info

Publication number
JP2020065218A
JP2020065218A JP2018197218A JP2018197218A JP2020065218A JP 2020065218 A JP2020065218 A JP 2020065218A JP 2018197218 A JP2018197218 A JP 2018197218A JP 2018197218 A JP2018197218 A JP 2018197218A JP 2020065218 A JP2020065218 A JP 2020065218A
Authority
JP
Japan
Prior art keywords
image
angle
image processing
detection area
view
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018197218A
Other languages
Japanese (ja)
Other versions
JP6647367B1 (en
Inventor
川村 誠
Makoto Kawamura
誠 川村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Systems Corp
Original Assignee
Toyota Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Systems Corp filed Critical Toyota Systems Corp
Priority to JP2018197218A priority Critical patent/JP6647367B1/en
Application granted granted Critical
Publication of JP6647367B1 publication Critical patent/JP6647367B1/en
Publication of JP2020065218A publication Critical patent/JP2020065218A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Alarm Systems (AREA)

Abstract

To suppress a decrease in reliability due to false detection of an object when an image is captured by using an imaging device capable of remotely controlling the angle of view.SOLUTION: An image processing apparatus 20 acquires an image P1 from a camera 10 (S1) and sets a non-detection area A1 for the image P1 (S2). After that, the image processing apparatus 20 controls to change the angle of view of the camera 10 (S3) and acquires an image P2. The image processing apparatus 20 can calculate a non-detection area A2 after changing the angle of view corresponding to the non-detection area A1 (S4), and detects an object by applying the non-detection area A2 to the image P2.SELECTED DRAWING: Figure 1

Description

本発明は、画角を制御可能な撮像装置を用いて画像を撮像する場合に、物体の誤検知に伴う信頼性の低下を抑制することができる画像処理プログラム、画像処理装置、画像処理システム及び画像処理方法に関する。   The present invention relates to an image processing program, an image processing device, an image processing system, and an image processing system capable of suppressing a decrease in reliability due to erroneous detection of an object when an image is captured using an imaging device capable of controlling an angle of view. The present invention relates to an image processing method.

従来、固定式の監視カメラを所定の位置に設置し、この監視カメラで物体を撮像した画像を画像処理装置に送信する場合が多い。この際、監視カメラの視野角を制御するために、カメラの画角を左右に動かすパン(Pan)制御、カメラの画角を上下に動かすチルト(Tilt)制御、カメラの画角の拡大・縮小を行うズーム(Zoom)制御が行われる。   Conventionally, in many cases, a fixed surveillance camera is installed at a predetermined position, and an image of an object captured by the surveillance camera is transmitted to an image processing apparatus. At this time, in order to control the viewing angle of the surveillance camera, a pan control for moving the angle of view of the camera left and right, a tilt control for moving the angle of view of the camera up and down, and enlargement / reduction of the angle of view of the camera. The zoom control is performed.

このため、カメラのパン、チルト、ズーム制御(以下、「PTZ制御」と言う)に応じて、画像内の対象領域を移動させる技術が知られている。例えば、特許文献1には、画像
フレーム中の対象領域の画像を切り出して出力画像を生成するにあたり、カメラの動きと反対方向に対象領域を移動させて切り出す技術が開示されている。この先行技術を用いると、固定式の監視カメラの画像内に対象領域を設定しておき、該監視カメラのPTZ制御が行われた場合に、対象領域を移動させることが可能となる。
Therefore, a technique is known in which a target area in an image is moved according to pan, tilt, and zoom control of a camera (hereinafter referred to as “PTZ control”). For example, Japanese Patent Application Laid-Open No. 2004-242242 discloses a technique of cutting out an image of a target area in an image frame and generating an output image by moving the target area in a direction opposite to the movement of the camera and cutting out the target area. By using this prior art, it becomes possible to set the target area in the image of the fixed surveillance camera and move the target area when the PTZ control of the surveillance camera is performed.

特開2015−179988号公報JP, 2005-179988, A

しかしながら、監視カメラで撮像された画像には、検知対象以外の物体が含まれてしまう場合がある。例えば、草木が伸びて監視カメラの視野に影響を及ぼす場合には、この草木の揺れが動体であるかのように誤検知される。このため、上記特許文献1を用いたとしても、意図しない物体の対象領域が切り出されてしまい、信頼性が低下するという問題が生ずる。   However, the image captured by the surveillance camera may include an object other than the detection target. For example, when the plant grows and affects the field of view of the surveillance camera, the shaking of the plant is erroneously detected as if it were a moving body. For this reason, even if the above-mentioned Patent Document 1 is used, a target region of an unintended object is cut out, which causes a problem that reliability is lowered.

特に、監視カメラがPTZ制御された場合には、本来検知対象から除外すべき領域が増加するため、物体の誤検知が拡大する可能性がある。このため、PTZ制御可能な監視カメラを用いて画像を撮像する場合に、いかにして物体の誤検知に伴う信頼性の低下を抑制するかが重要な課題となっている。   In particular, when the surveillance camera is PTZ-controlled, the area to be originally excluded from the detection target increases, so that the false detection of the object may increase. For this reason, when capturing an image using a PTZ controllable surveillance camera, how to suppress a decrease in reliability due to erroneous detection of an object is an important issue.

本発明は、上記従来技術の問題点(課題)を解決するためになされたものであって、画角を遠隔制御可能な撮像装置を用いて画像を撮像する場合に、物体の誤検知に伴う信頼性の低下を抑制することができる画像処理プログラム、画像処理装置、画像処理システム及び画像処理方法を提供することを目的とする。   The present invention has been made in order to solve the above-mentioned problems (problems) of the prior art, and accompanies erroneous detection of an object when an image is captured using an imaging device capable of remotely controlling the angle of view. An object of the present invention is to provide an image processing program, an image processing device, an image processing system, and an image processing method capable of suppressing deterioration of reliability.

上記の課題を解決するため、本発明は、画角を遠隔制御可能な撮像装置で撮像された画像の画像処理を行う画像処理装置における画像処理プログラムであって、前記画像に対して非検知領域を設定する非検知領域設定手順と、前記撮像装置の画角が遠隔制御された場合に、前記非検知領域設定手順により設定された非検知領域に対応する画角変更後の非検知領域を算出する算出手順とをコンピュータに実行させることを特徴とする。   In order to solve the above problems, the present invention is an image processing program in an image processing apparatus that performs image processing of an image captured by an image capturing apparatus capable of remotely controlling an angle of view, which is a non-detection region for the image. A non-detection area setting procedure for setting the non-detection area and a non-detection area after changing the view angle corresponding to the non-detection area set by the non-detection area setting procedure when the view angle of the imaging device is remotely controlled. And a calculation procedure to be executed by a computer.

また、本発明は、上記の発明において、前記算出手順により算出された画角変更後の非検知領域を除外した領域を対象領域として物体を検知する第1の物体検知手順をさらにコンピュータに実行させることを特徴とする。   Further, the present invention, in the above-mentioned invention, further causes the computer to execute a first object detection procedure of detecting an object with an area excluding the non-detection area after the change of the angle of view calculated by the calculation procedure as a target area. It is characterized by

また、本発明は、上記の発明において、前記撮像装置のパン、チルト、ズーム制御を行う画角制御手順をさらにコンピュータに実行させることを特徴とする。   Further, the invention is characterized in that, in the above-mentioned invention, a computer is further caused to execute an angle-of-view control procedure for performing pan, tilt, and zoom control of the imaging device.

また、本発明は、上記の発明において、前記算出手順により算出された画角変更後の非検知領域を補正する非検知領域補正手順をさらにコンピュータに実行させることを特徴とする。   Further, the present invention is characterized in that, in the above-mentioned invention, the computer is further caused to execute a non-detection area correction procedure for correcting the non-detection area after the view angle change calculated by the calculation procedure.

また、本発明は、上記の発明において、前記非検知領域補正手順により補正された非検知領域を除外した領域を対象領域として物体を検知する第2の物体検知手順をさらにコンピュータに実行させることを特徴とする。   The present invention, in the above invention, further causes a computer to execute a second object detection procedure of detecting an object with an area excluding the non-detection area corrected by the non-detection area correction procedure as a target area. Characterize.

また、本発明は、上記の発明において、前記撮像装置は全方位を撮像可能であり、前記算出手順は、前記非検知領域の前記画像における2次元座標を前記撮像装置を中心とした極座標に変換し、該極座標から前記画角変更後の非検知領域の2次元座標を算出することを特徴とする。   Further, in the present invention according to the above-mentioned invention, the imaging device can image in all directions, and the calculation procedure converts two-dimensional coordinates in the image of the non-detection region into polar coordinates centered on the imaging device. The two-dimensional coordinates of the non-detection area after the change of the angle of view are calculated from the polar coordinates.

また、本発明は、画角を遠隔制御可能な撮像装置で撮像された画像の画像処理を行う画像処理装置であって、前記画像に対して非検知領域を設定する非検知領域設定部と、前記撮像装置の画角が遠隔制御された場合に、前記非検知領域設定部により設定された非検知領域に対応する画角変更後の非検知領域を算出する算出部とを備えたことを特徴とする。   Further, the present invention is an image processing apparatus that performs image processing of an image captured by an image capturing apparatus capable of remotely controlling an angle of view, and a non-detection area setting unit that sets a non-detection area for the image, And a calculator that calculates a non-detection area after changing the angle of view corresponding to the non-detection area set by the non-detection area setting unit when the angle of view of the imaging device is remotely controlled. And

また、本発明は、撮像装置と、前記撮像装置の画角を遠隔制御するとともに該撮像装置で撮像された画像の画像処理を行う画像処理装置とを通信可能に接続した画像処理システムであって、前記画像処理装置は、前記撮像装置の画角を制御する画角制御部と、前記画像に対して非検知領域を設定する非検知領域設定部と、前記撮像装置の画角が遠隔制御された場合に、前記非検知領域設定部により設定された非検知領域に対応する画角変更後の非検知領域を算出する算出部とを備えたことを特徴とする。   The present invention also provides an image processing system in which an imaging device and an image processing device that remotely controls an angle of view of the imaging device and performs image processing of an image captured by the imaging device are communicably connected. The image processing apparatus includes a view angle control unit that controls a view angle of the image pickup apparatus, a non-detection area setting unit that sets a non-detection area for the image, and a view angle of the image pickup apparatus is remotely controlled. In this case, a calculation unit that calculates a non-detection region after changing the angle of view, which corresponds to the non-detection region set by the non-detection region setting unit, is provided.

また、本発明は、画角を遠隔制御可能な撮像装置で撮像された画像の画像処理を行う画像処理装置における画像処理方法であって、前記画像に対して非検知領域を設定する非検知領域設定工程と、前記撮像装置の画角が遠隔制御された場合に、前記非検知領域設定工程により設定された非検知領域に対応する画角変更後の非検知領域を算出する算出工程とを含んだことを特徴とする。   Further, the present invention is an image processing method in an image processing device for performing image processing of an image captured by an imaging device capable of remotely controlling an angle of view, the non-detection region having a non-detection region set for the image. A setting step, and a calculation step of calculating a non-detection area after changing the angle of view corresponding to the non-detection area set in the non-detection area setting step when the angle of view of the imaging device is remotely controlled. It is characterized by

本発明によれば、画角を遠隔制御可能な撮像装置を用いて画像を撮像する場合に、物体の誤検知に伴う信頼性の低下を抑制することができる。   According to the present invention, when an image is captured by using an image capturing device capable of remotely controlling the angle of view, it is possible to suppress a decrease in reliability due to erroneous detection of an object.

図1は、本実施例1に係る画像処理システムの概念の説明図である。FIG. 1 is an explanatory diagram of the concept of the image processing system according to the first embodiment. 図2は、本実施例1に係る画像処理装置の構成を示す構成図である。FIG. 2 is a configuration diagram illustrating the configuration of the image processing apparatus according to the first embodiment. 図3は、本実施例1に係る画像処理装置の処理手順を示すフローチャートである。FIG. 3 is a flowchart illustrating the processing procedure of the image processing apparatus according to the first embodiment. 図4は、図3に示した物体検知処理の詳細を示すフローチャートである。FIG. 4 is a flowchart showing details of the object detection process shown in FIG. 図5は、カメラの撮像範囲と格子についての説明図である。FIG. 5 is an explanatory diagram of the imaging range of the camera and the lattice. 図6は、カメラの画角についての説明図である。FIG. 6 is an explanatory diagram of the angle of view of the camera. 図7は、3次元の座標による座標の管理についての説明図である。FIG. 7 is an explanatory diagram regarding management of coordinates by three-dimensional coordinates. 図8は、本実施例2に係る画像処理システムの概念の説明図である。FIG. 8 is an explanatory diagram of the concept of the image processing system according to the second embodiment. 図9は、非検知領域と格子の対応関係を示す説明図である。FIG. 9 is an explanatory diagram showing the correspondence relationship between the non-detection region and the lattice. 図10は、非検知領域の補正についての説明図である。FIG. 10 is an explanatory diagram of the correction of the non-detection area. 図11は、本実施例2に係る画像処理装置の構成を示す構成図である。FIG. 11 is a configuration diagram illustrating the configuration of the image processing apparatus according to the second embodiment. 図12は、本実施例2に係る画像処理装置の処理手順を示すフローチャートである。FIG. 12 is a flowchart illustrating the processing procedure of the image processing apparatus according to the second embodiment. 図13は、変形例における非検知領域の補正についての説明図である。FIG. 13 is an explanatory diagram of correction of the non-detection area in the modification. 図14は、変形例における画角変更後の補正についての説明図である。FIG. 14 is an explanatory diagram of correction after changing the angle of view in the modified example. 図15は、ハードウエア構成の一例を示す図である。FIG. 15 is a diagram illustrating an example of the hardware configuration.

以下、添付図面を参照して、画像処理プログラム、画像処理装置、画像処理システム及び画像処理方法の実施例について説明する。   Embodiments of an image processing program, an image processing apparatus, an image processing system, and an image processing method will be described below with reference to the accompanying drawings.

まず、本実施例1に係る画像処理システムの概念について説明する。図1は、本実施例1に係る画像処理システムの概念の説明図である。図1に示すように、本実施例1に係る画像処理システムは、撮像装置であるカメラ10と、カメラ10の画角を遠隔制御するとともにカメラ10で撮像された画像の画像処理を行う画像処理装置20とを通信可能に接続した構成を有する。   First, the concept of the image processing system according to the first embodiment will be described. FIG. 1 is an explanatory diagram of the concept of the image processing system according to the first embodiment. As shown in FIG. 1, the image processing system according to the first embodiment performs image processing of a camera 10 which is an imaging device, a remote control of an angle of view of the camera 10, and an image processing of an image captured by the camera 10. It has a configuration in which the device 20 is communicably connected.

図1では、カメラ10は、道路を撮像可能に設置されており、道路沿いの並木が撮像範囲に含まれる場合がある。画像処理装置20は、カメラ10を水平方向に回転させて画角を左右に動かすパン制御、カメラ10を垂直方向に回転させて画角を上下に動かすチルト制御、カメラ10の画角の拡大・縮小を行うズーム制御が可能である。   In FIG. 1, the camera 10 is installed so as to be able to capture an image of a road, and a row of trees along the road may be included in the image capturing range. The image processing device 20 rotates the camera 10 in the horizontal direction to move the angle of view left and right, pan control, rotates the camera 10 in the vertical direction to move the angle of view up and down, and expands the angle of view of the camera 10. Zoom control that reduces the size is possible.

また、画像処理装置20は、カメラ10で撮像された画像の画像処理を行うことで、所定の物体を検知する。例えば、画像処理装置20は、道路上の車や動物を検知することができる。ここで、画像処理装置20は、画像に対して非検知領域を設定可能である。具体的には、画像における並木の像の位置を非検知領域に設定すれば、並木の位置を除外して物体の検知が可能となる。   Further, the image processing device 20 detects a predetermined object by performing image processing on the image captured by the camera 10. For example, the image processing device 20 can detect a car or an animal on the road. Here, the image processing device 20 can set a non-detection region for the image. Specifically, by setting the position of the image of the tree in the image in the non-detection area, it is possible to detect the object by excluding the position of the tree.

画像に対して非検知領域を設定することで、検知対象以外の物体の検知を避けることができる。しかし、カメラ10の画角を変更すると、変更前の画像における非検知領域の座標をそのまま用いることはできない。   By setting the non-detection area for the image, it is possible to avoid detection of objects other than the detection target. However, if the angle of view of the camera 10 is changed, the coordinates of the non-detection area in the image before the change cannot be used as they are.

そこで、画像処理装置20は、画像に対して設定された非検知領域をカメラ10を中心とした極座標に変換して管理するとともに、カメラ10の撮像方向を管理する。そして、物体を検知した場合には、その物体の画像における位置とカメラ10の撮像方向を用い、検知した物体が非検知領域内に所在するか否かを判定し、非検知領域内に所在する場合には、物体を検知しなかったものとする。言い換えれば、画像処理装置20は、カメラ10の画角を変更した場合に、変更後の非検知領域を算出して物体の検知を行うことになる。なお、カメラ10の撮像方向は、カメラ10が撮像した画像を、フレームごとに直前の画像と比較して撮像方向の変化量を算出することで管理することができる。   Therefore, the image processing apparatus 20 converts the non-detection area set for the image into polar coordinates centered on the camera 10 and manages the same, and also manages the imaging direction of the camera 10. Then, when an object is detected, it is determined whether or not the detected object is located in the non-detection area by using the position in the image of the object and the imaging direction of the camera 10, and the object is located in the non-detection area. In this case, it is assumed that no object was detected. In other words, when the angle of view of the camera 10 is changed, the image processing apparatus 20 detects the object by calculating the changed non-detection area. The image capturing direction of the camera 10 can be managed by comparing the image captured by the camera 10 with the immediately preceding image for each frame and calculating the amount of change in the image capturing direction.

図1では、画像処理装置20は、カメラ10から画像P1を取得し(S1)、画像P1に対して非検知領域A1を設定している(S2)。その後、画像処理装置20は、カメラ10を右方向にパン制御する画角変更を行って(S3)、画像P2を取得している。   In FIG. 1, the image processing apparatus 20 acquires the image P1 from the camera 10 (S1) and sets the non-detection area A1 for the image P1 (S2). After that, the image processing apparatus 20 changes the angle of view for panning control of the camera 10 to the right (S3), and acquires the image P2.

画像処理装置20は、画像P1に設定された非検知領域A1をカメラ10を中心とした極座標に変換して管理しており、非検知領域A1に対応する画角変更後の非検知領域A2を算出することができる(S4)。このため、画像P2に非検知領域A2を適用して物体の検知が可能となる。この画角変更後の非検知領域を算出する処理の詳細については後述する。   The image processing apparatus 20 converts the non-detection area A1 set in the image P1 into polar coordinates centered on the camera 10 and manages the non-detection area A2 after changing the angle of view corresponding to the non-detection area A1. It can be calculated (S4). Therefore, it is possible to detect the object by applying the non-detection area A2 to the image P2. Details of the process of calculating the non-detection area after the change of the angle of view will be described later.

このように、画像処理装置20は、カメラ10で撮像された画像に対して非検知領域を設定し、カメラ10の画角を遠隔制御した場合に、画角変更前に設定した非検知領域に対応する画角変更後の非検知領域を算出する。このため、画角を遠隔制御可能なカメラ10を用いて画像を撮像する場合に、物体の誤検知に伴う信頼性の低下を抑制することができる。   As described above, the image processing device 20 sets the non-detection area for the image captured by the camera 10, and when the angle of view of the camera 10 is remotely controlled, the image processing apparatus 20 sets the non-detection area before changing the angle of view. A corresponding non-detection area after changing the angle of view is calculated. Therefore, when an image is captured using the camera 10 whose angle of view can be remotely controlled, it is possible to suppress a decrease in reliability due to erroneous detection of an object.

次に、画像処理装置20の構成について説明する。図2は、画像処理装置20の構成を示す構成図である。図2に示すように、画像処理装置20は、通信部21、表示部22、入力部23、記憶部24及び制御部25を有する。通信部21は、カメラ10などとの通信接続を行うための通信インタフェースである。表示部22は、液晶ディスプレイ装置等の表示デバイスである。入力部23は、キーボードやマウス等の入力デバイスである。   Next, the configuration of the image processing device 20 will be described. FIG. 2 is a configuration diagram showing the configuration of the image processing apparatus 20. As shown in FIG. 2, the image processing device 20 includes a communication unit 21, a display unit 22, an input unit 23, a storage unit 24, and a control unit 25. The communication unit 21 is a communication interface for making a communication connection with the camera 10 and the like. The display unit 22 is a display device such as a liquid crystal display device. The input unit 23 is an input device such as a keyboard and a mouse.

記憶部24は、ハードディスク装置や不揮発性メモリ等の記憶デバイスであり、非検知領域データ24aを記憶する。非検知領域データ24aは、画像に対して設定された非検知領域を特定するデータである。具体的には、非検知領域データ24aは、カメラ10を中心とした全天球を分割した各格子について、非検知領域に設定されているか否かを示す。全天球の分割方法はパン方向の角度を経度、チルト方向の角度を緯度として経度・緯度を等間隔の角度で分割する。なお、分割方法は、これに限定されず、任意の方法を用いることができる。   The storage unit 24 is a storage device such as a hard disk device or a non-volatile memory, and stores the non-detection area data 24a. The non-detection area data 24a is data that specifies the non-detection area set for the image. Specifically, the non-detection area data 24a indicates whether or not each grid obtained by dividing the celestial sphere centering on the camera 10 is set in the non-detection area. As for the method of dividing the celestial sphere, the angle in the pan direction is the longitude and the angle in the tilt direction is the latitude, and the longitude and latitude are divided at equal intervals. The dividing method is not limited to this, and any method can be used.

制御部25は、画像処理装置20の全体を制御する制御部であり、画角制御部25a、非検知領域設定部25b、算出部25c及び物体検知部25dを有する。実際には、これらの機能部に対応するプログラムを図示しないROMや不揮発性メモリに記憶しておき、これらのプログラムをCPUにロードして実行することにより、画角制御部25a、非検知領域設定部25b、算出部25c及び物体検知部25dにそれぞれ対応するプロセスを実行させることになる。   The control unit 25 is a control unit that controls the entire image processing apparatus 20, and includes an angle-of-view control unit 25a, a non-detection area setting unit 25b, a calculation unit 25c, and an object detection unit 25d. Actually, the programs corresponding to these functional units are stored in a ROM or a non-volatile memory (not shown), and these programs are loaded into the CPU and executed to execute the view angle control unit 25a and the non-detection area setting. The processes corresponding to the unit 25b, the calculation unit 25c, and the object detection unit 25d will be executed.

画角制御部25aは、カメラ10の画角を遠隔制御する処理部である。具体的には、画角制御部25aは、カメラ10のパン、チルト、ズーム制御を行う。画角制御部25aによる画角の制御は、操作者による操作を受け付けて行ってもよいし、自動で行ってもよい。例えば、一定の間隔や周期でカメラ10の画角を変更するよう設定してもよい。また、検知結果などに基づいて画角を制御してもよい。   The view angle control unit 25a is a processing unit that remotely controls the view angle of the camera 10. Specifically, the view angle control unit 25a controls pan, tilt, and zoom of the camera 10. The control of the angle of view by the angle-of-view control unit 25a may be performed by accepting an operation by an operator or may be automatically performed. For example, the angle of view of the camera 10 may be set to change at regular intervals or cycles. Further, the angle of view may be controlled based on the detection result or the like.

また、画角制御部25aは、カメラ10が撮像した画像を、フレームごとに直前の画像と比較して撮像方向の変化量を算出することで、カメラ10の撮像方向を管理する。カメラ10の撮像方向は、基準位置からのパン角度とチルト角度で示される。画角制御部25aは、直前の画像との比較により撮像方向の変化量を算出したならば、それまでの撮像方向に変化量を加算することで撮像方向を更新する。撮像方向は、画像制御部25aが保持してもよいし、記憶部24に格納する構成としてもよい。   Further, the view angle control unit 25a manages the image capturing direction of the camera 10 by comparing the image captured by the camera 10 with the immediately preceding image for each frame and calculating the amount of change in the image capturing direction. The imaging direction of the camera 10 is indicated by the pan angle and tilt angle from the reference position. The angle-of-view control unit 25a updates the image capturing direction by adding the amount of change to the image capturing direction up to that point, after calculating the amount of change in the image capturing direction by comparison with the immediately preceding image. The image capturing direction may be held by the image control unit 25a or may be stored in the storage unit 24.

非検知領域設定部25bは、カメラ10が撮像した画像に対して非検知領域を設定する処理部である。非検知領域設定部25bは、画像に対して非検知領域が設定されたならば、現在の画像の画角に応じた位置の全天球の格子にデータを格納して、非検知領域データ24aを更新する。このとき、画角外など設定した位置以外の全天球の格子のデータは維持する。   The non-detection area setting unit 25b is a processing unit that sets a non-detection area for an image captured by the camera 10. When the non-detection area is set for the image, the non-detection area setting unit 25b stores the data in the celestial sphere at a position corresponding to the angle of view of the current image, and the non-detection area data 24a. To update. At this time, the data of the grid of the celestial sphere other than the set position such as outside the angle of view is maintained.

算出部25cは、非検知領域設定部25bにより設定された非検知領域に対応する画角変更後の非検知領域を算出する処理部である。具体的には、算出部25cは、カメラ10の撮像方向及びズーム倍率と非検知領域データ24aとを用い、現在の画像に非検知領域の格子を投影して、画像における非検知領域の位置を算出することができる。   The calculation unit 25c is a processing unit that calculates the non-detection region after changing the view angle corresponding to the non-detection region set by the non-detection region setting unit 25b. Specifically, the calculation unit 25c uses the imaging direction and zoom magnification of the camera 10 and the non-detection area data 24a to project a grid of the non-detection area on the current image to determine the position of the non-detection area in the image. It can be calculated.

ここで、非検知領域は、物体の検知結果を除外するために用いられる。そこで、画角が変更される度に、画像における非検知領域の位置を算出するのではなく、画像から物体を検知したときに物体の位置が非検知領域内であるか否かを判定する構成としてもよい。この場合には、算出部25cは、画像における物体の位置をカメラ10を中心とした極座標に変換し、変換結果の極座標が非検知領域データ24aに示された非検知領域とを比較することになる。本実施例1では、画像から物体を検知したときに物体の位置が非検知領域内であるか否かを判定する構成を中心に説明を行う。   Here, the non-detection area is used to exclude the detection result of the object. Therefore, instead of calculating the position of the non-detection area in the image every time the angle of view is changed, it is determined whether or not the position of the object is within the non-detection area when the object is detected from the image. May be In this case, the calculation unit 25c converts the position of the object in the image into polar coordinates centered on the camera 10 and compares the polar coordinates of the conversion result with the non-detection area indicated by the non-detection area data 24a. Become. In the first embodiment, a description will be mainly given of a configuration that determines whether or not the position of the object is within the non-detection region when the object is detected from the image.

物体検知部25dは、カメラ10により撮像された画像から物体を検知する処理を行う。このとき、物体検知部25dは、非検知領域を除外した領域を検知の対象領域とする。具体的には、物体検知部25dは、画像内に対象の物体が存在するか否かを画像処理によって識別し、対象の物体が存在する場合には、その画像内の位置を算出部25cに出力して、物体の位置が非検知領域内であるか否かを判定させる。そして、画像から対象の物体を識別し、かつ物体の位置が非検知領域でない場合に、物体検知部25dは、物体を検知したとの検知結果を出力する。例えば、物体検知部25dは、所定の物体を検知した場合に報知出力を行うことが可能である。また、物体検知部25dは、物体の検知結果を記憶部24に蓄積することが可能である。   The object detection unit 25d performs a process of detecting an object from the image captured by the camera 10. At this time, the object detection unit 25d sets the area excluding the non-detection area as the detection target area. Specifically, the object detection unit 25d identifies whether or not the target object exists in the image by image processing, and when the target object exists, the position in the image is calculated by the calculation unit 25c. It is output to determine whether the position of the object is within the non-detection area. Then, when the target object is identified from the image and the position of the object is not in the non-detection region, the object detection unit 25d outputs the detection result that the object is detected. For example, the object detection unit 25d can output a notification when a predetermined object is detected. In addition, the object detection unit 25d can store the detection result of the object in the storage unit 24.

次に、画像処理装置20の処理手順について説明する。図3は、画像処理装置20の処理手順を示すフローチャートである。まず、画像処理装置20の画角制御部25aは、カメラ10から画像を取得し(ステップS101)、直前の画像と比較して撮像方向の変化量を算出して(ステップS102)、カメラ10の撮像方向を更新する(ステップS103)。   Next, the processing procedure of the image processing apparatus 20 will be described. FIG. 3 is a flowchart showing a processing procedure of the image processing apparatus 20. First, the angle-of-view control unit 25a of the image processing apparatus 20 acquires an image from the camera 10 (step S101), calculates the amount of change in the imaging direction by comparing it with the immediately preceding image (step S102), and outputs the image from the camera 10. The imaging direction is updated (step S103).

非検知領域設定部25bは、非検知領域の設定操作を受け付けたか否かを判定する(ステップS104)。非検知領域の設定操作を受け付け(ステップS104;Yes)、画像上で非検知領域を指定されたならば、算出部25cが指定された画像上の非検知領域を極座標に変換する(ステップS105)。そして、非検知領域設定部25bは、全天球上の対応する格子を非検知領域に設定し、非検知領域データ24aを更新する(ステップS106)。   The non-detection area setting unit 25b determines whether or not a setting operation of the non-detection area has been received (step S104). When the non-detection area setting operation is accepted (step S104; Yes), and the non-detection area is designated on the image, the calculation unit 25c converts the non-detection area on the designated image into polar coordinates (step S105). . Then, the non-detection area setting unit 25b sets the corresponding grid on the celestial sphere as the non-detection area and updates the non-detection area data 24a (step S106).

ステップS106の後、もしくは非検知領域の設定操作を受け付けていない場合(ステップS104;No)、物体検知部25dが物体検知処理を実行する(ステップS107)。   After step S106 or when the setting operation of the non-detection area is not received (step S104; No), the object detection unit 25d executes the object detection process (step S107).

その後、物体検知部25dは、物体検知を終了するか否かを判定する(ステップS108)。物体検知の終了条件としては、特定の物体を検知した場合、検知の開始から所定の時間が経過した場合、指定の時刻となった場合など、任意の条件を用いることができる。   Then, the object detection unit 25d determines whether to end the object detection (step S108). As the condition for ending the object detection, any condition can be used, such as when a specific object is detected, when a predetermined time has elapsed from the start of the detection, when a designated time is reached, or the like.

物体検知を終了しない場合(ステップS108;No)、ステップS101に移行し、次の画像を取得する。そして、物体検知を終了すると判定した場合に(ステップS108;Yes)、処理を終了する。   When the object detection is not completed (step S108; No), the process proceeds to step S101 to acquire the next image. Then, when it is determined that the object detection is to be ended (step S108; Yes), the processing is ended.

図4は、図3に示した物体検知処理の詳細を示すフローチャートである。物体検知部25dは、カメラ10により撮像された画像全体を対象として画像処理を行い、画像内に対象の物体が存在するか否かを識別する(ステップS201)。画像内に対象の物体があるならば(ステップS202;Yes)、物体検知部25dは、識別した物体の画像内の位置を算出部25cに出力する。算出部25cは、識別した物体の画像上の位置を極座標に変換し、物体の位置と非検知領域の位置とを比較する(ステップS203)。   FIG. 4 is a flowchart showing details of the object detection process shown in FIG. The object detection unit 25d performs image processing on the entire image captured by the camera 10 and identifies whether or not the target object exists in the image (step S201). If the target object is present in the image (step S202; Yes), the object detection unit 25d outputs the position of the identified object in the image to the calculation unit 25c. The calculator 25c converts the identified position of the object on the image into polar coordinates, and compares the position of the object with the position of the non-detection region (step S203).

比較の結果、物体の位置が非検知領域でないならば(ステップS204;No)、物体検知部25dは、対象の物体を検知したとの検知結果を出力し(ステップS205)、元の処理に戻る。一方、画像内に対象の物体が無い場合(ステップS202;No)、もしくは物体の位置が非検知領域である場合(ステップS204;Yes)、物体検知部25dは、対象の物体を非検知として(ステップS206)、元の処理に戻る。   As a result of the comparison, if the position of the object is not in the non-detection region (step S204; No), the object detection unit 25d outputs the detection result that the target object is detected (step S205), and returns to the original processing. . On the other hand, when there is no target object in the image (step S202; No) or when the position of the object is in the non-detection area (step S204; Yes), the object detection unit 25d determines that the target object is non-detection ( (Step S206), the process returns to the original process.

次に、算出部25cによる画角変更後の非検知領域の算出について、図5〜図7を参照して説明する。図5は、カメラ10の撮像範囲と格子についての説明図である。図5に示すように、カメラ10は、360°のパン制御により水平方向の全方位を撮像可能であり、さらに90°以上のチルト制御が可能である。このパン制御とチルト制御により、カメラ10の撮像範囲は、半天球〜全天球となる。そして、このカメラ10を中心とした撮像範囲を分割した各格子が、非検知領域の設定単位となる。一例として、パン方向の角度を経度、チルト方向の角度を緯度として経度・緯度を等間隔の角度で分割することで格子を形成する。なお、分割方法は、これに限定されず、任意の方法を用いることができる。   Next, the calculation of the non-detection area after changing the angle of view by the calculation unit 25c will be described with reference to FIGS. FIG. 5 is an explanatory diagram of the imaging range and the lattice of the camera 10. As shown in FIG. 5, the camera 10 is capable of capturing an image in all horizontal directions by pan control of 360 °, and tilt control of 90 ° or more. By the pan control and the tilt control, the image pickup range of the camera 10 is a half-sphere to a whole-sphere. Then, each grid obtained by dividing the imaging range centered on the camera 10 serves as a unit for setting the non-detection area. As an example, the grid is formed by dividing the longitude and latitude at equal intervals, with the angle in the pan direction as the longitude and the angle in the tilt direction as the latitude. The dividing method is not limited to this, and any method can be used.

図6は、カメラ10の画角についての説明図である。図6(a)は、カメラ10がパン制御及びチルト制御を受けていない基準位置での画角を示し、図6(b)はパン制御及びチルト制御を受けた状態での画角を示している。   FIG. 6 is an explanatory diagram of the angle of view of the camera 10. FIG. 6A shows the angle of view at the reference position where the camera 10 is not under the pan control and tilt control, and FIG. 6B is the angle of view under the pan control and tilt control. There is.

ここで、カメラ10が撮像した画像であるカメラにおける2次元の座標値、カメラ10のズーム倍率に対応した焦点距離、画像の座標値に対応する実空間の3次元の座標値、画像の座標値に対応する実空間の緯度・経度方向、画像の座標値に対応する実空間の位置までの距離、カメラの水平基準方向からのチルト・パン角度を次のように定める。
(X,Y): カメラ画像の2次元の座標値(ただし画像中央を(0,0))
Z: カメラ10のズーム倍率に対応した焦点距離
(x,y,z):カメラ画像の座標値に対応する実空間の3次元の座標値
θ,φ: カメラ画像の座標値に対応する実空間の緯度・経度方向
r: カメラ画像の座標値に対応する実空間の位置までの距離
θ0,φ0: カメラの水平基準方向からのチルト角度、パン角度
Here, the two-dimensional coordinate value in the camera which is the image captured by the camera 10, the focal length corresponding to the zoom magnification of the camera 10, the three-dimensional coordinate value in the real space corresponding to the coordinate value of the image, the coordinate value of the image The latitude / longitude direction of the real space corresponding to, the distance to the position of the real space corresponding to the coordinate value of the image, and the tilt / pan angle from the horizontal reference direction of the camera are determined as follows.
(X, Y): Two-dimensional coordinate value of the camera image (however, the center of the image is (0,0))
Z: focal length (x, y, z) corresponding to the zoom magnification of the camera 10: three-dimensional coordinate value of the real space corresponding to the coordinate value of the camera image θ, φ: real space corresponding to the coordinate value of the camera image Latitude / longitude direction r: Distance to the position in real space corresponding to the coordinate value of the camera image θ 0 , φ 0 : Tilt angle and pan angle from the horizontal reference direction of the camera

図6(a)では、カメラ画像の2次元の座標値(X,Y)は、3次元の座標値(x、y、z)を、z=Zの平面に射影することによって得られる座標値であるため、

Figure 2020065218
の対応関係となる。
そして、カメラ画像の2次元の座標値(X,Y)に対応する距離Zの位置の平面に置いたカメラ画像上の3次元の座標値は、(X,Y,Z)であり、3次元の座標値と緯度・経度方向の対応関係は次の通りである。
Figure 2020065218
また、カメラ画像における各画素(ピクセル)の方向は、
Figure 2020065218
となる。 In FIG. 6A, the two-dimensional coordinate value (X, Y) of the camera image is the coordinate value obtained by projecting the three-dimensional coordinate value (x, y, z) onto the plane of z = Z. Because
Figure 2020065218
It becomes the correspondence of.
The three-dimensional coordinate value on the camera image placed on the plane at the distance Z corresponding to the two-dimensional coordinate value (X, Y) of the camera image is (X, Y, Z). The correspondence between the coordinate values of and the latitude / longitude directions is as follows.
Figure 2020065218
Also, the direction of each pixel in the camera image is
Figure 2020065218
Becomes

図6(b)では、カメラ画像の2次元座標値(X,Y)に対応する距離Zの位置の平面に置いたカメラ画像上の3次元の座標値(X,Y,Z)を、チルト・パンの角度で回転することで、3次元の座標値との対応を考えたときの回転後の3次元の座標値(x,y,z)は、次の通りである。

Figure 2020065218
そして、3次元の座標値と緯度・経度方向の対応関係は次の通りである。
Figure 2020065218
また、カメラ画像における各画素(ピクセル)の方向は、
Figure 2020065218
となる。 In FIG. 6B, the three-dimensional coordinate values (X, Y, Z) on the camera image placed on the plane at the distance Z corresponding to the two-dimensional coordinate values (X, Y) of the camera image are tilted. The three-dimensional coordinate values (x, y, z) after rotation when considering the correspondence with the three-dimensional coordinate values by rotating at the pan angle are as follows.
Figure 2020065218
The correspondence between the three-dimensional coordinate values and the latitude / longitude directions is as follows.
Figure 2020065218
Also, the direction of each pixel in the camera image is
Figure 2020065218
Becomes

次に、焦点距離Zの求め方を説明する。正面から水平方向に角度??1にある物体が(X1,0)の位置に映ったとき、そのズーム倍率における焦点距離Z1は、

Figure 2020065218
である。
そのズーム倍率に対してn倍のズーム倍率のときの焦点距離Zは、
Figure 2020065218
である。
ここで、現在の画像中央が向く方向に対応する過去のある時点で画像のピクセルの2次元の座標値、現在のチルト角度、現在のパン角度、過去のチルト角度、過去のパン角度、過去の焦点距離を次のように定める。
(X’,Y’):現在の画像中央が向く方向に対応する過去のある時点で画像のピクセルの2次元の座標値
θ0:現在のチルト角度
φ0:現在のパン角度
θ0’:過去のチルト角度
φ0’:過去のパン角度
Z’:過去の焦点距離 Next, how to obtain the focal length Z will be described. Angle from the front to the horizontal? ? When the object at 1 is reflected at the position of (X 1 , 0), the focal length Z 1 at the zoom magnification is
Figure 2020065218
Is.
The focal length Z when the zoom magnification is n times the zoom magnification is
Figure 2020065218
Is.
Here, the two-dimensional coordinate value of the pixel of the image at a certain point in the past corresponding to the direction in which the current image center faces, the current tilt angle, the current pan angle, the past tilt angle, the past pan angle, and the past pan angle. The focal length is set as follows.
(X ', Y'): Two-dimensional coordinate value of the pixel of the image at a certain point in the past corresponding to the direction in which the current image center is facing θ 0 : Current tilt angle φ 0 : Current pan angle θ 0 ': Past tilt angle φ 0 ': Past pan angle Z': Past focal length

カメラ10の画角を変更することで、次の式が得られる。

Figure 2020065218
By changing the angle of view of the camera 10, the following formula is obtained.
Figure 2020065218

次に、画角変更時のパン角度、チルト角度、ズーム倍率の更新について説明する。カメラ10の画角を変更し、画像処理によって画角変更の変換式が計算できたならば、画角変更後のパン角度、チルト角度、ズーム倍率を変換式から求めることができる。   Next, updating of the pan angle, tilt angle, and zoom magnification when changing the angle of view will be described. If the angle of view of the camera 10 is changed and a conversion formula for changing the angle of view can be calculated by image processing, the pan angle, tilt angle, and zoom magnification after the angle of view change can be obtained from the conversion formula.

まず、Zを焦点距離とすれば、画像上の2次元の座標値(X,Y)に対応する、z=Z平面に射影した3次元の座標値(x,y,z)は、(X,Y,Z)で表される。そして、3次元の座標値(x,y,z)をパン、チルト、ロールで座標変換した後の座標値は、

Figure 2020065218
となる。 First, if Z is the focal length, the three-dimensional coordinate value (x, y, z) projected onto the z = Z plane corresponding to the two-dimensional coordinate value (X, Y) on the image is (X , Y, Z). Then, the coordinate values after the coordinate conversion of the three-dimensional coordinate values (x, y, z) by pan, tilt, and roll are:
Figure 2020065218
Becomes

(xx,xy,xz)、(yx,yy,yz)、(zx,zy,zz)を座標変換のX軸方向、Y軸方向、Z軸方向とすると、X軸方向、Y軸方向、Z軸方向は次の条件を満たす必要がある。

Figure 2020065218
そして、ズーム変更による変更後の射影平面をZ’としたとき、射影変換後の画像上の位置(X’,Y’)は、
Figure 2020065218
となり、射影変換は次の式のように8個の係数(axx,axy,ayx,ayy,bx,by,cx,cy)で表すことができる。
Figure 2020065218
(X x, x y, x z), when a (y x, y y, y z), (z x, z y, z z) X -axis direction of the coordinate transformation, Y-axis, Z-axis direction, The X-axis direction, the Y-axis direction, and the Z-axis direction must satisfy the following conditions.
Figure 2020065218
Then, when the projection plane after the change due to the zoom change is Z ′, the position (X ′, Y ′) on the image after the projective transformation is
Figure 2020065218
Therefore, the projective transformation can be represented by eight coefficients (a xx , a xy , a yx , a yy , b x , b y , c x , cy ) as in the following equation.
Figure 2020065218

現在の画像のピクセル(X,Y)に対応する過去の画像のピクセル(X’,Y’)を射影変換によって計算し、この係数を用いて過去のチルト角度θ0’、過去のパン角度φ0’、過去の焦点距離Z’から現在のチルト角度θ0、現在のパン角度φ0、現在の焦点距離Zを算出することができる。 The pixel (X ′, Y ′) of the past image corresponding to the pixel (X, Y) of the current image is calculated by projective transformation, and the past tilt angle θ 0 ′ and the past pan angle φ are calculated using these coefficients. The current tilt angle θ 0 , the current pan angle φ 0 , and the current focal length Z can be calculated from 0 ′ and the past focal length Z ′.

まず、画像中央が向く方向がカメラ10のチルト角度・パン角度に相当することから、現在の画像中央が向く方向に対応する過去の画像のピクセル(X’,Y’)は、

Figure 2020065218
である。そして、現在のチルト角度θ0と現在のパン角度φ0は、
Figure 2020065218
となる。条件式を係数を用いて書き直すと、
Figure 2020065218
であり、現在の焦点距離Zは次のように求められる。
Figure 2020065218
First, since the direction in which the image center faces corresponds to the tilt angle / pan angle of the camera 10, the pixel (X ′, Y ′) in the past image corresponding to the direction in which the current image center faces is
Figure 2020065218
Is. The current tilt angle θ 0 and the current pan angle φ 0 are
Figure 2020065218
Becomes If you rewrite the conditional expression using coefficients,
Figure 2020065218
And the current focal length Z is obtained as follows.
Figure 2020065218

このように、画像処理装置20は、画像における2次元の座標を、カメラ10を中心とした実空間における3次元の極座標に変換し、3次元の極座標から画角変更後の画像における座標との対応関係を算出することができる。そこで、画像処理装置20は、非検知領域データ24aに全天球のデータを保存し、全天球上で非検知領域を管理し、物体検知時にはカメラ10の画角に対応する部分を参照する。このため、非検知領域を設定した後、非検知領域が画角の外に出たとしても、非検知領域は失われない。   As described above, the image processing device 20 converts the two-dimensional coordinates in the image into the three-dimensional polar coordinates in the real space centered on the camera 10, and converts the three-dimensional polar coordinates into the coordinates in the image after the angle of view is changed. Correspondence can be calculated. Therefore, the image processing apparatus 20 stores the data of all celestial spheres in the non-sensing region data 24a, manages the non-sensing regions on the celestial sphere, and refers to a portion corresponding to the angle of view of the camera 10 when detecting an object. . Therefore, even if the non-detection area goes out of the angle of view after the non-detection area is set, the non-detection area is not lost.

図7は、3次元の座標による座標の管理についての説明図である。図7では、カメラ10の基準位置(θ0=0,φ0=0)で画像P1を撮像し、カメラ10を右方向にパン制御して画像P2を撮像している。 FIG. 7 is an explanatory diagram regarding management of coordinates by three-dimensional coordinates. In FIG. 7, the image P1 is captured at the reference position (θ 0 = 0, φ 0 = 0) of the camera 10, and the camera 10 is pan-controlled rightward to capture the image P2.

画像P1におけるピクセルの座標値をパン制御に伴って変換すると、画像P2において対応するピクセルの座標値が得られる。画像P2では画角内に対応するピクセルが存在するが、パン制御を継続して取得した画像Pnで同様に変換を行うと座標値が画角の外側となり、対応するピクセルは存在しない。   When the coordinate value of the pixel in the image P1 is converted along with the pan control, the coordinate value of the corresponding pixel in the image P2 is obtained. In the image P2, the corresponding pixel exists within the angle of view, but if the image Pn obtained by continuing the pan control is similarly converted, the coordinate value is outside the angle of view, and the corresponding pixel does not exist.

画角変更前の画像における2次元座標から画角変更後の画像における2次元座標を直接算出すると、画角の外に出た座標の情報は失われてしまう。一方、画像処理装置20の算出部25cは、画像P1におけるピクセルの座標値を実空間の3次元の極座標に変換するため、画角の外に出た座標についても情報を失うことはない。   If the two-dimensional coordinates in the image after changing the angle of view are directly calculated from the two-dimensional coordinates in the image before changing the angle of view, the information on the coordinates outside the angle of view is lost. On the other hand, the calculation unit 25c of the image processing device 20 converts the coordinate values of the pixels in the image P1 into the three-dimensional polar coordinates in the real space, and therefore does not lose information about the coordinates outside the angle of view.

例えば、最初(φ0=0)に非検知領域の座標を設定し、パン制御を継続してカメラ10が1回転した場合(φ0=360)、画角変更の度に変更前の2次元座標を変更後の2次元座標に変更する構成では、最初(φ0=0)に設定した非検知領域の座標は画角から出た時点で失われ、回転後(φ0=360)は同一の画角であるにも関わらず、非検知領域の除外ができない。 For example, when the coordinates of the non-detection area are initially set (φ 0 = 0), the pan control is continued, and the camera 10 makes one rotation (φ 0 = 360), the two-dimensional image before the change is obtained every time the angle of view is changed. In the configuration in which the coordinates are changed to the two-dimensional coordinates after the change, the coordinates of the non-detection area initially set (φ 0 = 0) are lost when the angle of view exits, and the same after rotation (φ 0 = 360). However, the non-detection area cannot be excluded regardless of the angle of view.

これに対し、最初(φ0=0)に設定した非検知領域の座標を実空間の3次元の極座標に変換する構成では、回転後(φ0=360)にも非検知領域の座標を特定することができるため、非検知領域を除外することができる。 On the other hand, in the configuration in which the coordinates of the non-detection area initially set (φ 0 = 0) are converted into three-dimensional polar coordinates in the real space, the coordinates of the non-detection area are specified even after rotation (φ 0 = 360). Therefore, the non-detection area can be excluded.

画像上の2次元座標を実空間の3次元の極座標に変換して利用する場合には、パン、チルト、ズームの履歴を蓄積することが求められる。パン、チルト、ズームの履歴は、カメラ10の制御内容から蓄積してもよいし、カメラ10画像から算出して蓄積することも可能である。カメラ10の画像からパン、チルト、ズームの履歴を蓄積する場合には、非検知領域が画角内に含まれているか否かに関わらず、画角変更前後の画像における任意の対応点を用いてパン、チルト、ズームがどれだけ行なわれたかを算定して蓄積すればよい。   When the two-dimensional coordinates on the image are converted into the three-dimensional polar coordinates in the real space for use, it is necessary to accumulate the history of pan, tilt, and zoom. The history of pan, tilt, and zoom may be accumulated based on the control content of the camera 10, or may be calculated and accumulated from the image of the camera 10. When accumulating the history of pan, tilt, and zoom from the image of the camera 10, an arbitrary corresponding point in the image before and after the change of the view angle is used regardless of whether or not the non-detection area is included in the view angle. It is sufficient to calculate and accumulate how much pan, tilt and zoom have been performed.

また、画角変更前後の画像における任意の対応点を用いてパン、チルト、ズームがどれだけ行なわれたかを算定して蓄積する構成では、画像処理装置20からの遠隔制御に依らない画角の変動にも対応可能である。例えば、カメラ10を直接操作されたり、カメラ10に物理的に力が加わってカメラ10の画角が変化した場合であっても、その画角の変化を特定することができる。   Further, in the configuration of calculating and accumulating how much pan, tilt, and zoom are performed by using arbitrary corresponding points in the image before and after the change of the angle of view, the angle of view that does not depend on the remote control from the image processing device 20 can be obtained. It is possible to cope with fluctuations. For example, even when the camera 10 is directly operated, or when the camera 10 has a physical force to change the view angle of the camera 10, the change in the view angle can be specified.

上述してきたように、本実施例1では、画像処理装置20は、撮像装置であるカメラ10で撮像された画像に対して非検知領域を設定し、カメラ10の画角を遠隔制御した場合に、画角変更前に設定した非検知領域に対応する画角変更後の非検知領域を算出する。このため、画角を遠隔制御可能なカメラ10を用いて画像を撮像する場合に、物体の誤検知に伴う信頼性の低下を抑制することができる。   As described above, in the first embodiment, when the image processing apparatus 20 sets the non-detection area in the image captured by the camera 10 that is the image capturing apparatus and remotely controls the angle of view of the camera 10. , The non-detection area after the view angle change corresponding to the non-detection area set before the view angle change is calculated. Therefore, when an image is captured using the camera 10 whose angle of view can be remotely controlled, it is possible to suppress a decrease in reliability due to erroneous detection of an object.

また、画像処理装置20は、算出された画角変更後の非検知領域を除外した領域を対象領域として物体を検知する物体検知処理を行うことができる。また、画像処理装置20は、カメラ10のパン、チルト、ズーム制御を行うことができる。   Further, the image processing apparatus 20 can perform an object detection process of detecting an object by using an area excluding the non-detection area after the calculated view angle change as a target area. Further, the image processing device 20 can perform pan, tilt, and zoom control of the camera 10.

また、カメラ10によって全方位を撮像可能であり、画像処理装置20は、非検知領域の画像における2次元座標と画像の撮像時のズーム倍率に対応する値とをカメラ10を中心とした極座標に変換し、該極座標から画角変更後の非検知領域の2次元座標を算出することができる。   Further, the camera 10 can capture images in all directions, and the image processing apparatus 20 sets the two-dimensional coordinates in the image of the non-detection area and the value corresponding to the zoom magnification at the time of capturing the image to polar coordinates centered on the camera 10. It is possible to convert the two-dimensional coordinates of the non-detection region after changing the angle of view from the polar coordinates.

本実施例2では、非検知領域の補正を行う画像処理システムについて説明する。ある画像で非検知領域を設定し、画角変更を行った場合に、実施例1に示したように画角変更後の非検知領域を算出することができる。   In the second embodiment, an image processing system that corrects a non-detection area will be described. When the non-detection area is set in a certain image and the view angle is changed, the non-detection area after the view angle change can be calculated as shown in the first embodiment.

しかしながら、画角変更前の画像には含まれず、画角変更後の画像に新たに含まれる領域については、非検知領域として検知対象から除外するべき領域であったとしても、元の画像で非検知領域に設定されていないために除外できない。   However, a region that is not included in the image before changing the angle of view and is newly included in the image after changing the angle of view is not detected in the original image even if it is a region that should be excluded from the detection target as a non-detection region. It cannot be excluded because it is not set in the detection area.

一方で、画角変更によって新たに画像に含まれる領域が発生する度に、操作者に設定を求めることとすると、操作者の作業負担が大きくなる。そのため、ある画角の画像を用いて非検知領域が設定された場合に、設定された非検知領域を画角の外側に反映させるよう補正を行うことで、操作者の負担を軽減することができる。   On the other hand, if the operator is requested to make a setting each time a new area is included in the image due to the change of the angle of view, the work load on the operator increases. Therefore, when the non-detection area is set using an image with a certain angle of view, the operator's burden can be reduced by performing correction so that the set non-detection area is reflected outside the angle of view. it can.

図8は、本実施例2に係る画像処理システムの概念の説明図である。図8では、画像処理装置120は、カメラ10から画像P1を取得し(S1)、画像P1に対して非検知領域A1を設定している(S2)。その後、画像処理装置120は、カメラ10を下方向にチルト制御する画角変更を行って(S3)、画像P3を取得している。画像処理装置120は、画像P1に設定された非検知領域A1に対応する画角変更後の非検知領域A3を算出する(S4)。   FIG. 8 is an explanatory diagram of the concept of the image processing system according to the second embodiment. In FIG. 8, the image processing apparatus 120 acquires the image P1 from the camera 10 (S1) and sets the non-detection area A1 for the image P1 (S2). After that, the image processing apparatus 120 changes the angle of view to control the camera 10 to tilt downward (S3), and acquires the image P3. The image processing apparatus 120 calculates the non-detection area A3 after changing the angle of view, which corresponds to the non-detection area A1 set in the image P1 (S4).

画像P1における非検知領域A1は、画像上で並木を示す領域を含むよう格子を選択しており、言い換えれば並木を示す領域を矩形で近似したものである。このため、並木ではないが非検知領域A1に含まれる箇所や、並木だが非検知領域に含まれない箇所が存在する。   The non-detection area A1 in the image P1 is a grid selected so as to include an area showing a row of trees on the image, in other words, the area showing a row of trees is approximated by a rectangle. For this reason, there are locations that are not trees but are included in the non-detection area A1, and locations that are trees and are not included in the non-detection area.

また、画像P3は、チルト制御の結果、画像P1よりも広範囲に並木を示す領域が含まれている。しかし、非検知領域A3は、画像P1で設定された非検知領域から算出されているため、画像P3で新たに画像内に含まれた並木の領域は非検知領域A3に入っていない。   Further, as a result of the tilt control, the image P3 includes a region showing row trees in a wider range than the image P1. However, since the non-detection area A3 is calculated from the non-detection area set in the image P1, the area of the tree lined newly included in the image P3 is not included in the non-detection area A3.

図9は、非検知領域A1と格子の対応関係を示す説明図であり、図10は、非検知領域A3の補正についての説明図である。まず、図9に示すように、画像P1の座標には全天球の格子が対応しており、非検知領域A1は、格子の選択により設定される。   FIG. 9 is an explanatory diagram showing the correspondence between the non-detection region A1 and the lattice, and FIG. 10 is an explanatory diagram of correction of the non-detection region A3. First, as shown in FIG. 9, the coordinates of the image P1 correspond to the spherical grid, and the non-detection area A1 is set by selecting the grid.

また、図10に示すように、画角変更後の画像P3の座標にも全天球の格子が対応している。このため、非検知領域A1に含まれていた格子のうち、画像P3にも含まれる格子が非検知領域A3を形成する。   Further, as shown in FIG. 10, the celestial sphere lattice also corresponds to the coordinates of the image P3 after changing the angle of view. Therefore, of the grids included in the non-detection area A1, the grids included in the image P3 form the non-detection area A3.

さらに、画像処理装置120は、画像P3から補正対象領域B3を判定し、補正対象領域B3を非検知領域とすることで、非検知領域A3aを得る。補正対象領域B3の条件は、「非検知領域A3と連続する格子であって、非検知領域A3と領域の種別が同一」などを用いればよい。   Further, the image processing apparatus 120 determines the correction target area B3 from the image P3 and sets the correction target area B3 as the non-detection area to obtain the non-detection area A3a. The condition of the correction target area B3 may be “a grid continuous with the non-detection area A3 and the type of the area is the same as the non-detection area A3”.

領域の種別は、例えば、ニューラルネットワークを用いた学習モデルによるセグメンテーションを利用して特定することができる。そして、格子の領域の種別は、格子内に含まれる最大面積の領域の種別を用いればよい。格子の領域の種別は、予め全天球の全ての格子について特定し、非検知領域データ24aに関連付けておいてもよい。また、格子に含まれる領域の種別についてその比率を非検知領域データ24aに関連付けておいてもよい。   The type of region can be specified, for example, by using segmentation by a learning model using a neural network. Then, as the type of the region of the lattice, the type of the region having the largest area included in the lattice may be used. The area type of the grid may be specified in advance for all the grids of the celestial sphere and may be associated with the non-detection area data 24a. Further, the ratio of the types of regions included in the grid may be associated with the non-detection region data 24a.

具体的には、画像P1や画像P3では、並木、車道、歩道などの領域の種別が得られる。そして、図10に示すように、非検知領域A3は種別が並木であるため、非検知領域A3に連続し、かつ種別が並木の格子が補正対象領域B3となっている。この補正対象領域B3は、補正によって非検知領域A3aに含まれる。   Specifically, in the images P1 and P3, the types of regions such as row of trees, roads, and sidewalks are obtained. Then, as shown in FIG. 10, since the non-detection area A3 is a type of tree, the grid that is continuous with the non-detection area A3 and has a type of tree is the correction target area B3. The correction target area B3 is included in the non-detection area A3a by the correction.

次に、画像処理装置120の構成について説明する。図11は、画像処理装置120の構成を示す構成図である。図11に示すように、画像処理装置120は、制御部25に領域種別識別部25e及び補正処理部25fをさらに備える点が、図2に示した画像処理装置20と異なる。その他の構成及び動作については、図2に示した画像処理装置20と同様であるので、同一の構成要素には同一の符号を付して説明を省略する。   Next, the configuration of the image processing device 120 will be described. FIG. 11 is a configuration diagram showing the configuration of the image processing apparatus 120. As illustrated in FIG. 11, the image processing apparatus 120 differs from the image processing apparatus 20 illustrated in FIG. 2 in that the control unit 25 further includes an area type identification unit 25e and a correction processing unit 25f. Since other configurations and operations are the same as those of the image processing apparatus 20 shown in FIG. 2, the same components are designated by the same reference numerals and description thereof will be omitted.

領域種別識別部25eは、カメラ10から取得した画像に対し、領域の種別を識別する処理を行う。領域の識別は、カメラ10が基準位置で撮像した画像であるか否かに関わらず、任意の画像に対して行うことができる。また、識別には、既に説明したように、ニューラルネットワークを用いた学習モデルによるセグメンテーションなど、任意の手法を用いることができる。   The area type identification unit 25e performs processing for identifying the area type for the image acquired from the camera 10. The region can be identified for any image regardless of whether or not the image is captured by the camera 10 at the reference position. Further, as described above, any method such as segmentation by a learning model using a neural network can be used for identification.

補正処理部25fは、非検知領域を補正する処理を行う。具体的には、補正処理部25fは、「非検知領域と連続する格子であって、非検知領域と領域の種別が同一」などの条件を用いて補正対象領域を判定し、補正対象領域を非検知領域に含める補正を行う。そして、画像処理装置120の物体検知部25dは、補正処理部25fにより補正された非検知領域を除外した領域を対象領域として物体を検知する。   The correction processing unit 25f performs a process of correcting the non-detection area. Specifically, the correction processing unit 25f determines the correction target area using a condition such as “a grid that is continuous with the non-detection area and the type of the non-detection area is the same as the type”, and determines the correction target area. Perform the correction to be included in the non-detection area. Then, the object detection unit 25d of the image processing apparatus 120 detects an object by using the region excluding the non-detection region corrected by the correction processing unit 25f as the target region.

次に、画像処理装置120の処理手順について説明する。図12は、画像処理装置120の処理手順を示すフローチャートである。図12に示した処理手順では、物体検知処理(ステップS107)の前に非検知領域の補正(ステップS106a)が追加されている。その他の処理手順については、図3に示した処理手順と同一であるので説明を省略する。   Next, a processing procedure of the image processing apparatus 120 will be described. FIG. 12 is a flowchart showing the processing procedure of the image processing apparatus 120. In the processing procedure shown in FIG. 12, correction of the non-detection area (step S106a) is added before the object detection processing (step S107). The other processing procedure is the same as the processing procedure shown in FIG.

図12の処理手順では、ステップS106の後、もしくは非検知領域の設定操作を受け付けていない場合(ステップS104;No)、補正処理部25fが非検知領域の補正を行い(ステップS106a)、物体検知部25dは、補正処理部25fにより補正された非検知領域を除外した領域を対象領域として物体を検知する(ステップS107)。   In the processing procedure of FIG. 12, after step S106 or when the setting operation of the non-detection area is not accepted (step S104; No), the correction processing unit 25f corrects the non-detection area (step S106a), and the object detection is performed. The unit 25d detects an object by using a region excluding the non-detection region corrected by the correction processing unit 25f as a target region (step S107).

次に、非検知領域の補正の変形例について説明する。これまでの説明では、全天球を分割した格子単位で非検知領域を管理する構成について説明したが、領域の種別に基づいて非検知領域を補正することで、領域単位で非検知領域を管理することも可能である。   Next, a modification of correction of the non-detection area will be described. In the description so far, the configuration has been described in which the non-detection area is managed in units of grids obtained by dividing the celestial sphere, but by correcting the non-detection area based on the type of area, the non-detection area is managed in unit of the area. It is also possible to do so.

図13は、変形例における非検知領域の補正についての説明図である。図13では、画像処理装置120は、画像P1に対し、領域の種別を識別する処理を行っている(S1c)。この識別には、例えば、ニューラルネットワークを用いた学習モデルによるセグメンテーションを利用すればよい。領域の種別を識別した画像P1cは、識別された領域で分割され、各領域に種別が対応付けられる。具体的には、画像P1cは、並木、車道、歩道などの領域に分割されている。   FIG. 13 is an explanatory diagram of correction of the non-detection area in the modification. In FIG. 13, the image processing apparatus 120 performs a process of identifying the type of area for the image P1 (S1c). For this identification, for example, segmentation by a learning model using a neural network may be used. The image P1c in which the type of the area is identified is divided in the identified area, and the type is associated with each area. Specifically, the image P1c is divided into areas such as a row of trees, a roadway, and a sidewalk.

そして、画像処理装置120は、非検知領域A1を設定したならば(S2)、非検知領域A1に含まれる領域の種別毎の比率を用い、非検知領域の補正を行う(S2c)。図13では、非検知領域A1の大部分を並木の領域が占めている。そこで、画像処理装置120は、非検知領域A1と連続した並木の領域を補正後の非検知領域A1cとする。   Then, when the non-detection area A1 is set (S2), the image processing apparatus 120 corrects the non-detection area by using the ratio of each type of the areas included in the non-detection area A1 (S2c). In FIG. 13, the area of the row of trees occupies most of the non-detection area A1. Therefore, the image processing apparatus 120 sets the area of the row of trees that is continuous with the non-detection area A1 as the post-correction non-detection area A1c.

図14は、変形例における画角変更後の補正についての説明図である。画像処理装置120は、画角変更を行って(S3)、画像P3を取得している。そして、画像処理装置120は、画像P1に設定された非検知領域A1に対応する画角変更後の非検知領域A3を算出している(S4)。   FIG. 14 is an explanatory diagram of correction after changing the angle of view in the modified example. The image processing device 120 changes the angle of view (S3) and acquires the image P3. Then, the image processing apparatus 120 calculates the non-detection area A3 after changing the angle of view, which corresponds to the non-detection area A1 set in the image P1 (S4).

また、画像処理装置120は、画像P3に対し、領域の種別を識別する処理を行う。そして、非検知領域A3に含まれる領域の種別毎の比率を用い、非検知領域の補正を行う(S4c)。図14では、非検知領域A3の大部分を並木の領域が占めている。そこで、画像処理装置120は、非検知領域A3と連続した並木の領域を補正後の非検知領域A3cとする。   Further, the image processing apparatus 120 performs a process of identifying the type of area for the image P3. Then, the non-detection area is corrected by using the ratio of each area included in the non-detection area A3 (S4c). In FIG. 14, most of the non-detection area A3 is occupied by a row of trees. Therefore, the image processing apparatus 120 sets the area of the row of trees that is continuous with the non-detection area A3 as the corrected non-detection area A3c.

この変形例では、補正処理部25fは、非検知領域設定部25bにより設定された非検知領域や、算出部25cにより算出された画角変更後の非検知領域を補正する処理を行う。具体的には、補正処理部25fは、種別毎に検知領域と非検知領域の比率を求め、非検知領域の比率が所定比率以上であれば、その種別の領域で、非検知領域の格子と連続した領域を非検知領域とする。そして、画像処理装置120の物体検知部25dは、補正処理部25fにより補正された非検知領域を除外した領域を対象領域として物体を検知する。   In this modification, the correction processing unit 25f performs a process of correcting the non-detection region set by the non-detection region setting unit 25b and the non-detection region after the change of the view angle calculated by the calculation unit 25c. Specifically, the correction processing unit 25f obtains the ratio of the detection region and the non-detection region for each type, and if the ratio of the non-detection region is equal to or more than a predetermined ratio, the region of the type is determined as a grid of the non-detection region. A continuous area is defined as a non-detection area. Then, the object detection unit 25d of the image processing apparatus 120 detects an object by using the region excluding the non-detection region corrected by the correction processing unit 25f as the target region.

次に、画像処理装置とコンピュータの主たるハードウエア構成の対応関係について説明する。図15は、ハードウエア構成の一例を示す図である。   Next, the correspondence relationship between the main hardware configurations of the image processing apparatus and the computer will be described. FIG. 15 is a diagram illustrating an example of the hardware configuration.

一般的なコンピュータは、CPU91、ROM(Read Only Memory)92、RAM93及び不揮発性メモリ94などがバス95により接続された構成となる。不揮発性メモリ94の代わりにハードディスク装置が設けられていても良い。説明の便宜上、基本的なハードウエア構成のみを示している。   A general computer has a configuration in which a CPU 91, a ROM (Read Only Memory) 92, a RAM 93, a non-volatile memory 94 and the like are connected by a bus 95. A hard disk device may be provided instead of the non-volatile memory 94. For convenience of explanation, only a basic hardware configuration is shown.

ここで、ROM92又は不揮発性メモリ94には、オペレーティングシステム(Operating System;以下、単に「OS」と言う)の起動に必要となるプログラム等が記憶されており、CPU91は、電源投入時にROM92又は不揮発性メモリ94からOSのプログラムをリードして実行する。   Here, the ROM 92 or the non-volatile memory 94 stores a program or the like required for booting an operating system (hereinafter, simply referred to as “OS”), and the CPU 91 stores the ROM 92 or the non-volatile memory when the power is turned on. The OS program is read from the local memory 94 and executed.

一方、OS上で実行される各種のアプリケーションプログラムは、不揮発性メモリ94に記憶されており、CPU91がRAM93を主メモリとして利用しつつアプリケーションプログラムを実行することにより、アプリケーションに対応するプロセスが実行される。   On the other hand, various application programs executed on the OS are stored in the non-volatile memory 94, and the CPU 91 executes the application programs while using the RAM 93 as a main memory to execute a process corresponding to the application. It

そして、実施例1及び実施例2で説明した画像処理装置20や画像処理装置120の機能についても、他のアプリケーションプログラムと同様に不揮発性メモリ94等にプログラムとして記憶し、CPU91がこのプログラムをロードして実行することになる。例えば、図2に示した画角制御部25a、非検知領域設定部25b、算出部25c及び物体検知部25dに対応するルーチンを含む画面処理プログラムを不揮発性メモリ94等に記憶させ、CPU91により画面処理プログラムがロード実行されることにより、画角制御部25a、非検知領域設定部25b、算出部25c及び物体検知部25dに対応するプロセスが生成される。なお、非検知領域データ24a等は、不揮発性メモリ94に記憶される。   The functions of the image processing apparatus 20 and the image processing apparatus 120 described in the first and second embodiments are also stored as a program in the non-volatile memory 94 or the like as with other application programs, and the CPU 91 loads this program. Will be executed. For example, a screen processing program including routines corresponding to the view angle control unit 25a, the non-detection area setting unit 25b, the calculation unit 25c, and the object detection unit 25d illustrated in FIG. By loading and executing the processing program, processes corresponding to the view angle control unit 25a, the non-detection area setting unit 25b, the calculation unit 25c, and the object detection unit 25d are generated. The non-detection area data 24a and the like are stored in the non-volatile memory 94.

上述してきたように、本実施例2では、実施例1と同様に画角変更後の非検知領域を算出可能であり、画角を遠隔制御可能なカメラ10を用いて画像を撮像する場合に、物体の誤検知に伴う信頼性の低下を抑制することができる。さらに、実施例2では、非検知領域を補正することで、操作者の作業負担の軽減、誤検知や検知漏れの防止を実現することができる。   As described above, in the second embodiment, as in the first embodiment, the non-detection area after changing the angle of view can be calculated, and when the image is captured using the camera 10 that can remotely control the angle of view. Therefore, it is possible to suppress a decrease in reliability due to erroneous detection of an object. Furthermore, in the second embodiment, by correcting the non-detection region, it is possible to reduce the work load on the operator and prevent erroneous detection and omission of detection.

なお、本実施例2では、画像に含まれる領域の種別を識別し、非検知領域に含まれる領域の種別を用いて非検知領域を補正する構成を例示したが、本発明はこれに限定されるものではなく、任意の手法を用いて非検知領域を補正することができる。   In the second embodiment, the type of the area included in the image is identified, and the non-detection area is corrected using the type of the area included in the non-detection area. However, the present invention is not limited to this. However, the non-detection area can be corrected by using any method.

また、上記の実施例1及び実施例2では、画像に対して設定された2次元の非検知領域を極座標に変換して非検知領域データ24aとして記憶する構成を例示したが、画像に対して設定された2次元の非検知領域をそのまま非検知領域データ24aとして記憶する構成としてもよい。この場合には、画角変更後の非検知領域を算出するときに、非検知領域データ24aを極座標に変換し、現在の撮像方向等から画角変更後の画像における非検知領域を算出することになる。若しくは、画角変更後の画像における物体の位置を現在の撮像方向等に基づいて極座標に変換するとともに、非検知領域データ24aを極座標に変換し、物体の位置が非検知領域内であるか否かを判定してもよい。   Further, in the above-described first and second embodiments, the configuration in which the two-dimensional non-detection area set for the image is converted into polar coordinates and stored as the non-detection area data 24a is illustrated. The set two-dimensional non-detection area may be directly stored as the non-detection area data 24a. In this case, when calculating the non-detection area after changing the angle of view, the non-detection area data 24a is converted into polar coordinates and the non-detection area in the image after changing the angle of view is calculated from the current imaging direction and the like. become. Alternatively, whether or not the position of the object in the image after changing the angle of view is converted into polar coordinates based on the current imaging direction and the non-detection region data 24a is converted into polar coordinates, and whether the position of the object is within the non-detection region or not. You may judge whether.

また、上記の実施例1及び実施例2では、画像処理装置がカメラを遠隔制御する場合を例に説明を行ったが、カメラの画角制御がPTZ制御である限り、画像処理装置以外による制御を受けるものであってもよく、画像処理装置がカメラの制御機能を有さなくともよい。   Further, in the above-described first and second embodiments, the case where the image processing device remotely controls the camera has been described as an example, but as long as the angle of view control of the camera is PTZ control, control by a device other than the image processing device is performed. The image processing apparatus may not have the control function of the camera.

また、上記の実施例1及び実施例2では、画角変更後の非検知領域を算出する構成を例示したが、画角変更後の検知領域を算出するよう構成することも可能である。   Further, in the above-described first and second embodiments, the configuration for calculating the non-detection region after the change of the angle of view is illustrated, but it is also possible to calculate for the detection region after the change of the angle of view.

なお、上記の実施例で図示した各構成は機能概略的なものであり、必ずしも物理的に図示の構成をされていることを要しない。すなわち、各装置の分散・統合の形態は図示のものに限られず、その全部又は一部を各種の負荷や使用状況などに応じて、任意の単位で機能的又は物理的に分散・統合して構成することができる。   It should be noted that each of the configurations illustrated in the above-described embodiments is a functional schematic, and does not necessarily have to be physically configured as illustrated. That is, the form of distribution / integration of each device is not limited to that shown in the figure, and all or a part of them may be functionally or physically distributed / integrated in arbitrary units according to various loads and usage conditions. Can be configured.

本発明の画像処理プログラム、画像処理装置、画像処理システム及び画像処理方法は、画角を遠隔制御可能な撮像装置を用いて画像を撮像する場合に、物体の誤検知に伴う信頼性の低下を抑制することに有用である。   The image processing program, the image processing device, the image processing system, and the image processing method of the present invention reduce reliability due to erroneous detection of an object when an image is captured using an imaging device capable of remotely controlling the angle of view. It is useful for suppressing.

10 カメラ
20、120 画像処理装置
21 通信部
22 表示部
23 入力部
24 記憶部
24a 非検知領域データ
25 制御部
25a 画角制御部
25b 非検知領域設定部
25c 算出部
25d 物体検知部
25e 領域種別識別部
25f 補正処理部
91 CPU
92 ROM
93 RAM
94 不揮発性メモリ
95 バス
10 camera 20, 120 image processing device 21 communication unit 22 display unit 23 input unit 24 storage unit 24a non-detection region data 25 control unit 25a view angle control unit 25b non-detection region setting unit 25c calculation unit 25d object detection unit 25e region type identification Part 25f Correction processing part 91 CPU
92 ROM
93 RAM
94 non-volatile memory 95 bus

上記の課題を解決するため、本発明は、画角を遠隔制御可能な撮像装置で撮像された画像の画像処理を行う画像処理装置における画像処理プログラムであって、前記画像に対して非検知領域を設定する非検知領域設定手順と、前記撮像装置の画角が遠隔制御された場合に、前記非検知領域設定手順により設定された非検知領域に対応する画角変更後の非検知領域を算出する算出手順と、前記算出手順により算出された画角変更後の非検知領域を補正する非検知領域補正手順とをコンピュータに実行させることを特徴とする。 In order to solve the above problems, the present invention is an image processing program in an image processing apparatus that performs image processing of an image captured by an image capturing apparatus capable of remotely controlling an angle of view, which is a non-detection region for the image. A non-detection area setting procedure for setting the non-detection area and a non-detection area after changing the view angle corresponding to the non-detection area set by the non-detection area setting procedure when the view angle of the imaging device is remotely controlled. And a non-detection area correction procedure for correcting the non-detection area after changing the angle of view calculated by the calculation procedure .

また、本発明は、画角を遠隔制御可能な撮像装置で撮像された画像の画像処理を行う画像処理装置であって、前記画像に対して非検知領域を設定する非検知領域設定部と、前記撮像装置の画角が遠隔制御された場合に、前記非検知領域設定部により設定された非検知領域に対応する画角変更後の非検知領域を算出する算出部と、前記算出部により算出された画角変更後の非検知領域を補正する非検知領域補正部とを備えたことを特徴とする。 Further, the present invention is an image processing apparatus that performs image processing of an image captured by an image capturing apparatus capable of remotely controlling an angle of view, and a non-detection area setting unit that sets a non-detection area for the image, If the angle of view of the imaging device is remotely controlled, and a calculation unit for calculating a non-detection region after the angle of view changes corresponding to the non-detection area set by the non-detection area setting unit, calculated by the calculation unit And a non-detection area correction unit that corrects the non-detection area after the changed view angle .

また、本発明は、撮像装置と、前記撮像装置の画角を遠隔制御するとともに該撮像装置で撮像された画像の画像処理を行う画像処理装置とを通信可能に接続した画像処理システムであって、前記画像処理装置は、前記撮像装置の画角を制御する画角制御部と、前記画像に対して非検知領域を設定する非検知領域設定部と、前記撮像装置の画角が遠隔制御された場合に、前記非検知領域設定部により設定された非検知領域に対応する画角変更後の非検知領域を算出する算出部と、前記算出部により算出された画角変更後の非検知領域を補正する非検知領域補正部とを備えたことを特徴とする。 The present invention also provides an image processing system in which an imaging device and an image processing device that remotely controls an angle of view of the imaging device and performs image processing of an image captured by the imaging device are communicably connected. The image processing apparatus includes a view angle control unit that controls a view angle of the image pickup apparatus, a non-detection area setting unit that sets a non-detection area for the image, and a view angle of the image pickup apparatus is remotely controlled. If the, the non-detection and calculation unit for calculating a non-detection region after the angle of view changes corresponding to the non-detection area set by the area setting unit, a non-detection region after the angle of view changes calculated by the calculating section And a non-detection area correction unit that corrects

また、本発明は、画角を遠隔制御可能な撮像装置で撮像された画像の画像処理を行う画像処理装置における画像処理方法であって、前記画像に対して非検知領域を設定する非検知領域設定工程と、前記撮像装置の画角が遠隔制御された場合に、前記非検知領域設定工程により設定された非検知領域に対応する画角変更後の非検知領域を算出する算出工程と、前記算出工程により算出された画角変更後の非検知領域を補正する非検知領域補正工程とを含んだことを特徴とする。 Further, the present invention is an image processing method in an image processing device for performing image processing of an image captured by an imaging device capable of remotely controlling an angle of view, the non-detection region having a non-detection region set for the image. A setting step; a calculation step of calculating a non-sensing area after changing the angle of view corresponding to the non-sensing area set in the non-sensing area setting step when the angle of view of the imaging device is remotely controlled ; And a non-detection area correction step of correcting the non-detection area after changing the angle of view calculated by the calculation step .

Claims (9)

画角を遠隔制御可能な撮像装置で撮像された画像の画像処理を行う画像処理装置における画像処理プログラムであって、
前記画像に対して非検知領域を設定する非検知領域設定手順と、
前記撮像装置の画角が遠隔制御された場合に、前記非検知領域設定手順により設定された非検知領域に対応する画角変更後の非検知領域を算出する算出手順と
をコンピュータに実行させることを特徴とする画像処理プログラム。
An image processing program in an image processing device for performing image processing of an image captured by an imaging device capable of remotely controlling an angle of view,
A non-detection area setting procedure for setting a non-detection area for the image,
And a calculation procedure for calculating a non-detection area after changing the angle of view corresponding to the non-detection area set by the non-detection area setting procedure when the angle of view of the imaging device is remotely controlled. An image processing program characterized by:
前記算出手順により算出された画角変更後の非検知領域を除外した領域を対象領域として物体を検知する第1の物体検知手順をさらにコンピュータに実行させることを特徴とする請求項1に記載の画像処理プログラム。   2. The computer is further caused to execute a first object detection procedure for detecting an object with an area excluding the non-detection area after the change of the angle of view calculated by the calculation procedure as a target area. Image processing program. 前記撮像装置のパン、チルト、ズーム制御を行う画角制御手順をさらにコンピュータに実行させることを特徴とする請求項1又は2に記載の画像処理プログラム。   The image processing program according to claim 1 or 2, further causing a computer to execute an angle-of-view control procedure for performing pan, tilt, and zoom control of the imaging device. 前記算出手順により算出された画角変更後の非検知領域を補正する非検知領域補正手順をさらにコンピュータに実行させることを特徴とする請求項1、2又は3に記載の画像処理プログラム。   The image processing program according to claim 1, 2, or 3, further causing a computer to execute a non-detection area correction procedure for correcting the non-detection area after changing the angle of view calculated by the calculation procedure. 前記非検知領域補正手順により補正された非検知領域を除外した領域を対象領域として物体を検知する第2の物体検知手順をさらにコンピュータに実行させることを特徴とする請求項4に記載の画像処理プログラム。   The image processing according to claim 4, further comprising: causing the computer to further execute a second object detection procedure of detecting an object by using an area excluding the non-detection area corrected by the non-detection area correction procedure as a target area. program. 前記撮像装置は全方位を撮像可能であり、
前記算出手順は、前記非検知領域の前記画像における2次元座標を前記撮像装置を中心とした極座標に変換し、該極座標から前記画角変更後の非検知領域の2次元座標を算出する
ことを特徴とする請求項1〜5のいずれか一つに記載の画像処理プログラム。
The imaging device can image in all directions,
In the calculation procedure, the two-dimensional coordinates in the image of the non-detection area are converted into polar coordinates centered on the imaging device, and the two-dimensional coordinates of the non-detection area after the change of the angle of view are calculated from the polar coordinates. The image processing program according to any one of claims 1 to 5, which is characterized in that.
画角を遠隔制御可能な撮像装置で撮像された画像の画像処理を行う画像処理装置であって、
前記画像に対して非検知領域を設定する非検知領域設定部と、
前記撮像装置の画角が遠隔制御された場合に、前記非検知領域設定部により設定された非検知領域に対応する画角変更後の非検知領域を算出する算出部と
を備えたことを特徴とする画像処理装置。
An image processing device for performing image processing of an image captured by an image capturing device capable of remotely controlling an angle of view,
A non-detection area setting unit for setting a non-detection area for the image,
And a calculation unit that calculates a non-detection region after changing the angle of view corresponding to the non-detection region set by the non-detection region setting unit when the angle of view of the imaging device is remotely controlled. Image processing device.
撮像装置と、前記撮像装置の画角を遠隔制御するとともに該撮像装置で撮像された画像の画像処理を行う画像処理装置とを通信可能に接続した画像処理システムであって、
前記画像処理装置は、
前記撮像装置の画角を制御する画角制御部と、
前記画像に対して非検知領域を設定する非検知領域設定部と、
前記撮像装置の画角が遠隔制御された場合に、前記非検知領域設定部により設定された非検知領域に対応する画角変更後の非検知領域を算出する算出部と
を備えたことを特徴とする画像処理システム。
An image processing system in which an imaging device and an image processing device for remotely controlling an angle of view of the imaging device and performing image processing of an image captured by the imaging device are communicatively connected,
The image processing device,
An angle-of-view control unit that controls the angle of view of the imaging device,
A non-detection area setting unit for setting a non-detection area for the image,
And a calculation unit that calculates a non-detection region after changing the angle of view corresponding to the non-detection region set by the non-detection region setting unit when the angle of view of the imaging device is remotely controlled. Image processing system.
画角を遠隔制御可能な撮像装置で撮像された画像の画像処理を行う画像処理装置における画像処理方法であって、
前記画像に対して非検知領域を設定する非検知領域設定工程と、
前記撮像装置の画角が遠隔制御された場合に、前記非検知領域設定工程により設定された非検知領域に対応する画角変更後の非検知領域を算出する算出工程と
を含んだことを特徴とする画像処理方法。
An image processing method in an image processing device for performing image processing of an image captured by an imaging device capable of remotely controlling an angle of view,
A non-detection area setting step of setting a non-detection area for the image,
And a calculation step of calculating a non-detection area after changing the angle of view corresponding to the non-detection area set by the non-detection area setting step when the angle of view of the imaging device is remotely controlled. Image processing method.
JP2018197218A 2018-10-19 2018-10-19 Image processing program, image processing device, image processing system, and image processing method Active JP6647367B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018197218A JP6647367B1 (en) 2018-10-19 2018-10-19 Image processing program, image processing device, image processing system, and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018197218A JP6647367B1 (en) 2018-10-19 2018-10-19 Image processing program, image processing device, image processing system, and image processing method

Publications (2)

Publication Number Publication Date
JP6647367B1 JP6647367B1 (en) 2020-02-14
JP2020065218A true JP2020065218A (en) 2020-04-23

Family

ID=69568071

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018197218A Active JP6647367B1 (en) 2018-10-19 2018-10-19 Image processing program, image processing device, image processing system, and image processing method

Country Status (1)

Country Link
JP (1) JP6647367B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6901710B1 (en) * 2020-02-26 2021-07-14 日本道路株式会社 Safety devices and work machines

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002352340A (en) * 2001-05-30 2002-12-06 Hitachi Ltd Image monitoring device
JP2006107457A (en) * 2004-09-13 2006-04-20 Sony Corp Image processing apparatus and image processing method
JP2008016898A (en) * 2006-06-30 2008-01-24 Sony Corp Monitoring apparatus, monitoring system and filter setting method
JP2010009134A (en) * 2008-06-24 2010-01-14 Sony Corp Image processing system, image processing method, and program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002352340A (en) * 2001-05-30 2002-12-06 Hitachi Ltd Image monitoring device
JP2006107457A (en) * 2004-09-13 2006-04-20 Sony Corp Image processing apparatus and image processing method
JP2008016898A (en) * 2006-06-30 2008-01-24 Sony Corp Monitoring apparatus, monitoring system and filter setting method
JP2010009134A (en) * 2008-06-24 2010-01-14 Sony Corp Image processing system, image processing method, and program

Also Published As

Publication number Publication date
JP6647367B1 (en) 2020-02-14

Similar Documents

Publication Publication Date Title
JP6866439B2 (en) Position detection method and its devices, equipment, storage media and vehicles
US11190699B2 (en) Control apparatus control method and storage medium
CN111426312B (en) Method, device and equipment for updating positioning map and storage medium
WO2020206708A1 (en) Obstacle recognition method and apparatus, computer device, and storage medium
JP3768073B2 (en) Object tracking method and object tracking apparatus
US20150371376A1 (en) Control apparatus, control method, and storage medium
JP2018206365A (en) Method for processing image, device, and electronic device
US20210264188A1 (en) Image prediction system
JP5183152B2 (en) Image processing device
JP6647367B1 (en) Image processing program, image processing device, image processing system, and image processing method
JP2010124028A (en) Monitoring apparatus
JP6954367B2 (en) Measurement system, correction processing device, correction processing method, and program
JP5847591B2 (en) Information processing apparatus, information processing method and program for information processing apparatus
JPWO2020095644A1 (en) Deformity detection device, deformation detection method, and program
US20180150966A1 (en) System and method for estimating object size
JP2022006180A (en) Hand shaking correction method of image, device, electronic device, storage media, computer program product, roadside machine and cloud control platform
JPWO2020066755A1 (en) Learning model generator, feature change determination device, learning model generation method, feature change determination method, and program
US20210174517A1 (en) Monitoring apparatus, monitoring system, monitoring method, and computer-readable storage medium
JP6759400B2 (en) Information processing equipment, information processing methods, and programs
JP6965419B2 (en) Information processing equipment, information processing methods, and programs
JP2011055349A (en) Image processing apparatus and image adjustment method
JP6501945B2 (en) INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, AND PROGRAM
JP2017146704A (en) Information processing device, information processing method and program
CN116934653A (en) Detection method of negative obstacle, creation method of obstacle avoidance map and electronic equipment
CN117041481A (en) Image processing method and device for engineering equipment, engineering equipment and processor

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181024

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191023

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191126

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191224

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200114

R150 Certificate of patent or registration of utility model

Ref document number: 6647367

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250