JP6943328B2 - Angle of view adjustment method - Google Patents

Angle of view adjustment method Download PDF

Info

Publication number
JP6943328B2
JP6943328B2 JP2020146032A JP2020146032A JP6943328B2 JP 6943328 B2 JP6943328 B2 JP 6943328B2 JP 2020146032 A JP2020146032 A JP 2020146032A JP 2020146032 A JP2020146032 A JP 2020146032A JP 6943328 B2 JP6943328 B2 JP 6943328B2
Authority
JP
Japan
Prior art keywords
camera
angle
target
image
view
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020146032A
Other languages
Japanese (ja)
Other versions
JP2020198639A (en
Inventor
信一郎 園田
信一郎 園田
将旭 渡辺
将旭 渡辺
俊寛 林
俊寛 林
尚 大田
尚 大田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
IHI Corp
Original Assignee
IHI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2017033690A external-priority patent/JP6844307B2/en
Application filed by IHI Corp filed Critical IHI Corp
Priority to JP2020146032A priority Critical patent/JP6943328B2/en
Publication of JP2020198639A publication Critical patent/JP2020198639A/en
Application granted granted Critical
Publication of JP6943328B2 publication Critical patent/JP6943328B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)

Description

本発明は、カメラを備えた監視システムにおける画角調整方法に関する。 The present invention relates to an angle of view adjusting method in a surveillance system including a camera.

例えば、監視カメラの設定方法として、3点のマーカーを検出して、監視エリアを設定する方法がある(例えば、特許文献1参照)。この設定方法では、監視対象水平面上に3点のマーカーを設定し、画像処理によりこれらのマーカーを検出している。この設定方法では、3点のマーカーの間隔及びカメラ高さの情報を利用してカメラパラメータの計算を行い、計算されたカメラパラメータを使用して監視エリアを設定している。 For example, as a method of setting a surveillance camera, there is a method of detecting three markers and setting a surveillance area (see, for example, Patent Document 1). In this setting method, three markers are set on the horizontal plane to be monitored, and these markers are detected by image processing. In this setting method, the camera parameters are calculated by using the information of the distance between the three markers and the camera height, and the monitoring area is set by using the calculated camera parameters.

特開2001−204007号公報Japanese Unexamined Patent Publication No. 2001-204007

しかしながら、従来のように複数のマーカーを配置して、カメラの設定を行うと作業が煩雑であった。例えば、複数のカメラを備えるシステムにおいては、カメラごとにマーカーを設定する必要があった。 However, when a plurality of markers are arranged and the camera is set as in the conventional case, the work is complicated. For example, in a system including a plurality of cameras, it is necessary to set a marker for each camera.

本発明は、カメラを備えた監視システムにおける画角調整の手順の簡素化を図ることが可能な画角調整方法を提供することを目的とする。 An object of the present invention is to provide an angle-of-view adjustment method capable of simplifying the procedure for adjusting the angle of view in a surveillance system equipped with a camera.

本発明の画角調整方法は、カメラを備えた監視システムにおける画角調整方法であって、カメラによる撮影領域に存在し、寸法及びカメラからの距離が既知であり基準長を判別可能な既存の物体をターゲットとして設定する工程と、カメラによって撮影された画像上で撮像されるマークのサイズを計算する工程と、計算されたサイズとなるようにマークを画像上に表示する工程と、画像上でターゲットの表示をマークに合わせるように、カメラの画角を調整する工程と、を含み、マークのサイズを計算する工程は、既知のデータであるカメラからターゲットまでの距離に基づいて、マークのサイズを計算する。 The angle-of-view adjustment method of the present invention is an angle-of-view adjustment method in a surveillance system equipped with a camera, and is an existing method that exists in a shooting area by a camera, has known dimensions and a distance from the camera, and can determine a reference length. The process of setting an object as a target, the process of calculating the size of the mark captured on the image taken by the camera, the process of displaying the mark on the image so that the calculated size is obtained, and the process of displaying the mark on the image. The process of calculating the size of the mark, including adjusting the angle of view of the camera to match the display of the target to the mark, is the known data of the size of the mark based on the distance from the camera to the target. To calculate.

この画角調整方法では、カメラの撮影領域に存在する既知の物体をターゲットとして設定し、このターゲットの既知のデータである寸法及びカメラからの距離を用いて、カメラの画角調整を行うことができる。これにより、ターゲットとなる物体をわざわざ配置する必要がなく、監視システムにおける画角調整の手順の簡素化を図ることができる。 In this angle of view adjustment method, a known object existing in the shooting area of the camera is set as a target, and the angle of view of the camera can be adjusted using the dimensions and the distance from the camera, which are known data of this target. can. As a result, it is not necessary to bother to arrange the target object, and the procedure for adjusting the angle of view in the monitoring system can be simplified.

また、既存の物体をターゲットとして設定する工程では、物体が載置されている載置面の水平面に対する角度が既知である既存の物体をターゲットとして設定する。これにより、マークの配置を計算する工程では、既知のデータであるカメラからターゲットまでの距離のみに基づいて、マークの配置を計算することができる。 Further, in the step of setting an existing object as a target, an existing object whose angle with respect to the horizontal plane of the mounting surface on which the object is placed is known is set as a target. Thereby, in the step of calculating the mark arrangement, the mark arrangement can be calculated based only on the known data, the distance from the camera to the target.

また、既存の物体をターゲットとして設定する工程では、カメラのカメラ座標の中心と既存の物体の中心が一致している、または、既存の物体の中心とのずれ量が既知である当該既存の物体をターゲットとして設定する。これにより、カメラ座標の中心と、ターゲットとの中心のずれ量を計測する必要がない。または、既知である物体の中心のカメラ座標に対するずれ量に基づいて、監視システムにおける画角調整を行うことができる。 Further, in the process of setting an existing object as a target, the center of the camera coordinates of the camera coincides with the center of the existing object, or the amount of deviation from the center of the existing object is known. Is set as the target. As a result, it is not necessary to measure the amount of deviation between the center of the camera coordinates and the center of the target. Alternatively, the angle of view can be adjusted in the surveillance system based on the amount of deviation of the known center of the object with respect to the camera coordinates.

本発明によれば、近距離用カメラ及び遠距離用カメラを備えた監視システムにおいて、画角調整の手順の簡素化を図ることができる。また、本発明によれば、カメラを備えた監視システムにおいて、画角調整の手順の簡素化を図ることができる。 According to the present invention, in a surveillance system including a short-distance camera and a long-distance camera, the procedure for adjusting the angle of view can be simplified. Further, according to the present invention, in a surveillance system equipped with a camera, the procedure for adjusting the angle of view can be simplified.

支障物検知装置を搭載する車両が高速道路を走行する状態を示す斜視図である。It is a perspective view which shows the state which the vehicle equipped with the obstacle detection device travels on a highway. 画角調整方法を適用可能な支障物検知装置を示すブロック構成図である。It is a block block diagram which shows the obstacle detection device to which an angle of view adjustment method can be applied. 近距離用カメラによる撮影領域、遠距離用カメラによる撮影領域、及びターゲットの配置を示す概略側面図である。It is a schematic side view which shows the imaging area by a short-distance camera, the imaging area by a long-distance camera, and the arrangement of a target. 画角調整方法における処理手順を示すフローチャートである。It is a flowchart which shows the processing procedure in the angle of view adjustment method. 画像上に表示されたターゲットとマークとを示す図である。It is a figure which shows the target and the mark displayed on the image. カメラの撮像素子とターゲットとの位置関係を示す図である。It is a figure which shows the positional relationship between the image sensor of a camera, and a target. 図7(a)は、カメラの設置ピッチング角を示す側面図である。図7(b)は、カメラの設置パン角を示す平面図である。FIG. 7A is a side view showing the installation pitching angle of the camera. FIG. 7B is a plan view showing the installation pan angle of the camera. 図8(a)は、メインテナンス時の近距離用カメラにおける画角調整方法の処理手順を示すフローチャートである。図8(b)は、メインテナンス時の遠距離用カメラにおける画角調整方法の処理手順を示すフローチャートである。FIG. 8A is a flowchart showing a processing procedure of the angle of view adjustment method in the short-range camera during maintenance. FIG. 8B is a flowchart showing a processing procedure of the angle of view adjustment method in the long-distance camera during maintenance. 図9(a)、(c)は、第2画像上に表示されたターゲットT及び第2マークを示す図である。図9(b)、(d)は、第1画像上に表示されたターゲットT及び第1マークを示す図である。Figure 9 (a), (c) is a diagram showing a target T A and the second mark displayed on the second image. Figure 9 (b), (d) is a diagram showing a target T A and the first mark displayed on the first image. 変形例に係る画角調整方法を適用可能な支障物検知装置を示すブロック構成図である。It is a block block diagram which shows the obstacle detection apparatus to which the angle of view adjustment method which concerns on a modification is applicable. 変形例に係る画角調整方法の処理手順を示すフローチャートである。It is a flowchart which shows the processing procedure of the angle of view adjustment method which concerns on a modification.

以下、本発明の好適な実施形態について、図面を参照しながら詳細に説明する。なお、各図において同一部分又は相当部分には同一の符号を付し、重複する説明は省略する。 Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the drawings. In each figure, the same parts or corresponding parts are designated by the same reference numerals, and duplicate description will be omitted.

まず、本実施形態に係る画角調整方法を適用可能な支障物検知装置(監視システム)について図1及び図2を参照して説明する。 First, an obstacle detection device (monitoring system) to which the angle of view adjustment method according to the present embodiment can be applied will be described with reference to FIGS. 1 and 2.

(支障物検知装置)
支障物検知装置1は、図1に示されるように、例えば車両Mに搭載されて車両前方の対象物(例えば落下物B)を検出する。支障物検知装置1は、図2に示されるように、カメラ2、3DLR(3次元レーザレーダ、3D Laser Radar)3、車輪速センサ4及び支障物検知ユニット5を備えている。
(Obstacle detection device)
As shown in FIG. 1, the obstacle detection device 1 is mounted on the vehicle M, for example, and detects an object (for example, a falling object B) in front of the vehicle. As shown in FIG. 2, the obstacle detection device 1 includes a camera 2, a 3DLR (3D laser radar, 3D Laser Radar) 3, a wheel speed sensor 4, and an obstacle detection unit 5.

支障物検知装置1は、検出された対象物を追跡し、追跡された対象物の中で判定条件を満たすものを支障物として判定する。「支障物」とは、車両Mの走行の妨げになるおそれがある対象物であり、当該対象物を回避するように走行を変更したり、停止して取り除くことが必要となるものである。 The obstacle detection device 1 tracks the detected object, and determines the tracked object that satisfies the determination condition as an obstacle. The "obstacle" is an object that may hinder the traveling of the vehicle M, and it is necessary to change the traveling or stop and remove the object so as to avoid the object.

カメラ2は、車両前方を撮影し、道路及び対象物等の画像情報(検出データ)を取得する。カメラ2で取得された画像情報は、支障物検知ユニット5に入力される。カメラ2は、近距離用カメラ2Aと、遠距離用カメラ2Bとを含む。近距離用カメラ2A及び遠距離用カメラ2Bは、例えば、車両の前後方向において同じ位置に配置され、車幅方向に並んで配置されている。なお、カメラ2のレンズの歪みの影響は十分に小さい。 The camera 2 photographs the front of the vehicle and acquires image information (detection data) such as a road and an object. The image information acquired by the camera 2 is input to the obstacle detection unit 5. The camera 2 includes a short-distance camera 2A and a long-distance camera 2B. The short-range camera 2A and the long-range camera 2B are arranged at the same position in the front-rear direction of the vehicle, and are arranged side by side in the vehicle width direction, for example. The effect of distortion of the lens of the camera 2 is sufficiently small.

図3に示されるように、近距離用カメラ2Aは、車両前方の第1撮影領域R2Aを撮影する。第1撮影領域R2Aは、例えば、車両前方の地点Pから地点Pまでの範囲である。遠距離用カメラ2Bは、車両前方の第2撮影領域R2Bを撮影する。第2撮影領域R2Bは、例えば、地点Pから地点Pまでの範囲である。車両前方の数百mの範囲を含む。第2撮影領域R2Bは、第1撮影領域R2Aの一部を含むと共に、基準位置(車両Mの停車位置、カメラ2の設置位置)からの距離が第1撮影領域R2A(地点P)よりも遠い領域を含んでいる。なお、第1撮影領域R2A及び第2撮影領域R2Bの両方に含まれる領域を共通領域R2Cとする。共通領域R2Cは、地点Pから地点Pまでの領域を含む。また、第1撮影領域R2Aと第2撮影領域R2Bとは、隣接するように設定されていてもよい。このときの共通領域は、第1撮影領域R2Aと第2撮影領域R2Bとの境界となる。 As shown in FIG. 3, the short-range camera 2A captures the first imaging region R 2A in front of the vehicle. The first imaging region R 2A is, for example, in the range from the point P 1 in front of the vehicle to the point P 3. The long-distance camera 2B photographs the second photographing area R 2B in front of the vehicle. The second photographing area R 2B is, for example, a range from the point P 2 to the point P 4. Includes a range of several hundred meters in front of the vehicle. The second shooting area R 2B includes a part of the first shooting area R 2A , and the distance from the reference position (the stop position of the vehicle M, the installation position of the camera 2) is the first shooting area R 2A (point P 3). ) Includes areas farther than. The area included in both the first photographing area R 2A and the second photographing area R 2B is referred to as a common area R 2C . The common area R 2C includes the area from the point P 2 to the point P 3 . Further, the first photographing area R 2A and the second photographing area R 2B may be set so as to be adjacent to each other. The common area at this time is the boundary between the first photographing area R 2A and the second photographing area R 2B.

3DLR3は、車両前方にレーザを照射して、路上の対象物で反射した反射レーザを受信する。3DLR3で受信した反射レーザに関する情報は、支障物検知ユニット5に入力される。 The 3DLR3 irradiates the front of the vehicle with a laser and receives the reflected laser reflected by an object on the road. The information about the reflected laser received by the 3DLR3 is input to the obstacle detection unit 5.

車輪速センサ4は、車両Mの車輪の回転角度に関する情報を取得するセンサである。車輪速センサ4は、例えばエンコーダを備え、このエンコーダは、車輪の回転パルスを計測する。車輪の回転パルスに関する信号は、支障物検知ユニット5に入力される。 The wheel speed sensor 4 is a sensor that acquires information on the rotation angle of the wheels of the vehicle M. The wheel speed sensor 4 includes, for example, an encoder, which measures the rotation pulse of the wheel. The signal regarding the rotation pulse of the wheel is input to the obstacle detection unit 5.

支障物検知ユニット5は、画像処理部6、3DLR処理部7、線形計算部8、統合処理部9及びシステム統括部10を備えている。支障物検知ユニット5は、演算処理を行うCPU、記憶部となるROM及びRAM、入力信号回路、出力信号回路、電源回路などを備える。 The obstacle detection unit 5 includes an image processing unit 6, a 3DLR processing unit 7, a linear calculation unit 8, an integrated processing unit 9, and a system control unit 10. The obstacle detection unit 5 includes a CPU that performs arithmetic processing, a ROM and RAM as a storage unit, an input signal circuit, an output signal circuit, a power supply circuit, and the like.

システム統括部10は、支障物検知ユニット5の全体の制御を司り、画像処理部6、3DLR処理部7、線形計算部8及び統合処理部9のブロックの生成及び機能の停止を管理する。また、システム統括部10は、後述する表示部15、操作部16及び車両制御部17とのデータの入出力を管理する。 The system management unit 10 controls the entire obstacle detection unit 5, and manages the generation of blocks and the suspension of functions of the image processing unit 6, the 3DLR processing unit 7, the linear calculation unit 8, and the integrated processing unit 9. In addition, the system control unit 10 manages data input / output with the display unit 15, the operation unit 16, and the vehicle control unit 17, which will be described later.

画像処理部6は、カメラ2から入力したセンサデータについて画像処理を行う。画像処理部6は、画像処理として、例えば2値化処理を行い、対象物に関する情報、道路の白線に関する情報を検知する。また、カメラ2から入力したセンサデータには、対象物の色相に関する情報、対象物の明度に関する情報、対象物のサイズ(外形寸法)に関する情報、及び対象物の位置に関する情報が含まれる。 The image processing unit 6 performs image processing on the sensor data input from the camera 2. The image processing unit 6 performs, for example, binarization processing as image processing, and detects information on an object and information on a white line on a road. Further, the sensor data input from the camera 2 includes information on the hue of the object, information on the brightness of the object, information on the size (external dimensions) of the object, and information on the position of the object.

また、画像処理部6は、センサデータに基づいて、対象物の位置(左右方向の位置、車両Mの進行方向における位置)、対象物のサイズ(幅方向のサイズ、高さ方向のサイズ)、対象物の色相及び明度を算出する。また、画像処理部6は、対象物の周囲の色相及び明度を算出する。 Further, the image processing unit 6 determines the position of the object (position in the left-right direction, position in the traveling direction of the vehicle M), size of the object (size in the width direction, size in the height direction), based on the sensor data. Calculate the hue and brightness of the object. In addition, the image processing unit 6 calculates the hue and brightness around the object.

画像処理部6は、画像内のピクセルサイズに対して、画角などのカメラパラメータ及び経路の線形情報を照合して、対象物の実際のサイズを算出し判定する。なお、画角とは、例えば、焦点距離f(図6参照)、設置ピッチング角θ(図7(a)参照)、設置パン角θ(図7(b)参照)などを含む。 The image processing unit 6 collates camera parameters such as the angle of view and linear information of the path with respect to the pixel size in the image, and calculates and determines the actual size of the object. The angle of view includes, for example, a focal length f (see FIG. 6), an installation pitching angle θ 1 (see FIG. 7 (a)), an installation pan angle θ 2 (see FIG. 7 (b)), and the like.

3DLR処理部7は、3DLR3から入力したセンサデータについてデータ処理を行う。また、3DLRから入力したセンサデータには、対象物の位置(左右方向の位置、車両Mの進行方向における位置、上下方向の位置)が含まれる。 The 3DLR processing unit 7 performs data processing on the sensor data input from the 3DLR3. Further, the sensor data input from the 3DLR includes the position of the object (position in the left-right direction, position in the traveling direction of the vehicle M, position in the up-down direction).

3DLR処理部7は、センサデータに基づいて、対象物の位置(左右方向の位置、車両Mの進行方向における位置、上下方向の位置)を算出する。 The 3DLR processing unit 7 calculates the position of the object (position in the left-right direction, position in the traveling direction of the vehicle M, position in the vertical direction) based on the sensor data.

線形計算部8は、記憶部に記憶されている経路の線形情報と、車輪速センサ4で取得された車速とを用いて、車両Mの移動距離を算出する。「経路の線形情報」は、経路の起点となる位置からの距離に対応した経路の3次元の形状に関する情報であり、道路におけるカーブの水平方向の曲率に関する情報、坂道における上下方向の勾配に関する情報を含むものである。線形計算部8は、経路の線形情報及び車速に基づいて、車両Mの起点から位置を示す自車位置情報を算出する。 The linear calculation unit 8 calculates the moving distance of the vehicle M by using the linear information of the route stored in the storage unit and the vehicle speed acquired by the wheel speed sensor 4. "Route linear information" is information on the three-dimensional shape of the route corresponding to the distance from the starting point of the route, information on the horizontal curvature of the curve on the road, and information on the vertical gradient on the slope. Is included. The linear calculation unit 8 calculates the own vehicle position information indicating the position from the starting point of the vehicle M based on the linear information of the route and the vehicle speed.

統合処理部9は、複数のセンサから取得された対象物のセンサデータを統合する統合処理を行う。統合処理部9は、追跡処理及び支障物判定処理に適したデータとするために、時間的に異なる複数のセンサデータを時間的に連続するデータとして統合する。 The integrated processing unit 9 performs integrated processing for integrating sensor data of an object acquired from a plurality of sensors. The integrated processing unit 9 integrates a plurality of sensor data different in time as time-continuous data in order to obtain data suitable for tracking processing and obstacle determination processing.

統合処理部9は、近距離用カメラ2A、遠距離用カメラ2B又は3DLR3で検知された対象物が支障物であるか否かを判定する。統合処理部9による処理結果は、システム統括部10に出力される。 The integrated processing unit 9 determines whether or not the object detected by the short-range camera 2A, the long-range camera 2B, or the 3DLR3 is an obstacle. The processing result by the integrated processing unit 9 is output to the system management unit 10.

また、支障物検知ユニット5には、表示部15及び操作部16が電気的に接続されている。表示部15は、例えば、液晶表示装置であり、カメラ2で取得した画像を表示する。また、支障物検知ユニット5から出力された情報に基づいて、支障物である対象物を強調表示することで、運転者に報知する。 Further, the display unit 15 and the operation unit 16 are electrically connected to the obstacle detection unit 5. The display unit 15 is, for example, a liquid crystal display device, and displays an image acquired by the camera 2. Further, based on the information output from the obstacle detection unit 5, the driver is notified by highlighting the object which is an obstacle.

また、操作部16は、例えば液晶表示装置のタッチパネルであり、運転者の操作入力に基づく信号をシステム統括部10に出力する。運転者は、例えば支障物ではないと確認された対象物について入力操作する際に、操作部16を操作する。 Further, the operation unit 16 is, for example, a touch panel of a liquid crystal display device, and outputs a signal based on the operation input of the driver to the system control unit 10. The driver operates the operation unit 16 when performing an input operation on an object that is confirmed not to be an obstacle, for example.

また、支障物検知装置1には、車両Mの制御を司る車両制御部17が電気的に接続されている。車両制御部17には、例えば警報器18及びブレーキ19が電気的に接続されている。車両制御部17は、システム統括部10からの信号に基づいて、警報器18を制御して警報音を発することができる。また、車両制御部17は、システム統括部10からの信号に基づいて、ブレーキ19を作動させて、車両Mを減速させることができる。 Further, a vehicle control unit 17 that controls the vehicle M is electrically connected to the obstacle detection device 1. For example, an alarm device 18 and a brake 19 are electrically connected to the vehicle control unit 17. The vehicle control unit 17 can control the alarm device 18 and emit an alarm sound based on the signal from the system control unit 10. Further, the vehicle control unit 17 can operate the brake 19 to decelerate the vehicle M based on the signal from the system control unit 10.

(画角調整方法;第1実施形態)
次に、近距離用カメラ2A及び遠距離用カメラ2Bを備えた支障物検知装置1におけるカメラ2の画角調整方法について説明する。図4に示すフローチャートに沿って説明する。図4は、画角調整方法の処理手順を示すフローチャートである。図4に示す処理手順は、例えば、支障物検知装置1の使用前に実施される。例えば、出荷前において、工場内で画角調整方法を実施してもよく、屋外で実施してもよく、走行路上で実施してもよい。また、画角調整方法は車両Mの停止中に実施される。
(Angle of view adjustment method; 1st embodiment)
Next, a method of adjusting the angle of view of the camera 2 in the obstacle detection device 1 including the short-range camera 2A and the long-range camera 2B will be described. This will be described with reference to the flowchart shown in FIG. FIG. 4 is a flowchart showing a processing procedure of the angle of view adjusting method. The processing procedure shown in FIG. 4 is performed, for example, before the obstacle detection device 1 is used. For example, the angle of view adjustment method may be carried out in the factory, outdoors, or on the road before shipment. Further, the angle of view adjusting method is carried out while the vehicle M is stopped.

画角調整方法では、まず、作業者は車両M前方にターゲットTを配置する工程を行う(ステップS1)。ターゲットTは、図5に示されるように、例えば、画面上で矩形の物体として表示されるものである。ターゲットTは、矩形の物体として表示されるものに限定されず、例えば、三角形、円形、台形、線状など、その他の形状の物体として表示されるものでもよい。 The angle adjusting method, first, the operator performs the step of placing the target T A forward vehicle M (step S1). Target T A, as shown in FIG. 5, for example, is displayed as a rectangular object on the screen. Target T A is not limited to what is displayed as a rectangular object, for example, triangular, circular, trapezoidal, etc. linear, or intended to be displayed as the object of other shapes.

また、ターゲットTは、図3に示されるように、車両M前方の共通領域R2C内に配置される。ターゲットTは、近距離用カメラ2A及び遠距離用カメラ2Bの両方によって撮影可能な位置に配置される。近距離用カメラ2Aによる第1撮影領域R2Aが、車両前方のS[m]以上4S[m]以下であり、遠距離用カメラ2Bによる第2撮影領域R2Bが、車両前方の2S[m]以上8S[m]以下の場合には、共通領域R2Cは、2S[m]以上4S[m]以下の範囲となる。なお、「S」は、任意の数値である。車両MからターゲットTまでの距離LTAは、例えば3S[m]である。距離LTAは、例えばカメラ2(近距離用カメラ2A、遠距離用カメラ2B)からターゲットTまでの距離でもよい。 The target T A, as shown in FIG. 3, is disposed in the common area R 2C of the vehicle M forward. Target T A is placed into a photographable position by both near camera 2A and far camera 2B. The first imaging region R 2A short-distance camera 2A is not more than the vehicle ahead of the S [m] or more 4S [m], the second imaging region R 2B by long-range camera 2B is ahead of the vehicle 2S [m ] Or more and 8S [m] or less, the common area R 2C is in the range of 2S [m] or more and 4S [m] or less. In addition, "S" is an arbitrary numerical value. Distance L TA from the vehicle M to the target T A is, for example, 3S [m]. The distance L TA, for example a camera 2 (short-range camera 2A, the long-distance camera 2B) may be the distance from to the target T A.

なお、ターゲットTとしての物体を配置する代わりに、既存の物をターゲットTとして用いることができる。例えば、道路近傍に配置された標識、道路上の白線、道路上の表示、その他の設置物などをターゲットとして使用してもよい。また、例えば、画像処理部において、車線の両側の白線を検出し、これらの白線に交差する仮想の直線を設定し、この仮想の直線をターゲットTとして設定してもよい。 Instead of placing the object as a target T A, it may be used existing ones as the target T A. For example, signs placed near the road, white lines on the road, indications on the road, other installations, and the like may be used as targets. Further, for example, in the image processing unit detects a white line on both sides of the lane, and sets the imaginary straight line intersecting these white lines may be set straight virtual as the target T A.

次に、車両MからターゲットTまでの距離を測定する工程を行う(ステップS2)。具体的には、3DLR3が車両前方にレーザを照射して、ターゲットTで反射した反射レーザを受信する。3DLR処理部7は、3DLR3から入力したセンサデータについてデータ処理を行い、ターゲットTの位置を検出する。これにより、車両MからターゲットTまでの距離を測定する。なお、3DLR3を用いて、測定を行うにあたり、3DLRのキャリブレーションを行ってもよい。 Next, a step of measuring the distance from the vehicle M to the target T A (step S2). Specifically, 3DLR3 is irradiated with laser forward vehicle, it receives a reflected laser reflected by the target T A. 3DLR processing unit 7 performs data processing on the sensor data received from 3DLR3, detects the position of the target T A. Thus, measuring the distance from the vehicle M to the target T A. It should be noted that the 3DLR may be calibrated when the measurement is performed using the 3DLR3.

また、車両MからターゲットTまでの距離LTAを測定する工程は、3DLR3を用いて実施されるものに限定されず、その他のレーザレーダ、測距装置を用いてもよく、その他の方法により、距離LTAを測定してもよい。また、車両MからターゲットTまでの距離LTAが既知である場合には、その値を用いることができる。 The step of measuring the distance L TA from the vehicle M to the target T A is not limited to being implemented using 3DLR3, other laser radar may be used range finder, in other ways , Distance LTA may be measured. Further, when the distance L TA from the vehicle M to the target T A is known, it is possible to use that value.

次に、第1マークCの配置を計算する工程を行う(ステップS3)。第1マークCは、第1画像J上でのターゲットTの表示目標を示すマークである。また、第1画像Jとは、近距離用カメラ2Aを用いて撮影された画像である。第1マークCは、例えば、ターゲットTの外形に対応した形状を成している。例えば、ターゲットTの外形が矩形状である場合には、第1マークCは、ターゲットTの外形に対応した矩形状の枠体とすることができる。第1マークCは、ターゲットTの外形の一部に対応する形状でもよい。例えば、ターゲットTが矩形状である場合には、この四隅に対応する位置に配置された4つの点でもよい。 Next, a step of calculating the arrangement of the first mark C 1 is performed (step S3). First mark C 1 is a mark showing a display target of the target T A in on the first image J 1. The first image J 1 is an image taken by using the short-range camera 2A. First mark C 1, for example, has a shape corresponding to the outer shape of the target T A. For example, if the outer shape of the target T A is rectangular, the first mark C 1 may be a rectangular frame body corresponding to the outer shape of the target T A. First mark C 1 may have a shape corresponding to a portion of the outline of the target T A. For example, if the target T A has a rectangular shape may be in terms of four arranged in a position corresponding to the four corners.

ステップS3では、例えば、支障物検知ユニット5の画像処理部6が演算処理を行う。図6は、カメラの撮像素子とターゲットとの位置関係を示す図である。この場合のカメラは、近距離用カメラ2Aであり、撮像素子21及びレンズ22は、近距離用カメラ2Aの撮像素子21及びレンズ22である。 In step S3, for example, the image processing unit 6 of the obstacle detection unit 5 performs arithmetic processing. FIG. 6 is a diagram showing the positional relationship between the image sensor of the camera and the target. The camera in this case is the short-range camera 2A, and the image sensor 21 and the lens 22 are the image sensor 21 and the lens 22 of the short-range camera 2A.

図6に示されるように、焦点距離f[mm]、カメラ2(車両M)からターゲットTまでの距離LTA[mm]、撮像素子の素子サイズa[mm]、ターゲットTの視野b[mm]は、以下の比例式(1)を満たす。
f:a=LTA:b…(1)
As shown in FIG. 6, the focal length f [mm], a distance L TA from the camera 2 (the vehicle M) to the target T A [mm], the element size a of the image sensor [mm], the field of view b of the target T A [Mm] satisfies the following proportional equation (1).
f: a = L TA : b ... (1)

上記の比例式(1)において、焦点距離f及び素子サイズaは、既知である。カメラ2からターゲットTまでの距離LTAは、ステップS2で算出された値を用いることができる。これらの値(a、b、LTA)を比例式(1)に代入して、視野bを算出することができる。 In the above proportional equation (1), the focal length f and the element size a are known. Distance L TA from the camera 2 to the target T A may be a value calculated in step S2. By substituting these values (a, b, L TA ) into the proportional equation (1), the visual field b can be calculated.

このように比例式(1)を用いて、ターゲットTの位置の水平視野b[mm]、垂直視野b[mm]を求めることができる。このとき、カメラの画像の解像度(例えばフルHD:水平1920[pixel]、垂直1080[pixel])は、既知である。そのため、ターゲットの位置における水平方向Xの分解能Gx(=1920/水平視野b)[pixel/mm]と、垂直方向Yの分解能G(=1080/垂直視野b)[pixel/mm]を求めることができる。 In this way, the horizontal field of view b X [mm] and the vertical field of view b Y [mm] at the position of the target T can be obtained by using the proportional equation (1). At this time, the resolution of the image of the camera (for example, full HD: horizontal 1920 [pixel], vertical 1080 [pixel]) is known. Therefore, the resolution Gx (= 1920 / horizontal field of view b X ) [pixel / mm] in the horizontal direction X and the resolution G Y (= 1080 / vertical field of view b Y ) [pixel / mm] in the vertical direction Y at the target position are set. Can be sought.

ターゲットTの実際のサイズ[mm]も既知であるため、画像処理部6は、上記の分解能Gx、Gを用いて、画像上に撮像される第1マークCのサイズ[pixel]を計算することができる。 Because the target actual size of T A [mm] is also known, the image processing unit 6, the above resolution Gx, by using the G Y, the size of the first mark C 1 to be imaged on the image [pixel] of Can be calculated.

次に、第1画像J上に第1マークCを表示する工程を行う(ステップS4)。ステップS4では、ステップS3で計算された配置となるように第1マークCを第1画像J上に表示する。画像処理部6は、ステップS3で算出した第1マークCのサイズ(Tx、Ty)を適用して、図5に示されるように、第1画像J上に、第1マークCを表示する。なお、第1マークCを表示する位置(画像上の表示位置(x、y))は、使用者が任意に設定することができる。例えば、画像の中央に、第1マークCが表示されるように、第1マークCの表示位置を決定してもよい。 Next, a step of displaying a first mark C 1 on the first image J 1 (step S4). In step S4, and displays a first mark C 1 on the first image J 1 so as to be arranged calculated in step S3. The image processing unit 6 applies the size (Tx, Ty) of the first mark C 1 calculated in step S3, and applies the first mark C 1 on the first image J 1 as shown in FIG. indicate. The position for displaying a first mark C 1 (the display position on the image (x, y)) is the user can arbitrarily set. For example, the display position of the first mark C 1 may be determined so that the first mark C 1 is displayed in the center of the image.

次に、近距離用カメラ2Aの画角を調整する工程を行う(ステップS5)。具体的には、第1画像J上において、表示された第1マークCとターゲットTとが一致するように、近距離用カメラ2Aの画角を調整する。例えば、作業員が手動で近距離用カメラ2Aを操作して、近距離用カメラ2Aの画角を調整してもよく、支障物検知ユニット5から信号を出力してアクチュエータを駆動して自動で調整してもよい。 Next, a step of adjusting the angle of view of the short-range camera 2A is performed (step S5). Specifically, in the first image J on 1, as a first mark C 1 and the target T A displayed matches adjusts the angle of view of the short-range camera 2A. For example, the worker may manually operate the short-range camera 2A to adjust the angle of view of the short-range camera 2A, and output a signal from the obstacle detection unit 5 to drive the actuator automatically. You may adjust.

ステップS5では、例えば、近距離用カメラ2Aの焦点距離f、近距離用カメラ2Aの設置ピッチング角θ、近距離用カメラ2Aの設置パン角θを調整する。近距離用カメラ2Aのレンズ22の位置を移動させて、焦点距離fを変えることができる。図7(a)は、近距離用カメラ2Aの設置ピッチング角θを示す側面図である。図7(a)に示されるように、例えば水平方向に延在する軸線Dと、近距離用カメラ2Aの光軸Lとが交差する角度を設置ピッチング角θとすることができる。例えば、近距離用カメラ2Aを支持する支持台を傾斜させることで、設置ピッチング角θを調整することができる。 In step S5, for example, the focal length f of the short-range camera 2A, the installation pitching angle θ 1 of the short-range camera 2A, and the installation pan angle θ 2 of the short-range camera 2A are adjusted. The focal length f can be changed by moving the position of the lens 22 of the short-range camera 2A. FIG. 7A is a side view showing the installation pitching angle θ 1 of the short-range camera 2A. As shown in FIG. 7A, for example, the angle at which the axis D extending in the horizontal direction and the optical axis L 2 of the short-range camera 2A intersect can be set as the installation pitching angle θ 1. For example, the installation pitching angle θ 1 can be adjusted by inclining the support base that supports the short-range camera 2A.

図7(b)は、近距離用カメラ2Aの設置パン角θを示す平面図である。図7(b)に示されるように、例えば車両Mの前後方向に延在する軸線Eと、近距離用カメラ2Aの光軸Lとが交差する角度を設置パン角θとすることができる。例えば、近距離用カメラ2Aを支持する支持台を鉛直方向に延在する軸線回りに回転移動させることで、設置パン角θを調整することができる。 FIG. 7B is a plan view showing an installation pan angle θ 2 of the short-range camera 2A. As shown in FIG. 7B, for example, the angle at which the axis E extending in the front-rear direction of the vehicle M and the optical axis L 2 of the short-range camera 2A intersect may be set as the installation pan angle θ 2. can. For example, the installation pan angle θ 2 can be adjusted by rotating the support base that supports the short-range camera 2A around an axis extending in the vertical direction.

次に、第2マークCの配置を計算する工程を行う(ステップS6)。第2マークCは、第2画像J上でのターゲットTの表示目標を示すマークである。また、第2画像Jとは、遠距離用カメラ2Bを用いて撮影された画像である。第2マークCは、例えば、ターゲットTの外形に対応した形状を成している。例えば、ターゲットTの外形が矩形状である場合には、第2マークCは、ターゲットTの外形に対応した矩形状の枠体とすることができる。第2マークCは、ターゲットTの外形の一部に対応する形状でもよい。例えば、ターゲットTが矩形状である場合には、この四隅に対応する位置に配置された4つの点でもよい。 Next, a step of calculating the arrangement of the second mark C 2 is performed (step S6). Second mark C 2 is a mark showing a display target of the target T A of the on the second image J 2. The second image J 2 is an image taken by using the long-distance camera 2B. Second mark C 2, for example, has a shape corresponding to the outer shape of the target T A. For example, if the outer shape of the target T A is rectangular, the second mark C 2 can be a rectangular frame body corresponding to the outer shape of the target T A. Second mark C 2 may have a shape corresponding to a portion of the outline of the target T A. For example, if the target T A has a rectangular shape may be in terms of four arranged in a position corresponding to the four corners.

ステップS6では、例えば、支障物検知ユニット5の画像処理部6で演算処理を行う。ここでの処理は、ステップS3と同様の手順で遠距離用カメラ2Bについて実施することができる。そのため詳細な説明は省略する。 In step S6, for example, the image processing unit 6 of the obstacle detection unit 5 performs arithmetic processing. The process here can be performed on the long-range camera 2B in the same procedure as in step S3. Therefore, detailed description will be omitted.

次に、第2画像J上に第2マークCを表示する工程を行う(ステップS7)。ステップS7では、ステップS6で計算された配置となるように第2マークCを第2画像J上に表示する。画像処理部6は、ステップS6で算出した第2マークCのサイズ(Tx、Ty)を適用して、第2画像J上に、第2マークCを表示する。なお、第2マークCを表示する位置(画像上の表示位置(x、y))は、使用者が任意に設定することができる。例えば、画像の中央に、第2マークCが表示されるように、第2マークCの表示位置を決定してもよい。なお、図5は、第1画像J及び第2画像Jとして例示しているが、第1画像Jと第2画像Jとは、異なる画像であり、各画像において、ターゲットT同士は、異なる大きさであり、第1マークCと第2マークCとは、異なる大きさとなる。 Next, a step of displaying the second mark C 2 on the second image J 2 (step S7). In step S7, the second mark C 2 is displayed on the second image J 2 so as to have the arrangement calculated in step S6. The image processing unit 6 applies the size (Tx, Ty) of the second mark C 2 calculated in step S6 to display the second mark C 2 on the second image J 2. The position for displaying the second mark C 2 (display position (x, y) on the image) can be arbitrarily set by the user. For example, the display position of the second mark C 2 may be determined so that the second mark C 2 is displayed in the center of the image. Incidentally, FIG. 5 is illustrated as a first image J 1 and the second image J 2, first image J 1 and the second image J 2, a different image, each image, the target T A They have different sizes, and the first mark C 1 and the second mark C 2 have different sizes.

次に、遠距離用カメラ2Bの画角を調整する工程を行う(ステップS8)。具体的には、第2画像J上において、表示された第2マークCとターゲットTとが一致するように、遠距離用カメラ2Bの画角を調整する。例えば、作業員が手動で調整してもよく、支障物検知ユニット5から信号を出力してアクチュエータを駆動して自動で調整してもよい。 Next, a step of adjusting the angle of view of the long-distance camera 2B is performed (step S8). Specifically, on the second image J 2, so that the second mark C 2 and the target T A displayed matches adjusts the angle of view of the long distance camera 2B. For example, the worker may manually adjust the adjustment, or a signal may be output from the obstacle detection unit 5 to drive the actuator to make the adjustment automatically.

ステップS8では、例えば、遠距離用カメラ2Bの焦点距離f、遠距離用カメラ2Bの設置ピッチング角θ、遠距離用カメラ2Bの設置パン角θを調整する。遠距離用カメラ2Bのレンズ22の位置を移動させて、焦点距離fを変えることができる。また、例えば、遠距離用カメラ2Bを支持する支持台を傾斜させることで、設置ピッチング角θを調整することができる。また、例えば、遠距離用カメラ2Bを支持する支持台を鉛直方向に延在する軸線回りに回転移動させることで、設置パン角θを調整することができる。 In step S8, for example, the focal length f of the long-distance camera 2B, the installation pitching angle θ 1 of the long-distance camera 2B, and the installation pan angle θ 2 of the long-distance camera 2B are adjusted. The focal length f can be changed by moving the position of the lens 22 of the long-distance camera 2B. Further, for example, the installation pitching angle θ 1 can be adjusted by inclining the support base that supports the long-distance camera 2B. Further, for example, the installation pan angle θ 2 can be adjusted by rotating the support base that supports the long-distance camera 2B around an axis extending in the vertical direction.

以上説明したように、この画角調整方法によれば、近距離用カメラ2Aによって撮影される第1撮影領域R2Aと、遠距離用カメラ2Bによって撮影される第2撮影領域R2Bとの両方に含まれる共通領域R2CにターゲットTを設定し、同一のターゲットTを用いて、近距離用カメラ2Aにおける画角調整と、遠距離用カメラ2Bにおける画角調整とを行うことができる。これにより、近距離用カメラ2Aの画角調整で使用するターゲットTと、遠距離用カメラ2Bの画角調整で使用するターゲットTとを別々に配置する必要がなく、画角調整における手順を簡素化することができる。また、同一のターゲットTを撮影することで、近距離用カメラ2Aで取得されたターゲットTの画像データと、遠距離用カメラ2Bで取得されたターゲットTの画像データとを容易に比較することができる。そのため、取得された画像データに基づく、対象物の検出精度の向上を図ることができる。 As described above, according to this angle of view adjustment method, both the first shooting area R 2A shot by the short-distance camera 2A and the second shooting area R 2B shot by the long-distance camera 2B. common area R 2C to set the target T a, using the same target T a, it is possible to perform the angle adjustment in the short-range camera 2A, and a view angle in the far camera 2B contained .. Thus, the target T A to be used in the view angle of the short-range camera 2A, there is no need to arrange separately the target T A to be used in the view angle of the long-range camera 2B, procedures in view angle Can be simplified. Furthermore, by capturing the same target T A, easily compare the image data of the obtained target T A short distance camera 2A, and the image data of the target T B acquired in long distance camera 2B can do. Therefore, it is possible to improve the detection accuracy of the object based on the acquired image data.

例えば、近距離用カメラ2Aに対して1つのターゲットを準備し、遠距離用カメラ2Bに対して1つのターゲットを準備して、合計2つのターゲットを準備して、画角調整を行った場合には、それぞれのカメラに対してターゲットの設置場所が異なるため、それぞれで設置誤差が発生するおそれがある。この場合には、各カメラで異なるターゲットを撮影して画角調整を行っているため、それぞれのターゲットにおける設置誤差を含み、両方のカメラで同時に撮影される共通領域に存在する同一物体の検出位置がずれる可能性があり、画像処理部6における画像処理(物体検知)、統合処理部9における統合処理、判定処理等の精度に影響が出る可能性がある。 For example, when one target is prepared for the short-range camera 2A, one target is prepared for the long-range camera 2B, a total of two targets are prepared, and the angle of view is adjusted. Since the target installation location is different for each camera, installation error may occur in each camera. In this case, since each camera shoots a different target and adjusts the angle of view, the detection position of the same object existing in the common area that is shot simultaneously by both cameras, including the installation error at each target. There is a possibility that the image processing unit 6 may be out of alignment, and the accuracy of the image processing (object detection) in the image processing unit 6, the integrated processing in the integrated processing unit 9, the determination processing, and the like may be affected.

これに対して、共通領域R2Cに配置された同一のターゲットTを用いて、近距離用カメラ2A及び遠距離用カメラ2Bの画角を調整する場合には、ターゲットTの設置誤差として、共通の設置誤差が1つだけ生じることになる。また、同一のターゲットTを見て、画角を調整することができるので、後段の画像処理による物体検知において、近距離用カメラ2Aと遠距離用カメラ2Bとの間で、同一物体の検出位置の差が小さくなる。 In contrast, using the same target T A that is allocated to the common area R 2C, when adjusting the angle of view of the short-range cameras 2A and far camera 2B as installation errors of the target T A , Only one common installation error will occur. Also, look at the same target T A, it is possible to adjust the angle of view, in the object detection by image processing in a subsequent stage, with the short-range camera 2A and long range camera 2B, detection of the same object The difference in position becomes smaller.

(画角調整方法;第2実施形態)
次に、第2実施形態として、メインテナンス時における画角調整方法について説明する。メインテナンス時とは、例えば、支障物検知装置1を一定時間使用した後に実施される定期点検時などである。なお、メインテナンス時における画角調整方法の説明において、上記の画角調整方法と同様の説明は省略する。また、メインテナンス時における画角調整方法では、例えば、使用前に実行した画角調整方法と同じ位置に車両Mを配置し、同じ方向に車両Mを向け、同じ位置にターゲットTを配置する。
(Angle of view adjustment method; second embodiment)
Next, as a second embodiment, a method of adjusting the angle of view at the time of maintenance will be described. The maintenance time is, for example, a periodic inspection performed after the obstacle detection device 1 has been used for a certain period of time. In the description of the angle of view adjusting method at the time of maintenance, the same description as the above-mentioned angle of view adjusting method will be omitted. Further, the angle adjusting method at the time of maintenance, for example, the vehicle M is disposed at the same position as the view angle adjusting method performed before use, direct the vehicle M in the same direction, placing the target T A at the same position.

図4に示されるように、使用前における画角調整方法における手順と同様に、まず、ステップS1からS4の処理を行う。 As shown in FIG. 4, first, the processes of steps S1 to S4 are performed in the same manner as in the procedure in the angle of view adjusting method before use.

次に、図8(a)に示されるように、第1画像J上でのターゲットTと第1マークCとの第1ずれ量を計測する工程を行う(ステップS21)。第1マークCの配置は、例えば、初回と同じである。第1ずれ量として、例えば、ターゲットTの中心点と、第1マークCの中心点との位置のずれ量[mm]を計測してもよく、ターゲットTの角部と、対応する第1マークCの角部との位置のずれ量を計測してもよく、その他の対応する位置同士のずれ量を計測してもよい。第1ずれ量の計測は、例えば、画像処理部6において演算処理を行うことで実施可能である。 Next, as shown in FIG. 8 (a), a step of measuring a target T A and the first deviation amount between the first mark C 1 in the above first image J 1 (step S21). The arrangement of the first mark C 1 is, for example, the same as the first time. As a first shift amount, for example, may be measured and the center point of the target T A, the deviation amount of the position of the center point of the first mark C 1 [mm] and a corner portion of the target T A, the corresponding may be measured a deviation amount between the positions of the first mark C 1 of the corner, it may measure the amount of deviation of position between the other corresponding. The measurement of the first deviation amount can be performed, for example, by performing arithmetic processing in the image processing unit 6.

次に、第1ずれ量を記憶する工程を行う(ステップS22)。支障物検知ユニット5は、ステップS21で計測された第1ずれ量に関するデータを支障物検知ユニット5の記憶部に記憶する。 Next, a step of storing the first deviation amount is performed (step S22). The obstacle detection unit 5 stores the data related to the first deviation amount measured in step S21 in the storage unit of the obstacle detection unit 5.

次に、第1ずれ量が判定閾値以上であるか否かを判定する工程を行う(ステップS23)。支障物検知ユニット5は、第1ずれ量が判定閾値以上であるか否かを判定する判定部を含む。支障物検知ユニット5の判定部は、ステップS21で計測された第1ずれ量が判定閾値(第1判定閾値)以上であるか否かの判定を行う。この判定閾値は、近距離用カメラ2Aの画角調整が必要であるか否かを判定するための閾値であり、例えば、実験データ、過去のデータに基づいて決定することができる。 Next, a step of determining whether or not the first deviation amount is equal to or greater than the determination threshold value is performed (step S23). The obstacle detection unit 5 includes a determination unit that determines whether or not the first deviation amount is equal to or greater than the determination threshold value. The determination unit of the obstacle detection unit 5 determines whether or not the first deviation amount measured in step S21 is equal to or greater than the determination threshold value (first determination threshold value). This determination threshold is a threshold for determining whether or not the angle of view of the short-range camera 2A needs to be adjusted, and can be determined based on, for example, experimental data and past data.

ステップS23において、第1ずれ量が判定閾値以上である場合には(ステップS23;YES)、ステップS5に進み、近距離用カメラ2Aの画角を調整する工程を実施した後に、ステップS6に進む。一方、第1ずれ量が判定閾値未満である場合には(ステップS23;NO)、ステップS5の画角を調整する工程を実行せずに、ステップS6に進む。 In step S23, if the first deviation amount is equal to or greater than the determination threshold value (step S23; YES), the process proceeds to step S5, the step of adjusting the angle of view of the short-range camera 2A is performed, and then the process proceeds to step S6. .. On the other hand, when the first deviation amount is less than the determination threshold value (step S23; NO), the process proceeds to step S6 without executing the step of adjusting the angle of view in step S5.

次に、図4に示すステップS6、S7を実施した後、図8(b)に示されるように、第2画像J上でのターゲットTと第2マークCとの第2ずれ量を計測する工程を行う(ステップS31)。第2ずれ量として、例えば、ターゲットTの中心点と、第2マークCの中心点との位置のずれ量[mm]を計測してもよく、ターゲットTの角部と、対応する第2マークCの角部との位置のずれ量を計測してもよく、その他の対応する位置同士のずれ量を計測してもよい。第2ずれ量の計測は、例えば、画像処理部6において演算処理を行うことで実施可能である。 Then, after performing the steps S6, S7 shown in FIG. 4, as shown in FIG. 8 (b), the target T A and the second deviation amount between the second mark C 2 of the above second image J 2 Is performed (step S31). A second shift amount, for example, the center point of the target T A, the deviation amount of the position of the center point of the second mark C 2 [mm] may be measured, and the corner portions of the target T A, the corresponding The amount of deviation of the position of the second mark C 2 from the corner may be measured, or the amount of deviation between other corresponding positions may be measured. The measurement of the second deviation amount can be performed, for example, by performing arithmetic processing in the image processing unit 6.

次に、第2ずれ量を記憶する工程を行う(ステップS32)。支障物検知ユニット5は、ステップS31で計測された第2ずれ量に関するデータを支障物検知ユニット5の記憶部に記憶する。 Next, a step of storing the second deviation amount is performed (step S32). The obstacle detection unit 5 stores the data related to the second deviation amount measured in step S31 in the storage unit of the obstacle detection unit 5.

次に、第2ずれ量が判定閾値以上であるか否かを判定する工程を行う(ステップS33)。支障物検知ユニット5は、第2ずれ量が判定閾値以上であるか否かを判定する判定部を含む。支障物検知ユニット5の判定部は、ステップS31で計測された第2ずれ量が判定閾値(第2判定閾値)以上であるか否かの判定を行う。この判定閾値は、遠距離用カメラ2Bの画角調整が必要であるか否かを判定するための閾値であり、例えば、実験データ、過去のデータに基づいて決定することができる。 Next, a step of determining whether or not the second deviation amount is equal to or greater than the determination threshold value is performed (step S33). The obstacle detection unit 5 includes a determination unit for determining whether or not the second deviation amount is equal to or greater than the determination threshold value. The determination unit of the obstacle detection unit 5 determines whether or not the second deviation amount measured in step S31 is equal to or greater than the determination threshold value (second determination threshold value). This determination threshold is a threshold for determining whether or not the angle of view of the long-distance camera 2B needs to be adjusted, and can be determined based on, for example, experimental data and past data.

ステップS33において、第2ずれ量が判定閾値以上である場合には(ステップS33;YES)、ステップS8に進み、遠距離用カメラ2Bの画角を調整する工程を実施した後に、ステップS8に進む。一方、第2ずれ量が判定閾値未満である場合には(ステップS33;NO)、ステップS8の画角を調整する工程を実行せずに、終了する。 In step S33, if the second deviation amount is equal to or greater than the determination threshold value (step S33; YES), the process proceeds to step S8, the step of adjusting the angle of view of the long-distance camera 2B is performed, and then the process proceeds to step S8. .. On the other hand, when the second deviation amount is less than the determination threshold value (step S33; NO), the process ends without executing the step of adjusting the angle of view in step S8.

このような画角調整方法によれば、第1ずれ量が判定閾値以上の場合にのみ、ステップS5において近距離用カメラ2Aの画角を調整することができ、第1ずれ量が判定閾値未満の場合には、近距離用カメラ2Aの画角調整を実施しないようにすることができる。これにより、例えば、第1ずれ量が判定閾値未満であり、わずかな場合には、画角調整を実施しないので、画角調整により第1ずれ量が大きく変化することを防止することができる。この場合には、記憶部に記憶された第1ずれ量を考慮して、後段の画像処理における物体検出を実行することができる。そのため、わずかな第1ずれ量を維持したまま、精度良く物体検出を行うことができる。不用な画角調整を行う必要がないので、手順の簡略化を図ることができる。 According to such an angle of view adjusting method, the angle of view of the short-distance camera 2A can be adjusted in step S5 only when the first deviation amount is equal to or greater than the determination threshold, and the first deviation amount is less than the determination threshold. In this case, it is possible not to adjust the angle of view of the short-distance camera 2A. Thereby, for example, when the first deviation amount is less than the determination threshold value and the amount is small, the angle of view adjustment is not performed, so that it is possible to prevent the first deviation amount from being significantly changed by the angle of view adjustment. In this case, the object detection in the subsequent image processing can be executed in consideration of the first deviation amount stored in the storage unit. Therefore, the object can be detected with high accuracy while maintaining a slight first deviation amount. Since it is not necessary to adjust the angle of view unnecessarily, the procedure can be simplified.

また、第2ずれ量が判定閾値以上の場合にのみ、ステップS8において遠距離用カメラ2Bの画角を調整することができ、第2ずれ量が判定閾値未満の場合には、遠距離用カメラ2Bの画角調整を実施しないようにすることができる。これにより、例えば、第2ずれ量が判定閾値未満であり、わずかな場合には、画角調整を実施しないので、画角調整により第2ずれ量が大きく変化することを防止することができる。この場合には、記憶部に記憶された第2ずれ量を考慮して、後段の画像処理における物体検出を実行することができる。そのため、わずかな第2ずれ量を維持したまま、精度良く物体検出を行うことができる。不用な画角調整を行う必要がないので、手順の簡略化を図ることができる。 Further, the angle of view of the long-distance camera 2B can be adjusted in step S8 only when the second deviation amount is equal to or greater than the determination threshold value, and when the second deviation amount is less than the determination threshold value, the long-distance camera 2B can be adjusted. It is possible to prevent the 2B angle of view adjustment from being performed. As a result, for example, when the second deviation amount is less than the determination threshold value and the amount is small, the angle of view adjustment is not performed, so that it is possible to prevent the second deviation amount from being significantly changed by the angle of view adjustment. In this case, the object detection in the subsequent image processing can be executed in consideration of the second deviation amount stored in the storage unit. Therefore, the object can be detected with high accuracy while maintaining a slight second deviation amount. Since it is not necessary to adjust the angle of view unnecessarily, the procedure can be simplified.

(画角調整方法;第3実施形態)
次に、第3実施形態として、メインテナンス時における画角調整方法について説明する。なお、第3実施形態の説明において、上記の第1、第2実施形態と同様の説明は省略する。
(Angle of view adjustment method; 3rd embodiment)
Next, as a third embodiment, a method of adjusting the angle of view at the time of maintenance will be described. In the description of the third embodiment, the same description as in the first and second embodiments described above will be omitted.

この画角調整方法では、初回(例えば使用前)の画角調整後において、第1画像J上のターゲットTの位置、大きさ等のデータを記憶部に記憶させておく。同様に、初回の画角調整後において、第2画像J上のターゲットTの位置、大きさ等のデータを記憶部に記憶させておく。 In the view angle method, after view angle for the first time (e.g., prior to use), the position of the target T A on the first image J 1, allowed to store data such as the size in the storage unit. Similarly, after view angle for the first time, the position of the target T A on the second image J 2, allowed to store data such as the size in the storage unit.

そして、次回のメインテナンス時に画角調整方法を実施する際に、初回(前回)のデータと比較してずれ量K、Kを検出すると共に、第1画像J上での第1ずれ量Kと第2画像J上での第2ずれ量Kとを比較する工程を行う。 Then, when the angle of view adjustment method is carried out at the time of the next maintenance, the deviation amounts K 1 and K 2 are detected as compared with the data of the first time (previous), and the first deviation amount on the first image J 1 is detected. A step of comparing K 1 with the second deviation amount K 2 on the second image J 2 is performed.

まず、図9(a)に示された第2画像J上での第2ずれ量Kと、図9(b)に示された第1画像J上での第1ずれ量Kとの比較について説明する。図9(a)は、遠距離用カメラ2Bで撮影された第2画像Jであり、第2画像J上に表示されたターゲットT及び第2マークCを示す図である。図9(b)は、近距離用カメラ2Aで撮影された第1画像Jであり、第1画像J上に表示されたターゲットT及び第1マークCを示す図である。 First, the second deviation amount K 2 on the second image J 2 shown in FIG. 9 (a) and the first deviation amount K 1 on the first image J 1 shown in FIG. 9 (b). The comparison with will be described. 9 (a) is a second image J 2 taken by the long-range camera 2B, a diagram illustrating a target T A and the second mark C 2 displayed on the second image J 2. FIG. 9 (b), a first image J 1 taken by the short distance camera 2A, a diagram illustrating a target T A and the first mark C 1 which is displayed on the first image J 1.

図9(a)において、第2マークCが表示される位置は、初回の画角調整後のターゲットTの位置と同じであり、記憶部に記憶されたデータである。初回の画角調整後から一定期間の使用後のメインテナンス前において、近距離用カメラ2Aの画角に変化がない場合には、第2画像J上に表示されたターゲットTと第2マークCと位置は一致する可能性が高い。 9 (a), the position where the second mark C 2 is displayed is the same as the position of the target T A after view angle for the first time, a data stored in the storage unit. Before maintenance after use for a certain period after view angle for the first time, if there is no change in the angle of view of the short-range camera 2A, the target T A and the second mark displayed on the second image J 2 C 2 and the position is likely to match.

図9(a)では、メインテナンス時の画角調整前のターゲットTの表示位置は、初回の画角調整後の位置(第2マークC)からずれている。第2画像J上では、右斜め上方にずれている。このとき、第2画像J上において、第2ずれ量Kを示す表示として、矢印を表示させてもよい。 In FIG. 9 (a), the display position of the view angle before the target T A during maintenance is offset from the position after the angle adjustment of the first (second mark C 2). On the second image J 2 is shifted to the right obliquely upward. At this time, an arrow may be displayed on the second image J 2 as a display indicating the second deviation amount K 2.

図9(b)において、第1マークCが表示される位置は、初回の画角調整後のターゲットTの位置と同じであり、記憶部に記憶されたデータである。初回の画角調整後から一定期間の使用後のメインテナンス前において、近距離用カメラ2Aの画角に変化がない場合には、第1画像J上に表示されたターゲットTと第1マークCと位置は一致する可能性が高い。 In FIG. 9 (b), the position where the first mark C 1 is displayed is the same as the position of the target T A after view angle for the first time, a data stored in the storage unit. Before maintenance after use for a certain period after view angle for the first time, if there is no change in the angle of view of the short-range camera 2A, the target T A and the first mark is displayed on the first image J 1 There is a high possibility that C 1 and the position will match.

図9(b)では、メインテナンス時の画角調整前のターゲットTの表示位置は、初回の画角調整後の位置(第1マークC)からずれている。第1画像J上では、右斜め上方にずれている。このとき、第1画像J上において、第1ずれ量Kを示す表示として、矢印を表示させてもよい。 9 (b), the display position of the view angle before the target T A during maintenance is offset from the position after the angle adjustment of the first (first mark C 1). On the first image J 1 is shifted to the right obliquely upward. At this time, an arrow may be displayed on the first image J 1 as a display indicating the first deviation amount K 1.

例えば、画像処理部6は、第1画像J上での第1ずれ量Kと、第2画像J上での第2ずれ量Kとを比較する。例えば、支障物検知ユニット5は、第1画像J上での第1ずれ量Kの方向と、第2画像J上での第2ずれ量Kの方向とが、一致しているか否かを判定する。図9(a)、(b)に示す場合には、ずれ量K、Kを示す矢印が向く方向が同じであるので、支障物検知ユニット5は、第1画像J上での第1ずれ量Kの方向と、第2画像J上での第2ずれ量Kの方向とが一致すると判定する。 For example, the image processing unit 6 compares the first shift amount K 1 in the above first image J 1, and a second shift amount K 2 of on the second image J 2. For example, the obstacle detection unit 5, a first direction of displacement amount K 1 in the above first image J 1, and a second direction shift amount K 2 of on the second image J 2 is coincident Judge whether or not. In the case shown in FIG. 9 (a), (b), since the direction toward the arrow indicating the shift amount K 1, K 2 are the same, the obstacle detection unit 5, first the on the first image J 1 It is determined that the direction of the 1 deviation amount K 1 and the direction of the second deviation amount K 2 on the second image J 2 coincide with each other.

図9(a)、(b)に示されるように、ずれが同じ方向である場合に、近距離用カメラ2A及び遠距離用カメラ2Bにおいて、それぞれの設置ピッチング角及び設置パン角のずれの影響は小さく、今回の画角調整時の車両Mの設置位置、車両Mの向き等が、前回の画角調整時と比較してずれているおそれがある。この場合には、支障物検知ユニット5の判定部は、画角調整を行わないことを決定することができる。 As shown in FIGS. 9A and 9B, when the deviations are in the same direction, the effects of the deviations of the installation pitching angle and the installation pan angle on the short-range camera 2A and the long-range camera 2B, respectively. Is small, and there is a possibility that the installation position of the vehicle M at the time of adjusting the angle of view this time, the orientation of the vehicle M, and the like are deviated from those at the time of adjusting the angle of view last time. In this case, the determination unit of the obstacle detection unit 5 can decide not to adjust the angle of view.

次に、図9(c)に示された第2画像J上での第2ずれ量Kと、図9(d)に示された第1画像J上での第1ずれ量Kとの比較について説明する。図9(c)は、遠距離用カメラ2Bで撮影された第2画像Jであり、第2画像J上に表示されたターゲットT及び第2マークCを示す図である。図9(b)は、近距離用カメラ2Aで撮影された第1画像Jであり、第1画像J上に表示されたターゲットT及び第1マークCを示す図である。 Next, the second deviation amount K 2 on the second image J 2 shown in FIG. 9 (c) and the first deviation amount K on the first image J 1 shown in FIG. 9 (d). The comparison with 1 will be described. 9 (c) is a second image J 2 taken by the long-range camera 2B, a diagram illustrating a target T A and the second mark C 2 displayed on the second image J 2. FIG. 9 (b), a first image J 1 taken by the short distance camera 2A, a diagram illustrating a target T A and the first mark C 1 which is displayed on the first image J 1.

なお、図9(c)は、図9(a)と同一であるので、ここでの説明は省略する。図9(d)において、第1マークCが表示される位置は、図9(b)と同じである。 Since FIG. 9 (c) is the same as FIG. 9 (a), the description thereof is omitted here. In FIG. 9 (d), the position where the first mark C 1 is displayed is the same as in FIG. 9 (b).

図9(d)では、メインテナンス時の画角調整前のターゲットTの表示位置は、初回の画角調整後の位置(第1マークC)からずれている。第1画像J上では、右斜め下方にずれている。このとき、第1画像J上において、第1ずれ量Kを示す表示として、矢印を表示させてもよい。 In FIG. 9 (d), the display position of the view angle before the target T A during maintenance is offset from the position after the angle adjustment of the first (first mark C 1). On the first image J 1 is shifted to the right obliquely downward. At this time, an arrow may be displayed on the first image J 1 as a display indicating the first deviation amount K 1.

例えば、画像処理部6は、第1画像J上での第1ずれ量Kと、第2画像J上での第2ずれ量Kとを比較し、第1画像J上での第1ずれ量Kの方向と、第2画像J上での第2ずれ量Kの方向とが、一致しているか否かを判定する。図9(c)、(d)に示す場合には、ずれ量K、Kを示す矢印が向く方向が異なるので、支障物検知ユニット5は、第1画像J上での第1ずれ量Kの方向と、第2画像J上での第2ずれ量Kの方向とが一致しないと判定する。 For example, the image processing section 6 includes a first shift amount K 1 in the above first image J 1, compared with the second shift amount K 2 of on the second image J 2, on the first image J 1 determining a first direction of the displacement amount K 1, a second direction displacement amount K 2 of on the second image J 2 is, whether or not the match. FIG. 9 (c), the in the case shown in (d) is because the direction toward the arrow indicating the shift amount K 1, K 2 different, the obstacle detection unit 5, the first shift in on the first image J 1 It is determined that the direction of the quantity K 1 and the direction of the second deviation amount K 2 on the second image J 2 do not match.

図9(c)、(d)に示されるように、ずれが異なる方向である場合に、近距離用カメラ2A及び遠距離用カメラ2Bの少なくとも一方において、設置ピッチング角及び設置パン角の少なくとも一方がずれている可能性がある。設置ピッチング角、設置パン角がずれる原因としては、車両Mの走行による振動の影響が考えられる。この場合には、支障物検知ユニット5の判定部は、画角調整を行うことを決定することができる。この場合には、近距離用カメラ2Aの画角を調整する工程(ステップS4)及び遠距離用カメラ2Bの画角を調整する工程(ステップS8)を実行する。 As shown in FIGS. 9C and 9D, at least one of the installation pitching angle and the installation pan angle in at least one of the short-range camera 2A and the long-range camera 2B when the deviations are in different directions. May be out of alignment. The cause of the deviation of the installation pitching angle and the installation pan angle is considered to be the influence of vibration due to the running of the vehicle M. In this case, the determination unit of the obstacle detection unit 5 can decide to adjust the angle of view. In this case, the step of adjusting the angle of view of the short-distance camera 2A (step S4) and the step of adjusting the angle of view of the long-distance camera 2B (step S8) are executed.

また、例えば、第1画像J上での第1ずれ量Kと、第2画像J上での第2ずれ量Kとを比較する工程において、ずれ量K、Kの大きさ(矢印の長さ)を比較してもよい。また、「第1画像JにおけるターゲットTの外形と第1マークCの外形との変化の倍率」と、「第2画像JにおけるターゲットTの外形と第2マークの外形との変化の倍率」とを比較してもよい。これにより、前回の画角調整時と比較して、カメラの画角がずれているのか、カメラの画角はずれていないが、その他の原因でずれが生じているのかを判定することができる。例えば、外形の変化の倍率が、第1画像Jと第2画像Jとで異なる場合には、車両Mの振動の影響により、焦点距離fの調整に問題が生じたおそれがある。 Further, for example, a first shift amount K 1 in the above first image J 1, in the step of comparing the second shift amount K 2 of on the second image J 2, the displacement amount K 1, K 2 size You may compare the sa (length of the arrow). Further, "the outer shape of the target T A in the first image J 1 magnification change of the first mark C 1 contour", "the outer shape and the second mark of the outline of the target T B in the second image J 2 It may be compared with "magnification of change". As a result, it is possible to determine whether the angle of view of the camera is deviated from the previous time of adjusting the angle of view, or whether the angle of view of the camera is not deviated but the deviation is caused by other causes. For example, when the magnification of the change in the outer shape is different between the first image J 1 and the second image J 2 , there is a possibility that a problem may occur in the adjustment of the focal length f due to the influence of the vibration of the vehicle M.

(画角調整方法;変形例)
次に、図10及び図11を参照して変形例に係る支障物検知装置及び画角調整方法について説明する。なお、変形例の説明において、上記の第1〜第3実施形態と同様の説明は省略する。
(Angle of view adjustment method; modification example)
Next, the obstacle detection device and the angle of view adjusting method according to the modified example will be described with reference to FIGS. 10 and 11. In the description of the modified example, the same description as in the first to third embodiments described above will be omitted.

図10に示される変形例に係る支障物検知装置1が、図2に示される上記実施形態の支障物検知装置1と違う点は、近距離用カメラ2A及び遠距離用カメラ2Bに代えて、1台のカメラ2を備える点、3DLRを備えていない点である。また、支障物検知装置1の支障物検知ユニット5は、3DLR処理部7を備えていない点で、支障物検知装置1の支障物検知ユニット5と異なっている。 The obstacle detection device 1 according to the modified example shown in FIG. 10 is different from the obstacle detection device 1 of the above embodiment shown in FIG. 2 in place of the short-distance camera 2A and the long-distance camera 2B. The point is that one camera 2 is provided and the 3DLR is not provided. Further, the obstacle detection unit 5 of the obstacle detection device 1 is different from the obstacle detection unit 5 of the obstacle detection device 1 in that the obstacle detection unit 5 is not provided with the 3DLR processing unit 7.

変形例に係る画角調整方法では、図11に示されるように、作業者は、既存の物体をターゲットとして設定する(ステップS11)。この既存の物体は、カメラ2による撮影領域に存在するものである。この既存の物体の寸法(例えば高さ)は既知であり、カメラ2から既存の物体までの距離も既知である。この既存の物体は、基準長が分かる物体である。既存の物体の基準長とは、例えば、道路の幅、レールの幅である。 In the angle of view adjusting method according to the modified example, as shown in FIG. 11, the operator sets an existing object as a target (step S11). This existing object exists in the photographing area by the camera 2. The dimensions (eg, height) of this existing object are known, and the distance from the camera 2 to the existing object is also known. This existing object is an object whose reference length is known. The reference length of an existing object is, for example, the width of a road or the width of a rail.

また、ステップS11では、物体が載置されている載置面の水平面に対する角度が既知である既存の物体をターゲットとして設定する。例えば、物体の基準長の長手方向と水平方向と角度が既知である物体をターゲットとして設定する。物体が載置されている載置面の水平面に対する角度は、支障物検知装置1の記憶部に記憶されている。 Further, in step S11, an existing object whose angle with respect to the horizontal plane of the mounting surface on which the object is mounted is known is set as a target. For example, an object whose reference length is known in the longitudinal direction, the horizontal direction, and the angle is set as a target. The angle of the mounting surface on which the object is mounted with respect to the horizontal plane is stored in the storage unit of the obstacle detection device 1.

また、ステップS11では、カメラ2のカメラ座標の中心と既存の物体の中心とのずれ量が既知である当該既存の物体をターゲットとして設定する。なお、既存の物体の中心は、カメラ2のカメラ座標の中心と一致しているものでもよい。 Further, in step S11, the existing object whose deviation amount between the center of the camera coordinates of the camera 2 and the center of the existing object is known is set as a target. The center of the existing object may coincide with the center of the camera coordinates of the camera 2.

ステップ11では、例えば、作業者は、操作部16を用いて操作入力を行い、既存の物体を指定して、当該物体をターゲットとして設定する。支障物検知ユニット5は、操作部16から入力された情報に基づいて、既存の物体をターゲットとして認識する。 In step 11, for example, the operator inputs an operation using the operation unit 16, specifies an existing object, and sets the object as a target. The obstacle detection unit 5 recognizes an existing object as a target based on the information input from the operation unit 16.

次に、支障物検知ユニット5は、カメラ2からターゲットまでの距離を読み取る(ステップS12)。支障物検知ユニット5は、記憶部に記憶されているターゲットまでの距離に関するデータ(既知のデータ)を読み取る。 Next, the obstacle detection unit 5 reads the distance from the camera 2 to the target (step S12). The obstacle detection unit 5 reads data (known data) related to the distance to the target stored in the storage unit.

次に、マークの配置を計算する工程を行う(ステップS13)。マークは、画像上でのターゲットの表示目標を示すマークである。ここでの画像は、カメラ2を用いて撮影された画像である。 Next, a step of calculating the arrangement of marks is performed (step S13). The mark is a mark indicating a display target of the target on the image. The image here is an image taken by using the camera 2.

次に、画像上にマークを表示する工程を行う(ステップS14)。ステップS14では、ステップS13で計算された配置となるようにマークを画像上に表示する。画像処理部6は、ステップS13で算出したマークのサイズを適用して、画像上に、マークを表示する。 Next, a step of displaying the mark on the image is performed (step S14). In step S14, the mark is displayed on the image so as to have the arrangement calculated in step S13. The image processing unit 6 applies the mark size calculated in step S13 to display the mark on the image.

次に、カメラ2の画角を調整する工程を行う(ステップS15)。具体的には、画像上において、表示されたマークとターゲットとが一致するように、カメラ2の画角を調整する。 Next, a step of adjusting the angle of view of the camera 2 is performed (step S15). Specifically, the angle of view of the camera 2 is adjusted so that the displayed mark and the target match on the image.

このような画角調整方法によれば、カメラ2の撮影領域に存在する既知の物体をターゲットとして設定し、このターゲットの既知のデータである寸法及びカメラ2からの距離を用いて、カメラ2の画角調整を行うことができる。これにより、ターゲットとなる物体をわざわざ配置する必要がなく、支障物検知装置における画角調整の手順の簡素化を図ることができる。 According to such an angle of view adjustment method, a known object existing in the shooting area of the camera 2 is set as a target, and the camera 2 uses the dimensions and the distance from the camera 2 which are the known data of the target. The angle of view can be adjusted. As a result, it is not necessary to bother to arrange the target object, and the procedure for adjusting the angle of view in the obstacle detection device can be simplified.

また、既存の物体をターゲットとして設定する工程(ステップS11)では、物体が載置されている載置面の水平面に対する角度が既知である既存の物体をターゲットとして設定している。これにより、その後のマークの配置を計算する工程では、既知のデータであるカメラからターゲットまでの距離のみに基づいて、マークの配置を計算することができる。 Further, in the step of setting an existing object as a target (step S11), an existing object whose angle with respect to the horizontal plane of the mounting surface on which the object is mounted is known is set as a target. As a result, in the subsequent step of calculating the mark placement, the mark placement can be calculated based only on the known data, the distance from the camera to the target.

また、既存の物体をターゲットとして設定する工程(ステップS11)では、カメラ2のカメラ座標の中心とのずれ量が既知である当該既知の物体をターゲットとして設定している。これにより、カメラ座標の中心と、ターゲットとの中心のずれ量を計測する必要がない。または、既知である物体の中心のカメラ座標に対するずれ量に基づいて、支障物検知装置1における画角調整を行うことができる。 Further, in the step of setting an existing object as a target (step S11), the known object whose deviation amount from the center of the camera coordinates of the camera 2 is known is set as a target. As a result, it is not necessary to measure the amount of deviation between the center of the camera coordinates and the center of the target. Alternatively, the angle of view of the obstacle detection device 1 can be adjusted based on a known deviation amount of the center of the object with respect to the camera coordinates.

本発明は、前述した実施形態に限定されず、本発明の要旨を逸脱しない範囲で下記のような種々の変形が可能である。 The present invention is not limited to the above-described embodiment, and various modifications as described below are possible without departing from the gist of the present invention.

例えば、上記実施形態の画角調整方法において、処理手順を適宜入れ替えて実行することもできる。上記実施形態では、図4に示されるように、ステップS3〜S5を実行して近距離用カメラ2Aの画角を調整した後に、ステップS6〜S8を実行して遠距離用カメラ2Bの画角を調整しているが、ステップS6〜S8を実行して遠距離用カメラ2Bの画角を調整した後に、ステップS3〜S5を実行して近距離用カメラ2Aの画角を調整してもよい。 For example, in the angle-of-view adjustment method of the above-described embodiment, the processing procedures can be appropriately replaced and executed. In the above embodiment, as shown in FIG. 4, steps S3 to S5 are executed to adjust the angle of view of the short-range camera 2A, and then steps S6 to S8 are executed to adjust the angle of view of the long-range camera 2B. However, steps S6 to S8 may be executed to adjust the angle of view of the long-distance camera 2B, and then steps S3 to S5 may be executed to adjust the angle of view of the short-range camera 2A. ..

また、ステップS3の第1マークCの配置を計算する工程及びステップS6の第2マークC2の配置を計算する工程を事前に実行し、計算結果を記憶部に記憶させておいてもよい。そして、ステップS4において、記憶部からデータを読み取り第1画像J上に第1マークCを表示し、同様にステップS7において、記憶部からデータを読み取り第2画像J上に第2マークCを表示してもよい。 Also, run the step of calculating the placement of the second mark C2 steps and S6 calculating a first arrangement of the marks C 1 in step S3 in advance, the calculation result may be stored in the storage unit. Then, in step S4, the first display mark C 1 to read first on the image J 1 data from the storage unit, similarly in step S7, the second mark on the read second image J 2 data from the storage unit C 2 may be displayed.

また、上記実施形態では、近距離用カメラ2A及び遠距離用カメラ2Bを備えた監視システムにおける画角調整方法について説明しているが、撮影領域が異なる3種類以上のカメラを備えた監視システムに画角調整方法を適用することもできる。この場合には、3種類以上のカメラのうちの任意の2台のカメラについて適用することができる。 Further, in the above embodiment, the angle of view adjustment method in the surveillance system including the short-distance camera 2A and the long-distance camera 2B is described, but the surveillance system including three or more types of cameras having different shooting areas The angle of view adjustment method can also be applied. In this case, it can be applied to any two cameras out of three or more types of cameras.

また、上記実施形態では、支障物検知システムを車両に搭載した場合について説明しているが、支障物検知システムを車両以外の移動体に搭載してもよい。例えば、ロボット、飛行機、船舶、鉄道などに、支障物検知システムを搭載してもよい。また、支障物検知システムは、移動体に搭載せずに、その他の場所や物に設置してもよい。例えば、工場、店舗、病院、空港、駅、走行路周辺の建築物などに、支障物検知システムを設置して、危険のおそれがある対象物を支障物として検知してもよい。なお、対象物は静止物に限定されず、移動する物、人、動物でもよい。また、支障物は、危険な対象物に限定されず、障害となる対象物、特定の条件に合致する対象物でもよい。 Further, in the above embodiment, the case where the obstacle detection system is mounted on the vehicle is described, but the obstacle detection system may be mounted on a moving body other than the vehicle. For example, an obstacle detection system may be mounted on a robot, an airplane, a ship, a railroad, or the like. Further, the obstacle detection system may be installed in another place or object without being mounted on the moving body. For example, an obstacle detection system may be installed in a factory, a store, a hospital, an airport, a station, a building around a roadway, or the like to detect a potentially dangerous object as an obstacle. The object is not limited to a stationary object, but may be a moving object, a person, or an animal. Further, the obstacle is not limited to a dangerous object, but may be an obstacle object or an object that meets specific conditions.

1 支障物検知装置(監視システム)
2 カメラ、
2A 近距離用カメラ
2B 遠距離用カメラ
3 3DLR(3次元レーザレーダ)
4 車輪速センサ
5 支障物検知ユニット
6 画像処理部
7 3DLR処理部
8 線形計算部
9 統合処理部
10 システム統括部
15 表示部
16 操作部
17 車両制御部
18 警報器
19 ブレーキ
21 撮像素子
22 レンズ
a 素子サイズ
b 視野
f 焦点距離
C1 第1マーク
C2 第2マーク
D 水平方向に延在する軸線
E 車両の前後方向に延在する軸線
第1画像
第2画像
第1ずれ量
第2ずれ量
光軸
TA 車両からターゲットまでの距離
M 車両
2A 第1撮影領域
2B 第2撮影領域
2C 共通領域
ターゲット
θ 設置ピッチング角
θ 設置パン角

1 Obstacle detection device (monitoring system)
2 cameras,
2A Short-range camera 2B Long-range camera 3 3DLR (3D laser radar)
4 Wheel speed sensor 5 Obstacle detection unit 6 Image processing unit 7 3DLR processing unit 8 Linear calculation unit 9 Integrated processing unit 10 System control unit 15 Display unit 16 Operation unit 17 Vehicle control unit 18 Alarm device 19 Brake 21 Image sensor 22 Lens a Element size b View field f Focal length C1 1st mark C2 2nd mark D Horizontally extending axis E Axis extending in the front-rear direction of the vehicle J 1 1st image J 2 2nd image K 1 1st deviation amount K 2 second shift amount L 2 optical axis L TA distance M vehicle R 2A first imaging region R 2B second imaging region R 2C common region T a target theta 1 installed pitching angle theta 2 installed pan angle from the vehicle to the target

Claims (3)

カメラを備えた監視システムにおける画角調整方法であって、
前記カメラによる撮影領域に存在し、寸法及び前記カメラからの距離が既知であり基準長を判別可能な既存の物体をターゲットとして設定する工程と、
前記カメラによって撮影された画像上で撮像されるマークのサイズを計算する工程と、
計算されたサイズとなるように前記マークを前記画像上に表示する工程と、
前記画像上で前記ターゲットの表示を前記マークに合わせるように、前記カメラの画角を調整する工程と、を含み、
前記マークのサイズを計算する工程は、既知のデータである前記カメラから前記ターゲットまでの距離に基づいて、前記マークのサイズを計算する画角調整方法。
It is a method of adjusting the angle of view in a surveillance system equipped with a camera.
A process of setting an existing object existing in the shooting area by the camera, whose dimensions and distance from the camera are known, and whose reference length can be determined, as a target.
The process of calculating the size of the mark captured on the image taken by the camera, and
The process of displaying the mark on the image so that the size is calculated, and
Including a step of adjusting the angle of view of the camera so that the display of the target matches the mark on the image.
The step of calculating the size of the mark is an angle of view adjusting method for calculating the size of the mark based on the distance from the camera to the target, which is known data.
前記既存の物体をターゲットとして設定する工程では、前記物体が載置されている載置面の水平面に対する角度が既知である前記既存の物体をターゲットとして設定する請求項1に記載の画角調整方法。 The angle of view adjusting method according to claim 1, wherein in the step of setting the existing object as a target, the existing object whose angle with respect to the horizontal plane on which the object is placed is known. .. 前記既存の物体をターゲットとして設定する工程では、前記カメラのカメラ座標の中心と前記既存の物体の中心が一致している、または、前記既存の物体の中心とのずれ量が既知である当該既存の物体を前記ターゲットとして設定する請求項1又は2に記載の画角調整方法。

In the step of setting the existing object as a target, the center of the camera coordinates of the camera coincides with the center of the existing object, or the amount of deviation from the center of the existing object is known. The angle of view adjusting method according to claim 1 or 2, wherein the object of the above is set as the target.

JP2020146032A 2017-02-24 2020-08-31 Angle of view adjustment method Active JP6943328B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020146032A JP6943328B2 (en) 2017-02-24 2020-08-31 Angle of view adjustment method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017033690A JP6844307B2 (en) 2017-02-24 2017-02-24 Angle of view adjustment method
JP2020146032A JP6943328B2 (en) 2017-02-24 2020-08-31 Angle of view adjustment method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2017033690A Division JP6844307B2 (en) 2017-02-24 2017-02-24 Angle of view adjustment method

Publications (2)

Publication Number Publication Date
JP2020198639A JP2020198639A (en) 2020-12-10
JP6943328B2 true JP6943328B2 (en) 2021-09-29

Family

ID=73649438

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020146032A Active JP6943328B2 (en) 2017-02-24 2020-08-31 Angle of view adjustment method

Country Status (1)

Country Link
JP (1) JP6943328B2 (en)

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4238663B2 (en) * 2003-08-29 2009-03-18 トヨタ自動車株式会社 On-vehicle camera calibration method and calibration apparatus
JP4690476B2 (en) * 2009-03-31 2011-06-01 アイシン精機株式会社 Car camera calibration system

Also Published As

Publication number Publication date
JP2020198639A (en) 2020-12-10

Similar Documents

Publication Publication Date Title
JP6844307B2 (en) Angle of view adjustment method
US10501059B2 (en) Stereo camera device
JP6070206B2 (en) Position coordinate conversion system, position coordinate conversion method, in-vehicle device, world coordinate measuring device, and position coordinate conversion program
JP5752729B2 (en) Inter-vehicle distance calculation device and operation control method thereof
US9066085B2 (en) Stereoscopic camera object detection system and method of aligning the same
ES2886522T3 (en) Image processing device, its method and moving body anti-collision device
US10200670B2 (en) Method and apparatus for determining the 3D coordinates of an object
JP5650942B2 (en) Inspection system and inspection method
JP2001034899A (en) Device and method for processing image and navigation system
CN108778889A (en) Method and measuring system for detecting the fixed point by track
CN103718224A (en) 3d object detector and 3d object detection method
JP2004125795A (en) Calibration method and device of imaging sensor system
CN104132818B (en) Three-dimensional four-wheel aligner and measuring method thereof
US20160060825A1 (en) Self-Propelled Construction Machine And Method For Visualizing The Working Environment Of A Construction Machine Moving On A Terrain
CN103148832A (en) Detection method of installation inclination angle of video camera
JP2018036117A (en) Distance measuring device and image controller
KR102185769B1 (en) Pothole detector and Pothole management system
KR100978148B1 (en) System for 3d plane image pick up of container
US20200366883A1 (en) Stereo camera device
JPH04188014A (en) Apparatus for detecting distance between vehicles
KR101894204B1 (en) Realtime container truck monitoring method and system
JP6943328B2 (en) Angle of view adjustment method
JP5752728B2 (en) Inter-vehicle distance calculation device and operation control method thereof
JP2021099707A (en) Camera automatic inspection system
JP6004216B1 (en) Position information specifying method, position information specifying apparatus, and position information specifying program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200831

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210713

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210810

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210823

R151 Written notification of patent or utility model registration

Ref document number: 6943328

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151