JP2018139373A - Field angle adjustment method - Google Patents

Field angle adjustment method Download PDF

Info

Publication number
JP2018139373A
JP2018139373A JP2017033690A JP2017033690A JP2018139373A JP 2018139373 A JP2018139373 A JP 2018139373A JP 2017033690 A JP2017033690 A JP 2017033690A JP 2017033690 A JP2017033690 A JP 2017033690A JP 2018139373 A JP2018139373 A JP 2018139373A
Authority
JP
Japan
Prior art keywords
target
camera
angle
mark
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017033690A
Other languages
Japanese (ja)
Other versions
JP6844307B2 (en
Inventor
信一郎 園田
Shinichiro Sonoda
信一郎 園田
将旭 渡辺
Masaaki Watanabe
将旭 渡辺
俊寛 林
Toshihiro Hayashi
俊寛 林
尚 大田
Nao Ota
尚 大田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
IHI Corp
Original Assignee
IHI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by IHI Corp filed Critical IHI Corp
Priority to JP2017033690A priority Critical patent/JP6844307B2/en
Publication of JP2018139373A publication Critical patent/JP2018139373A/en
Priority to JP2020146032A priority patent/JP6943328B2/en
Application granted granted Critical
Publication of JP6844307B2 publication Critical patent/JP6844307B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)
  • Traffic Control Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To simplify a field angle adjustment procedure in a monitoring system.SOLUTION: A field angle adjustment method being the field angle adjustment method of a monitoring system 1 comprising a camera 2A that images a first area Rand a camera 2B that images a second area Rbeing more remote than the first area R, comprises the steps of: setting a target of a common area Rincluded in both areas Rand R; calculating arrangement of a mark Cindicating a display objective of the target on an image Jby the camera 2A; displaying the mark Con the image J; adjusting a field angle of the camera 2A such that the target is adapted to the mark Con the image J; calculating arrangement of a mark Cindicating the display objective of the target on an image Jby the camera 2B; displaying the mark Cat a position calculated on the image J; and adjusting a field angle of the camera 2B such that the target is adapted to the mark Con the image J.SELECTED DRAWING: Figure 4

Description

本発明は、カメラを備えた監視システムにおける画角調整方法に関する。   The present invention relates to a field angle adjustment method in a monitoring system including a camera.

例えば、監視カメラの設定方法として、3点のマーカーを検出して、監視エリアを設定する方法がある(例えば、特許文献1参照)。この設定方法では、監視対象水平面上に3点のマーカーを設定し、画像処理によりこれらのマーカーを検出している。この設定方法では、3点のマーカーの間隔及びカメラ高さの情報を利用してカメラパラメータの計算を行い、計算されたカメラパラメータを使用して監視エリアを設定している。   For example, as a monitoring camera setting method, there is a method of setting a monitoring area by detecting three markers (see, for example, Patent Document 1). In this setting method, three markers are set on the monitoring target horizontal plane, and these markers are detected by image processing. In this setting method, camera parameters are calculated using information on the three marker intervals and the camera height, and a monitoring area is set using the calculated camera parameters.

特開2001−204007号公報JP 2001-204007 A

しかしながら、従来のように複数のマーカーを配置して、カメラの設定を行うと作業が煩雑であった。例えば、複数のカメラを備えるシステムにおいては、カメラごとにマーカーを設定する必要があった。   However, when a plurality of markers are arranged and a camera is set as in the conventional case, the work is complicated. For example, in a system including a plurality of cameras, it is necessary to set a marker for each camera.

本発明は、カメラを備えた監視システムにおける画角調整の手順の簡素化を図ることが可能な画角調整方法を提供することを目的とする。   An object of the present invention is to provide an angle-of-view adjustment method capable of simplifying an angle-of-view adjustment procedure in a surveillance system including a camera.

本発明の画角調整方法は、第1の撮影領域を撮影する近距離用カメラと、第1の撮影領域の一部を含むと共に、基準位置からの距離が第1の撮影領域よりも遠い領域を含む第2の撮影領域を撮影する遠距離用カメラと、を備えた監視システムにおける画角調整方法であって、第1の撮影領域及び第2の撮影領域の両方に含まれる共通領域にターゲットを設定する工程と、近距離用カメラによって撮影された第1の画像上でのターゲットの表示目標を示す第1のマークの配置を計算する工程と、計算された配置となるように第1のマークを第1の画像上に表示する工程と、第1の画像上でターゲットの表示を第1のマークに合わせるように、近距離用カメラの画角を調整する工程と、遠距離用カメラによって撮影された第2の画像上でのターゲットの表示目標を示す第2のマークの配置を計算する工程と、計算された配置となるように第2のマークを第2の画像上に表示する工程と、第2の画像上でターゲットの表示を第2のマークに合わせるように、遠距離用カメラの画角を調整する工程と、を含む。   An angle-of-view adjustment method of the present invention includes a short-distance camera for photographing a first photographing region, a part of the first photographing region, and a region farther from the reference position than the first photographing region. A field-of-view adjustment method in a surveillance system that includes a long-distance camera that captures a second imaging region including a target, and targets to a common region included in both the first imaging region and the second imaging region , A step of calculating the arrangement of the first mark indicating the display target of the target on the first image photographed by the short-distance camera, and the first so as to be the calculated arrangement A step of displaying the mark on the first image, a step of adjusting the angle of view of the short-range camera so that the display of the target matches the first mark on the first image, and a long-range camera. Target on the second image taken Calculating a second mark position indicating a display target of the target, displaying a second mark on the second image so as to obtain the calculated position, and displaying the target mark on the second image. Adjusting the angle of view of the long-distance camera so that the display is aligned with the second mark.

この画角調整方法では、近距離用カメラによって撮影される第1の撮影領域と、遠距離用カメラによって撮影される第2の撮影領域との両方に含まれる共通領域にターゲットを設定し、同一のターゲットを用いて、近距離用カメラにおける画角調整と、遠距離用カメラにおける画角調整とを行うことができる。これにより、近距離用カメラの画角調整で使用するターゲットを第1の撮影領域に配置し、遠距離用カメラの画角調整で使用するターゲットを第2の撮影領域に配置する必要がなく、画角調整における手順を簡素化することができる。また、同一のターゲットを撮影することで、近距離用カメラで取得されたターゲットの画像データと、遠距離用カメラで取得されたターゲットの画像データとを容易に比較することができる。そのため、取得された画像データに基づく、対象物の検出精度の向上を図ることができる。   In this angle-of-view adjustment method, a target is set in a common area included in both the first shooting area shot by the short-distance camera and the second shooting area shot by the long-distance camera, and the same. The angle of view adjustment in the short distance camera and the angle of view adjustment in the long distance camera can be performed using this target. Thereby, it is not necessary to arrange the target used for the field angle adjustment of the short-distance camera in the first imaging region and to arrange the target used for the field angle adjustment of the long-distance camera in the second imaging region. The procedure for adjusting the angle of view can be simplified. Further, by photographing the same target, it is possible to easily compare the target image data acquired by the short-distance camera with the target image data acquired by the long-distance camera. Therefore, it is possible to improve the detection accuracy of the object based on the acquired image data.

監視システムは、共通領域を含む領域にレーザを照射するレーザレーダを更に備え、画角調整方法は、レーザレーダを用いて基準位置からターゲットまでの距離を計測する工程を更に含み、第1のマークの配置を計算する工程は、ターゲットまでの距離を考慮して第1のマークの配置を計算し、第2のマークの配置を計算する工程は、ターゲットまでの距離を考慮して第2のマークの配置を計算してもよい。これにより、基準位置からターゲットまでの距離を精度良く算出することができるので、算出されたターゲットまでの距離に基づいて、第1のマーク及び第2のマークを計算することができる。そのため、精度良く第1のマークを設定して、近距離用カメラの画角調整の精度を向上させることができ、精度良く第2のマークを設定して、遠距離用カメラの画角調整の精度を向上させることができる。   The monitoring system further includes a laser radar that irradiates a region including the common region with the laser, and the angle of view adjustment method further includes a step of measuring a distance from the reference position to the target using the laser radar, and the first mark The step of calculating the arrangement of the first mark calculates the arrangement of the first mark in consideration of the distance to the target, and the step of calculating the arrangement of the second mark includes the second mark in consideration of the distance to the target. May be calculated. Thereby, since the distance from the reference position to the target can be calculated with high accuracy, the first mark and the second mark can be calculated based on the calculated distance to the target. Therefore, the first mark can be set with high accuracy to improve the accuracy of the angle of view of the short-distance camera, and the second mark can be set with high accuracy to adjust the angle of view of the long-distance camera. Accuracy can be improved.

画角調整方法は、第1の画像上でのターゲットと第1のマークとのずれ量である第1のずれ量を計測する工程と、第1のずれ量を監視システムの記憶部に記憶させる工程と、を更に含んでもよい。これにより、監視システムを利用して対象物を検出する際に、記憶部に記憶された第1のずれ量を考慮して近距離用カメラによって取得されたデータを補正することができる。   In the angle-of-view adjustment method, a step of measuring a first shift amount, which is a shift amount between the target and the first mark on the first image, is stored in the storage unit of the monitoring system. And a process. Thereby, when detecting a target object using a monitoring system, the data acquired by the short-distance camera can be corrected in consideration of the first shift amount stored in the storage unit.

また、画角調整方法は、第1のずれ量が第1の判定閾値以上であるか否かを判定する工程と、第1のずれ量が第1の判定閾値以上である場合に、近距離用カメラの画角を再度調整する工程と、更に含んでもよい。これにより、第1のずれ量が第1の判定閾値以上である場合に、近距離用カメラの画角を再度調整することができ、第1のずれ量が第1の判定閾値未満である場合に、近距離用カメラの画角を調整せずに、使用状態を変更しないで監視システムを使用することができる。画角調整方法において、不要な再調整を減らすことができ、画角調整の手順の簡素化を図ることができる。   The field angle adjustment method includes a step of determining whether or not the first deviation amount is equal to or larger than a first determination threshold value, and a short distance when the first deviation amount is equal to or larger than the first determination threshold value. And a step of adjusting the angle of view of the camera for the second time. Thereby, when the first deviation amount is equal to or larger than the first determination threshold, the angle of view of the short-distance camera can be adjusted again, and the first deviation amount is less than the first determination threshold. In addition, the monitoring system can be used without changing the use state without adjusting the angle of view of the short-distance camera. In the angle of view adjustment method, unnecessary readjustment can be reduced, and the angle of view adjustment procedure can be simplified.

画角調整方法は、第2の画像上でのターゲットと第2のマークとのずれ量である第2のずれ量を計測する工程と、第2のずれ量を監視システムの記憶部に記憶させる工程と、を更に含んでもよい。これにより、監視システムを利用して対象物を検出する際に、記憶部に記憶された第2のずれ量を考慮して遠距離用カメラによって取得されたデータを補正することができる。   The angle-of-view adjustment method includes a step of measuring a second shift amount, which is a shift amount between the target and the second mark on the second image, and stores the second shift amount in the storage unit of the monitoring system. And a process. Thereby, when detecting a target object using a monitoring system, the data acquired by the long distance camera can be corrected in consideration of the second shift amount stored in the storage unit.

また、画角調整方法は、第2のずれ量が第2の判定閾値以上であるか否かを判定する工程と、第2のずれ量が第2の判定閾値以上である場合に、遠距離用カメラの画角を再度調整する工程と、を更に含んでもよい。これにより、第2のずれ量が第2の判定閾値以上である場合に、遠距離用カメラの画角を再度調整することができ、第2のずれ量が第2の判定閾値未満である場合に、遠距離用カメラの画角を調整せずに、使用状態を変更しないで監視システムを使用することができる。画角調整方法において、不要な再調整を減らすことができ、画角調整の手順の簡素化を図ることができる。   The field angle adjustment method includes a step of determining whether or not the second shift amount is equal to or greater than a second determination threshold value, and a long distance when the second shift amount is equal to or greater than the second determination threshold value. And adjusting the angle of view of the camera for the second time. Thereby, when the second deviation amount is equal to or larger than the second determination threshold value, the angle of view of the long-distance camera can be adjusted again, and the second deviation amount is less than the second determination threshold value. In addition, the surveillance system can be used without changing the use state without adjusting the angle of view of the long-distance camera. In the angle of view adjustment method, unnecessary readjustment can be reduced, and the angle of view adjustment procedure can be simplified.

本発明の画角調整方法は、カメラを備えた監視システムにおける画角調整方法であって、カメラによる撮影領域に存在し、寸法及びカメラからの距離が既知であり基準長を判別可能な既存の物体をターゲットとして設定する工程と、カメラによって撮影された画像上でのターゲットの表示目標を示すマークの配置を計算する工程と、計算された配置となるようにマークを画像上に表示する工程と、画像上でターゲットの表示をマークに合わせるように、カメラの画角を調整する工程と、を含み、マークの配置を計算する工程は、既知のデータであるカメラからターゲットまでの距離に基づいて、マークの配置を計算する。   The angle-of-view adjustment method of the present invention is an angle-of-view adjustment method in a surveillance system equipped with a camera, which is present in an imaging region by a camera, and has a known size and distance from the camera and is capable of determining a reference length A step of setting an object as a target, a step of calculating an arrangement of marks indicating a display target of the target on an image photographed by a camera, and a step of displaying the mark on the image so as to be the calculated arrangement Adjusting the angle of view of the camera so that the display of the target matches the mark on the image, and calculating the mark arrangement is based on the distance from the camera to the target, which is known data Calculate the mark placement.

この画角調整方法では、カメラの撮影領域に存在する既知の物体をターゲットとして設定し、このターゲットの既知のデータである寸法及びカメラからの距離を用いて、カメラの画角調整を行うことができる。これにより、ターゲットとなる物体をわざわざ配置する必要がなく、監視システムにおける画角調整の手順の簡素化を図ることができる。   In this angle-of-view adjustment method, a known object existing in the shooting area of the camera is set as a target, and the angle of view of the camera can be adjusted using the known data of the target and the distance from the camera. it can. Thereby, it is not necessary to bother to arrange the target object, and the procedure of angle of view adjustment in the monitoring system can be simplified.

また、既存の物体をターゲットとして設定する工程では、物体が載置されている載置面の水平面に対する角度が既知である既存の物体をターゲットとして設定する。これにより、マークの配置を計算する工程では、既知のデータであるカメラからターゲットまでの距離のみに基づいて、マークの配置を計算することができる。   In the step of setting an existing object as a target, an existing object having a known angle with respect to the horizontal plane of the mounting surface on which the object is mounted is set as a target. Thereby, in the step of calculating the mark arrangement, the mark arrangement can be calculated based only on the distance from the camera to the target, which is known data.

また、既存の物体をターゲットとして設定する工程では、カメラのカメラ座標の中心と既存の物体の中心が一致している、または、既存の物体の中心とのずれ量が既知である当該既存の物体をターゲットとして設定する。これにより、カメラ座標の中心と、ターゲットとの中心のずれ量を計測する必要がない。または、既知である物体の中心のカメラ座標に対するずれ量に基づいて、監視システムにおける画角調整を行うことができる。   Further, in the step of setting an existing object as a target, the center of the camera coordinates of the camera coincides with the center of the existing object, or the existing object whose deviation from the center of the existing object is known. Set as a target. This eliminates the need to measure the amount of deviation between the center of the camera coordinates and the center of the target. Alternatively, the angle of view adjustment in the monitoring system can be performed based on a known deviation amount of the center of the object with respect to the camera coordinates.

本発明によれば、近距離用カメラ及び遠距離用カメラを備えた監視システムにおいて、画角調整の手順の簡素化を図ることができる。また、本発明によれば、カメラを備えた監視システムにおいて、画角調整の手順の簡素化を図ることができる。   ADVANTAGE OF THE INVENTION According to this invention, in the surveillance system provided with the short distance camera and the long distance camera, the simplification of the procedure of angle of view adjustment can be achieved. Further, according to the present invention, the procedure for adjusting the angle of view can be simplified in a monitoring system including a camera.

支障物検知装置を搭載する車両が高速道路を走行する状態を示す斜視図である。It is a perspective view which shows the state which the vehicle carrying an obstacle detection apparatus drive | works on a highway. 画角調整方法を適用可能な支障物検知装置を示すブロック構成図である。It is a block block diagram which shows the obstruction detection apparatus which can apply an angle-of-view adjustment method. 近距離用カメラによる撮影領域、遠距離用カメラによる撮影領域、及びターゲットの配置を示す概略側面図である。It is a schematic side view which shows the imaging | photography area | region by the camera for short distances, the imaging | photography area | region by the camera for long distances, and the arrangement | positioning of a target. 画角調整方法における処理手順を示すフローチャートである。It is a flowchart which shows the process sequence in a view angle adjustment method. 画像上に表示されたターゲットとマークとを示す図である。It is a figure which shows the target and mark displayed on the image. カメラの撮像素子とターゲットとの位置関係を示す図である。It is a figure which shows the positional relationship of the imaging device of a camera, and a target. 図7(a)は、カメラの設置ピッチング角を示す側面図である。図7(b)は、カメラの設置パン角を示す平面図である。FIG. 7A is a side view showing the installation pitching angle of the camera. FIG. 7B is a plan view showing the installation pan angle of the camera. 図8(a)は、メインテナンス時の近距離用カメラにおける画角調整方法の処理手順を示すフローチャートである。図8(b)は、メインテナンス時の遠距離用カメラにおける画角調整方法の処理手順を示すフローチャートである。FIG. 8A is a flowchart showing the processing procedure of the field angle adjustment method in the short-distance camera during maintenance. FIG. 8B is a flowchart illustrating the processing procedure of the angle-of-view adjustment method in the long-distance camera during maintenance. 図9(a)、(c)は、第2画像上に表示されたターゲットT及び第2マークを示す図である。図9(b)、(d)は、第1画像上に表示されたターゲットT及び第1マークを示す図である。Figure 9 (a), (c) is a diagram showing a target T A and the second mark displayed on the second image. Figure 9 (b), (d) is a diagram showing a target T A and the first mark displayed on the first image. 変形例に係る画角調整方法を適用可能な支障物検知装置を示すブロック構成図である。It is a block block diagram which shows the obstruction detection apparatus which can apply the view angle adjustment method which concerns on a modification. 変形例に係る画角調整方法の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of the view angle adjustment method which concerns on a modification.

以下、本発明の好適な実施形態について、図面を参照しながら詳細に説明する。なお、各図において同一部分又は相当部分には同一の符号を付し、重複する説明は省略する。   DESCRIPTION OF EXEMPLARY EMBODIMENTS Hereinafter, preferred embodiments of the invention will be described in detail with reference to the drawings. In addition, in each figure, the same code | symbol is attached | subjected to the same part or an equivalent part, and the overlapping description is abbreviate | omitted.

まず、本実施形態に係る画角調整方法を適用可能な支障物検知装置(監視システム)について図1及び図2を参照して説明する。   First, an obstacle detection device (monitoring system) to which the angle-of-view adjustment method according to this embodiment can be applied will be described with reference to FIGS. 1 and 2.

(支障物検知装置)
支障物検知装置1は、図1に示されるように、例えば車両Mに搭載されて車両前方の対象物(例えば落下物B)を検出する。支障物検知装置1は、図2に示されるように、カメラ2、3DLR(3次元レーザレーダ、3D Laser Radar)3、車輪速センサ4及び支障物検知ユニット5を備えている。
(Obstacle detection device)
As shown in FIG. 1, the obstacle detection device 1 is mounted on, for example, a vehicle M and detects an object in front of the vehicle (for example, a falling object B). As shown in FIG. 2, the obstacle detection device 1 includes a camera 2, 3 DLR (three-dimensional laser radar, 3D Laser Radar) 3, a wheel speed sensor 4, and an obstacle detection unit 5.

支障物検知装置1は、検出された対象物を追跡し、追跡された対象物の中で判定条件を満たすものを支障物として判定する。「支障物」とは、車両Mの走行の妨げになるおそれがある対象物であり、当該対象物を回避するように走行を変更したり、停止して取り除くことが必要となるものである。   The obstacle detection device 1 tracks the detected object, and determines the obstacle that satisfies the determination condition among the tracked objects. The “obstacle” is an object that may interfere with the traveling of the vehicle M, and it is necessary to change the traveling so as to avoid the object or to stop and remove the object.

カメラ2は、車両前方を撮影し、道路及び対象物等の画像情報(検出データ)を取得する。カメラ2で取得された画像情報は、支障物検知ユニット5に入力される。カメラ2は、近距離用カメラ2Aと、遠距離用カメラ2Bとを含む。近距離用カメラ2A及び遠距離用カメラ2Bは、例えば、車両の前後方向において同じ位置に配置され、車幅方向に並んで配置されている。なお、カメラ2のレンズの歪みの影響は十分に小さい。   The camera 2 captures the front of the vehicle and acquires image information (detection data) such as roads and objects. Image information acquired by the camera 2 is input to the obstacle detection unit 5. The camera 2 includes a short distance camera 2A and a long distance camera 2B. The short-distance camera 2A and the long-distance camera 2B are, for example, arranged at the same position in the vehicle front-rear direction and arranged side by side in the vehicle width direction. Note that the influence of the distortion of the lens of the camera 2 is sufficiently small.

図3に示されるように、近距離用カメラ2Aは、車両前方の第1撮影領域R2Aを撮影する。第1撮影領域R2Aは、例えば、車両前方の地点Pから地点Pまでの範囲である。遠距離用カメラ2Bは、車両前方の第2撮影領域R2Bを撮影する。第2撮影領域R2Bは、例えば、地点Pから地点Pまでの範囲である。車両前方の数百mの範囲を含む。第2撮影領域R2Bは、第1撮影領域R2Aの一部を含むと共に、基準位置(車両Mの停車位置、カメラ2の設置位置)からの距離が第1撮影領域R2A(地点P)よりも遠い領域を含んでいる。なお、第1撮影領域R2A及び第2撮影領域R2Bの両方に含まれる領域を共通領域R2Cとする。共通領域R2Cは、地点Pから地点Pまでの領域を含む。また、第1撮影領域R2Aと第2撮影領域R2Bとは、隣接するように設定されていてもよい。このときの共通領域は、第1撮影領域R2Aと第2撮影領域R2Bとの境界となる。 As shown in FIG. 3, the short-distance camera 2A images the first imaging region R2A in front of the vehicle. The first imaging region R 2A is, for example, a range from a point P 1 to a point P 3 in front of the vehicle. The long-distance camera 2B images the second imaging region R2B in front of the vehicle. The second imaging region R 2B is, for example, a range from the point P 2 to the point P 4 . Including a range of several hundred meters ahead of the vehicle. The second imaging region R 2B includes a part of the first imaging region R 2A , and the distance from the reference position (the stop position of the vehicle M, the installation position of the camera 2) is the first imaging region R 2A (point P 3 ) Is farther away. Note that a region included in both the first imaging region R 2A and the second imaging region R 2B is a common region R 2C . The common area R 2C includes an area from the point P 2 to the point P 3 . Further, the first imaging region R 2A and the second imaging region R 2B may be set so as to be adjacent to each other. The common area at this time is a boundary between the first imaging area R 2A and the second imaging area R 2B .

3DLR3は、車両前方にレーザを照射して、路上の対象物で反射した反射レーザを受信する。3DLR3で受信した反射レーザに関する情報は、支障物検知ユニット5に入力される。   The 3DLR 3 irradiates a laser in front of the vehicle and receives a reflected laser reflected by an object on the road. Information regarding the reflected laser received by the 3DLR 3 is input to the obstacle detection unit 5.

車輪速センサ4は、車両Mの車輪の回転角度に関する情報を取得するセンサである。車輪速センサ4は、例えばエンコーダを備え、このエンコーダは、車輪の回転パルスを計測する。車輪の回転パルスに関する信号は、支障物検知ユニット5に入力される。   The wheel speed sensor 4 is a sensor that acquires information related to the rotation angle of the wheel of the vehicle M. The wheel speed sensor 4 includes, for example, an encoder, and this encoder measures a rotation pulse of the wheel. A signal related to the rotation pulse of the wheel is input to the obstacle detection unit 5.

支障物検知ユニット5は、画像処理部6、3DLR処理部7、線形計算部8、統合処理部9及びシステム統括部10を備えている。支障物検知ユニット5は、演算処理を行うCPU、記憶部となるROM及びRAM、入力信号回路、出力信号回路、電源回路などを備える。   The obstacle detection unit 5 includes an image processing unit 6, a 3 DLR processing unit 7, a linear calculation unit 8, an integration processing unit 9, and a system control unit 10. The obstacle detection unit 5 includes a CPU that performs arithmetic processing, a ROM and a RAM that are storage units, an input signal circuit, an output signal circuit, a power supply circuit, and the like.

システム統括部10は、支障物検知ユニット5の全体の制御を司り、画像処理部6、3DLR処理部7、線形計算部8及び統合処理部9のブロックの生成及び機能の停止を管理する。また、システム統括部10は、後述する表示部15、操作部16及び車両制御部17とのデータの入出力を管理する。   The system supervision unit 10 controls the entire obstacle detection unit 5 and manages block generation and function stop of the image processing unit 6, the 3 DLR processing unit 7, the linear calculation unit 8, and the integration processing unit 9. The system control unit 10 manages data input / output with a display unit 15, an operation unit 16, and a vehicle control unit 17 which will be described later.

画像処理部6は、カメラ2から入力したセンサデータについて画像処理を行う。画像処理部6は、画像処理として、例えば2値化処理を行い、対象物に関する情報、道路の白線に関する情報を検知する。また、カメラ2から入力したセンサデータには、対象物の色相に関する情報、対象物の明度に関する情報、対象物のサイズ(外形寸法)に関する情報、及び対象物の位置に関する情報が含まれる。   The image processing unit 6 performs image processing on the sensor data input from the camera 2. As the image processing, the image processing unit 6 performs, for example, binarization processing, and detects information on the object and information on the white line of the road. The sensor data input from the camera 2 includes information on the hue of the object, information on the brightness of the object, information on the size (outer dimensions) of the object, and information on the position of the object.

また、画像処理部6は、センサデータに基づいて、対象物の位置(左右方向の位置、車両Mの進行方向における位置)、対象物のサイズ(幅方向のサイズ、高さ方向のサイズ)、対象物の色相及び明度を算出する。また、画像処理部6は、対象物の周囲の色相及び明度を算出する。   Further, the image processing unit 6 determines the position of the object (position in the left-right direction, position in the traveling direction of the vehicle M), the size of the object (size in the width direction, size in the height direction) based on the sensor data, Calculate the hue and brightness of the object. Further, the image processing unit 6 calculates the hue and brightness around the object.

画像処理部6は、画像内のピクセルサイズに対して、画角などのカメラパラメータ及び経路の線形情報を照合して、対象物の実際のサイズを算出し判定する。なお、画角とは、例えば、焦点距離f(図6参照)、設置ピッチング角θ(図7(a)参照)、設置パン角θ(図7(b)参照)などを含む。 The image processing unit 6 compares the camera parameters such as the angle of view and the linear information of the path with the pixel size in the image, and calculates and determines the actual size of the object. The angle of view includes, for example, a focal length f (see FIG. 6), an installation pitching angle θ 1 (see FIG. 7A), an installation pan angle θ 2 (see FIG. 7B), and the like.

3DLR処理部7は、3DLR3から入力したセンサデータについてデータ処理を行う。また、3DLRから入力したセンサデータには、対象物の位置(左右方向の位置、車両Mの進行方向における位置、上下方向の位置)が含まれる。   The 3DLR processing unit 7 performs data processing on the sensor data input from the 3DLR 3. The sensor data input from the 3DLR includes the position of the object (position in the left-right direction, position in the traveling direction of the vehicle M, position in the up-down direction).

3DLR処理部7は、センサデータに基づいて、対象物の位置(左右方向の位置、車両Mの進行方向における位置、上下方向の位置)を算出する。   The 3DLR processing unit 7 calculates the position of the object (position in the left-right direction, position in the traveling direction of the vehicle M, position in the up-down direction) based on the sensor data.

線形計算部8は、記憶部に記憶されている経路の線形情報と、車輪速センサ4で取得された車速とを用いて、車両Mの移動距離を算出する。「経路の線形情報」は、経路の起点となる位置からの距離に対応した経路の3次元の形状に関する情報であり、道路におけるカーブの水平方向の曲率に関する情報、坂道における上下方向の勾配に関する情報を含むものである。線形計算部8は、経路の線形情報及び車速に基づいて、車両Mの起点から位置を示す自車位置情報を算出する。   The linear calculation unit 8 calculates the travel distance of the vehicle M using the linear information of the route stored in the storage unit and the vehicle speed acquired by the wheel speed sensor 4. “Route linear information” is information on the three-dimensional shape of the route corresponding to the distance from the starting position of the route, information on the curvature of the curve in the horizontal direction on the road, and information on the gradient in the vertical direction on the slope. Is included. The linear calculation unit 8 calculates own vehicle position information indicating the position from the starting point of the vehicle M based on the linear information of the route and the vehicle speed.

統合処理部9は、複数のセンサから取得された対象物のセンサデータを統合する統合処理を行う。統合処理部9は、追跡処理及び支障物判定処理に適したデータとするために、時間的に異なる複数のセンサデータを時間的に連続するデータとして統合する。   The integration processing unit 9 performs integration processing for integrating sensor data of objects acquired from a plurality of sensors. The integration processing unit 9 integrates a plurality of temporally different sensor data as temporally continuous data in order to obtain data suitable for tracking processing and obstacle determination processing.

統合処理部9は、近距離用カメラ2A、遠距離用カメラ2B又は3DLR3で検知された対象物が支障物であるか否かを判定する。統合処理部9による処理結果は、システム統括部10に出力される。   The integrated processing unit 9 determines whether the object detected by the short-distance camera 2A, the long-distance camera 2B, or the 3DLR 3 is an obstacle. The processing result by the integrated processing unit 9 is output to the system control unit 10.

また、支障物検知ユニット5には、表示部15及び操作部16が電気的に接続されている。表示部15は、例えば、液晶表示装置であり、カメラ2で取得した画像を表示する。また、支障物検知ユニット5から出力された情報に基づいて、支障物である対象物を強調表示することで、運転者に報知する。   Further, the obstacle detection unit 5 is electrically connected with a display unit 15 and an operation unit 16. The display unit 15 is a liquid crystal display device, for example, and displays an image acquired by the camera 2. Moreover, based on the information output from the obstacle detection unit 5, the driver is notified by highlighting an object that is an obstacle.

また、操作部16は、例えば液晶表示装置のタッチパネルであり、運転者の操作入力に基づく信号をシステム統括部10に出力する。運転者は、例えば支障物ではないと確認された対象物について入力操作する際に、操作部16を操作する。   The operation unit 16 is a touch panel of a liquid crystal display device, for example, and outputs a signal based on a driver's operation input to the system control unit 10. For example, the driver operates the operation unit 16 when performing an input operation on an object that is confirmed not to be an obstacle.

また、支障物検知装置1には、車両Mの制御を司る車両制御部17が電気的に接続されている。車両制御部17には、例えば警報器18及びブレーキ19が電気的に接続されている。車両制御部17は、システム統括部10からの信号に基づいて、警報器18を制御して警報音を発することができる。また、車両制御部17は、システム統括部10からの信号に基づいて、ブレーキ19を作動させて、車両Mを減速させることができる。   Further, the obstacle detection device 1 is electrically connected to a vehicle control unit 17 that controls the vehicle M. For example, an alarm device 18 and a brake 19 are electrically connected to the vehicle control unit 17. The vehicle control unit 17 can emit an alarm sound by controlling the alarm device 18 based on a signal from the system control unit 10. Further, the vehicle control unit 17 can decelerate the vehicle M by operating the brake 19 based on a signal from the system control unit 10.

(画角調整方法;第1実施形態)
次に、近距離用カメラ2A及び遠距離用カメラ2Bを備えた支障物検知装置1におけるカメラ2の画角調整方法について説明する。図4に示すフローチャートに沿って説明する。図4は、画角調整方法の処理手順を示すフローチャートである。図4に示す処理手順は、例えば、支障物検知装置1の使用前に実施される。例えば、出荷前において、工場内で画角調整方法を実施してもよく、屋外で実施してもよく、走行路上で実施してもよい。また、画角調整方法は車両Mの停止中に実施される。
(Field angle adjustment method; first embodiment)
Next, a method of adjusting the angle of view of the camera 2 in the obstacle detection apparatus 1 provided with the short distance camera 2A and the long distance camera 2B will be described. This will be described with reference to the flowchart shown in FIG. FIG. 4 is a flowchart showing the processing procedure of the angle of view adjustment method. The processing procedure shown in FIG. 4 is performed before the obstacle detection device 1 is used, for example. For example, before the shipment, the angle of view adjustment method may be performed in a factory, may be performed outdoors, or may be performed on a traveling road. Further, the angle of view adjustment method is performed while the vehicle M is stopped.

画角調整方法では、まず、作業者は車両M前方にターゲットTを配置する工程を行う(ステップS1)。ターゲットTは、図5に示されるように、例えば、画面上で矩形の物体として表示されるものである。ターゲットTは、矩形の物体として表示されるものに限定されず、例えば、三角形、円形、台形、線状など、その他の形状の物体として表示されるものでもよい。 The angle adjusting method, first, the operator performs the step of placing the target T A forward vehicle M (step S1). Target T A, as shown in FIG. 5, for example, is displayed as a rectangular object on the screen. Target T A is not limited to what is displayed as a rectangular object, for example, triangular, circular, trapezoidal, etc. linear, or intended to be displayed as the object of other shapes.

また、ターゲットTは、図3に示されるように、車両M前方の共通領域R2C内に配置される。ターゲットTは、近距離用カメラ2A及び遠距離用カメラ2Bの両方によって撮影可能な位置に配置される。近距離用カメラ2Aによる第1撮影領域R2Aが、車両前方のS[m]以上4S[m]以下であり、遠距離用カメラ2Bによる第2撮影領域R2Bが、車両前方の2S[m]以上8S[m]以下の場合には、共通領域R2Cは、2S[m]以上4S[m]以下の範囲となる。なお、「S」は、任意の数値である。車両MからターゲットTまでの距離LTAは、例えば3S[m]である。距離LTAは、例えばカメラ2(近距離用カメラ2A、遠距離用カメラ2B)からターゲットTまでの距離でもよい。 The target T A, as shown in FIG. 3, is disposed in the common area R 2C of the vehicle M forward. Target T A is placed into a photographable position by both near camera 2A and far camera 2B. The first imaging region R 2A short-distance camera 2A is not more than the vehicle ahead of the S [m] or more 4S [m], the second imaging region R 2B by long-range camera 2B is ahead of the vehicle 2S [m In the case of 8S [m] or less, the common region R2C is in the range of 2S [m] or more and 4S [m] or less. “S” is an arbitrary numerical value. Distance L TA from the vehicle M to the target T A is, for example, 3S [m]. The distance L TA, for example a camera 2 (short-range camera 2A, the long-distance camera 2B) may be the distance from to the target T A.

なお、ターゲットTとしての物体を配置する代わりに、既存の物をターゲットTとして用いることができる。例えば、道路近傍に配置された標識、道路上の白線、道路上の表示、その他の設置物などをターゲットとして使用してもよい。また、例えば、画像処理部において、車線の両側の白線を検出し、これらの白線に交差する仮想の直線を設定し、この仮想の直線をターゲットTとして設定してもよい。 Instead of placing the object as a target T A, it may be used existing ones as the target T A. For example, a sign placed near the road, a white line on the road, a display on the road, or other installations may be used as the target. Further, for example, in the image processing unit detects a white line on both sides of the lane, and sets the imaginary straight line intersecting these white lines may be set straight virtual as the target T A.

次に、車両MからターゲットTまでの距離を測定する工程を行う(ステップS2)。具体的には、3DLR3が車両前方にレーザを照射して、ターゲットTで反射した反射レーザを受信する。3DLR処理部7は、3DLR3から入力したセンサデータについてデータ処理を行い、ターゲットTの位置を検出する。これにより、車両MからターゲットTまでの距離を測定する。なお、3DLR3を用いて、測定を行うにあたり、3DLRのキャリブレーションを行ってもよい。 Next, a step of measuring the distance from the vehicle M to the target T A (step S2). Specifically, 3DLR3 is irradiated with laser forward vehicle, it receives a reflected laser reflected by the target T A. 3DLR processing unit 7 performs data processing on the sensor data received from 3DLR3, detects the position of the target T A. Thus, measuring the distance from the vehicle M to the target T A. Note that 3DLR calibration may be performed when performing measurement using 3DLR3.

また、車両MからターゲットTまでの距離LTAを測定する工程は、3DLR3を用いて実施されるものに限定されず、その他のレーザレーダ、測距装置を用いてもよく、その他の方法により、距離LTAを測定してもよい。また、車両MからターゲットTまでの距離LTAが既知である場合には、その値を用いることができる。 The step of measuring the distance L TA from the vehicle M to the target T A is not limited to being implemented using 3DLR3, other laser radar may be used range finder, in other ways The distance L TA may be measured. Further, when the distance L TA from the vehicle M to the target T A is known, it is possible to use that value.

次に、第1マークCの配置を計算する工程を行う(ステップS3)。第1マークCは、第1画像J上でのターゲットTの表示目標を示すマークである。また、第1画像Jとは、近距離用カメラ2Aを用いて撮影された画像である。第1マークCは、例えば、ターゲットTの外形に対応した形状を成している。例えば、ターゲットTの外形が矩形状である場合には、第1マークCは、ターゲットTの外形に対応した矩形状の枠体とすることができる。第1マークCは、ターゲットTの外形の一部に対応する形状でもよい。例えば、ターゲットTが矩形状である場合には、この四隅に対応する位置に配置された4つの点でもよい。 Next, a step of calculating the placement of the first mark C 1 (step S3). First mark C 1 is a mark showing a display target of the target T A in on the first image J 1. Further, the first image J 1, an image photographed using short-range camera 2A. First mark C 1, for example, has a shape corresponding to the outer shape of the target T A. For example, if the outer shape of the target T A is rectangular, the first mark C 1 may be a rectangular frame body corresponding to the outer shape of the target T A. First mark C 1 may have a shape corresponding to a portion of the outline of the target T A. For example, if the target T A has a rectangular shape may be in terms of four arranged in a position corresponding to the four corners.

ステップS3では、例えば、支障物検知ユニット5の画像処理部6が演算処理を行う。図6は、カメラの撮像素子とターゲットとの位置関係を示す図である。この場合のカメラは、近距離用カメラ2Aであり、撮像素子21及びレンズ22は、近距離用カメラ2Aの撮像素子21及びレンズ22である。   In step S3, for example, the image processing unit 6 of the obstacle detection unit 5 performs arithmetic processing. FIG. 6 is a diagram illustrating a positional relationship between the imaging element of the camera and the target. The camera in this case is the short-distance camera 2A, and the image sensor 21 and the lens 22 are the image sensor 21 and the lens 22 of the short-distance camera 2A.

図6に示されるように、焦点距離f[mm]、カメラ2(車両M)からターゲットTまでの距離LTA[mm]、撮像素子の素子サイズa[mm]、ターゲットTの視野b[mm]は、以下の比例式(1)を満たす。
f:a=LTA:b…(1)
As shown in FIG. 6, the focal length f [mm], a distance L TA from the camera 2 (the vehicle M) to the target T A [mm], the element size a of the image sensor [mm], the field of view b of the target T A [Mm] satisfies the following proportional expression (1).
f: a = L TA : b (1)

上記の比例式(1)において、焦点距離f及び素子サイズaは、既知である。カメラ2からターゲットTまでの距離LTAは、ステップS2で算出された値を用いることができる。これらの値(a、b、LTA)を比例式(1)に代入して、視野bを算出することができる。 In the proportional formula (1), the focal length f and the element size a are known. Distance L TA from the camera 2 to the target T A may be a value calculated in step S2. The field of view b can be calculated by substituting these values (a, b, L TA ) into the proportional expression (1).

このように比例式(1)を用いて、ターゲットTの位置の水平視野b[mm]、垂直視野b[mm]を求めることができる。このとき、カメラの画像の解像度(例えばフルHD:水平1920[pixel]、垂直1080[pixel])は、既知である。そのため、ターゲットの位置における水平方向Xの分解能Gx(=1920/水平視野b)[pixel/mm]と、垂直方向Yの分解能G(=1080/垂直視野b)[pixel/mm]を求めることができる。 As described above, the horizontal field of view b X [mm] and the vertical field of view b Y [mm] at the position of the target T can be obtained using the proportional expression (1). At this time, the resolution of the image of the camera (for example, full HD: horizontal 1920 [pixel], vertical 1080 [pixel]) is known. Therefore, the resolution Gx (= 1920 / horizontal visual field b X ) [pixel / mm] in the horizontal direction X at the target position and the resolution G Y (= 1080 / vertical visual field b Y ) [pixel / mm] in the vertical direction Y are set. Can be sought.

ターゲットTの実際のサイズ[mm]も既知であるため、画像処理部6は、上記の分解能Gx、Gを用いて、画像上に撮像される第1マークCのサイズ[pixel]を計算することができる。 Because the target actual size of T A [mm] is also known, the image processing unit 6, the above resolution Gx, by using the G Y, the size of the first mark C 1 to be imaged on the image [pixel] of Can be calculated.

次に、第1画像J上に第1マークCを表示する工程を行う(ステップS4)。ステップS4では、ステップS3で計算された配置となるように第1マークCを第1画像J上に表示する。画像処理部6は、ステップS3で算出した第1マークCのサイズ(Tx、Ty)を適用して、図5に示されるように、第1画像J上に、第1マークCを表示する。なお、第1マークCを表示する位置(画像上の表示位置(x、y))は、使用者が任意に設定することができる。例えば、画像の中央に、第1マークCが表示されるように、第1マークCの表示位置を決定してもよい。 Next, a step of displaying a first mark C 1 on the first image J 1 (step S4). In step S4, and it displays a first mark C 1 on the first image J 1 so as to be arranged calculated in step S3. The image processing section 6 applies the first size of the mark C 1 calculated in step S3 (Tx, Ty), as shown in FIG. 5, on the first image J 1, the first mark C 1 indicate. The position for displaying a first mark C 1 (the display position on the image (x, y)) is the user can arbitrarily set. For example, the center of the image, so that the first mark C 1 is displayed may determine the first display position of the mark C 1.

次に、近距離用カメラ2Aの画角を調整する工程を行う(ステップS5)。具体的には、第1画像J上において、表示された第1マークCとターゲットTとが一致するように、近距離用カメラ2Aの画角を調整する。例えば、作業員が手動で近距離用カメラ2Aを操作して、近距離用カメラ2Aの画角を調整してもよく、支障物検知ユニット5から信号を出力してアクチュエータを駆動して自動で調整してもよい。 Next, a step of adjusting the angle of view of the short distance camera 2A is performed (step S5). Specifically, in the first image J on 1, as a first mark C 1 and the target T A displayed matches adjusts the angle of view of the short-range camera 2A. For example, an operator may manually operate the short-distance camera 2A to adjust the angle of view of the short-distance camera 2A. A signal is output from the obstacle detection unit 5 to automatically drive the actuator. You may adjust.

ステップS5では、例えば、近距離用カメラ2Aの焦点距離f、近距離用カメラ2Aの設置ピッチング角θ、近距離用カメラ2Aの設置パン角θを調整する。近距離用カメラ2Aのレンズ22の位置を移動させて、焦点距離fを変えることができる。図7(a)は、近距離用カメラ2Aの設置ピッチング角θを示す側面図である。図7(a)に示されるように、例えば水平方向に延在する軸線Dと、近距離用カメラ2Aの光軸Lとが交差する角度を設置ピッチング角θとすることができる。例えば、近距離用カメラ2Aを支持する支持台を傾斜させることで、設置ピッチング角θを調整することができる。 In step S5, for example, the focal length f of the short distance camera 2A, the installation pitching angle θ 1 of the short distance camera 2A, and the installation pan angle θ 2 of the short distance camera 2A are adjusted. The focal length f can be changed by moving the position of the lens 22 of the short-distance camera 2A. 7 (a) is a side view showing an installation pitching angle theta 1 of the near camera 2A. As shown in FIG. 7 (a), it can be for example the axis D extending in the horizontal direction, and the installation angle pitching angle theta 1 which the optical axis L 2 intersects the short-range camera 2A. For example, by tilting the support table for supporting a short-range camera 2A, it is possible to adjust the installation pitching angle theta 1.

図7(b)は、近距離用カメラ2Aの設置パン角θを示す平面図である。図7(b)に示されるように、例えば車両Mの前後方向に延在する軸線Eと、近距離用カメラ2Aの光軸Lとが交差する角度を設置パン角θとすることができる。例えば、近距離用カメラ2Aを支持する支持台を鉛直方向に延在する軸線回りに回転移動させることで、設置パン角θを調整することができる。 FIG. 7B is a plan view showing the installation pan angle θ 2 of the short-distance camera 2A. As shown in FIG. 7 (b), for example, the axis E that extends in the longitudinal direction of the vehicle M, that the optical axis L 2 of the short-range camera 2A to the installation pan angle theta 2 the angle of intersection it can. For example, the installation pan angle θ 2 can be adjusted by rotating the support base that supports the short-distance camera 2 </ b > A around the axis extending in the vertical direction.

次に、第2マークCの配置を計算する工程を行う(ステップS6)。第2マークCは、第2画像J上でのターゲットTの表示目標を示すマークである。また、第2画像Jとは、遠距離用カメラ2Bを用いて撮影された画像である。第2マークCは、例えば、ターゲットTの外形に対応した形状を成している。例えば、ターゲットTの外形が矩形状である場合には、第2マークCは、ターゲットTの外形に対応した矩形状の枠体とすることができる。第2マークCは、ターゲットTの外形の一部に対応する形状でもよい。例えば、ターゲットTが矩形状である場合には、この四隅に対応する位置に配置された4つの点でもよい。 Next, a step of calculating the placement of the second mark C 2 (step S6). Second mark C 2 is a mark showing a display target of the target T A of the on the second image J 2. Further, the second image J 2, an image taken using a long distance camera 2B. Second mark C 2, for example, has a shape corresponding to the outer shape of the target T A. For example, if the outer shape of the target T A is rectangular, the second mark C 2 can be a rectangular frame body corresponding to the outer shape of the target T A. Second mark C 2 may have a shape corresponding to a portion of the outline of the target T A. For example, if the target T A has a rectangular shape may be in terms of four arranged in a position corresponding to the four corners.

ステップS6では、例えば、支障物検知ユニット5の画像処理部6で演算処理を行う。ここでの処理は、ステップS3と同様の手順で遠距離用カメラ2Bについて実施することができる。そのため詳細な説明は省略する。   In step S6, for example, the image processing unit 6 of the obstacle detection unit 5 performs arithmetic processing. The processing here can be performed for the long-distance camera 2B in the same procedure as in step S3. Therefore, detailed description is omitted.

次に、第2画像J上に第2マークCを表示する工程を行う(ステップS7)。ステップS7では、ステップS6で計算された配置となるように第2マークCを第2画像J上に表示する。画像処理部6は、ステップS6で算出した第2マークCのサイズ(Tx、Ty)を適用して、第2画像J上に、第2マークCを表示する。なお、第2マークCを表示する位置(画像上の表示位置(x、y))は、使用者が任意に設定することができる。例えば、画像の中央に、第2マークCが表示されるように、第2マークCの表示位置を決定してもよい。なお、図5は、第1画像J及び第2画像Jとして例示しているが、第1画像Jと第2画像Jとは、異なる画像であり、各画像において、ターゲットT同士は、異なる大きさであり、第1マークCと第2マークCとは、異なる大きさとなる。 Next, a step of displaying the second mark C 2 on the second image J 2 (step S7). In step S7, it displays the second mark C 2 on the second image J 2 so that the arrangement which is calculated in step S6. The image processing section 6 applies the second size of the mark C 2 calculated in step S6 (Tx, Ty), on the second image J 2, displays a second mark C 2. The position for displaying the second mark C 2 (the display position on the image (x, y)) is the user can arbitrarily set. For example, the center of the image, so that the second mark C 2 is displayed, it may determine the display position of the second mark C 2. Incidentally, FIG. 5 is illustrated as a first image J 1 and the second image J 2, first image J 1 and the second image J 2, a different image, each image, the target T A each other, are different sizes, the first mark C 1 and the second mark C 2, the different sizes.

次に、遠距離用カメラ2Bの画角を調整する工程を行う(ステップS8)。具体的には、第2画像J上において、表示された第2マークCとターゲットTとが一致するように、遠距離用カメラ2Bの画角を調整する。例えば、作業員が手動で調整してもよく、支障物検知ユニット5から信号を出力してアクチュエータを駆動して自動で調整してもよい。 Next, a step of adjusting the angle of view of the long-distance camera 2B is performed (step S8). Specifically, on the second image J 2, so that the second mark C 2 and the target T A displayed matches adjusts the angle of view of the long distance camera 2B. For example, an operator may adjust manually, or a signal may be output from the obstacle detection unit 5 to drive the actuator and adjust automatically.

ステップS8では、例えば、遠距離用カメラ2Bの焦点距離f、遠距離用カメラ2Bの設置ピッチング角θ、遠距離用カメラ2Bの設置パン角θを調整する。遠距離用カメラ2Bのレンズ22の位置を移動させて、焦点距離fを変えることができる。また、例えば、遠距離用カメラ2Bを支持する支持台を傾斜させることで、設置ピッチング角θを調整することができる。また、例えば、遠距離用カメラ2Bを支持する支持台を鉛直方向に延在する軸線回りに回転移動させることで、設置パン角θを調整することができる。 In step S8, for example, the focal length f of the long-distance camera 2B, the installation pitching angle θ 1 of the long-distance camera 2B, and the installation pan angle θ 2 of the long-distance camera 2B are adjusted. The focal length f can be changed by moving the position of the lens 22 of the long-distance camera 2B. Further, for example, by inclining the support base for supporting the long-range camera 2B, it is possible to adjust the installation pitching angle theta 1. Further, for example, the installation pan angle θ 2 can be adjusted by rotating and moving the support base that supports the long-distance camera 2B around the axis extending in the vertical direction.

以上説明したように、この画角調整方法によれば、近距離用カメラ2Aによって撮影される第1撮影領域R2Aと、遠距離用カメラ2Bによって撮影される第2撮影領域R2Bとの両方に含まれる共通領域R2CにターゲットTを設定し、同一のターゲットTを用いて、近距離用カメラ2Aにおける画角調整と、遠距離用カメラ2Bにおける画角調整とを行うことができる。これにより、近距離用カメラ2Aの画角調整で使用するターゲットTと、遠距離用カメラ2Bの画角調整で使用するターゲットTとを別々に配置する必要がなく、画角調整における手順を簡素化することができる。また、同一のターゲットTを撮影することで、近距離用カメラ2Aで取得されたターゲットTの画像データと、遠距離用カメラ2Bで取得されたターゲットTの画像データとを容易に比較することができる。そのため、取得された画像データに基づく、対象物の検出精度の向上を図ることができる。 As described above, according to this angle-of-view adjustment method, both the first shooting area R 2A shot by the short distance camera 2A and the second shooting area R 2B shot by the long distance camera 2B are used. common area R 2C to set the target T a, using the same target T a, it is possible to perform the angle adjustment in the short-range camera 2A, and a view angle in the far camera 2B contained . Thus, the target T A to be used in the view angle of the short-range camera 2A, there is no need to arrange separately the target T A to be used in the view angle of the long-range camera 2B, procedures in view angle Can be simplified. Furthermore, by capturing the same target T A, easily compare the image data of the obtained target T A short distance camera 2A, and the image data of the target T B acquired in long distance camera 2B can do. Therefore, it is possible to improve the detection accuracy of the object based on the acquired image data.

例えば、近距離用カメラ2Aに対して1つのターゲットを準備し、遠距離用カメラ2Bに対して1つのターゲットを準備して、合計2つのターゲットを準備して、画角調整を行った場合には、それぞれのカメラに対してターゲットの設置場所が異なるため、それぞれで設置誤差が発生するおそれがある。この場合には、各カメラで異なるターゲットを撮影して画角調整を行っているため、それぞれのターゲットにおける設置誤差を含み、両方のカメラで同時に撮影される共通領域に存在する同一物体の検出位置がずれる可能性があり、画像処理部6における画像処理(物体検知)、統合処理部9における統合処理、判定処理等の精度に影響が出る可能性がある。   For example, when one target is prepared for the short-distance camera 2A, one target is prepared for the long-distance camera 2B, and a total of two targets are prepared and the angle of view is adjusted. Since the installation location of the target is different for each camera, there is a possibility that an installation error will occur in each camera. In this case, each camera captures a different target and adjusts the angle of view. Therefore, the detection position of the same object in the common area that is simultaneously captured by both cameras, including installation errors for each target. There is a possibility that the accuracy of image processing (object detection) in the image processing unit 6, integration processing in the integration processing unit 9, and determination processing may be affected.

これに対して、共通領域R2Cに配置された同一のターゲットTを用いて、近距離用カメラ2A及び遠距離用カメラ2Bの画角を調整する場合には、ターゲットTの設置誤差として、共通の設置誤差が1つだけ生じることになる。また、同一のターゲットTを見て、画角を調整することができるので、後段の画像処理による物体検知において、近距離用カメラ2Aと遠距離用カメラ2Bとの間で、同一物体の検出位置の差が小さくなる。 In contrast, using the same target T A that is allocated to the common area R 2C, when adjusting the angle of view of the short-range cameras 2A and far camera 2B as installation errors of the target T A Therefore, only one common installation error occurs. Also, look at the same target T A, it is possible to adjust the angle of view, in the object detection by image processing in a subsequent stage, with the short-range camera 2A and long range camera 2B, detection of the same object The difference in position is reduced.

(画角調整方法;第2実施形態)
次に、第2実施形態として、メインテナンス時における画角調整方法について説明する。メインテナンス時とは、例えば、支障物検知装置1を一定時間使用した後に実施される定期点検時などである。なお、メインテナンス時における画角調整方法の説明において、上記の画角調整方法と同様の説明は省略する。また、メインテナンス時における画角調整方法では、例えば、使用前に実行した画角調整方法と同じ位置に車両Mを配置し、同じ方向に車両Mを向け、同じ位置にターゲットTを配置する。
(Field angle adjustment method; Second Embodiment)
Next, an angle of view adjustment method during maintenance will be described as a second embodiment. The maintenance time is, for example, a periodic inspection that is performed after the obstacle detection device 1 has been used for a certain period of time. In the description of the field angle adjustment method during maintenance, the same description as the above field angle adjustment method is omitted. Further, the angle adjusting method at the time of maintenance, for example, the vehicle M is disposed at the same position as the view angle adjusting method performed before use, direct the vehicle M in the same direction, placing the target T A at the same position.

図4に示されるように、使用前における画角調整方法における手順と同様に、まず、ステップS1からS4の処理を行う。   As shown in FIG. 4, similarly to the procedure in the angle-of-view adjustment method before use, first, the processes of steps S1 to S4 are performed.

次に、図8(a)に示されるように、第1画像J上でのターゲットTと第1マークCとの第1ずれ量を計測する工程を行う(ステップS21)。第1マークCの配置は、例えば、初回と同じである。第1ずれ量として、例えば、ターゲットTの中心点と、第1マークCの中心点との位置のずれ量[mm]を計測してもよく、ターゲットTの角部と、対応する第1マークCの角部との位置のずれ量を計測してもよく、その他の対応する位置同士のずれ量を計測してもよい。第1ずれ量の計測は、例えば、画像処理部6において演算処理を行うことで実施可能である。 Next, as shown in FIG. 8 (a), a step of measuring a target T A and the first deviation amount between the first mark C 1 in the above first image J 1 (step S21). Arrangement of the first mark C 1 is, for example, the same as the first time. As a first shift amount, for example, may be measured and the center point of the target T A, the deviation amount of the position of the center point of the first mark C 1 [mm] and a corner portion of the target T A, the corresponding may be measured a deviation amount between the positions of the first mark C 1 of the corner, it may measure the amount of deviation of position between the other corresponding. The measurement of the first deviation amount can be performed, for example, by performing arithmetic processing in the image processing unit 6.

次に、第1ずれ量を記憶する工程を行う(ステップS22)。支障物検知ユニット5は、ステップS21で計測された第1ずれ量に関するデータを支障物検知ユニット5の記憶部に記憶する。   Next, a step of storing the first deviation amount is performed (step S22). The obstacle detection unit 5 stores data related to the first deviation amount measured in step S21 in the storage unit of the obstacle detection unit 5.

次に、第1ずれ量が判定閾値以上であるか否かを判定する工程を行う(ステップS23)。支障物検知ユニット5は、第1ずれ量が判定閾値以上であるか否かを判定する判定部を含む。支障物検知ユニット5の判定部は、ステップS21で計測された第1ずれ量が判定閾値(第1判定閾値)以上であるか否かの判定を行う。この判定閾値は、近距離用カメラ2Aの画角調整が必要であるか否かを判定するための閾値であり、例えば、実験データ、過去のデータに基づいて決定することができる。   Next, a step of determining whether or not the first deviation amount is greater than or equal to a determination threshold value is performed (step S23). The obstacle detection unit 5 includes a determination unit that determines whether or not the first deviation amount is greater than or equal to a determination threshold value. The determination unit of the obstacle detection unit 5 determines whether or not the first deviation amount measured in step S21 is greater than or equal to a determination threshold value (first determination threshold value). This determination threshold is a threshold for determining whether or not the field angle adjustment of the short-distance camera 2A is necessary, and can be determined based on, for example, experimental data and past data.

ステップS23において、第1ずれ量が判定閾値以上である場合には(ステップS23;YES)、ステップS5に進み、近距離用カメラ2Aの画角を調整する工程を実施した後に、ステップS6に進む。一方、第1ずれ量が判定閾値未満である場合には(ステップS23;NO)、ステップS5の画角を調整する工程を実行せずに、ステップS6に進む。   In step S23, when the first deviation amount is equal to or larger than the determination threshold (step S23; YES), the process proceeds to step S5, and after performing the step of adjusting the angle of view of the short-distance camera 2A, the process proceeds to step S6. . On the other hand, when the first deviation amount is less than the determination threshold value (step S23; NO), the process proceeds to step S6 without executing the step of adjusting the angle of view in step S5.

次に、図4に示すステップS6、S7を実施した後、図8(b)に示されるように、第2画像J上でのターゲットTと第2マークCとの第2ずれ量を計測する工程を行う(ステップS31)。第2ずれ量として、例えば、ターゲットTの中心点と、第2マークCの中心点との位置のずれ量[mm]を計測してもよく、ターゲットTの角部と、対応する第2マークCの角部との位置のずれ量を計測してもよく、その他の対応する位置同士のずれ量を計測してもよい。第2ずれ量の計測は、例えば、画像処理部6において演算処理を行うことで実施可能である。 Then, after performing the steps S6, S7 shown in FIG. 4, as shown in FIG. 8 (b), the target T A and the second deviation amount between the second mark C 2 of the above second image J 2 A step of measuring is performed (step S31). A second shift amount, for example, the center point of the target T A, the deviation amount of the position of the center point of the second mark C 2 [mm] may be measured, and the corner portions of the target T A, the corresponding may be measured displacement amount of the position of the second corner of the mark C 2, it may be measured displacement amount of the position each other other corresponding. The measurement of the second deviation amount can be performed, for example, by performing arithmetic processing in the image processing unit 6.

次に、第2ずれ量を記憶する工程を行う(ステップS32)。支障物検知ユニット5は、ステップS31で計測された第2ずれ量に関するデータを支障物検知ユニット5の記憶部に記憶する。   Next, a step of storing the second deviation amount is performed (step S32). The obstacle detection unit 5 stores data related to the second deviation amount measured in step S31 in the storage unit of the obstacle detection unit 5.

次に、第2ずれ量が判定閾値以上であるか否かを判定する工程を行う(ステップS33)。支障物検知ユニット5は、第2ずれ量が判定閾値以上であるか否かを判定する判定部を含む。支障物検知ユニット5の判定部は、ステップS31で計測された第2ずれ量が判定閾値(第2判定閾値)以上であるか否かの判定を行う。この判定閾値は、遠距離用カメラ2Bの画角調整が必要であるか否かを判定するための閾値であり、例えば、実験データ、過去のデータに基づいて決定することができる。   Next, a step of determining whether or not the second deviation amount is greater than or equal to a determination threshold value is performed (step S33). The obstacle detection unit 5 includes a determination unit that determines whether or not the second deviation amount is greater than or equal to a determination threshold value. The determination unit of the obstacle detection unit 5 determines whether or not the second deviation amount measured in step S31 is greater than or equal to a determination threshold (second determination threshold). This determination threshold is a threshold for determining whether or not the angle of view of the long-distance camera 2B needs to be adjusted, and can be determined based on, for example, experimental data or past data.

ステップS33において、第2ずれ量が判定閾値以上である場合には(ステップS33;YES)、ステップS8に進み、遠距離用カメラ2Bの画角を調整する工程を実施した後に、ステップS8に進む。一方、第2ずれ量が判定閾値未満である場合には(ステップS33;NO)、ステップS8の画角を調整する工程を実行せずに、終了する。   In step S33, when the second deviation amount is equal to or larger than the determination threshold (step S33; YES), the process proceeds to step S8, and after performing the step of adjusting the angle of view of the long-distance camera 2B, the process proceeds to step S8. . On the other hand, when the second deviation amount is less than the determination threshold value (step S33; NO), the process ends without performing the step of adjusting the angle of view in step S8.

このような画角調整方法によれば、第1ずれ量が判定閾値以上の場合にのみ、ステップS5において近距離用カメラ2Aの画角を調整することができ、第1ずれ量が判定閾値未満の場合には、近距離用カメラ2Aの画角調整を実施しないようにすることができる。これにより、例えば、第1ずれ量が判定閾値未満であり、わずかな場合には、画角調整を実施しないので、画角調整により第1ずれ量が大きく変化することを防止することができる。この場合には、記憶部に記憶された第1ずれ量を考慮して、後段の画像処理における物体検出を実行することができる。そのため、わずかな第1ずれ量を維持したまま、精度良く物体検出を行うことができる。不用な画角調整を行う必要がないので、手順の簡略化を図ることができる。   According to such a view angle adjustment method, the view angle of the short-distance camera 2A can be adjusted in step S5 only when the first deviation amount is equal to or larger than the determination threshold value, and the first deviation amount is less than the determination threshold value. In this case, it is possible to prevent the angle of view of the short-distance camera 2A from being adjusted. Thereby, for example, when the first deviation amount is less than the determination threshold and the angle is small, the angle of view adjustment is not performed. Therefore, it is possible to prevent the first deviation amount from being largely changed by the angle of view adjustment. In this case, the object detection in the subsequent image processing can be executed in consideration of the first shift amount stored in the storage unit. Therefore, it is possible to accurately detect an object while maintaining a slight first shift amount. Since there is no need to perform unnecessary field angle adjustment, the procedure can be simplified.

また、第2ずれ量が判定閾値以上の場合にのみ、ステップS8において遠距離用カメラ2Bの画角を調整することができ、第2ずれ量が判定閾値未満の場合には、遠距離用カメラ2Bの画角調整を実施しないようにすることができる。これにより、例えば、第2ずれ量が判定閾値未満であり、わずかな場合には、画角調整を実施しないので、画角調整により第2ずれ量が大きく変化することを防止することができる。この場合には、記憶部に記憶された第2ずれ量を考慮して、後段の画像処理における物体検出を実行することができる。そのため、わずかな第2ずれ量を維持したまま、精度良く物体検出を行うことができる。不用な画角調整を行う必要がないので、手順の簡略化を図ることができる。   In addition, the field angle of the long-distance camera 2B can be adjusted in step S8 only when the second deviation amount is equal to or greater than the determination threshold value. When the second deviation amount is less than the determination threshold value, the long-distance camera It is possible to prevent the 2B angle of view from being adjusted. Thereby, for example, when the second deviation amount is less than the determination threshold value and is small, the angle of view adjustment is not performed. Therefore, it is possible to prevent the second deviation amount from being largely changed by the angle of view adjustment. In this case, the object detection in the subsequent image processing can be executed in consideration of the second shift amount stored in the storage unit. Therefore, it is possible to accurately detect an object while maintaining a slight second deviation amount. Since there is no need to perform unnecessary field angle adjustment, the procedure can be simplified.

(画角調整方法;第3実施形態)
次に、第3実施形態として、メインテナンス時における画角調整方法について説明する。なお、第3実施形態の説明において、上記の第1、第2実施形態と同様の説明は省略する。
(Field angle adjusting method; Third Embodiment)
Next, as a third embodiment, an angle of view adjustment method during maintenance will be described. In the description of the third embodiment, the same description as in the first and second embodiments is omitted.

この画角調整方法では、初回(例えば使用前)の画角調整後において、第1画像J上のターゲットTの位置、大きさ等のデータを記憶部に記憶させておく。同様に、初回の画角調整後において、第2画像J上のターゲットTの位置、大きさ等のデータを記憶部に記憶させておく。 In the view angle method, after view angle for the first time (e.g., prior to use), the position of the target T A on the first image J 1, allowed to store data such as the size in the storage unit. Similarly, after view angle for the first time, the position of the target T A on the second image J 2, allowed to store data such as the size in the storage unit.

そして、次回のメインテナンス時に画角調整方法を実施する際に、初回(前回)のデータと比較してずれ量K、Kを検出すると共に、第1画像J上での第1ずれ量Kと第2画像J上での第2ずれ量Kとを比較する工程を行う。 When the angle of view adjustment method is performed during the next maintenance, the shift amounts K 1 and K 2 are detected as compared with the first (previous) data, and the first shift amount on the first image J 1 is detected. a step of comparing the K 1 and the second shift amount K 2 of on the second image J 2.

まず、図9(a)に示された第2画像J上での第2ずれ量Kと、図9(b)に示された第1画像J上での第1ずれ量Kとの比較について説明する。図9(a)は、遠距離用カメラ2Bで撮影された第2画像Jであり、第2画像J上に表示されたターゲットT及び第2マークCを示す図である。図9(b)は、近距離用カメラ2Aで撮影された第1画像Jであり、第1画像J上に表示されたターゲットT及び第1マークCを示す図である。 First, the second shift amount K 2 on the second image J 2 shown in FIG. 9A and the first shift amount K 1 on the first image J 1 shown in FIG. 9B. Comparison with will be described. 9 (a) is a second image J 2 taken by the long-range camera 2B, a diagram illustrating a target T A and the second mark C 2 displayed on the second image J 2. FIG. 9 (b), a first image J 1 taken by the short distance camera 2A, a diagram illustrating a target T A and the first mark C 1 which is displayed on the first image J 1.

図9(a)において、第2マークCが表示される位置は、初回の画角調整後のターゲットTの位置と同じであり、記憶部に記憶されたデータである。初回の画角調整後から一定期間の使用後のメインテナンス前において、近距離用カメラ2Aの画角に変化がない場合には、第2画像J上に表示されたターゲットTと第2マークCと位置は一致する可能性が高い。 9 (a), the position where the second mark C 2 is displayed is the same as the position of the target T A after view angle for the first time, a data stored in the storage unit. Before maintenance after use for a certain period after view angle for the first time, if there is no change in the angle of view of the short-range camera 2A, the target T A and the second mark displayed on the second image J 2 C 2 and the position is likely to match.

図9(a)では、メインテナンス時の画角調整前のターゲットTの表示位置は、初回の画角調整後の位置(第2マークC)からずれている。第2画像J上では、右斜め上方にずれている。このとき、第2画像J上において、第2ずれ量Kを示す表示として、矢印を表示させてもよい。 In FIG. 9 (a), the display position of the view angle before the target T A during maintenance is offset from the position after the angle adjustment of the first (second mark C 2). On the second image J 2 is shifted to the right obliquely upward. At this time, on the second image J 2, as a display of a second shift amount K 2, it may be displayed arrow.

図9(b)において、第1マークCが表示される位置は、初回の画角調整後のターゲットTの位置と同じであり、記憶部に記憶されたデータである。初回の画角調整後から一定期間の使用後のメインテナンス前において、近距離用カメラ2Aの画角に変化がない場合には、第1画像J上に表示されたターゲットTと第1マークCと位置は一致する可能性が高い。 In FIG. 9 (b), the position where the first mark C 1 is displayed is the same as the position of the target T A after view angle for the first time, a data stored in the storage unit. Before maintenance after use for a certain period after view angle for the first time, if there is no change in the angle of view of the short-range camera 2A, the target T A and the first mark is displayed on the first image J 1 C 1 and the position is likely to match.

図9(b)では、メインテナンス時の画角調整前のターゲットTの表示位置は、初回の画角調整後の位置(第1マークC)からずれている。第1画像J上では、右斜め上方にずれている。このとき、第1画像J上において、第1ずれ量Kを示す表示として、矢印を表示させてもよい。 9 (b), the display position of the view angle before the target T A during maintenance is offset from the position after the angle adjustment of the first (first mark C 1). On the first image J 1 is shifted to the right obliquely upward. At this time, the first image J on 1, as the display showing the first shift amount K 1, may be displayed arrow.

例えば、画像処理部6は、第1画像J上での第1ずれ量Kと、第2画像J上での第2ずれ量Kとを比較する。例えば、支障物検知ユニット5は、第1画像J上での第1ずれ量Kの方向と、第2画像J上での第2ずれ量Kの方向とが、一致しているか否かを判定する。図9(a)、(b)に示す場合には、ずれ量K、Kを示す矢印が向く方向が同じであるので、支障物検知ユニット5は、第1画像J上での第1ずれ量Kの方向と、第2画像J上での第2ずれ量Kの方向とが一致すると判定する。 For example, the image processing unit 6 compares the first shift amount K 1 in the above first image J 1, and a second shift amount K 2 of on the second image J 2. For example, the obstacle detection unit 5, a first direction of displacement amount K 1 in the above first image J 1, and a second direction shift amount K 2 of on the second image J 2 is coincident Determine whether or not. In the cases shown in FIGS. 9A and 9B, the direction in which the arrows indicating the shift amounts K 1 and K 2 are the same, the obstacle detection unit 5 is the first on the first image J 1 . 1 determines the direction of the displacement amount K 1, and the second direction displacement amount K 2 of on the second image J 2 are identical.

図9(a)、(b)に示されるように、ずれが同じ方向である場合に、近距離用カメラ2A及び遠距離用カメラ2Bにおいて、それぞれの設置ピッチング角及び設置パン角のずれの影響は小さく、今回の画角調整時の車両Mの設置位置、車両Mの向き等が、前回の画角調整時と比較してずれているおそれがある。この場合には、支障物検知ユニット5の判定部は、画角調整を行わないことを決定することができる。   As shown in FIGS. 9A and 9B, when the shift is in the same direction, in the short distance camera 2A and the long distance camera 2B, the influence of the shift of the installation pitching angle and the installation pan angle. There is a possibility that the installation position of the vehicle M at the time of the current view angle adjustment, the orientation of the vehicle M, and the like are deviated from those at the previous view angle adjustment. In this case, the determination unit of the obstacle detection unit 5 can determine that the angle of view is not adjusted.

次に、図9(c)に示された第2画像J上での第2ずれ量Kと、図9(d)に示された第1画像J上での第1ずれ量Kとの比較について説明する。図9(c)は、遠距離用カメラ2Bで撮影された第2画像Jであり、第2画像J上に表示されたターゲットT及び第2マークCを示す図である。図9(b)は、近距離用カメラ2Aで撮影された第1画像Jであり、第1画像J上に表示されたターゲットT及び第1マークCを示す図である。 Next, the second shift amount K 2 on the second image J 2 shown in FIG. 9C and the first shift amount K on the first image J 1 shown in FIG. 9D. Comparison with 1 will be described. 9 (c) is a second image J 2 taken by the long-range camera 2B, a diagram illustrating a target T A and the second mark C 2 displayed on the second image J 2. FIG. 9 (b), a first image J 1 taken by the short distance camera 2A, a diagram illustrating a target T A and the first mark C 1 which is displayed on the first image J 1.

なお、図9(c)は、図9(a)と同一であるので、ここでの説明は省略する。図9(d)において、第1マークCが表示される位置は、図9(b)と同じである。 Since FIG. 9C is the same as FIG. 9A, description thereof is omitted here. In FIG. 9 (d), the position where the first mark C 1 is displayed is the same as FIG. 9 (b).

図9(d)では、メインテナンス時の画角調整前のターゲットTの表示位置は、初回の画角調整後の位置(第1マークC)からずれている。第1画像J上では、右斜め下方にずれている。このとき、第1画像J上において、第1ずれ量Kを示す表示として、矢印を表示させてもよい。 In FIG. 9 (d), the display position of the view angle before the target T A during maintenance is offset from the position after the angle adjustment of the first (first mark C 1). On the first image J 1 is shifted to the right obliquely downward. At this time, the first image J on 1, as the display showing the first shift amount K 1, may be displayed arrow.

例えば、画像処理部6は、第1画像J上での第1ずれ量Kと、第2画像J上での第2ずれ量Kとを比較し、第1画像J上での第1ずれ量Kの方向と、第2画像J上での第2ずれ量Kの方向とが、一致しているか否かを判定する。図9(c)、(d)に示す場合には、ずれ量K、Kを示す矢印が向く方向が異なるので、支障物検知ユニット5は、第1画像J上での第1ずれ量Kの方向と、第2画像J上での第2ずれ量Kの方向とが一致しないと判定する。 For example, the image processing section 6 includes a first shift amount K 1 in the above first image J 1, compared with the second shift amount K 2 of on the second image J 2, on the first image J 1 determining a first direction of the displacement amount K 1, a second direction displacement amount K 2 of on the second image J 2 is, whether or not the match. In the cases shown in FIGS. 9C and 9D, since the directions in which the arrows indicating the shift amounts K 1 and K 2 are different, the obstacle detection unit 5 performs the first shift on the first image J 1. It determines the direction of the quantity K 1, and the second direction displacement amount K 2 of on the second image J 2 do not match.

図9(c)、(d)に示されるように、ずれが異なる方向である場合に、近距離用カメラ2A及び遠距離用カメラ2Bの少なくとも一方において、設置ピッチング角及び設置パン角の少なくとも一方がずれている可能性がある。設置ピッチング角、設置パン角がずれる原因としては、車両Mの走行による振動の影響が考えられる。この場合には、支障物検知ユニット5の判定部は、画角調整を行うことを決定することができる。この場合には、近距離用カメラ2Aの画角を調整する工程(ステップS4)及び遠距離用カメラ2Bの画角を調整する工程(ステップS8)を実行する。   As shown in FIGS. 9C and 9D, when the shifts are in different directions, at least one of the installation pitching angle and the installation pan angle in at least one of the short distance camera 2A and the long distance camera 2B. May be off. As a cause of deviation of the installation pitching angle and the installation pan angle, the influence of vibration caused by the traveling of the vehicle M can be considered. In this case, the determination unit of the obstacle detection unit 5 can determine to adjust the angle of view. In this case, a step of adjusting the angle of view of the short-distance camera 2A (step S4) and a step of adjusting the angle of view of the long-distance camera 2B (step S8) are executed.

また、例えば、第1画像J上での第1ずれ量Kと、第2画像J上での第2ずれ量Kとを比較する工程において、ずれ量K、Kの大きさ(矢印の長さ)を比較してもよい。また、「第1画像JにおけるターゲットTの外形と第1マークCの外形との変化の倍率」と、「第2画像JにおけるターゲットTの外形と第2マークの外形との変化の倍率」とを比較してもよい。これにより、前回の画角調整時と比較して、カメラの画角がずれているのか、カメラの画角はずれていないが、その他の原因でずれが生じているのかを判定することができる。例えば、外形の変化の倍率が、第1画像Jと第2画像Jとで異なる場合には、車両Mの振動の影響により、焦点距離fの調整に問題が生じたおそれがある。 Further, for example, a first shift amount K 1 in the above first image J 1, in the step of comparing the second shift amount K 2 of on the second image J 2, the displacement amount K 1, K 2 size The length (the length of the arrow) may be compared. Further, "the outer shape of the target T A in the first image J 1 magnification change of the first mark C 1 contour", "the outer shape and the second mark of the outline of the target T B in the second image J 2 The “magnification of change” may be compared. Thereby, it is possible to determine whether the angle of view of the camera is deviated compared to the previous adjustment of the angle of view, or whether the angle of view of the camera is not deviated but is deviated due to other reasons. For example, the magnification changes in outer shape, when the first image J 1 differs in the second image J 2 is, by the influence of the vibration of the vehicle M, there is a possibility that there is a problem in the adjustment of the focal length f.

(画角調整方法;変形例)
次に、図10及び図11を参照して変形例に係る支障物検知装置及び画角調整方法について説明する。なお、変形例の説明において、上記の第1〜第3実施形態と同様の説明は省略する。
(Field angle adjustment method; modification)
Next, an obstacle detection device and an angle-of-view adjustment method according to a modification will be described with reference to FIGS. 10 and 11. In the description of the modification, the same description as in the first to third embodiments is omitted.

図10に示される変形例に係る支障物検知装置1が、図2に示される上記実施形態の支障物検知装置1と違う点は、近距離用カメラ2A及び遠距離用カメラ2Bに代えて、1台のカメラ2を備える点、3DLRを備えていない点である。また、支障物検知装置1の支障物検知ユニット5は、3DLR処理部7を備えていない点で、支障物検知装置1の支障物検知ユニット5と異なっている。   The obstacle detection device 1 according to the modification shown in FIG. 10 is different from the obstacle detection device 1 of the above embodiment shown in FIG. 2 in place of the short-distance camera 2A and the long-distance camera 2B. The point is that one camera 2 is provided, and that no 3DLR is provided. Further, the obstacle detection unit 5 of the obstacle detection apparatus 1 is different from the obstacle detection unit 5 of the obstacle detection apparatus 1 in that the 3DLR processing unit 7 is not provided.

変形例に係る画角調整方法では、図11に示されるように、作業者は、既存の物体をターゲットとして設定する(ステップS11)。この既存の物体は、カメラ2による撮影領域に存在するものである。この既存の物体の寸法(例えば高さ)は既知であり、カメラ2から既存の物体までの距離も既知である。この既存の物体は、基準長が分かる物体である。既存の物体の基準長とは、例えば、道路の幅、レールの幅である。   In the field angle adjustment method according to the modification, as shown in FIG. 11, the operator sets an existing object as a target (step S11). This existing object is present in the imaging area of the camera 2. The dimension (for example, height) of this existing object is known, and the distance from the camera 2 to the existing object is also known. This existing object is an object whose reference length is known. The reference length of an existing object is, for example, the width of a road or the width of a rail.

また、ステップS11では、物体が載置されている載置面の水平面に対する角度が既知である既存の物体をターゲットとして設定する。例えば、物体の基準長の長手方向と水平方向と角度が既知である物体をターゲットとして設定する。物体が載置されている載置面の水平面に対する角度は、支障物検知装置1の記憶部に記憶されている。   In step S11, an existing object having a known angle with respect to the horizontal plane of the placement surface on which the object is placed is set as a target. For example, an object whose angle is known in the longitudinal direction and the horizontal direction of the reference length of the object is set as a target. The angle of the placement surface on which the object is placed with respect to the horizontal plane is stored in the storage unit of the obstacle detection device 1.

また、ステップS11では、カメラ2のカメラ座標の中心と既存の物体の中心とのずれ量が既知である当該既存の物体をターゲットとして設定する。なお、既存の物体の中心は、カメラ2のカメラ座標の中心と一致しているものでもよい。   In step S11, the existing object whose amount of deviation between the center of the camera coordinates of the camera 2 and the center of the existing object is known is set as a target. Note that the center of the existing object may coincide with the center of the camera coordinates of the camera 2.

ステップ11では、例えば、作業者は、操作部16を用いて操作入力を行い、既存の物体を指定して、当該物体をターゲットとして設定する。支障物検知ユニット5は、操作部16から入力された情報に基づいて、既存の物体をターゲットとして認識する。   In step 11, for example, the operator performs an operation input using the operation unit 16, specifies an existing object, and sets the object as a target. The obstacle detection unit 5 recognizes an existing object as a target based on information input from the operation unit 16.

次に、支障物検知ユニット5は、カメラ2からターゲットまでの距離を読み取る(ステップS12)。支障物検知ユニット5は、記憶部に記憶されているターゲットまでの距離に関するデータ(既知のデータ)を読み取る。   Next, the obstacle detection unit 5 reads the distance from the camera 2 to the target (step S12). The obstacle detection unit 5 reads data (known data) related to the distance to the target stored in the storage unit.

次に、マークの配置を計算する工程を行う(ステップS13)。マークは、画像上でのターゲットの表示目標を示すマークである。ここでの画像は、カメラ2を用いて撮影された画像である。   Next, a step of calculating the mark arrangement is performed (step S13). The mark is a mark indicating a display target of the target on the image. The image here is an image taken using the camera 2.

次に、画像上にマークを表示する工程を行う(ステップS14)。ステップS14では、ステップS13で計算された配置となるようにマークを画像上に表示する。画像処理部6は、ステップS13で算出したマークのサイズを適用して、画像上に、マークを表示する。   Next, a step of displaying a mark on the image is performed (step S14). In step S14, marks are displayed on the image so as to have the arrangement calculated in step S13. The image processing unit 6 displays the mark on the image by applying the mark size calculated in step S13.

次に、カメラ2の画角を調整する工程を行う(ステップS15)。具体的には、画像上において、表示されたマークとターゲットとが一致するように、カメラ2の画角を調整する。   Next, a step of adjusting the angle of view of the camera 2 is performed (step S15). Specifically, the angle of view of the camera 2 is adjusted so that the displayed mark matches the target on the image.

このような画角調整方法によれば、カメラ2の撮影領域に存在する既知の物体をターゲットとして設定し、このターゲットの既知のデータである寸法及びカメラ2からの距離を用いて、カメラ2の画角調整を行うことができる。これにより、ターゲットとなる物体をわざわざ配置する必要がなく、支障物検知装置における画角調整の手順の簡素化を図ることができる。   According to such an angle-of-view adjustment method, a known object existing in the imaging region of the camera 2 is set as a target, and the dimensions of the target 2 and the distance from the camera 2 are used as the known data of the target. The angle of view can be adjusted. As a result, it is not necessary to bother to place a target object, and the procedure for adjusting the angle of view in the obstacle detection device can be simplified.

また、既存の物体をターゲットとして設定する工程(ステップS11)では、物体が載置されている載置面の水平面に対する角度が既知である既存の物体をターゲットとして設定している。これにより、その後のマークの配置を計算する工程では、既知のデータであるカメラからターゲットまでの距離のみに基づいて、マークの配置を計算することができる。   In the step of setting an existing object as a target (step S11), the existing object whose angle with respect to the horizontal plane of the mounting surface on which the object is mounted is known is set as the target. Thus, in the subsequent step of calculating the mark arrangement, the mark arrangement can be calculated based only on the distance from the camera to the target, which is known data.

また、既存の物体をターゲットとして設定する工程(ステップS11)では、カメラ2のカメラ座標の中心とのずれ量が既知である当該既知の物体をターゲットとして設定している。これにより、カメラ座標の中心と、ターゲットとの中心のずれ量を計測する必要がない。または、既知である物体の中心のカメラ座標に対するずれ量に基づいて、支障物検知装置1における画角調整を行うことができる。   In the step of setting an existing object as a target (step S11), the known object whose amount of deviation from the center of the camera coordinates of the camera 2 is known is set as the target. This eliminates the need to measure the amount of deviation between the center of the camera coordinates and the center of the target. Alternatively, the angle-of-view adjustment in the obstacle detection device 1 can be performed based on the known deviation amount of the center of the object with respect to the camera coordinates.

本発明は、前述した実施形態に限定されず、本発明の要旨を逸脱しない範囲で下記のような種々の変形が可能である。   The present invention is not limited to the above-described embodiments, and various modifications as described below are possible without departing from the gist of the present invention.

例えば、上記実施形態の画角調整方法において、処理手順を適宜入れ替えて実行することもできる。上記実施形態では、図4に示されるように、ステップS3〜S5を実行して近距離用カメラ2Aの画角を調整した後に、ステップS6〜S8を実行して遠距離用カメラ2Bの画角を調整しているが、ステップS6〜S8を実行して遠距離用カメラ2Bの画角を調整した後に、ステップS3〜S5を実行して近距離用カメラ2Aの画角を調整してもよい。   For example, in the angle-of-view adjustment method of the above-described embodiment, the processing procedure can be changed as appropriate and executed. In the above embodiment, as shown in FIG. 4, after performing steps S3 to S5 to adjust the angle of view of the short-distance camera 2A, steps S6 to S8 are performed and the angle of view of the long-distance camera 2B. However, after performing steps S6 to S8 to adjust the angle of view of the long-distance camera 2B, steps S3 to S5 may be performed to adjust the angle of view of the short-distance camera 2A. .

また、ステップS3の第1マークCの配置を計算する工程及びステップS6の第2マークC2の配置を計算する工程を事前に実行し、計算結果を記憶部に記憶させておいてもよい。そして、ステップS4において、記憶部からデータを読み取り第1画像J上に第1マークCを表示し、同様にステップS7において、記憶部からデータを読み取り第2画像J上に第2マークCを表示してもよい。 Also, run the step of calculating the placement of the second mark C2 steps and S6 calculating a first arrangement of the marks C 1 in step S3 in advance, the calculation result may be stored in the storage unit. Then, in step S4, the first display mark C 1 to read first on the image J 1 data from the storage unit, similarly in step S7, the second mark on the read second image J 2 data from the storage unit C 2 may be displayed.

また、上記実施形態では、近距離用カメラ2A及び遠距離用カメラ2Bを備えた監視システムにおける画角調整方法について説明しているが、撮影領域が異なる3種類以上のカメラを備えた監視システムに画角調整方法を適用することもできる。この場合には、3種類以上のカメラのうちの任意の2台のカメラについて適用することができる。   In the above embodiment, the angle of view adjustment method in the monitoring system including the short-distance camera 2A and the long-distance camera 2B is described. However, in the monitoring system including three or more types of cameras having different shooting areas. An angle of view adjustment method can also be applied. In this case, the present invention can be applied to any two of the three or more types of cameras.

また、上記実施形態では、支障物検知システムを車両に搭載した場合について説明しているが、支障物検知システムを車両以外の移動体に搭載してもよい。例えば、ロボット、飛行機、船舶、鉄道などに、支障物検知システムを搭載してもよい。また、支障物検知システムは、移動体に搭載せずに、その他の場所や物に設置してもよい。例えば、工場、店舗、病院、空港、駅、走行路周辺の建築物などに、支障物検知システムを設置して、危険のおそれがある対象物を支障物として検知してもよい。なお、対象物は静止物に限定されず、移動する物、人、動物でもよい。また、支障物は、危険な対象物に限定されず、障害となる対象物、特定の条件に合致する対象物でもよい。   Moreover, although the said embodiment demonstrated the case where the obstruction detection system was mounted in the vehicle, you may mount an obstruction detection system in moving bodies other than a vehicle. For example, an obstacle detection system may be mounted on a robot, an airplane, a ship, a railroad, or the like. Moreover, you may install an obstruction detection system in another place and an object, without mounting in a moving body. For example, an obstacle detection system may be installed in a factory, a store, a hospital, an airport, a station, a building around a traveling road, or the like to detect an object that may be dangerous as an obstacle. The object is not limited to a stationary object, and may be a moving object, a person, or an animal. Further, the obstacle is not limited to a dangerous object, and may be an object that becomes an obstacle or an object that meets a specific condition.

1 支障物検知装置(監視システム)
2 カメラ、
2A 近距離用カメラ
2B 遠距離用カメラ
3 3DLR(3次元レーザレーダ)
4 車輪速センサ
5 支障物検知ユニット
6 画像処理部
7 3DLR処理部
8 線形計算部
9 統合処理部
10 システム統括部
15 表示部
16 操作部
17 車両制御部
18 警報器
19 ブレーキ
21 撮像素子
22 レンズ
a 素子サイズ
b 視野
f 焦点距離
C1 第1マーク
C2 第2マーク
D 水平方向に延在する軸線
E 車両の前後方向に延在する軸線
第1画像
第2画像
第1ずれ量
第2ずれ量
光軸
TA 車両からターゲットまでの距離
M 車両
2A 第1撮影領域
2B 第2撮影領域
2C 共通領域
ターゲット
θ 設置ピッチング角
θ 設置パン角
1 Obstacle detection device (monitoring system)
2 cameras,
2A Camera for short distance 2B Camera for long distance 3 3DLR (3D laser radar)
DESCRIPTION OF SYMBOLS 4 Wheel speed sensor 5 Obstacle detection unit 6 Image processing part 7 3 DLR processing part 8 Linear calculation part 9 Integrated processing part 10 System control part 15 Display part 16 Operation part 17 Vehicle control part 18 Alarm 19 Brake 21 Imaging element 22 Lens a Element size b Field of view f Focal length C1 First mark C2 Second mark D Axis extending in the horizontal direction E Axis extending in the front-rear direction of the vehicle J 1 First image J 2 Second image K 1 First shift amount K 2 second shift amount L 2 optical axis L TA distance M vehicle R 2A first imaging region R 2B second imaging region R 2C common region T a target theta 1 installed pitching angle theta 2 installed pan angle from the vehicle to the target

Claims (9)

第1の撮影領域を撮影する近距離用カメラと、前記第1の撮影領域の一部を含むと共に、基準位置からの距離が前記第1の撮影領域よりも遠い領域を含む第2の撮影領域を撮影する遠距離用カメラと、を備えた監視システムにおける画角調整方法であって、
前記第1の撮影領域及び前記第2の撮影領域の両方に含まれる共通領域にターゲットを設定する工程と、
前記近距離用カメラによって撮影された第1の画像上での前記ターゲットの表示目標を示す第1のマークの配置を計算する工程と、
計算された配置となるように前記第1のマークを前記第1の画像上に表示する工程と、
前記第1の画像上で前記ターゲットの表示を前記第1のマークに合わせるように、前記近距離用カメラの画角を調整する工程と、
前記遠距離用カメラによって撮影された第2の画像上での前記ターゲットの表示目標を示す第2のマークの配置を計算する工程と、
計算された配置となるように前記第2のマークを前記第2の画像上に表示する工程と、
前記第2の画像上で前記ターゲットの表示を前記第2のマークに合わせるように、前記遠距離用カメラの画角を調整する工程と、を含む画角調整方法。
A short-distance camera for photographing the first photographing region and a second photographing region including a part of the first photographing region and a region farther from the reference position than the first photographing region. An angle-of-view adjustment method in a surveillance system comprising a long-distance camera for photographing
Setting a target in a common area included in both the first imaging area and the second imaging area;
Calculating an arrangement of a first mark indicating a display target of the target on a first image photographed by the short distance camera;
Displaying the first mark on the first image in a calculated arrangement;
Adjusting the angle of view of the near-field camera so that the display of the target is aligned with the first mark on the first image;
Calculating an arrangement of a second mark indicating a display target of the target on a second image taken by the long-distance camera;
Displaying the second mark on the second image in a calculated arrangement;
Adjusting the angle of view of the long-distance camera so that the display of the target is aligned with the second mark on the second image.
前記監視システムは、前記共通領域を含む領域にレーザを照射するレーザレーダを更に備え、
前記画角調整方法は、
前記レーザレーダを用いて前記基準位置から前記ターゲットまでの距離を計測する工程を更に含み、
前記第1のマークの配置を計算する工程は、前記ターゲットまでの距離を考慮して前記第1のマークの配置を計算し、
前記第2のマークの配置を計算する工程は、前記ターゲットまでの距離を考慮して前記第2のマークの配置を計算する請求項1に記載の画角調整方法。
The monitoring system further includes a laser radar that irradiates a laser to an area including the common area,
The angle of view adjustment method is:
Further comprising measuring a distance from the reference position to the target using the laser radar;
The step of calculating the placement of the first mark calculates the placement of the first mark in consideration of the distance to the target,
The field angle adjustment method according to claim 1, wherein the step of calculating the arrangement of the second marks calculates the arrangement of the second marks in consideration of a distance to the target.
前記第1の画像上での前記ターゲットと前記第1のマークとのずれ量である第1のずれ量を計測する工程と、
前記第1のずれ量を前記監視システムの記憶部に記憶させる工程と、を更に含む請求項1又は2に記載の画角調整方法。
Measuring a first shift amount that is a shift amount between the target and the first mark on the first image;
The angle of view adjustment method according to claim 1, further comprising: storing the first shift amount in a storage unit of the monitoring system.
前記第1のずれ量が第1の判定閾値以上であるか否かを判定する工程と、
前記第1のずれ量が第1の判定閾値以上である場合に、前記近距離用カメラの画角を再度調整する工程と、を更に含む請求項3に記載の画角調整方法。
Determining whether the first deviation amount is equal to or greater than a first determination threshold;
The angle-of-view adjustment method according to claim 3, further comprising the step of adjusting the angle of view of the short-distance camera again when the first shift amount is equal to or greater than a first determination threshold.
前記第2の画像上での前記ターゲットと前記第2のマークとのずれ量である第2のずれ量を計測する工程と、
前記第2のずれ量を前記監視システムの記憶部に記憶させる工程と、を更に含む請求項1〜4の何れか一項に記載の画角調整方法。
Measuring a second shift amount that is a shift amount between the target and the second mark on the second image;
The angle of view adjustment method according to any one of claims 1 to 4, further comprising: storing the second shift amount in a storage unit of the monitoring system.
前記第2のずれ量が第2の判定閾値以上であるか否かを判定する工程と、
前記第2のずれ量が第2の判定閾値以上である場合に、前記遠距離用カメラの画角を再度調整する工程と、を更に含む請求項5に記載の画角調整方法。
Determining whether the second deviation amount is greater than or equal to a second determination threshold;
The angle of view adjustment method according to claim 5, further comprising: adjusting the angle of view of the long-distance camera again when the second shift amount is equal to or greater than a second determination threshold.
カメラを備えた監視システムにおける画角調整方法であって、
前記カメラによる撮影領域に存在し、寸法及び前記カメラからの距離が既知であり基準長を判別可能な既存の物体をターゲットとして設定する工程と、
前記カメラによって撮影された画像上での前記ターゲットの表示目標を示すマークの配置を計算する工程と、
計算された配置となるように前記マークを前記画像上に表示する工程と、
前記画像上で前記ターゲットの表示を前記マークに合わせるように、前記カメラの画角を調整する工程と、を含み、
前記マークの配置を計算する工程は、既知のデータである前記カメラから前記ターゲットまでの距離に基づいて、前記マークの配置を計算する画角調整方法。
A method for adjusting an angle of view in a surveillance system including a camera,
A step of setting an existing object that is present in a shooting region by the camera, has a known dimension and a distance from the camera, and can determine a reference length as a target;
Calculating an arrangement of marks indicating a display target of the target on an image taken by the camera;
Displaying the mark on the image so as to have a calculated arrangement;
Adjusting the angle of view of the camera to match the display of the target with the mark on the image,
The step of calculating the mark arrangement is a field angle adjustment method of calculating the mark arrangement based on a distance from the camera to the target, which is known data.
前記既存の物体をターゲットとして設定する工程では、前記物体が載置されている載置面の水平面に対する角度が既知である前記既存の物体をターゲットとして設定する請求項7に記載の画角調整方法。   8. The angle-of-view adjustment method according to claim 7, wherein in the step of setting the existing object as a target, the existing object having a known angle with respect to a horizontal plane of a mounting surface on which the object is mounted is set as a target. . 前記既存の物体をターゲットとして設定する工程では、前記カメラのカメラ座標の中心と前記既存の物体の中心が一致している、または、前記既存の物体の中心とのずれ量が既知である当該既存の物体を前記ターゲットとして設定する請求項7又は8に記載の画角調整方法。   In the step of setting the existing object as a target, the center of the camera coordinates of the camera and the center of the existing object coincide with each other, or the deviation amount between the center of the existing object is known The angle-of-view adjustment method according to claim 7, wherein the object is set as the target.
JP2017033690A 2017-02-24 2017-02-24 Angle of view adjustment method Active JP6844307B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017033690A JP6844307B2 (en) 2017-02-24 2017-02-24 Angle of view adjustment method
JP2020146032A JP6943328B2 (en) 2017-02-24 2020-08-31 Angle of view adjustment method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017033690A JP6844307B2 (en) 2017-02-24 2017-02-24 Angle of view adjustment method

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2020146032A Division JP6943328B2 (en) 2017-02-24 2020-08-31 Angle of view adjustment method

Publications (2)

Publication Number Publication Date
JP2018139373A true JP2018139373A (en) 2018-09-06
JP6844307B2 JP6844307B2 (en) 2021-03-17

Family

ID=63450841

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017033690A Active JP6844307B2 (en) 2017-02-24 2017-02-24 Angle of view adjustment method

Country Status (1)

Country Link
JP (1) JP6844307B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020180905A (en) * 2019-04-26 2020-11-05 株式会社明電舎 Rail curvature estimation device
CN114979464A (en) * 2022-04-18 2022-08-30 中南大学 Industrial camera view angle accurate configuration method and system adaptive to target area
CN115412703A (en) * 2021-05-27 2022-11-29 北京金坤科创技术有限公司 Process video optimization method based on high-precision positioning
US11982805B2 (en) 2019-03-29 2024-05-14 Samsung Electronics Co., Ltd. Wide-angle, high-resolution distance measurement device
WO2024119620A1 (en) * 2022-12-05 2024-06-13 深圳看到科技有限公司 Multi-head camera picture splicing method and device and storage medium

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005077107A (en) * 2003-08-29 2005-03-24 Toyota Motor Corp Method and apparatus for calibrating in-vehicle camera
JP2006033282A (en) * 2004-07-14 2006-02-02 Olympus Corp Image forming device and method thereof
JP2006031101A (en) * 2004-07-12 2006-02-02 Olympus Corp Image generation method and device therefor
JP2010081229A (en) * 2008-09-25 2010-04-08 Omron Corp Method of compositing image and image processing system
JP2010244326A (en) * 2009-04-07 2010-10-28 Alpine Electronics Inc In-vehicle circumference image display device
JP2014235639A (en) * 2013-06-04 2014-12-15 日産自動車株式会社 Vehicle display device
JP2014236415A (en) * 2013-06-04 2014-12-15 日産自動車株式会社 Vehicle display device

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005077107A (en) * 2003-08-29 2005-03-24 Toyota Motor Corp Method and apparatus for calibrating in-vehicle camera
JP2006031101A (en) * 2004-07-12 2006-02-02 Olympus Corp Image generation method and device therefor
JP2006033282A (en) * 2004-07-14 2006-02-02 Olympus Corp Image forming device and method thereof
JP2010081229A (en) * 2008-09-25 2010-04-08 Omron Corp Method of compositing image and image processing system
JP2010244326A (en) * 2009-04-07 2010-10-28 Alpine Electronics Inc In-vehicle circumference image display device
JP2014235639A (en) * 2013-06-04 2014-12-15 日産自動車株式会社 Vehicle display device
JP2014236415A (en) * 2013-06-04 2014-12-15 日産自動車株式会社 Vehicle display device

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11982805B2 (en) 2019-03-29 2024-05-14 Samsung Electronics Co., Ltd. Wide-angle, high-resolution distance measurement device
JP2020180905A (en) * 2019-04-26 2020-11-05 株式会社明電舎 Rail curvature estimation device
JP7127607B2 (en) 2019-04-26 2022-08-30 株式会社明電舎 Rail curvature estimator
CN115412703A (en) * 2021-05-27 2022-11-29 北京金坤科创技术有限公司 Process video optimization method based on high-precision positioning
CN114979464A (en) * 2022-04-18 2022-08-30 中南大学 Industrial camera view angle accurate configuration method and system adaptive to target area
WO2024119620A1 (en) * 2022-12-05 2024-06-13 深圳看到科技有限公司 Multi-head camera picture splicing method and device and storage medium

Also Published As

Publication number Publication date
JP6844307B2 (en) 2021-03-17

Similar Documents

Publication Publication Date Title
JP6844307B2 (en) Angle of view adjustment method
US11610335B2 (en) Method and apparatus for placement of ADAS fixtures during vehicle inspection and service
US11420643B2 (en) Device and method for calibrating vehicle assistance systems
ES2886522T3 (en) Image processing device, its method and moving body anti-collision device
JP6070206B2 (en) Position coordinate conversion system, position coordinate conversion method, in-vehicle device, world coordinate measuring device, and position coordinate conversion program
US10200670B2 (en) Method and apparatus for determining the 3D coordinates of an object
CN101676686B (en) Method for calculating the position and orientation of a camera in a vehicle
JP5650942B2 (en) Inspection system and inspection method
CN111095017B (en) Calibration device and method for calibrating an environmental sensor around a motor vehicle
RU2015141333A (en) SYSTEMS AND METHODS OF TRACKING THE LOCATION OF A MOBILE TARGET OBJECT
JP2004198330A (en) Method and apparatus for detecting position of subject
JP2001034899A (en) Device and method for processing image and navigation system
JP2000504418A (en) Distance and / or position measuring device
CN103148832A (en) Detection method of installation inclination angle of video camera
JP2010190886A (en) Pantograph height measuring device and calibration method therefor
JP2018036117A (en) Distance measuring device and image controller
JP2007181129A (en) Vehicle-mounted movable body detection instrument
KR100978148B1 (en) System for 3d plane image pick up of container
JP6943328B2 (en) Angle of view adjustment method
EP3629056A1 (en) Object detection sensor alignment
JP2006268865A (en) Navigation device
JP4867035B2 (en) Image processing apparatus, image processing program, and image processing method
JP3122777B2 (en) Distance measuring device for unmanned vehicles
CN107632407B (en) Calibrating device of cylindrical lens imaging system
JP2005096983A (en) Vehicle position detection method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191007

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200623

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200630

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200831

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210126

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210208

R151 Written notification of patent or utility model registration

Ref document number: 6844307

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151