JP2013195783A - Position shift detection device, vehicle, and position shift detection method - Google Patents

Position shift detection device, vehicle, and position shift detection method Download PDF

Info

Publication number
JP2013195783A
JP2013195783A JP2012063732A JP2012063732A JP2013195783A JP 2013195783 A JP2013195783 A JP 2013195783A JP 2012063732 A JP2012063732 A JP 2012063732A JP 2012063732 A JP2012063732 A JP 2012063732A JP 2013195783 A JP2013195783 A JP 2013195783A
Authority
JP
Japan
Prior art keywords
feature point
camera
unit
image
camera unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012063732A
Other languages
Japanese (ja)
Other versions
JP6019646B2 (en
Inventor
Yuko Umezawa
優子 梅澤
Shin Aoki
青木  伸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2012063732A priority Critical patent/JP6019646B2/en
Publication of JP2013195783A publication Critical patent/JP2013195783A/en
Application granted granted Critical
Publication of JP6019646B2 publication Critical patent/JP6019646B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a detection method and a detection device that can detect whether an on-board camera shifts in fitting position relative to a vehicle due to secular change or a vibration shock.SOLUTION: A camera unit 10 includes a feature point extraction section 20 which extracts feature point coordinates included in an image photographed through a transmission body and associated with a featured pattern, and a position shift determination section 24 which determines whether the camera unit shifts in position relative to the transmission body on the basis of the relation between reference feature point information extracted by the feature point extraction section 20 from the image photographed in the absence of a position shift and comparative feature point information extracted from an image photographed in a state to be determined.

Description

本発明は、車載カメラの位置ずれ検出装置、車両及び位置ずれ検出方法に関する。   The present invention relates to an on-vehicle camera positional deviation detection device, a vehicle, and a positional deviation detection method.

近年、自動車の運転支援システムや駐車支援システムが注目されており、これには、単眼カメラやステレオカメラが使用されている。
このような運転支援システムの例として、搭載したカメラ(以下、車載カメラと記載する)によって車両前方を監視し、ヒトや他車両、障害物等との距離を検知し、それらに衝突する危険性がある場合には、運転者に報知したり、車両のブレーキを作動させて停止させたり、減速させたりするASV(Advanced Safety Vehicle;先進安全自動車)装置が知られている。
なお、このような運転支援システムにおいて、車載カメラを車体に取り付ける際には、取り付け位置に関して高レベルの精度が要求される。
車載カメラの取り付け位置にずれが生じると、それに起因して車載カメラの撮像方向がずれてしまい、正確な測距に基づく運転支援が出来なくなる可能性があるからである。
In recent years, driving assistance systems and parking assistance systems for automobiles have attracted attention, and monocular cameras and stereo cameras are used for this.
As an example of such a driving support system, there is a risk that the front of the vehicle is monitored by a mounted camera (hereinafter referred to as an in-vehicle camera), the distance from a human, another vehicle, an obstacle, etc. is detected and collided with them. There are known ASV (Advanced Safety Vehicle) devices that notify the driver, operate the vehicle brake to stop it, or decelerate it.
In such a driving support system, when the vehicle-mounted camera is attached to the vehicle body, a high level of accuracy is required with respect to the attachment position.
This is because if the mounting position of the in-vehicle camera is deviated, the imaging direction of the in-vehicle camera is deviated from that, and driving assistance based on accurate distance measurement may not be possible.

図19は、車両と車載カメラとの位置関係と撮像方向を説明する図である。
図19(a)は、車両100がまっすぐ走行する方向101と車載カメラの光軸方向102とが一致している場合を示している。
図19(a)の場合、ヒトMが車両100の進行方向101に対して中央に存在する場合には、このまま前進すると衝突してしまうと判断できる。
それに対し、図19(b)は、車両100がまっすぐ走る方向101に対してカメラの光軸方向102が一致せず、回転してしまっている状態を示している。この場合、ヒトMが車両の進行方向に対して中央にいても、カメラの画像上ではヒトMは右に写るので、正確に運転支援を行うことは出来ない。
出荷時に図19(a)の状態で取り付けられたとしても、経時で図19(b)のように取り付け位置がずれてしまった場合には、ずれの検出及び補正を行う必要がある。
FIG. 19 is a diagram illustrating the positional relationship between the vehicle and the in-vehicle camera and the imaging direction.
FIG. 19A shows a case where the direction 101 in which the vehicle 100 travels straightly matches the optical axis direction 102 of the in-vehicle camera.
In the case of FIG. 19A, when the human M exists in the center with respect to the traveling direction 101 of the vehicle 100, it can be determined that the vehicle M will collide if it moves forward.
On the other hand, FIG. 19B shows a state in which the optical axis direction 102 of the camera does not coincide with the direction 101 in which the vehicle 100 travels straight and has rotated. In this case, even if the human M is in the center with respect to the traveling direction of the vehicle, the human M appears on the right on the camera image, and thus driving assistance cannot be performed accurately.
Even if it is attached in the state shown in FIG. 19A at the time of shipment, it is necessary to detect and correct the deviation when the attachment position is shifted over time as shown in FIG. 19B.

車載カメラがステレオカメラの場合には、撮像方向のずれは対象物までの算出距離にも直接影響を及ぼしてしまう。
さらに、測距装置としてのステレオカメラにおいて、カメラ全体が車両に対して位置ずれを生じていなかったとしても、ステレオカメラを構成するカメラ同士の相対的な位置関係がずれてしまった場合も、認識精度が低下してしまう。
もちろん、カメラの取り付け位置のずれは認識精度そのものの低下などの原因ともなり得る。
認識精度の低下が起こる例として、認識処理速度を向上させるために、対象物ごとの探索領域を限定している場合などが考えられるが、そのような場合にカメラの取り付け位置がずれてしまうと、車道、歩道、信号、標識、ガードレールなどの撮影画像内での領域がずれてしまい、目的の対象物の探索ができない場合が生じる。
このように、車両に対する車載カメラの取り付け位置は、非常に重要であり、製造・出荷時、又はその後のメンテナンス時に、正確に調整が行われる必要がある。
When the in-vehicle camera is a stereo camera, the shift in the imaging direction directly affects the calculated distance to the object.
Furthermore, in a stereo camera as a distance measuring device, even if the entire camera is not misaligned with respect to the vehicle, even if the relative positional relationship between the cameras constituting the stereo camera deviates, it is recognized. Accuracy will be reduced.
Of course, a shift in the mounting position of the camera may cause a reduction in recognition accuracy itself.
As an example of a decrease in recognition accuracy, there may be a case where the search area for each target is limited in order to improve the recognition processing speed. In such a case, if the camera mounting position is shifted. There are cases where areas in the captured image such as roadways, sidewalks, signals, signs, guardrails, etc. are shifted, and the target object cannot be searched.
As described above, the mounting position of the in-vehicle camera with respect to the vehicle is very important, and it is necessary to accurately adjust at the time of manufacture / shipment or subsequent maintenance.

しかし、日常の使用時において、経年や衝撃にて車載カメラの取り付け位置がずれて調整が必要となっているか否かを使用者が判断することは難しい。
そこで、車載カメラの調整の必要の有無を判断するための方法として、例えば、特許文献1には、あらかじめ規定された位置に設置してある検査チャートの撮像画像から車体に対する車載カメラの取り付け位置の調整をする必要がある否かの検査をする方法が開示されている。
また、ステレオカメラの場合において、ステレオカメラを構成するカメラ同士の相対的な位置ずれを調整する必要の有無の判断について、特許文献2には、ステレオカメラの画像間の対応位置ずれを算出する処理の候補となる領域の輝度変化量の分散値によって相対位置ずれが起きたか、ずれ量がどの程度であるかを検知し補正する方法が開示されている。
However, during daily use, it is difficult for the user to determine whether the mounting position of the in-vehicle camera is shifted due to aging or impact and adjustment is necessary.
Therefore, as a method for determining whether or not the adjustment of the in-vehicle camera is necessary, for example, Patent Document 1 discloses the position of the in-vehicle camera attached to the vehicle body from the captured image of the inspection chart installed at a predetermined position. A method for checking whether adjustment is necessary is disclosed.
In addition, in the case of a stereo camera, Patent Document 2 discloses a process for calculating a corresponding positional shift between images of a stereo camera for determining whether or not it is necessary to adjust a relative positional shift between cameras constituting the stereo camera. Disclosed is a method of detecting and correcting whether or not the relative positional deviation has occurred due to the variance value of the luminance change amount of the candidate area.

しかしながら、特許文献1に開示の方法では、あらかじめ規定された位置に設置してある検査チャートによって位置ずれの検知を行う必要があり、車両の使用を中止して規定の場所で位置ずれを検知しなければならず、車両の使用者の利便性を損なうだけでなく、経時や振動衝撃によるカメラの取り付け位置ずれが走行中にずれた場合に検知できないという問題は解消できていない。
また、特許文献2に開示の方法では、走行中の風景などの画像から、ステレオカメラを構成するカメラ間での相対位置ずれを検出することができるが、経時や振動衝撃を原因とする車両に対する、車載カメラ装置全体の取り付け位置ずれを検知できないという問題がある。
また、これら以外に、撮像範囲内にある、車両上に設置してある特徴的なマーカーによってカメラの取り付け位置ずれを検出する方法も考えられるが、マーカーからカメラまでの距離を十分確保する事ができないため、マーカーにピントがあわず、高精度に取り付けずれ量を検知する事が出来ない、という問題がある。
本発明は、上記の問題点を鑑みて、経時や振動衝撃による車両に対する取り付け位置ずれ(ステレオカメラのカメラ間での相対位置ずれを含む)が起きているか、さらに、位置ずれが起きている場合そのずれ量はどの程度であるかを、特別な検査チャート等を使用することなく、車を使用しながら検知することが可能な検知方法及び検知装置を提供する事を目的とする。
However, in the method disclosed in Patent Document 1, it is necessary to detect misalignment using an inspection chart installed at a predetermined position, and the use of the vehicle is stopped and the misalignment is detected at a predetermined location. Not only does this impair the convenience of the user of the vehicle, but also the problem that the camera cannot be detected when the camera mounting position shifts due to time or vibration shock is shifted during traveling.
Further, in the method disclosed in Patent Document 2, it is possible to detect a relative position shift between cameras constituting a stereo camera from an image of a running landscape or the like. There is a problem that the mounting position shift of the entire vehicle-mounted camera device cannot be detected.
In addition to these methods, a method of detecting a camera mounting position shift with a characteristic marker installed on the vehicle within the imaging range is also conceivable, but it is possible to secure a sufficient distance from the marker to the camera. Since this is not possible, there is a problem in that the marker is not in focus and the amount of mounting displacement cannot be detected with high accuracy.
In the present invention, in view of the above-described problems, when a positional deviation (including a relative positional deviation between the cameras of the stereo camera) occurs due to time or vibration shock, or when a positional deviation occurs. It is an object of the present invention to provide a detection method and a detection apparatus that can detect the amount of deviation while using a vehicle without using a special inspection chart or the like.

上記の課題を解決するために、請求項1に記載の発明は、入射光の直進性を低下させる歪みを有する透過物体を介して画像を取得して撮像素子上に結像させるカメラユニットにおける、撮像素子面上に結像する前記画像の結像位置の変化量に基づいて、前記カメラユニットの前記透過物体に対する位置ずれを検出する。   In order to solve the above-described problem, the invention according to claim 1 is a camera unit that acquires an image through a transmissive object having a distortion that reduces the straightness of incident light and forms an image on an image sensor. Based on the amount of change in the image formation position of the image formed on the image sensor surface, a displacement of the camera unit relative to the transmission object is detected.

上記のように構成したので、本発明によれば、あらかじめ規定された位置に設置してある検査チャートやマーカーなしに、経時や振動衝撃によるカメラ間の相対位置ずれやカメラの車両に対する取り付け位置のずれを検知することが可能となる。   Since it is configured as described above, according to the present invention, without the inspection chart or marker installed at a predetermined position, the relative position shift between the cameras due to aging or vibration impact and the position of the camera mounting position with respect to the vehicle can be determined. A shift can be detected.

第1の実施形態に係るカメラ装置の構成を示す図。The figure which shows the structure of the camera apparatus which concerns on 1st Embodiment. 第1の実施形態にかかる位置ずれ検知処理を説明するフローチャート。5 is a flowchart for explaining misregistration detection processing according to the first embodiment. 第1の実施形態にかかる位置ずれ検知処理を詳細に説明する図。The figure explaining the position shift detection process concerning 1st Embodiment in detail. 位置ずれ量算出部において相対位置ずれの候補値を算出する方法を詳細に説明する図。The figure explaining in detail the method of calculating the candidate value of a relative position shift in a position shift amount calculation part. 位置ずれ量算出部からのずれ状態の候補データのヒストグラムを示す図。The figure which shows the histogram of the candidate data of the deviation | shift state from a positional deviation amount calculation part. ずれ状態を見分けるのに適したエリアを示す図。The figure which shows the area suitable for distinguishing a deviation | shift state. 図4に示したヒストグラムに重み付けをして得た位置ずれ量を示す図。The figure which shows the amount of position shift obtained by weighting the histogram shown in FIG. 第1の実施形態において、歪みデータの初期値を取得する処理を説明するフローチャート。6 is a flowchart for describing processing for acquiring an initial value of distortion data in the first embodiment. 歪みデータの初期値を取得する際の、カメラ、検査チャート及び歪み透過物体の配置関係を示した図。The figure which showed the arrangement | positioning relationship of a camera, a test | inspection chart, and a distortion transmission object at the time of acquiring the initial value of distortion data. 初期データの取得方法について説明した図。The figure explaining the acquisition method of initial data. 特徴点が1ラインの直線状になるような検査チャートを前方に設置してピンホールカメラにより撮影したときに、歪み透過物体がある場合と無い場合の画素の状態を示した図。The figure which showed the state of the pixel with and without a distortion | transmittance transmission object, when the test | inspection chart which makes a feature point a linear form is set ahead, and it image | photographed with the pinhole camera. 第2の実施形態に係るステレオカメラ装置の構成を示す図。The figure which shows the structure of the stereo camera apparatus which concerns on 2nd Embodiment. 第2の実施形態において、歪みデータの初期値を取得する処理を説明するフローチャート。9 is a flowchart for describing processing for acquiring an initial value of distortion data in the second embodiment. 第2の実施形態において、歪みデータの初期データを取得する際の、ステレオカメラユニットと、検査チャートと、歪み透過物体と、の配置関係を示した図。The figure which showed the arrangement | positioning relationship between a stereo camera unit, an inspection chart, and a distortion transmission object at the time of acquiring the initial data of distortion data in 2nd Embodiment. 第2の実施形態において、歪みデータの初期データを取得する際の、ステレオカメラユニットと、検査チャートと、歪み透過物体と、の配置関係を示した図。The figure which showed the arrangement | positioning relationship between a stereo camera unit, an inspection chart, and a distortion transmission object at the time of acquiring the initial data of distortion data in 2nd Embodiment. 車両に対するステレオカメラの変位を示す図。The figure which shows the displacement of the stereo camera with respect to a vehicle. 第2の実施異形態における、位置ずれ判定部による位置ずれ判断処理を説明するフローチャート。The flowchart explaining the position shift determination process by the position shift determination part in 2nd Embodiment. 本実施形態の距離計測装置を適用可能な車両を示す模式図。The schematic diagram which shows the vehicle which can apply the distance measuring device of this embodiment. 車両と車載カメラとの位置関係と撮像方向を説明する図。The figure explaining the positional relationship and imaging direction of a vehicle and a vehicle-mounted camera.

以下に、図面を参照して、本発明の実施の形態を詳細に説明する。
本実施形態は、運転者や搭乗者が雨風を防ぐまたは走行中に飛来する障害物を防ぐ目的で車両に備わっている歪み透過物体(フロントやリアのウィンドウガラスなど)が有する歪みを利用して、車載カメラの取り付け位置ずれを検出するものである。
詳しくは、車両に対する、車載カメラの取り付け調整が精度よくされている出荷時に歪み透過物体の歪み測定しておき、その歪みデータと、走行時に撮像される画像から取得した歪みデータを比較する事で、位置ずれを検知し、さらに位置ずれ量を算出する。
詳しくは、車両が備える歪み透過物体は、経時では車両に対する位置ずれを起こさず、また、歪み透過物体は平行平板ではなく通常、縦方向と横方向とで曲率が異なる曲面形状で形成されており、かつ製造ばらつきによる歪みが存在する事を利用して、車載カメラの車両に対する位置ずれ位置を検知するものである。
また、本発明は「車両」に対するカメラの取り付け位置ずれに限定するものではなく、カメラで画像を取得する際に、被写体とカメラの間に、カメラ像面上での被写体の結像位置変化がおきるような歪みが存在する物体がある場合に適用できる。
Embodiments of the present invention will be described below in detail with reference to the drawings.
This embodiment uses the distortion of a strain transmitting object (such as a front or rear window glass) provided in a vehicle for the purpose of preventing rain and wind or preventing obstacles flying while the driver or passenger is traveling. This detects the displacement of the mounting position of the in-vehicle camera.
Specifically, by measuring the distortion of a strain-transmitting object at the time of shipment when the on-vehicle camera is mounted and adjusted accurately on the vehicle, the distortion data is compared with the distortion data obtained from the image captured during travel. Then, the positional deviation is detected, and the positional deviation amount is calculated.
Specifically, the strain-transmitting object provided in the vehicle does not cause a positional shift with respect to the vehicle over time, and the strain-transmitting object is not a parallel plate and is usually formed in a curved surface shape having different curvatures in the vertical direction and the horizontal direction. In addition, a position shift position of the in-vehicle camera with respect to the vehicle is detected by utilizing the existence of distortion due to manufacturing variation.
Further, the present invention is not limited to the displacement of the camera mounting position with respect to the “vehicle”. When an image is acquired by the camera, a change in the imaging position of the subject on the camera image plane occurs between the subject and the camera. This can be applied when there is an object with distortion that occurs.

[第1の実施形態]
まず、第1の実施形態として、車載カメラとして単眼カメラを車体に取り付けた場合の、取り付け位置ずれ検知方法及びその装置について説明する。
単眼カメラとしてピンホールカメラを例としてあげ、入射光の直進性を低下させる歪みのある透過物体としてフロントガラスが前方にあるカメラとする。
ピンホールカメラによって直線状の物体を撮像した場合は、通常は直線として撮像される。
しかしながら、カメラと直線状の物体との間に、フロントガラスなどの歪みのある透過物体があると、直線を撮像しても直線にはならない。
例えば、カメラと直線状物体との間に、一般的なフロントガラスが存在する場合と、存在しない場合とでは、カメラとセンサ上の結像位置は、0.003mm程度変化し、結像位置の変化量は、フロントガラスとカメラ位置によって変化することが分かっている。
結像位置0.003mmの変化は、画素ピッチが6μmのセンサの場合、0.5pixelに相当する。この結像位置の変化は、基線長が16cm、焦点距離が8mmのステレオカメラの場合、19.5m先のチャートを1.3m以上異なる距離と測距してしまう原因となるのである。
本実施例は、このような、フロントガラスの歪みに起因する結像位置の変化を利用して、車載カメラの取り付け位置の位置ずれを検知するのである。
フロントガラスが歪んでいることで、車載カメラの位置ずれがより増幅されるため、位置ずれを検知しやすくなる。
[First Embodiment]
First, as a first embodiment, an attachment position deviation detection method and apparatus when a monocular camera is attached to a vehicle body as an in-vehicle camera will be described.
A pinhole camera is taken as an example of a monocular camera, and a camera with a windshield in front is used as a distorted transmissive object that reduces the straightness of incident light.
When a linear object is imaged by a pinhole camera, the image is usually captured as a straight line.
However, if there is a distorted transparent object such as a windshield between the camera and the linear object, the straight line is not captured even if it is captured.
For example, the image formation position on the camera and the sensor changes by about 0.003 mm between the case where a general windshield is present and the case where there is no general windshield between the camera and the linear object. It has been found that the amount of change varies with the windshield and camera position.
The change in the image formation position of 0.003 mm corresponds to 0.5 pixel in the case of a sensor having a pixel pitch of 6 μm. This change in the imaging position causes the distance between the chart 19.5 m ahead and a distance different by 1.3 m or more in the case of a stereo camera having a base length of 16 cm and a focal length of 8 mm.
In the present embodiment, the displacement of the mounting position of the in-vehicle camera is detected by using such a change in the imaging position caused by the distortion of the windshield.
Since the positional deviation of the in-vehicle camera is further amplified due to the distortion of the windshield, the positional deviation can be easily detected.

図1は、第1の実施形態に係るカメラ装置の構成を示す図である。
図1に示すカメラ装置は、レンズ及び撮像素子(センサ)を含むカメラユニット10と、制御部11と、を備えており、制御部11は、センサ画像が入力となり、各カメラの用途に合わせた画像処理を行う画像処理部12と、駐車支援、測距、白線検知などの各目的に即した認識を行う認識部13と、カメラユニット10の位置ずれ検知を行う位置ずれ検知部14と、認識部13による認識結果及び位置ずれ検知部14による検知結果が入力され、入力されたこれらの結果を図示しないディスプレイに表示又は音によって運転者に知らせる表示・警報制御部15と、を備えている。
認識部13による認識結果、位置ずれ検知部14による検知結果は、ヘッドアップディスプレイにより表示するなど、様々な態様が考えられる。
FIG. 1 is a diagram illustrating a configuration of a camera device according to the first embodiment.
The camera device shown in FIG. 1 includes a camera unit 10 including a lens and an image sensor (sensor), and a control unit 11. The control unit 11 receives a sensor image and matches the use of each camera. An image processing unit 12 that performs image processing, a recognition unit 13 that performs recognition for each purpose such as parking assistance, distance measurement, and white line detection, and a positional deviation detection unit 14 that performs positional deviation detection of the camera unit 10. A display / alarm control unit 15 that receives a recognition result by the unit 13 and a detection result by the positional deviation detection unit 14 and notifies the driver of the input result on a display (not shown) or by sound.
Various modes are conceivable, such as displaying the recognition result by the recognition unit 13 and the detection result by the misalignment detection unit 14 on a head-up display.

また、認識結果や検知結果を、ディスプレイなどに表示したり警報したりするのではなく、ブレーキ制御やドアのロックなどの制御を行う際の情報として活用するようにしてもよい。
位置ずれ検知部14は、カメラユニット10によるセンサ出力画像を入力として、画像中の特徴点をセンサ上での座標として出力する特徴点抽出部20と、特徴点抽出部20により抽出された特徴点座標を入力とし、フロントガラスとカメラユニット10との相対位置ずれ量候補値を算出する位置ずれ量算出部22と、位置ずれ量算出部22で求めた相対位置ずれ量候補値を入力とし、カメラユニット10の取り付け位置がフロントガラスに対してずれたか否かの判定を行い、その情報を表示・警報制御部15に出力する位置ずれ判定部24と、を備えている。
また、図1に示す位置ずれ検知部14は、特徴点抽出部20、位置ずれ量算出部22、位置ずれ判定部24のそれぞれ処理に用いるパラメータやデータを格納したメモリ(ROM)21、23、25を備えているが、これらのメモリは、各処理部によって共有される単一のメモリで合っても良い。
また、制御部11による一部又は全部の処理は、ASICなどのハードウェアによって実行されてもよいし、制御部11が有するCPU(Central Processing Unit)によるソフトウェア処理によって実行されてもよい。
In addition, the recognition result and the detection result may be used as information when performing control such as brake control and door lock, instead of displaying on a display or alarming.
The positional deviation detection unit 14 receives a sensor output image from the camera unit 10 and outputs a feature point in the image as coordinates on the sensor, and a feature point extracted by the feature point extraction unit 20 The position shift amount calculation unit 22 that calculates the relative position shift amount candidate value between the windshield and the camera unit 10 as input, and the relative position shift amount candidate value obtained by the position shift amount calculation unit 22 as input. A position shift determination unit 24 that determines whether or not the mounting position of the unit 10 is shifted from the windshield and outputs the information to the display / alarm control unit 15.
Further, the misregistration detection unit 14 shown in FIG. 1 includes memories (ROM) 21 and 23 that store parameters and data used for the processing of the feature point extraction unit 20, the misregistration amount calculation unit 22, and the misregistration determination unit 24, respectively. However, these memories may be combined with a single memory shared by the processing units.
Further, part or all of the processing by the control unit 11 may be executed by hardware such as ASIC, or may be executed by software processing by a CPU (Central Processing Unit) included in the control unit 11.

次に、位置ずれ検知部14における各処理部について説明する。
図2は、第1の実施形態にかかる位置ずれ検知処理を説明するフローチャートである。
また、図3は、第1の実施形態にかかる位置ずれ検知処理を詳細に説明する図である。
図2、図3を用いて、第1の実施形態に係る位置ずれ検知処理を説明する。
まず、図2のステップS51において、特徴点抽出部20は、カメラユニット10から図3(a)に示すような、直線状の物体Bを含む複数フレームの風景画像Aを取得する。
次に、ステップS52において、風景画像(入力画像)Aを二値化して図2(b)のような画像A’を得る。
次に、ステップS53において、図2(b)の画像から、直線状の物体(被写体)B’と背景とのエッジにおける各座標(pi,qi)を特徴点座標(比較特徴点情報)として抽出する。
そして、特徴点抽出部20は、抽出した特徴点を、センサ(撮像素子)上での座標として位置ずれ量算出部22に出力する。
なお、入力画像Aは、車両の走行中に撮影されたものでも、停止中に撮影されたものでもかまわない。
走行中に撮影した画像を用いる場合は、周囲の風景から直線性のある被写体(例えば、信号のポールや横断歩道の模様、白線、車両のエッジ、建物のエッジなど)の直線部分を検出する。特徴点はエッジ抽出とハフ変換を組み合わせて検出することができる。
Next, each processing unit in the misregistration detection unit 14 will be described.
FIG. 2 is a flowchart for explaining misalignment detection processing according to the first embodiment.
FIG. 3 is a diagram for explaining in detail the misregistration detection process according to the first embodiment.
The misregistration detection process according to the first embodiment will be described with reference to FIGS.
First, in step S51 of FIG. 2, the feature point extraction unit 20 acquires a plurality of frames of landscape images A including a linear object B as shown in FIG.
Next, in step S52, the landscape image (input image) A is binarized to obtain an image A ′ as shown in FIG.
Next, in step S53, the coordinates (pi, qi) at the edge of the linear object (subject) B ′ and the background are extracted as feature point coordinates (comparison feature point information) from the image of FIG. To do.
Then, the feature point extraction unit 20 outputs the extracted feature points to the positional deviation amount calculation unit 22 as coordinates on the sensor (imaging device).
The input image A may be taken while the vehicle is running or may be taken while the vehicle is stopped.
In the case of using an image taken while traveling, a straight line portion of a subject having linearity (for example, a signal pole or a crosswalk pattern, a white line, a vehicle edge, a building edge, or the like) is detected from surrounding scenery. Feature points can be detected by combining edge extraction and Hough transform.

また、特徴点抽出を行う被写体を認識するための辞書データを予めメモリ21などに記憶しておいてもよい。
また、入力画像として停止中に得られる画像を用いる状況としては、例えば車検などの定期検査などの場合が考えられる。
この場合は、カメラの撮像画角範囲内に特徴点が直線状に並んでいるチャートを配置し、画像を取得し、これらの特徴点を検出する事が考えられる。
走行中に位置ずれを検知したいのか、定期検査などで位置ずれが起きていないかを確認したいのか、使用目的に応じてどのような特徴点を抽出するようにするかを決め、メモリ21に記憶する情報を決定する。
なお、直線状の物体Bが、1フレームのみに撮像される可能性は極めて低いため、1フレームのみにおいて風景画像の特徴点(直線状物体Bのエッジ)が抽出可能であった場合には、特徴点抽出部20から後述する位置ずれ量算出部22への特徴点座標の出力は行わないようにすればよい。
In addition, dictionary data for recognizing a subject on which feature points are to be extracted may be stored in advance in the memory 21 or the like.
In addition, as a situation where an image obtained during a stop is used as an input image, for example, a periodic inspection such as an automobile inspection can be considered.
In this case, it is conceivable to arrange a chart in which feature points are arranged in a straight line within the imaging field angle range of the camera, acquire an image, and detect these feature points.
Whether to detect misalignment during traveling, whether to check for misalignment in periodic inspections, etc., decides what feature points should be extracted according to the purpose of use, and stores them in the memory 21 Decide what information you want.
In addition, since it is very unlikely that the linear object B is captured in only one frame, when the feature point of the landscape image (the edge of the linear object B) can be extracted in only one frame, What is necessary is just not to perform the output of the feature point coordinate from the feature point extraction unit 20 to the positional deviation amount calculation unit 22 described later.

次に、ステップS54において、位置ずれ量算出部22は、特徴点抽出部20で抽出された特徴点座標を入力とし、フロントガラスとカメラの相対位置ずれ量の候補値を出力する。
そのために、メモリ23には出荷初期データとして、基準特徴点座標データ(xi,yi)が記憶されている(後述する)。
この基準特徴点データは、カメラユニットに位置ずれがない状態で直線状の検査チャートを撮影した場合に、フロントガラスの歪みのみによって生じた位置ずれを含む、検査チャート上の座標である。
特徴点座標としてセンサ縦方向の直線を使用する場合には、位置ずれ量算出部22は、前述した各特徴点座標(pi,qi)と、各基準特徴点座標(xi,yi)について、Σ(xi−pi)を計算し、各フレームについてx座標の差が最小のもの(図3(c))を、その画像から算出されたフロントガラスとカメラの相対位置ずれ量の候補値とする(図3(d))。
そして、ステップS55において、この中から閾値を超えた相対位置ずれ量候補があればフロントガラスとカメラとの間に位置ずれが発生していると判断する(ステップS56)。ない場合は、位置ずれなしを判断する(ステップS57)。
また、温度による歪み量変化を求めている場合には、上述したずれ量とともに温度情報を出力する。
Next, in step S54, the positional deviation amount calculation unit 22 receives the feature point coordinates extracted by the feature point extraction unit 20, and outputs a candidate value for the relative positional deviation amount between the windshield and the camera.
For this purpose, reference feature point coordinate data (xi, yi) is stored in the memory 23 as initial shipment data (described later).
The reference feature point data is coordinates on the inspection chart including a positional deviation caused only by the distortion of the windshield when a linear inspection chart is photographed with no positional deviation in the camera unit.
When a straight line in the sensor vertical direction is used as the feature point coordinates, the positional deviation amount calculation unit 22 calculates Σ for each feature point coordinate (pi, qi) and each reference feature point coordinate (xi, yi) described above. (Xi-pi) is calculated, and the one with the smallest difference in the x-coordinate for each frame (FIG. 3C) is set as a candidate value for the amount of relative displacement between the windshield and the camera calculated from the image ( FIG. 3 (d)).
In step S55, if there is a relative positional deviation amount candidate exceeding the threshold value from among these, it is determined that a positional deviation has occurred between the windshield and the camera (step S56). If not, it is determined that there is no displacement (step S57).
In addition, when a change in distortion amount due to temperature is obtained, temperature information is output together with the above-described deviation amount.

図4は、位置ずれ量算出部において相対位置ずれの候補値を算出する方法を詳細に説明する図である。
図4(a)に示す風景画像において、特徴点座標Σ(xi−pi)の点群を全て含むような(pmax−pmin)×(qmax−qmin)の画素エリアを設定する(図4(b))。
初期データとしては、メモリ23に格納している複数のずれ状態データから、上述した画素エリアの範囲を切り出す(図4(c)のずれ状態1、ずれ状態2)。
そして、切り出した範囲内で、図4(a)に示す風景画像のy座標で、Σ(xi−pi)を複数のずれ状態データに対して行い、最小となるものを、ある風景画像から求められたずれ状態とする。
後段の位置ずれ判定部24には、ずれ状態だけではなく、判定に使用したエリア情報をも出力する。位置ずれ判定部24では、位置ずれ量算出部22で求めた相対位置ずれ量候補値を入力とし、カメラユニット10の取り付け位置がフロントガラスに対してずれている旨の判定情報を表示・警報制御部15に出力する。
位置ずれ判定部24は、入力された相対位置ずれ量候補値から、フロントガラスとカメラユニット10の位置ずれ量を横軸としてヒストグラムを作成する。
ここで、特徴点抽出誤差などが含まれるため、図3(d)で説明したように、判定可能閾値をもうけ、その閾値を超えた場合、フロントガラスとカメラの位置ずれが起きていると判定する。
FIG. 4 is a diagram for explaining in detail a method for calculating a candidate value for relative displacement in the displacement amount calculation unit.
In the landscape image shown in FIG. 4A, a pixel area of (p max −p min ) × (q max −q min ) that includes all the point groups of the feature point coordinates Σ (xi−pi) is set ( FIG. 4 (b)).
As the initial data, the range of the pixel area described above is cut out from the plurality of shift state data stored in the memory 23 (shift state 1 and shift state 2 in FIG. 4C).
Then, within the cut out range, Σ (xi−pi) is performed on a plurality of shift state data at the y coordinate of the landscape image shown in FIG. 4A, and a minimum one is obtained from a certain landscape image. It is set as the shifted state.
Not only the displacement state but also the area information used for the determination is output to the subsequent position displacement determination unit 24. In the position deviation determination unit 24, the relative position deviation amount candidate value obtained by the position deviation amount calculation unit 22 is input, and determination information indicating that the mounting position of the camera unit 10 is deviated from the windshield is displayed / alarm controlled. To the unit 15.
The positional deviation determination unit 24 creates a histogram from the input relative positional deviation amount candidate values with the positional deviation amounts of the windshield and the camera unit 10 as the horizontal axis.
Here, since feature point extraction errors and the like are included, as described with reference to FIG. 3D, when a threshold that can be determined is set and the threshold is exceeded, it is determined that the positional deviation between the windshield and the camera has occurred. To do.

図5は、図4の処理で得られたずれ状態候補データのヒストグラムを示す図である。
図5において、横軸はずれ状態(ずれ量)、縦軸は、頻度を示している。
このヒストグラムは、必ずしも、正規分布のようなデータになるとは限らない。
それは、図4(c)におけるずれ状態1、ずれ状態2の比較から分かるように、画像領域によっては、フロントガラスによる直線の歪み方が類似している部分と、類似していない部分が存在しているからである。
なお、図4(c)では、類似している箇所は、画面中央領域、類似していない箇所は、画面両端領域である。
図4(a)に示した風景画像から抽出される直線状の物体が、画面の特定領域に集中してしまう場合、全く異なるずれ状態であっても2つの状態がずれ状態候補としてあがってしまう。
FIG. 5 is a diagram showing a histogram of deviation state candidate data obtained by the processing of FIG.
In FIG. 5, the horizontal axis indicates a shift state (shift amount), and the vertical axis indicates the frequency.
This histogram is not necessarily data like a normal distribution.
As can be seen from the comparison between the shift state 1 and the shift state 2 in FIG. 4C, there are a portion where the straight line distortion caused by the windshield is similar and a portion where the windshield is not similar depending on the image area. Because.
In FIG. 4C, the similar part is the screen center area, and the dissimilar part is the screen both end area.
When the linear object extracted from the landscape image shown in FIG. 4A concentrates on a specific area of the screen, even if the displacement state is completely different, the two states will appear as displacement state candidates. .

そこで、図5に示すように、ヒストグラムの頻度に閾値を設け、ある頻度を超えた画面領域にて重み付けをする。
重み付け位置をあるずれ状態の頻度が超えたら、その頻度と近いずれ状態に着目する。
図5では、ずれ状態1、2、3を注目するずれ量とする。
ずれ状態の初期データを比較し、ずれ状態1、2、3を見分けるのに適したエリアを探索する(図6の枠40、41で示すエリア)。
同じy座標で各ずれ状態のx座標の差分を求め、最も大きなエリアを特徴エリアとしてもよい。
全てのずれ状態の特徴エリアを予め算出しておいても良いが、そのずれ状態同士を比較するかによって、エリア位置が変化するととともに、初期に記憶されている状態は多数あるため、ある程度、候補が絞られてからエリア探索する例を上記に挙げた。
特徴エリアに風景画像の特徴点がある場合は、他のエリアよりも重みをつけてヒストグラムを作成する。
図7に示したヒストグラムでは、重み付けをすることによって、ずれ状態1、2、3の中でも差がつくようになる。
図7のヒストグラムにおいて、ずれ量が判定可能な閾値を超え、かつ他のずれ量候補との差がある基準値以上であれば、その時点でずれ量を決定することが出来る。
Therefore, as shown in FIG. 5, a threshold value is provided for the frequency of the histogram, and weighting is performed on a screen area exceeding a certain frequency.
When the frequency of a certain deviation state exceeds the weighted position, attention is paid to the frequency and the near future state.
In FIG. 5, the shift states 1, 2, and 3 are the shift amounts to be noticed.
The initial data of the shift state is compared, and an area suitable for distinguishing the shift states 1, 2, and 3 is searched (areas indicated by frames 40 and 41 in FIG. 6).
It is also possible to obtain the difference between the x-coordinates of each shift state with the same y-coordinate, and use the largest area as the feature area.
The feature areas of all the deviation states may be calculated in advance, but the area position changes depending on whether the deviation states are compared with each other, and there are many states that are initially stored. An example of searching for an area after narrowing down is given above.
If there is a feature point of a landscape image in the feature area, a histogram is created with a weight more than other areas.
In the histogram shown in FIG. 7, a difference is generated even in the shift states 1, 2, and 3 by weighting.
In the histogram of FIG. 7, if the deviation amount exceeds a threshold that can be determined and the difference from other deviation amount candidates is equal to or larger than a reference value, the deviation amount can be determined at that time.

図8は、第1の実施形態において、歪みデータの初期値(基準特徴座標データ)を取得する処理を説明するフローチャートである。
(1)検査チャートの画像を取得する(ステップS101)
図9は初期データ(歪みデータの初期値)を取得する際の、カメラ、検査チャート及び歪み透過物体の配置関係を示した図である。また、図10は、初期データの取得方法について説明した図である。
なお、カメラユニット10は歪みのないピンホールカメラであり、車両に対する取り付けの調整が終わっている状態である。
本実施形態は、この理想の取り付け初期位置からのずれを検知するものである。
図9では、カメラユニット10の前方に歪み透過物体50が設置されている例を示しているが、前方以外に歪み透過物体があってもよい。
例えば、撮像する対象(風景やヒト)からの光線がカメラ光学系に入射するまでの光路上に、車両に対して経時で位置変化を起こさない歪み透過物体がある状態であればよい。
検査チャート55としては、直線性を有する(直線状の)パターンを用意することが必要とされる。
検査チャート55の模様に直線性がある場合、この検査チャート55と車両100、もしくは検査チャート55とカメラユニット10の位置を精度よく設置する必要はない。
検査チャートを表示するディスプレイ上には、図10(a)に示すような白と黒の直線エッジ画像(パターン)が表示されており、その画像のエッジ位置を1pixelずつ移動させるなどして、多くの直線データの歪み画像データを取得する事が望ましい。検査チャートは縦の直線だけでなく、横回転させるなどして、なるべく多くのデータを取得する。
また、測定環境の温度を変化させ、各温度の検査チャートの画像を取得してもよい。
FIG. 8 is a flowchart for describing processing for acquiring an initial value (reference feature coordinate data) of distortion data in the first embodiment.
(1) Obtaining an image of an inspection chart (step S101)
FIG. 9 is a diagram showing an arrangement relationship between the camera, the inspection chart, and the strain transmitting object when initial data (initial value of strain data) is acquired. FIG. 10 is a diagram illustrating a method for acquiring initial data.
In addition, the camera unit 10 is a pinhole camera without distortion, and is in a state where adjustment of attachment to the vehicle is finished.
In the present embodiment, a deviation from the ideal initial mounting position is detected.
Although FIG. 9 shows an example in which the strain transmission object 50 is installed in front of the camera unit 10, there may be a distortion transmission object other than the front.
For example, it suffices if there is a distorted transmission object that does not change its position with respect to the vehicle over time on the optical path until a light beam from an object to be imaged (landscape or human) enters the camera optical system.
As the inspection chart 55, it is necessary to prepare a linear (linear) pattern.
When the pattern of the inspection chart 55 has linearity, it is not necessary to install the inspection chart 55 and the vehicle 100 or the positions of the inspection chart 55 and the camera unit 10 with high accuracy.
A white and black straight edge image (pattern) as shown in FIG. 10A is displayed on the display for displaying the inspection chart, and the edge position of the image is moved by one pixel at a time. It is desirable to obtain distortion image data of the straight line data. The inspection chart acquires as much data as possible by rotating not only the vertical straight line but also horizontally.
Moreover, the temperature of the measurement environment may be changed to obtain an image of the inspection chart at each temperature.

(2)画像を二値化する(ステップS102)
直線状の被写体(検査チャート)は、図10(b)に示すように、歪み透過物体50によって歪んで撮像される。その歪み座標を求めるために、センサ画像を二値化する(図10(c))。
(3)二値化した画像から(基準)特徴点データ(xi,yi)を抽出する(ステップS103)
二値化した画像から図10の例のように特徴点データ(基準特徴点)を取得する。
図10では縦方向の直線を例としてあげているが、近似直線はなるべく多くの種類の傾きを求めた方が精度よく位置ずれを検知できる。
走行中に直線状の特徴点が得られる領域においては、同じセンサ領域で近似直線の傾きの種類が多くとれるようにした方がよい。
検査チャート55はカメラユニット10に対して特に位置の規定などを行わないとしているので特徴点の結像する理想座標はないが、初期位置からのずれを検出したいので、理想座標はなくてもよい。
(2) Binarize the image (step S102)
A straight subject (inspection chart) is distorted and imaged by the strain transmitting object 50 as shown in FIG. In order to obtain the distortion coordinates, the sensor image is binarized (FIG. 10C).
(3) Extract (reference) feature point data (xi, yi) from the binarized image (step S103)
Feature point data (reference feature points) is acquired from the binarized image as in the example of FIG.
In FIG. 10, a straight line in the vertical direction is taken as an example, but the displacement can be detected with higher accuracy by obtaining as many types of inclination as possible in the approximate straight line.
In a region where a linear feature point is obtained during traveling, it is preferable that many types of inclination of the approximate straight line can be obtained in the same sensor region.
Since the inspection chart 55 does not particularly define the position with respect to the camera unit 10, there is no ideal coordinate on which the feature point is imaged, but it is not necessary to have the ideal coordinate because it is desired to detect a deviation from the initial position. .

図11は、特徴点が1ラインの直線状になるような検査チャートを前方に設置してピンホールカメラにより撮影したときに、歪み透過物体がある場合と無い場合の画素の状態を示した図である。
カメラユニット10と検査チャート55の位置は動かしていない。
歪み透過物体50なしの状態では、直線状の被写体は、センサ座標上でも直線状に結像されるが、歪み透過物体がある場合は、直線状に結像されない。
歪み透過物体50は、通常、縦方向と横方向とで曲率が異なる曲面形状で形成されており、かつ製造ばらつきが存在し、歪み透過物体に入射する光線と出射する光線の角度は僅かに異なる。
従って、カメラに入射する光線の角度は、歪み透過物体50の有無によって異なり、カメラのセンサ上での結像位置が変化する。
FIG. 11 is a diagram showing the state of a pixel when a distortion transmission object is present and when there is a distortion transmission object when an inspection chart with a feature point having a linear shape is set in front and photographed by a pinhole camera. It is.
The positions of the camera unit 10 and the inspection chart 55 are not moved.
In the state without the strain transmission object 50, the linear object is imaged linearly even on the sensor coordinates, but when there is a distortion transmission object, the image is not linear.
The strain transmission object 50 is usually formed in a curved surface shape having different curvatures in the vertical direction and the horizontal direction, and there is a manufacturing variation, and the angles of the light rays entering and exiting the distortion transmission object are slightly different. .
Therefore, the angle of the light ray incident on the camera varies depending on the presence or absence of the strain transmitting object 50, and the image forming position on the camera sensor changes.

結像位置変化量はフロントガラスのどの領域を光線が通過したかにより変化するため、車両と歪み透過物体50との相対位置が経時でずれないとすれば、結像位置変化量の変化から、歪み透過物体50とカメラユニット10との相対位置関係がずれたか否かがわかり、最終的に車両とカメラの相対位置関係の変化がわかる。
(4)歪み透過物体とカメラの相対位置関係及び、基準特徴点データ(xi,yi)の値を記憶する(ステップS104)。
ステップS103で求めた特徴点データ(xi,yi)と、そのときの歪み透過物体50とカメラユニット10との相対位置関係をメモリ(図1のメモリ21)などに記憶する。
歪み透過物体50とカメラユニット10との相対位置関係として記憶するデータとしては、車体にカメラを設置して位置を調整した後の初期状態をゼロとし、調整後のカメラの車両に対する設置位置(絶対値)を精度よく算出する必要はない。
Since the imaging position change amount changes depending on which region of the windshield the light beam passes, if the relative position between the vehicle and the strain transmitting object 50 does not shift with time, the change in the imaging position change amount It can be determined whether or not the relative positional relationship between the strain transmitting object 50 and the camera unit 10 has shifted, and finally the change in the relative positional relationship between the vehicle and the camera can be determined.
(4) The relative positional relationship between the distorted transmission object and the camera and the value of the reference feature point data (xi, yi) are stored (step S104).
The feature point data (xi, yi) obtained in step S103 and the relative positional relationship between the strain transmitting object 50 and the camera unit 10 at that time are stored in a memory (memory 21 in FIG. 1) or the like.
As data to be stored as a relative positional relationship between the strain transmitting object 50 and the camera unit 10, the initial state after adjusting the position by installing the camera on the vehicle body is set to zero, and the adjusted installation position of the camera relative to the vehicle (absolute Value) need not be calculated accurately.

本実施形態によっては、カメラ前方に設置してある歪み透過物体(フロントやリアのウィンドウガラスなど)の歪みに起因する、カメラ像面上での結像位置ずれを利用するので、以下のことを実現できるようになる。
すなわち、走行中に、車両に対してカメラの取り付け位置がずれたと検知できると、例えば認識結果からブレーキ制御やハンドル制御を行なうようなカメラでは、運転者に取り付け位置ずれによって認識結果の信頼性が低下したと警告し、ブレーキ制御やハンドル制御を解除する事ができる。
また、車両に対するカメラの取り付け位置ずれ量が算出できると、カメラの取り付け位置を微調整できる取り付け機構(もしくは取り付け部品を交換)によってカメラの取り付け位置を補正できるとともに、取り付け位置を調整しなおしても初期の出荷状態から変化してしまっているのでカメラを修理にださなければいけないという判定をカメラ使用者に警告することもできる。
Depending on the present embodiment, the imaging position shift on the camera image plane caused by distortion of a distortion transmission object (front or rear window glass, etc.) installed in front of the camera is used. Can be realized.
That is, if it can be detected that the camera mounting position has shifted with respect to the vehicle during driving, for example, in a camera that performs brake control or steering wheel control based on the recognition result, the reliability of the recognition result may be reduced by the driver due to the mounting position shift. It can warn that it has fallen, and can release brake control and steering wheel control.
In addition, if the amount of camera mounting position deviation relative to the vehicle can be calculated, the camera mounting position can be corrected by a mounting mechanism that can finely adjust the camera mounting position (or replacement of mounting parts), and the mounting position can be adjusted again. The camera user can be warned of the determination that the camera must be repaired because it has changed from the initial shipping state.

[第2の実施形態]
上記に説明した第1の実施形態は、単眼カメラに関するものであったが、下記に説明する第2の実施形態は、被写体までの距離を測定するステレオカメラの車両に対する取り付け位置ずれ量、及びカメラ同士の相対位置関係のずれ量を算出する装置に関するものである。
なお、歪み透過物体としては、第1の実施形態と同様にフロントガラスを用いることが出来る。
なおここで、ステレオカメラ装置とは基線長離れた位置に複数のカメラを配置し、カメラ間での結像位置の差(視差)を検出して被写体までの距離を算出する装置である。
ステレオカメラ装置を車両に取り付ける際、経時でのステレオカメラ装置全体の取り付け位置ずれとカメラ間での相対位置ずれを検出する必要がある。
ステレオカメラ全体での取り付け位置ずれが発生すると、被写体までの距離が変わってしまい、ブレーキ制御、ハンドル制御などに使用されている場合には取り付け位置ずれによる算出距離の精度劣化は重大な事故の原因となる。
また、ステレオカメラ装置を構成するカメラ間での相対位置ずれが生じると(特に視差が変化するようなカメラの相対位置ずれ)、距離精度の劣化の大きな要因となるため、ずれの早期発見が重要である。
ステレオカメラによって高精度に測距する場合には、レンズや製造ばらつきによる歪みを補正した後に相関演算を行う必要がある。
[Second Embodiment]
The first embodiment described above relates to a monocular camera, but the second embodiment described below is a mounting position shift amount of a stereo camera for measuring a distance to a subject and a camera. The present invention relates to an apparatus for calculating a shift amount of a relative positional relationship between each other.
As the strain transmission object, a windshield can be used as in the first embodiment.
Here, the stereo camera device is a device in which a plurality of cameras are arranged at positions apart from the base line length, and a distance to the subject is calculated by detecting a difference in image formation position (parallax) between the cameras.
When the stereo camera device is attached to the vehicle, it is necessary to detect an attachment position shift of the entire stereo camera device and a relative position shift between the cameras over time.
If the mounting position shift in the entire stereo camera occurs, the distance to the subject will change, and when used for brake control, steering wheel control, etc., the accuracy of the calculated distance due to the mounting position shift will cause a serious accident. It becomes.
In addition, if a relative position shift occurs between the cameras that make up the stereo camera device (particularly the relative position shift of the camera that changes the parallax), it will be a major factor in the deterioration of distance accuracy, so early detection of the shift is important. It is.
When ranging with high accuracy using a stereo camera, it is necessary to perform correlation calculation after correcting distortion caused by lens and manufacturing variations.

図12は、第2の実施形態に係るステレオカメラ装置の構成を示す図である。
図12に示すステレオカメラ装置は、それぞれレンズ及び撮像素子(センサ)を含む左右のカメラユニット60L、60Rを備えたステレオカメラユニット60と、及び制御部60aを備えている。
制御部60aは、位置ずれ検知部61と、両カメラユニットのセンサ画像が入力となり、各カメラの歪み補正処理を行う前処理部62と、後述する相関演算部64と、駐車支援、測距、白線検知などの各目的に即した認識を行う認識部66と、認識部66による認識結果及び位置ずれ検知部61による検知結果が入力され、入力されたこれらの結果を図示しないディスプレイに表示又は音によって運転者に知らせる表示・警報制御部75と、を備えている。
FIG. 12 is a diagram illustrating a configuration of a stereo camera device according to the second embodiment.
The stereo camera device shown in FIG. 12 includes a stereo camera unit 60 including left and right camera units 60L and 60R each including a lens and an image sensor (sensor), and a control unit 60a.
The control unit 60a receives a positional deviation detection unit 61, sensor images of both camera units, a pre-processing unit 62 that performs distortion correction processing of each camera, a correlation calculation unit 64 described later, parking assistance, distance measurement, A recognition unit 66 that performs recognition in accordance with each purpose such as white line detection, a recognition result by the recognition unit 66 and a detection result by the misalignment detection unit 61 are input, and these input results are displayed or sounded on a display (not shown). And a display / alarm control unit 75 for informing the driver.

また、位置ずれ検知部61は、ステレオカメラユニット60に含まれるカメラユニット60L、60Rによるセンサ出力画像を入力として、画像中の特徴点をセンサ上での座標として出力する特徴点抽出部69と、特徴点抽出部69により抽出された特徴点座標を入力とし、フロントガラスと各カメラユニット60L、60Rとの相対位置ずれ量候補値を算出する位置ずれ量算出部71と、位置ずれ量算出部71で求めた相対位置ずれ量候補値を入力とし、ステレオカメラユニット60(カメラユニット60L、60R)の取り付け位置がフロントガラスに対してずれたか否かの判定を行い、その情報を表示・警報制御部15に出力する位置ずれ判定部73と、を備えている。   The misregistration detection unit 61 receives a sensor output image from the camera units 60L and 60R included in the stereo camera unit 60, and outputs a feature point extraction unit 69 that outputs a feature point in the image as coordinates on the sensor. A positional deviation amount calculation unit 71 for calculating a relative positional deviation amount candidate value between the windshield and each of the camera units 60L and 60R by using the feature point coordinates extracted by the feature point extraction unit 69, and a positional deviation amount calculation unit 71 Is used as an input to determine whether or not the mounting position of the stereo camera unit 60 (camera units 60L, 60R) has shifted with respect to the windshield, and display the information / alarm control unit 15 is provided.

前処理部62が行う歪み補正処理の方法としては、補正前後の変換先の情報をもつLUT(ルックアップテーブル)を使用してもよいし、歪み多項式を利用してもよい。
LUTでは大きな記憶容量が必要なため、歪みを多項式で表す方が望ましいと考える。歪み補正式としては例えば(式1)に示した高次の多項式が考えられる。

Figure 2013195783
・・・(式1)
式1において、δx、δyはあるレンズのある点のx方向、y方向の歪み量であり、x,yは理想正規化座標、f1,f2…,fk、g1,g2…,gkはある温度における歪み係数である。
これらの歪み係数を求めるためにx,y,δx,δyの値を既知データとし、画像全体でこの歪み式を満たすような歪み係数の最適化を行うなどが考えられる。これらの歪み係数もしくはLUTデータはメモリ63に予め記憶されている事が望ましい。 As a distortion correction processing method performed by the pre-processing unit 62, an LUT (lookup table) having conversion destination information before and after correction may be used, or a distortion polynomial may be used.
Since a large storage capacity is required in the LUT, it is preferable that the distortion is expressed by a polynomial expression. As the distortion correction formula, for example, a high-order polynomial shown in (Formula 1) can be considered.

Figure 2013195783
... (Formula 1)
In Equation 1, δx and δy are the amounts of distortion in the x and y directions at a certain point of a lens, x and y are ideal normalized coordinates, f1, f2... Fk, g1, g2. Is the distortion coefficient.
In order to obtain these distortion coefficients, the values of x, y, δx, δy are known data, and optimization of the distortion coefficients so as to satisfy the distortion equation in the entire image can be considered. These distortion coefficients or LUT data are preferably stored in the memory 63 in advance.

また、歪みとして認識するのはカメラユニットを構成するレンズの歪みでもよいし、フロントガラスの歪みを含んでも良い。
フロントガラスの歪みを含んだ歪み多項式を求める方法として例えば、車両に対してカメラを取り付けた後に調整を行い、その後に検査チャートを規定の設置位置に設置し、その検査チャートにおける特徴点の実測座標と、理想座標の関係から歪み多項式を求める方法があげられる。
Further, the distortion recognized as the distortion of the lens constituting the camera unit or the distortion of the windshield may be included.
As a method for obtaining the distortion polynomial including the distortion of the windshield, for example, adjustment is performed after the camera is mounted on the vehicle, and then the inspection chart is installed at the specified installation position, and the actual coordinates of the feature points in the inspection chart And a method for obtaining a distortion polynomial from the relationship of ideal coordinates.

本実施形態では、カメラ取り付け調整後にフロントガラスの歪みも含めた歪み補正を行うものとする。
また、メモリ63には歪み係数の他に、歪み補正処理に使用するカメラの焦点距離や、画素ピッチなどの情報を記憶しておく。
前処理部62により歪み補正された画像データは、後段の特徴点抽出部69と相関演算部64に出力される。
特徴点抽出部69は、上述した第1の実施形態で説明した処理を行うカメラ間の相対位置ずれ量およびカメラ全体の取り付け位置ずれを算出するので、2つのカメラの画像データを特徴点抽出部69に入力する。
In this embodiment, it is assumed that distortion correction including distortion of the windshield is performed after the camera mounting adjustment.
In addition to the distortion coefficient, the memory 63 stores information such as the focal length of the camera used for the distortion correction process and the pixel pitch.
The image data whose distortion has been corrected by the preprocessing unit 62 is output to the feature point extraction unit 69 and the correlation calculation unit 64 in the subsequent stage.
Since the feature point extraction unit 69 calculates the relative positional deviation amount between the cameras that perform the processing described in the first embodiment and the mounting position deviation of the entire camera, the feature point extraction unit 69 uses the image data of the two cameras. Input to 69.

ステレオカメラユニット60において、2つのカメラユニット60L、60Rが一体となってずれる機構となっており、二つのカメラの相対位置ずれは検出せずにカメラ全体での取り付け位置ずれのみを検出する場合は、どちらか一方のカメラの画像データのみ特徴点抽出部69に入力されればよい。
ステレオカメラユニット60全体の取り付け位置ずれを検知する処理は、第1の実施形態で述べた方法と同じであるので、カメラ間の相対位置ずれ量を検出する場合について説明する。
位置ずれ量算出部71は第1の実施形態(図1)の位置ずれ量算出部22と同様の構成である。
メモリ72には、ステレオカメラユニット60を取り付けて調整をした際に取得した初期データが記憶されている。
When the stereo camera unit 60 has a mechanism in which the two camera units 60L and 60R are displaced as a unit, and only the mounting position shift in the entire camera is detected without detecting the relative position shift between the two cameras. Only the image data of one of the cameras needs to be input to the feature point extraction unit 69.
Since the process of detecting the mounting position shift of the entire stereo camera unit 60 is the same as the method described in the first embodiment, the case of detecting the relative position shift amount between cameras will be described.
The positional deviation amount calculation unit 71 has the same configuration as the positional deviation amount calculation unit 22 of the first embodiment (FIG. 1).
The memory 72 stores initial data acquired when the stereo camera unit 60 is attached and adjusted.

ここで、第2の実施形態における初期データの取得方法について説明する。
図13は、第2の実施形態において、歪みデータの初期値を取得する処理を説明するフローチャートである。
(1)検査チャートの画像を取得する(ステップS201)
図14は、第2の実施形態において、歪みデータの初期データを取得する際の、ステレオカメラユニット60と、検査チャート55と、歪み透過物体50と、の配置関係を示した図である。
ステレオカメラユニット60は、フロントガラス(歪み透過物体)50の歪みを含んだ歪みが補正されたカメラである。
検査チャート55としては直線性を有する(直線状の)パターンを用意するが、フロントガラス50の歪みを含んだ歪み補正が行われているステレオカメラであるので、取り付け位置ずれが起きていない場合には、検査チャート55の直線は、直線として撮像される。
Here, an initial data acquisition method according to the second embodiment will be described.
FIG. 13 is a flowchart for describing processing for acquiring an initial value of distortion data in the second embodiment.
(1) An image of an inspection chart is acquired (step S201).
FIG. 14 is a diagram illustrating an arrangement relationship among the stereo camera unit 60, the inspection chart 55, and the distortion transmission object 50 when acquiring initial distortion data in the second embodiment.
The stereo camera unit 60 is a camera in which distortion including distortion of the windshield (distorted transmission object) 50 is corrected.
As the inspection chart 55, a linear (linear) pattern is prepared. However, since the distortion correction including the distortion of the windshield 50 is performed, the mounting position is not shifted. The straight line of the inspection chart 55 is imaged as a straight line.

ここでは、ステレオカメラユニット60を構成する2つのカメラユニット60L、60Rにより画像を取得する。
また、例えば図15に示したように、検査チャート55の代わりに、発光体56を用いても良い。
発光体56を用いる場合には、カメラに対する入射角を変え、その角度はピンホールカメラの像面上で、歪みのある透過物体がない場合に直線状に結像するようにする。また、発光体の光は広がりのない光である必要がある。
(2)画像を二値化する(ステップS202)
第1の実施形態と同様である。
(3)二値化した画像に対して特徴点データ(xi,yi)を抽出する(ステップS203)
これも、第1の実施形態と同様である。
Here, an image is acquired by the two camera units 60L and 60R constituting the stereo camera unit 60.
Further, for example, as shown in FIG. 15, a light emitter 56 may be used instead of the inspection chart 55.
When the illuminant 56 is used, the incident angle with respect to the camera is changed, and the angle is formed on the image plane of the pinhole camera so that a straight line is formed when there is no distorted transmission object. In addition, the light emitted from the light emitter needs to be unexpanded light.
(2) Binarize the image (step S202)
This is the same as in the first embodiment.
(3) Feature point data (xi, yi) is extracted from the binarized image (step S203).
This is also the same as in the first embodiment.

(4)歪み透過物体と各カメラユニットの相対位置関係及び、特徴点データ(xi,yi)の値を記憶する(ステップS204)
基本的に、第1の実施形態と同様である。
初期の位置ずれが起きていない場合には特徴点データは直線状だが、ずれ量算出をするために追加された、後述するステレオカメラユニット60と歪み透過物体50との相対位置を変化させた場合には、被写体からの光線の光路が変わる。
(5)歪み透過物体とステレオカメラユニットの相対位置関係を変更する(ステップS205)
ステレオカメラユニット60の設置位置が初期状態からずれたか否かだけでなく、ずれ量を判断する際に必要なステップである。
ステレオカメラユニット60の取り付け位置が経時で最大にずれ得ると見積もられる範囲、または補正機構がある場合にはその補正許容範囲に応じて位置変更をすればよい。
ステレオカメラユニット60と歪み透過物体(フロントガラス50)との相対位置を変更すると、被写体(チャート55)からの光線が歪み透過物体を透過する領域が変わるので、ステップS203の特徴点データ(xi,yi)の値が変わる。
(4) Store the relative positional relationship between the strain transmission object and each camera unit and the value of the feature point data (xi, yi) (step S204).
This is basically the same as in the first embodiment.
When the initial position deviation does not occur, the feature point data is linear, but when the relative position between a stereo camera unit 60 (described later) and the distortion transmission object 50 added to calculate the deviation amount is changed. The optical path of the light beam from the subject changes.
(5) The relative positional relationship between the distortion transmission object and the stereo camera unit is changed (step S205).
This step is necessary not only for determining whether the installation position of the stereo camera unit 60 has deviated from the initial state, but also for determining the amount of deviation.
The position of the stereo camera unit 60 may be changed in accordance with a range where it is estimated that the mounting position can be shifted to the maximum with time, or when there is a correction mechanism.
When the relative position between the stereo camera unit 60 and the distorted transmission object (the windshield 50) is changed, the region where the light rays from the subject (chart 55) pass through the distorted transmission object changes, so that the feature point data (xi, The value of yi) changes.

相対位置を変更する際には歪み透過物体50を動かしても、ステレオカメラユニット60を動かしてもよいが、車体に歪み透過物体が取り付けられている状態を想定すると、車両におけるカメラ取り付け部に並進機構を設けたり、ステレオカメラユニットにおいて各カメラユニットを回転させる回転機構を設けておけば、取り扱いがし易いと考えられる。
もしくは、カメラ取り付け部に予め何種類かの取り付け部品を用意し、それらの部品を変更した際のデータを取得してもよい。
相対位置関係の変更としては、カメラ取り付け調整後のカメラ位置をゼロとしたときのx,y,z軸並進、x,y,z軸回転があり、複数のカメラユニット(60L、60R)の相対位置関係は変えずに、ステレオカメラユニット全体の歪み透過物体に対する位置を変更する(図16(a))データ取得方法、もしくは、各カメラユニットの相対位置、ステレオカメラユニット全体の位置のいずれも変更する(図16(b))データ取得方法が考えられる。
なお、位置ずれ判定部73は、位置ずれ量算出部71から入力されるカメラ60Rとカメラ60Lそれぞれの特徴点データ(xi,yi)と、メモリ74に格納されたカメラユニット60Rとカメラユニット60Lの初期データとを比較し、類似データを探してずれ量を検出する。
When changing the relative position, the strain transmitting object 50 may be moved or the stereo camera unit 60 may be moved. However, assuming that the strain transmitting object is attached to the vehicle body, the translation is performed on the camera mounting portion in the vehicle. If a mechanism is provided or a rotation mechanism for rotating each camera unit in the stereo camera unit is provided, it is considered that handling is easy.
Alternatively, some types of attachment parts may be prepared in advance in the camera attachment unit, and data when the parts are changed may be acquired.
Changes in the relative positional relationship include x, y, z axis translation and x, y, z axis rotation when the camera position after camera attachment adjustment is zero, and the relative relationship between the plurality of camera units (60L, 60R). The position of the entire stereo camera unit with respect to the distortion transmission object is changed without changing the positional relationship (FIG. 16A), or the data acquisition method, or the relative position of each camera unit and the position of the entire stereo camera unit are both changed. (FIG. 16B) A data acquisition method is conceivable.
The misregistration determination unit 73 includes feature point data (xi, yi) of the camera 60R and the camera 60L input from the misregistration amount calculation unit 71, and the camera unit 60R and the camera unit 60L stored in the memory 74. Compare with the initial data, search for similar data and detect the amount of deviation.

以下に、このずれ量に基づく位置ずれ判断について説明する。
図17は、第2の実施異形態における、位置ずれ判定部による位置ずれ判断処理を説明するフローチャートである。
位置ずれ判定部は、ステップS300において、カメラユニット60L、60Rの特徴点データが初期値データと一致するか判断する(ステップS300)。
次に、双方で一致した場合(ステップS300でYes)、ステレオカメラユニット全体として位置ずれしていないと判断する(ステップS301)。
双方が一致しない場合(ステップS300でNo)、双方のカメラユニットについて類似データが存在するかを確認する(ステップS302)。
双方について、類似データが存在する場合(ステップS302でYes)で、各カメラユニットの相対位置ずれ量候補が一致した場合(ステップS303でYes)、ステレオカメラユニット全体が位置ずれしていると判断する(ステップS304)。
In the following, the misregistration determination based on this misalignment amount will be described.
FIG. 17 is a flowchart for explaining misregistration determination processing by the misregistration determination unit in the second embodiment.
In step S300, the displacement determination unit determines whether the feature point data of the camera units 60L and 60R matches the initial value data (step S300).
Next, when both coincide (Yes in step S300), it is determined that the stereo camera unit as a whole is not displaced (step S301).
If the two do not match (No in step S300), it is checked whether similar data exists for both camera units (step S302).
If similar data exists for both (Yes in step S302) and the relative positional deviation amount candidates of the respective camera units match (Yes in step S303), it is determined that the entire stereo camera unit is displaced. (Step S304).

一致しない場合(ステップS303でNo)、各カメラユニットがばらばらに位置ずれしていると判断される(ステップS305)。
ステップ302で、双方のカメラユニットついて類似データがないと判断され(ステップS302でNo)、一方のカメラユニットについての類似データが存在すると判断された場合(ステップS306でYes)、データ類似しない一方のカメラユニットのみが位置ずれしていると判断する(ステップS307)。
最後に、ステップS306で、双方のカメラユニットともに類似データがないと判断される場合は、他の要因による結像位置変位であると判断する(ステップS308)。
If they do not match (No in step S303), it is determined that the camera units are displaced from each other (step S305).
If it is determined in step 302 that there is no similar data for both camera units (No in step S302), and it is determined that there is similar data for one camera unit (Yes in step S306), one of the data that is not similar to each other is determined. It is determined that only the camera unit is displaced (step S307).
Finally, if it is determined in step S306 that there is no similar data in both camera units, it is determined that the imaging position displacement is due to other factors (step S308).

以上の判断処理について詳しくは説明する。
(1)フロントガラス50に対して、カメラユニット60Rとカメラユニット60Lがそれぞれ全く位置ずれを起こしていない場合、位置ずれ量算出部71から出力されるカメラユニット60Rとカメラユニット60Lのデータはメモリ74に記憶されている出荷時初期データとほぼ一致しx座標の差はほぼゼロになる。この場合、二つのカメラユニットはフロントガラス50に対して位置ずれを起こしていないと判定し、このまま測距を続けてもよいと判断する。
(2)フロントガラスに対してステレオカメラユニット全体が位置ずれを起こした場合
位置ずれ量算出部71から出力されるカメラユニット60Rとカメラユニット60Lのデータに類似したデータがメモリ74に存在し、且つ各カメラユニット60L、60Rとフロントガラス50の相対位置ずれ量候補値が一致したときに、位置ずれ判定部73は、ステレオカメラユニット60全体が、フロントガラス50に対して位置ずれを起こしたと判定する。
フロントガラスに対する(車両に対する)カメラユニット60の姿勢がわかるので、ステレオカメラユニットの位置ずれが補正許容範囲内であり、且つ補正機構を備えていれば、ずれ量分だけフロントガラスに対する位置を動かしてもよいし、また、大きくカメラの姿勢がずれてしまった場合には補正許容範囲外と判断し、ステレオカメラユニットの位置調整が必要であるというエラーメッセージを、ディスプレイやヘッドアップディスプレイに出力する。
The above determination process will be described in detail.
(1) When the camera unit 60R and the camera unit 60L are not displaced at all with respect to the windshield 50, the data of the camera unit 60R and the camera unit 60L output from the displacement amount calculation unit 71 is stored in the memory 74. Is substantially the same as the initial shipping data stored in, and the difference in the x coordinate is substantially zero. In this case, it is determined that the two camera units are not displaced with respect to the windshield 50, and it is determined that distance measurement may be continued as it is.
(2) When the entire stereo camera unit is displaced with respect to the windshield Data similar to the data of the camera unit 60R and the camera unit 60L output from the displacement amount calculation unit 71 exists in the memory 74, and When the relative position shift amount candidate values of the camera units 60L and 60R and the windshield 50 match, the position shift determination unit 73 determines that the entire stereo camera unit 60 has shifted from the windshield 50. .
Since the attitude of the camera unit 60 with respect to the windshield (with respect to the vehicle) is known, if the stereo camera unit has a positional deviation within the allowable correction range and a correction mechanism is provided, the position relative to the windshield is moved by the amount of deviation. Alternatively, if the camera posture is greatly deviated, it is determined that the camera is out of the allowable correction range, and an error message indicating that the position adjustment of the stereo camera unit is necessary is output to the display or the head-up display.

(3)ステレオカメラユニットを構成するカメラユニットのうちの一部が、出荷時の位置からの位置ずれを起こした場合
位置ずれ量算出部71から出力される位置ずれの起きていないカメラユニットのデータはメモリ74に記憶されている出荷時初期データとほぼ一致するが、位置ずれを起こしたカメラユニットのデータに類似するデータがない場合に、位置ずれ判定部73は、フロントガラス50に対して二つのうち一つのカメラが出荷時から位置ずれを起こさず、一つのカメラが位置ずれを起こしたと判定する。
言い換えれば、位置ずれ量算出部71から出力される各カメラのユニットのデータのうち、出荷時初期データとほぼ一致するデータに対応するカメラユニットについては、出荷時位置からの位置ずれが発生していないと判断し、初期出荷位置と一致しない(該当するデータがない)データに対応するカメラユニットについては、出荷時位置からの位置ずれが起きていると判断する。
この場合、カメラの相対位置を補正する機構を備えていれば補正を行い、備えていなければ、表示・警報制御部75は、調整が必要な事を運転者に知らせる。
(3) When a part of the camera units constituting the stereo camera unit is misaligned from the position at the time of shipment Data of the camera unit that is not misaligned and output from the misalignment amount calculation unit 71 Is substantially the same as the initial shipping data stored in the memory 74, but when there is no data similar to the data of the camera unit that has caused the position shift, the position shift determination unit 73 sets the second position to the windshield 50. One of the cameras is determined not to be displaced from the time of shipment, and one camera is determined to be displaced.
In other words, among the camera unit data output from the positional deviation amount calculation unit 71, the positional deviation from the shipping position has occurred for the camera unit corresponding to the data that substantially matches the initial factory data. For the camera unit corresponding to the data that does not match the initial shipping position (there is no corresponding data), it is determined that a positional deviation from the shipping position has occurred.
In this case, if a mechanism for correcting the relative position of the camera is provided, correction is performed, and if not provided, the display / alarm control unit 75 notifies the driver that adjustment is necessary.

(4)2つのカメラのうち少なくとも1つのカメラにおいて、相対位置関係ではない結像位置変化が出荷時から発生した場合
位置ずれ量算出部71から出力される2つのカメラユニットのデータ全てについて、メモリ74に記憶されているデータ中に類似したデータがない場合、これは位置ずれ予想範囲内での位置ずれではないので、位置ずれ判定部73は、他の要因でカメラの結像位置変化が起きていると判定する。
相対位置関係ではない結像位置変化としては、例えば内部パラメータと呼ばれるレンズのディストーションが経時で変化しているなどの原因が考えられる。
この場合、相関演算部64は、前処理部62から出力された画像の相関演算を行う。
メモリ65には各ステレオカメラユニット60L、60Rの基線長、画素数、探索幅情報が記憶されていることが望ましく、ステレオカメラの基線長、画素数、探索幅などに応じてステレオマッチングを行い、相関演算を行う。マッチング処理としては、公知の各種のものを用いることができる。
(4) When at least one of the two cameras has an imaging position change that does not have a relative positional relationship from the time of shipment, the memory for all the data of the two camera units output from the positional deviation amount calculation unit 71 If there is no similar data in the data stored in 74, this is not a positional deviation within the expected positional deviation range, so the positional deviation determination unit 73 causes a change in the imaging position of the camera due to other factors. It is determined that
As the imaging position change that is not in the relative positional relationship, for example, a cause such as a change in lens distortion called an internal parameter with time can be considered.
In this case, the correlation calculation unit 64 performs correlation calculation of the image output from the preprocessing unit 62.
The memory 65 preferably stores the base line length, the number of pixels, and the search width information of each stereo camera unit 60L, 60R, and performs stereo matching according to the base line length, the number of pixels, the search width, etc. of the stereo camera, Perform correlation calculation. As the matching process, various known processes can be used.

例えばSAD(Sum of Absolute Difference)法が挙げられる。
なお、SAD法は、基準画像内で設定されたテンプレートと、これと相関をとるべき比較画像内のブロックとの互いに対応する各ピクセル(画素)の輝度値の差の絶対値の積算値を算出して評価値とし、該評価値が最も小さいものに係る比較画像内のブロックをマッチング領域とするものである。
また、位置ずれ量算出部71から入力される位置ずれ量に基づいて、画像処理によって補正してもよい。
For example, the SAD (Sum of Absolute Difference) method can be mentioned.
The SAD method calculates an integrated value of absolute values of differences in luminance values of pixels corresponding to each other between a template set in the reference image and a block in the comparison image to be correlated with the template. Thus, an evaluation value is obtained, and a block in the comparison image relating to the smallest evaluation value is used as a matching region.
Further, correction may be performed by image processing based on the positional deviation amount input from the positional deviation amount calculation unit 71.

認識部66は、相関演算部64で計算・生成された視差画像を入力として、測距対象物の認識を行う。
測距対象物の認識する際には、あらかじめ測距対象物の特徴を辞書データとしてメモリに記憶しておいてもよいし、視差が同じグループを一つのブロックとして、どのような物体があるか否かは認識しないが、そこに物体があるか否かを認識するようにしてもよい。後者の場合、測距精度がよいほど高精度に認識できる。
表示・警報制御部75には、認識部66による認識結果及び位置ずれ判定部73からの判定結果が入力される。
判定結果は、図示しないディスプレイに表示したり、音によって運転者に知らせる方法や、ヘッドアップディスプレイに表示したりするなど様々な方法が考えられる。
また、表示や警報を装置で認識結果を出力するのではなく、ブレーキ制御やドアのロックなどの制御を行う際の情報として活用される事も考えられる。
The recognizing unit 66 receives the parallax image calculated and generated by the correlation calculating unit 64 as input, and recognizes the distance measuring object.
When recognizing an object to be measured, the features of the object to be measured may be stored in the memory as dictionary data in advance, and what kind of object is present with a group having the same parallax as one block Whether or not there is an object may be recognized. In the latter case, the higher the distance measurement accuracy, the higher the accuracy of recognition.
The display / alarm control unit 75 receives the recognition result from the recognition unit 66 and the determination result from the displacement determination unit 73.
Various methods are conceivable, such as displaying the determination result on a display (not shown), notifying the driver by sound, or displaying the determination result on a head-up display.
It is also conceivable that the display or alarm is not output as a recognition result by the device but is used as information when performing control such as brake control or door lock.

<その他の実施形態>
図18は、本実施形態の距離計測装置を適用可能な車両を示す模式図である。
本実施形態の画像処理システムは、車両前方の画像を取得するための撮像ユニット81と、取得した画像に基づいて車両80の前方に存在する他の車両までの距離を算出する等の処理を行う画像解析ユニット82を有している。撮像ユニット81は、車両80が走行する前方の画像を撮像できるように、座席のルームミラー位置等に設置されている。撮像ユニット81で撮像された車両前方の画像は、画像信号化されて画像解析ユニット82に入力される。画像解析ユニット82は、撮像ユニット81から出力された画像信号を解析する。
撮像ユニット81として、上記実施形態の撮像ユニット10、60を適用できる。
また、画像解析ユニット82の一部の機能として、上記実施形態の画像処理部12、認識部13を適用することが出来る。
また、位置ずれ判定部24、73による判定結果を、ヘッドアップディスプレイ89に表示することが出来る。
車両走行制御ユニット88は、画像解析ユニット82で計算された距離に基づいてハンドルやブレーキの制御も行うことが出来る。
<Other embodiments>
FIG. 18 is a schematic diagram showing a vehicle to which the distance measuring device of the present embodiment can be applied.
The image processing system of the present embodiment performs processing such as calculating the distance to an imaging unit 81 for acquiring an image ahead of the vehicle and another vehicle existing in front of the vehicle 80 based on the acquired image. An image analysis unit 82 is included. The imaging unit 81 is installed at a position of a seat mirror or the like so that an image in front of the vehicle 80 traveling can be captured. An image in front of the vehicle imaged by the imaging unit 81 is converted into an image signal and input to the image analysis unit 82. The image analysis unit 82 analyzes the image signal output from the imaging unit 81.
As the imaging unit 81, the imaging units 10 and 60 of the above embodiment can be applied.
In addition, the image processing unit 12 and the recognition unit 13 of the above embodiment can be applied as a part of the functions of the image analysis unit 82.
In addition, the determination result by the position shift determination units 24 and 73 can be displayed on the head-up display 89.
The vehicle travel control unit 88 can also control the steering wheel and the brake based on the distance calculated by the image analysis unit 82.

10 カメラユニット、11 制御部、12 画像処理部、13 認識部、14 検知部、15 表示・警報制御部、20 特徴点抽出部、22 位置ずれ量算出部、24 位置ずれ判定部、26 表示・警報制御部、26 量算出部、31 視差計算部、33 CPU、50 フロントガラス、55 検査チャート、56 発光体、60 ステレオカメラユニット、60L、60R カメラユニット、60a 制御部、61 位置ずれ検知部 62 前処理部、64 相関演算部、66 認識部、69 特徴点抽出部、71 位置ずれ量算出部、73 位置ずれ判定部73、75 表示・警報制御部   DESCRIPTION OF SYMBOLS 10 Camera unit 11 Control part 12 Image processing part 13 Recognition part 14 Detection part 15 Display / alarm control part 20 Feature point extraction part 22 Misalignment amount calculation part 24 Misalignment judgment part 26 Display / Alarm control unit, 26 quantity calculation unit, 31 parallax calculation unit, 33 CPU, 50 windshield, 55 inspection chart, 56 light emitter, 60 stereo camera unit, 60L, 60R camera unit, 60a control unit, 61 misregistration detection unit 62 Pre-processing unit, 64 correlation calculation unit, 66 recognition unit, 69 feature point extraction unit, 71 misregistration amount calculation unit, 73 misregistration determination unit 73, 75 display / alarm control unit

特許第3479006号Japanese Patent No. 3479006 特許第4285618号Japanese Patent No. 4285618

Claims (8)

入射光の直進性を低下させる歪みを有する透過物体を介して画像を取得して撮像素子上に結像させるカメラユニットにおける、撮像素子面上に結像する前記画像の結像位置の変化量に基づいて、前記カメラユニットの前記透過物体に対する位置ずれを検出することを特徴する位置ずれ検出装置。   In a camera unit that acquires an image through a transmissive object having a distortion that reduces the straightness of incident light and forms an image on the image sensor, the amount of change in the image formation position of the image formed on the image sensor surface Based on this, a displacement detection device that detects a displacement of the camera unit relative to the transmission object. 請求項1に記載の位置ずれ検出装置において、
前記カメラユニットが前記透過物体を介して撮影した画像に含まれる、特徴的なパターンに係る特徴点座標を抽出する特徴点抽出部と、
位置ずれがない状態で撮影した画像から前記特徴点抽出部により抽出された基準特徴点情報と、判定対象となる状態で撮影した画像から抽出された比較特徴点情報と、
との関係に基づいて、前記カメラユニットの前記透過物体に対する位置ずれの有無を判定する位置ずれ判定部と、
を備えたことを特徴とする位置ずれ検出装置。
In the position shift detection device according to claim 1,
A feature point extraction unit that extracts feature point coordinates relating to a characteristic pattern included in an image captured by the camera unit through the transparent object;
Reference feature point information extracted by the feature point extraction unit from an image photographed in the absence of positional deviation, comparison feature point information extracted from an image photographed in a state to be determined,
Based on the relationship, and a displacement determination unit that determines the presence or absence of displacement of the camera unit with respect to the transmission object;
A misalignment detection apparatus comprising:
請求項2に記載の位置ずれ検出装置において、
前記基準特徴点情報と、前記比較特徴点情報と、を比較して前記カメラユニットと前記透過物体との相対的な位置ずれ量の候補値を算出する位置ずれ量算出部を備え、
前記位置ずれ判定部は、前記候補値の頻度分布から、前記カメラユニットの位置ずれの有無を判定することを特徴とする位置ずれ検出装置。
In the position shift detection device according to claim 2,
A positional deviation amount calculation unit that compares the reference feature point information and the comparative feature point information to calculate a candidate value of a relative positional deviation amount between the camera unit and the transmission object;
The misregistration detection apparatus, wherein the misregistration determination unit determines presence / absence of misalignment of the camera unit from the frequency distribution of the candidate values.
請求項2に記載の位置ずれ検出装置において、
前記カメラユニットは、複数のカメラユニットを有する複眼カメラユニットであって、
前記特徴点抽出部は、各カメラユニットによって取得された各画像について、前記比較特徴点情報及び前記基準特徴点情報を抽出し、
前記位置ずれ量算出部は、前記各カメラユニットに係る前記比較特徴点情報と前記基準特徴点情報の類似度に基づいて、各カメラユニット間の相対的な位置ずれ量又は前記複眼カメラユニット全体の前記透過物体に対する位置ずれ量の候補値を算出し、
前記位置ずれ判定部は、前記候補値に基づいて、所定の基準により、各カメラユニット間の位置ずれ又は前記複眼カメラユニット全体の位置ずれの有無を判定すること特徴とする位置ずれ検出装置。
In the position shift detection device according to claim 2,
The camera unit is a compound eye camera unit having a plurality of camera units,
The feature point extraction unit extracts the comparison feature point information and the reference feature point information for each image acquired by each camera unit,
The positional deviation amount calculation unit is configured to calculate a relative positional deviation amount between the camera units or the entire compound-eye camera unit based on the similarity between the comparison feature point information and the reference feature point information regarding each camera unit. Calculating a candidate value of the amount of displacement with respect to the transparent object;
The position shift determination unit determines whether or not there is a position shift between the camera units or a position shift of the entire compound-eye camera unit based on the candidate value based on the candidate value.
請求項2乃至4の何れか一項に記載の位置ずれ検出装置において、
前記所定のパターンは直線状のパターンであり、前記直線状のパターンを含む画像は、広がりのない光を出射する発光体が直線として結像するように、前記発光体を撮影することにより取得されることを特徴とする位置ずれ検出装置。
In the position shift detection device according to any one of claims 2 to 4,
The predetermined pattern is a linear pattern, and an image including the linear pattern is acquired by photographing the illuminant so that the illuminant emitting non-spreading light is imaged as a straight line. An apparatus for detecting misalignment.
請求項3に記載の位置ずれ検出装置において、
前記基準特徴点情報は、前記画像における領域に応じて重み付けされることを特徴とする位置ずれ検出装置。
The misregistration detection apparatus according to claim 3,
The reference feature point information is weighted according to a region in the image.
カメラユニットと、請求項1乃至6の何れか一項に記載のカメラユニットの位置ずれ検出装置と、を備えたことを特徴とする車両。   A vehicle comprising: a camera unit; and a camera unit misalignment detection device according to any one of claims 1 to 6. カメラユニットが前記透過物体を介して撮影した画像に含まれる、特徴的なパターンに係る特徴点座標を抽出する特徴点抽出ステップと、
位置ずれがない状態で撮影した画像から前記特徴点抽出ステップにより抽出された基準特徴点情報と、判定対象となる状態で撮影した画像から抽出された比較特徴点情報と、との関係に基づいて、前記カメラユニットの前記透過物体に対する位置ずれの有無を判定する位置ずれステップと、
を含むことを特徴とする位置ずれ検出方法。
A feature point extracting step of extracting feature point coordinates relating to a characteristic pattern included in an image captured by the camera unit through the transparent object;
Based on the relationship between the reference feature point information extracted by the feature point extraction step from the image photographed in the absence of misalignment and the comparison feature point information extracted from the image photographed in the determination target state A displacement step for determining the presence or absence of displacement of the camera unit with respect to the transmission object;
A misregistration detection method comprising:
JP2012063732A 2012-03-21 2012-03-21 Misalignment detection apparatus, vehicle, and misalignment detection method Active JP6019646B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012063732A JP6019646B2 (en) 2012-03-21 2012-03-21 Misalignment detection apparatus, vehicle, and misalignment detection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012063732A JP6019646B2 (en) 2012-03-21 2012-03-21 Misalignment detection apparatus, vehicle, and misalignment detection method

Publications (2)

Publication Number Publication Date
JP2013195783A true JP2013195783A (en) 2013-09-30
JP6019646B2 JP6019646B2 (en) 2016-11-02

Family

ID=49394787

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012063732A Active JP6019646B2 (en) 2012-03-21 2012-03-21 Misalignment detection apparatus, vehicle, and misalignment detection method

Country Status (1)

Country Link
JP (1) JP6019646B2 (en)

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2902967A1 (en) * 2014-01-31 2015-08-05 Ricoh Company, Ltd. Stereo camera calibration method, disparity calculating device, and stereo camera
JP5911623B1 (en) * 2015-03-27 2016-04-27 株式会社ファンクリエイト Detection device and detection method for road joints
JP2017009387A (en) * 2015-06-19 2017-01-12 富士重工業株式会社 Image processing device
JP2017009388A (en) * 2015-06-19 2017-01-12 富士重工業株式会社 Image processing device
WO2017042999A1 (en) * 2015-09-07 2017-03-16 パナソニックIpマネジメント株式会社 In-vehicle stereo camera device and method for correcting same
WO2017158951A1 (en) * 2016-03-15 2017-09-21 オムロン株式会社 Object detection system, abnormality determination method, and program
KR20180012494A (en) * 2016-07-27 2018-02-06 현대모비스 주식회사 Apparatus and method for compensating tolerance of vehicle-mounted camera
JP2019068272A (en) * 2017-09-29 2019-04-25 株式会社デンソー Circumference monitoring device and calibration method of the same
JP2019090707A (en) * 2017-11-15 2019-06-13 株式会社デンソーテン Image processing device and image processing method
JP2019132855A (en) * 2014-01-31 2019-08-08 株式会社リコー Stereo camera calibration method, parallax calculation device, and stereo camera
JP2019192355A (en) * 2018-04-19 2019-10-31 パナソニックIpマネジメント株式会社 Heating cooker
CN110827348A (en) * 2019-11-14 2020-02-21 上海眼控科技股份有限公司 Self-checking processing method, device and equipment for position of camera equipment and storage medium
CN111693254A (en) * 2019-03-12 2020-09-22 纬创资通股份有限公司 Vehicle-mounted lens offset detection method and vehicle-mounted lens offset detection system
JP2020165968A (en) * 2020-03-19 2020-10-08 株式会社リコー Calibration method, calibration device, and program
US10984555B2 (en) 2017-03-30 2021-04-20 Mitsubishi Electric Corporation Object detection device and vehicle
CN113766209A (en) * 2020-05-29 2021-12-07 上海汉时信息科技有限公司 Camera offset processing method and device
WO2022014215A1 (en) * 2020-07-16 2022-01-20 日立Astemo株式会社 Processing device and vehicle-mounted camera device

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0636987A (en) * 1992-07-17 1994-02-10 Nikon Corp Projection aligner
JPH06241735A (en) * 1993-02-16 1994-09-02 Nippon Sheet Glass Co Ltd Simulating method for prespective distortion of plate-like body
JPH09163359A (en) * 1995-12-04 1997-06-20 Honda Motor Co Ltd Environment recognition device for vehicle
JP2000322565A (en) * 1999-03-10 2000-11-24 Calsonic Kansei Corp Image data correcting circuit
JP2004173037A (en) * 2002-11-21 2004-06-17 Kyocera Corp Optical-axis deviation detecting apparatus of vehicle-mounted camera
JP2004247979A (en) * 2003-02-14 2004-09-02 Hitachi Ltd On-vehicle camera apparatus
JP2004289562A (en) * 2003-03-24 2004-10-14 Sanyo Electric Co Ltd Video camera
JP2004340840A (en) * 2003-05-19 2004-12-02 Honda Motor Co Ltd Distance measuring device, distance measuring method and distance measuring program
JP2005294932A (en) * 2004-03-31 2005-10-20 Konica Minolta Medical & Graphic Inc Image processing method, image processing apparatus and image processing program
JP2009080572A (en) * 2007-09-25 2009-04-16 Toshiba Corp Apparatus and method for detecting moving body

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0636987A (en) * 1992-07-17 1994-02-10 Nikon Corp Projection aligner
JPH06241735A (en) * 1993-02-16 1994-09-02 Nippon Sheet Glass Co Ltd Simulating method for prespective distortion of plate-like body
JPH09163359A (en) * 1995-12-04 1997-06-20 Honda Motor Co Ltd Environment recognition device for vehicle
JP2000322565A (en) * 1999-03-10 2000-11-24 Calsonic Kansei Corp Image data correcting circuit
JP2004173037A (en) * 2002-11-21 2004-06-17 Kyocera Corp Optical-axis deviation detecting apparatus of vehicle-mounted camera
JP2004247979A (en) * 2003-02-14 2004-09-02 Hitachi Ltd On-vehicle camera apparatus
JP2004289562A (en) * 2003-03-24 2004-10-14 Sanyo Electric Co Ltd Video camera
JP2004340840A (en) * 2003-05-19 2004-12-02 Honda Motor Co Ltd Distance measuring device, distance measuring method and distance measuring program
JP2005294932A (en) * 2004-03-31 2005-10-20 Konica Minolta Medical & Graphic Inc Image processing method, image processing apparatus and image processing program
JP2009080572A (en) * 2007-09-25 2009-04-16 Toshiba Corp Apparatus and method for detecting moving body

Cited By (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3514758A1 (en) * 2014-01-31 2019-07-24 Ricoh Company, Ltd. Stereo camera calibration method, disparity calculating device, and stereo camera
JP2015163866A (en) * 2014-01-31 2015-09-10 株式会社リコー Stereocamera calibration method, parallax calculation device and stereocamera
EP2902967A1 (en) * 2014-01-31 2015-08-05 Ricoh Company, Ltd. Stereo camera calibration method, disparity calculating device, and stereo camera
JP2019132855A (en) * 2014-01-31 2019-08-08 株式会社リコー Stereo camera calibration method, parallax calculation device, and stereo camera
JP5911623B1 (en) * 2015-03-27 2016-04-27 株式会社ファンクリエイト Detection device and detection method for road joints
JP2016186756A (en) * 2015-03-27 2016-10-27 株式会社ファンクリエイト Device and method of detecting joint part of road
JP2017009387A (en) * 2015-06-19 2017-01-12 富士重工業株式会社 Image processing device
JP2017009388A (en) * 2015-06-19 2017-01-12 富士重工業株式会社 Image processing device
WO2017042999A1 (en) * 2015-09-07 2017-03-16 パナソニックIpマネジメント株式会社 In-vehicle stereo camera device and method for correcting same
WO2017158951A1 (en) * 2016-03-15 2017-09-21 オムロン株式会社 Object detection system, abnormality determination method, and program
KR102528003B1 (en) 2016-07-27 2023-05-02 현대모비스 주식회사 Apparatus and method for compensating tolerance of vehicle-mounted camera
KR20180012494A (en) * 2016-07-27 2018-02-06 현대모비스 주식회사 Apparatus and method for compensating tolerance of vehicle-mounted camera
US10984555B2 (en) 2017-03-30 2021-04-20 Mitsubishi Electric Corporation Object detection device and vehicle
JP2019068272A (en) * 2017-09-29 2019-04-25 株式会社デンソー Circumference monitoring device and calibration method of the same
JP7066378B2 (en) 2017-11-15 2022-05-13 株式会社デンソーテン Image processing device and image processing method
JP2019090707A (en) * 2017-11-15 2019-06-13 株式会社デンソーテン Image processing device and image processing method
JP2019192355A (en) * 2018-04-19 2019-10-31 パナソニックIpマネジメント株式会社 Heating cooker
JP7142320B2 (en) 2018-04-19 2022-09-27 パナソニックIpマネジメント株式会社 heating cooker
CN111693254A (en) * 2019-03-12 2020-09-22 纬创资通股份有限公司 Vehicle-mounted lens offset detection method and vehicle-mounted lens offset detection system
CN110827348A (en) * 2019-11-14 2020-02-21 上海眼控科技股份有限公司 Self-checking processing method, device and equipment for position of camera equipment and storage medium
JP2020165968A (en) * 2020-03-19 2020-10-08 株式会社リコー Calibration method, calibration device, and program
JP6996582B2 (en) 2020-03-19 2022-01-17 株式会社リコー Calibration method, calibration equipment and program
CN113766209A (en) * 2020-05-29 2021-12-07 上海汉时信息科技有限公司 Camera offset processing method and device
CN113766209B (en) * 2020-05-29 2024-04-30 上海汉时信息科技有限公司 Camera offset processing method and device
WO2022014215A1 (en) * 2020-07-16 2022-01-20 日立Astemo株式会社 Processing device and vehicle-mounted camera device
JP7405710B2 (en) 2020-07-16 2023-12-26 日立Astemo株式会社 Processing equipment and in-vehicle camera equipment

Also Published As

Publication number Publication date
JP6019646B2 (en) 2016-11-02

Similar Documents

Publication Publication Date Title
JP6019646B2 (en) Misalignment detection apparatus, vehicle, and misalignment detection method
KR102022388B1 (en) Calibration system and method using real-world object information
EP2889641B1 (en) Image processing apparatus, image processing method, program and image processing system
US9378553B2 (en) Stereo image processing device for vehicle
US9704404B2 (en) Lane detection apparatus and operating method for the same
EP3287985B1 (en) Image processing device
WO2016056197A1 (en) In-vehicle camera calibration device, image generation device, in-vehicle camera calibration method, and image generation method
JP5011049B2 (en) Image processing system
JP5880703B2 (en) Lane marking indicator, driving support system
CN106289159B (en) Vehicle distance measurement method and device based on distance measurement compensation
US11119210B2 (en) Vehicle control device and vehicle control method
JPH09142236A (en) Periphery monitoring method and device for vehicle, and trouble deciding method and device for periphery monitoring device
KR102132242B1 (en) Stereo Camera Rectification System
US11030761B2 (en) Information processing device, imaging device, apparatus control system, movable body, information processing method, and computer program product
JP2017004176A (en) Road surface marking detection device and road surface marking detection method
EP2910897B1 (en) Stereo image processing device and stereo image processing method
JP2021025868A (en) Stereo camera
KR101276073B1 (en) System and method for detecting distance between forward vehicle using image in navigation for vehicle
WO2017154305A1 (en) Image processing device, apparatus control system, imaging device, image processing method, and program
JP2010176592A (en) Driving support device for vehicle
CN111033316B (en) Identification sensor, control method therefor, automobile, vehicle lamp, object identification system, and object identification method
US10643077B2 (en) Image processing device, imaging device, equipment control system, equipment, image processing method, and recording medium storing program
JP6507590B2 (en) Image conversion apparatus and image conversion method
WO2019058755A1 (en) Object distance detection device
JP4900377B2 (en) Image processing device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150218

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160113

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160202

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160331

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160906

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160919

R151 Written notification of patent or utility model registration

Ref document number: 6019646

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151