JP2013195783A - Position shift detection device, vehicle, and position shift detection method - Google Patents
Position shift detection device, vehicle, and position shift detection method Download PDFInfo
- Publication number
- JP2013195783A JP2013195783A JP2012063732A JP2012063732A JP2013195783A JP 2013195783 A JP2013195783 A JP 2013195783A JP 2012063732 A JP2012063732 A JP 2012063732A JP 2012063732 A JP2012063732 A JP 2012063732A JP 2013195783 A JP2013195783 A JP 2013195783A
- Authority
- JP
- Japan
- Prior art keywords
- feature point
- camera
- unit
- image
- camera unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、車載カメラの位置ずれ検出装置、車両及び位置ずれ検出方法に関する。 The present invention relates to an on-vehicle camera positional deviation detection device, a vehicle, and a positional deviation detection method.
近年、自動車の運転支援システムや駐車支援システムが注目されており、これには、単眼カメラやステレオカメラが使用されている。
このような運転支援システムの例として、搭載したカメラ(以下、車載カメラと記載する)によって車両前方を監視し、ヒトや他車両、障害物等との距離を検知し、それらに衝突する危険性がある場合には、運転者に報知したり、車両のブレーキを作動させて停止させたり、減速させたりするASV(Advanced Safety Vehicle;先進安全自動車)装置が知られている。
なお、このような運転支援システムにおいて、車載カメラを車体に取り付ける際には、取り付け位置に関して高レベルの精度が要求される。
車載カメラの取り付け位置にずれが生じると、それに起因して車載カメラの撮像方向がずれてしまい、正確な測距に基づく運転支援が出来なくなる可能性があるからである。
In recent years, driving assistance systems and parking assistance systems for automobiles have attracted attention, and monocular cameras and stereo cameras are used for this.
As an example of such a driving support system, there is a risk that the front of the vehicle is monitored by a mounted camera (hereinafter referred to as an in-vehicle camera), the distance from a human, another vehicle, an obstacle, etc. is detected and collided with them. There are known ASV (Advanced Safety Vehicle) devices that notify the driver, operate the vehicle brake to stop it, or decelerate it.
In such a driving support system, when the vehicle-mounted camera is attached to the vehicle body, a high level of accuracy is required with respect to the attachment position.
This is because if the mounting position of the in-vehicle camera is deviated, the imaging direction of the in-vehicle camera is deviated from that, and driving assistance based on accurate distance measurement may not be possible.
図19は、車両と車載カメラとの位置関係と撮像方向を説明する図である。
図19(a)は、車両100がまっすぐ走行する方向101と車載カメラの光軸方向102とが一致している場合を示している。
図19(a)の場合、ヒトMが車両100の進行方向101に対して中央に存在する場合には、このまま前進すると衝突してしまうと判断できる。
それに対し、図19(b)は、車両100がまっすぐ走る方向101に対してカメラの光軸方向102が一致せず、回転してしまっている状態を示している。この場合、ヒトMが車両の進行方向に対して中央にいても、カメラの画像上ではヒトMは右に写るので、正確に運転支援を行うことは出来ない。
出荷時に図19(a)の状態で取り付けられたとしても、経時で図19(b)のように取り付け位置がずれてしまった場合には、ずれの検出及び補正を行う必要がある。
FIG. 19 is a diagram illustrating the positional relationship between the vehicle and the in-vehicle camera and the imaging direction.
FIG. 19A shows a case where the
In the case of FIG. 19A, when the human M exists in the center with respect to the
On the other hand, FIG. 19B shows a state in which the
Even if it is attached in the state shown in FIG. 19A at the time of shipment, it is necessary to detect and correct the deviation when the attachment position is shifted over time as shown in FIG. 19B.
車載カメラがステレオカメラの場合には、撮像方向のずれは対象物までの算出距離にも直接影響を及ぼしてしまう。
さらに、測距装置としてのステレオカメラにおいて、カメラ全体が車両に対して位置ずれを生じていなかったとしても、ステレオカメラを構成するカメラ同士の相対的な位置関係がずれてしまった場合も、認識精度が低下してしまう。
もちろん、カメラの取り付け位置のずれは認識精度そのものの低下などの原因ともなり得る。
認識精度の低下が起こる例として、認識処理速度を向上させるために、対象物ごとの探索領域を限定している場合などが考えられるが、そのような場合にカメラの取り付け位置がずれてしまうと、車道、歩道、信号、標識、ガードレールなどの撮影画像内での領域がずれてしまい、目的の対象物の探索ができない場合が生じる。
このように、車両に対する車載カメラの取り付け位置は、非常に重要であり、製造・出荷時、又はその後のメンテナンス時に、正確に調整が行われる必要がある。
When the in-vehicle camera is a stereo camera, the shift in the imaging direction directly affects the calculated distance to the object.
Furthermore, in a stereo camera as a distance measuring device, even if the entire camera is not misaligned with respect to the vehicle, even if the relative positional relationship between the cameras constituting the stereo camera deviates, it is recognized. Accuracy will be reduced.
Of course, a shift in the mounting position of the camera may cause a reduction in recognition accuracy itself.
As an example of a decrease in recognition accuracy, there may be a case where the search area for each target is limited in order to improve the recognition processing speed. In such a case, if the camera mounting position is shifted. There are cases where areas in the captured image such as roadways, sidewalks, signals, signs, guardrails, etc. are shifted, and the target object cannot be searched.
As described above, the mounting position of the in-vehicle camera with respect to the vehicle is very important, and it is necessary to accurately adjust at the time of manufacture / shipment or subsequent maintenance.
しかし、日常の使用時において、経年や衝撃にて車載カメラの取り付け位置がずれて調整が必要となっているか否かを使用者が判断することは難しい。
そこで、車載カメラの調整の必要の有無を判断するための方法として、例えば、特許文献1には、あらかじめ規定された位置に設置してある検査チャートの撮像画像から車体に対する車載カメラの取り付け位置の調整をする必要がある否かの検査をする方法が開示されている。
また、ステレオカメラの場合において、ステレオカメラを構成するカメラ同士の相対的な位置ずれを調整する必要の有無の判断について、特許文献2には、ステレオカメラの画像間の対応位置ずれを算出する処理の候補となる領域の輝度変化量の分散値によって相対位置ずれが起きたか、ずれ量がどの程度であるかを検知し補正する方法が開示されている。
However, during daily use, it is difficult for the user to determine whether the mounting position of the in-vehicle camera is shifted due to aging or impact and adjustment is necessary.
Therefore, as a method for determining whether or not the adjustment of the in-vehicle camera is necessary, for example,
In addition, in the case of a stereo camera, Patent Document 2 discloses a process for calculating a corresponding positional shift between images of a stereo camera for determining whether or not it is necessary to adjust a relative positional shift between cameras constituting the stereo camera. Disclosed is a method of detecting and correcting whether or not the relative positional deviation has occurred due to the variance value of the luminance change amount of the candidate area.
しかしながら、特許文献1に開示の方法では、あらかじめ規定された位置に設置してある検査チャートによって位置ずれの検知を行う必要があり、車両の使用を中止して規定の場所で位置ずれを検知しなければならず、車両の使用者の利便性を損なうだけでなく、経時や振動衝撃によるカメラの取り付け位置ずれが走行中にずれた場合に検知できないという問題は解消できていない。
また、特許文献2に開示の方法では、走行中の風景などの画像から、ステレオカメラを構成するカメラ間での相対位置ずれを検出することができるが、経時や振動衝撃を原因とする車両に対する、車載カメラ装置全体の取り付け位置ずれを検知できないという問題がある。
また、これら以外に、撮像範囲内にある、車両上に設置してある特徴的なマーカーによってカメラの取り付け位置ずれを検出する方法も考えられるが、マーカーからカメラまでの距離を十分確保する事ができないため、マーカーにピントがあわず、高精度に取り付けずれ量を検知する事が出来ない、という問題がある。
本発明は、上記の問題点を鑑みて、経時や振動衝撃による車両に対する取り付け位置ずれ(ステレオカメラのカメラ間での相対位置ずれを含む)が起きているか、さらに、位置ずれが起きている場合そのずれ量はどの程度であるかを、特別な検査チャート等を使用することなく、車を使用しながら検知することが可能な検知方法及び検知装置を提供する事を目的とする。
However, in the method disclosed in
Further, in the method disclosed in Patent Document 2, it is possible to detect a relative position shift between cameras constituting a stereo camera from an image of a running landscape or the like. There is a problem that the mounting position shift of the entire vehicle-mounted camera device cannot be detected.
In addition to these methods, a method of detecting a camera mounting position shift with a characteristic marker installed on the vehicle within the imaging range is also conceivable, but it is possible to secure a sufficient distance from the marker to the camera. Since this is not possible, there is a problem in that the marker is not in focus and the amount of mounting displacement cannot be detected with high accuracy.
In the present invention, in view of the above-described problems, when a positional deviation (including a relative positional deviation between the cameras of the stereo camera) occurs due to time or vibration shock, or when a positional deviation occurs. It is an object of the present invention to provide a detection method and a detection apparatus that can detect the amount of deviation while using a vehicle without using a special inspection chart or the like.
上記の課題を解決するために、請求項1に記載の発明は、入射光の直進性を低下させる歪みを有する透過物体を介して画像を取得して撮像素子上に結像させるカメラユニットにおける、撮像素子面上に結像する前記画像の結像位置の変化量に基づいて、前記カメラユニットの前記透過物体に対する位置ずれを検出する。
In order to solve the above-described problem, the invention according to
上記のように構成したので、本発明によれば、あらかじめ規定された位置に設置してある検査チャートやマーカーなしに、経時や振動衝撃によるカメラ間の相対位置ずれやカメラの車両に対する取り付け位置のずれを検知することが可能となる。 Since it is configured as described above, according to the present invention, without the inspection chart or marker installed at a predetermined position, the relative position shift between the cameras due to aging or vibration impact and the position of the camera mounting position with respect to the vehicle can be determined. A shift can be detected.
以下に、図面を参照して、本発明の実施の形態を詳細に説明する。
本実施形態は、運転者や搭乗者が雨風を防ぐまたは走行中に飛来する障害物を防ぐ目的で車両に備わっている歪み透過物体(フロントやリアのウィンドウガラスなど)が有する歪みを利用して、車載カメラの取り付け位置ずれを検出するものである。
詳しくは、車両に対する、車載カメラの取り付け調整が精度よくされている出荷時に歪み透過物体の歪み測定しておき、その歪みデータと、走行時に撮像される画像から取得した歪みデータを比較する事で、位置ずれを検知し、さらに位置ずれ量を算出する。
詳しくは、車両が備える歪み透過物体は、経時では車両に対する位置ずれを起こさず、また、歪み透過物体は平行平板ではなく通常、縦方向と横方向とで曲率が異なる曲面形状で形成されており、かつ製造ばらつきによる歪みが存在する事を利用して、車載カメラの車両に対する位置ずれ位置を検知するものである。
また、本発明は「車両」に対するカメラの取り付け位置ずれに限定するものではなく、カメラで画像を取得する際に、被写体とカメラの間に、カメラ像面上での被写体の結像位置変化がおきるような歪みが存在する物体がある場合に適用できる。
Embodiments of the present invention will be described below in detail with reference to the drawings.
This embodiment uses the distortion of a strain transmitting object (such as a front or rear window glass) provided in a vehicle for the purpose of preventing rain and wind or preventing obstacles flying while the driver or passenger is traveling. This detects the displacement of the mounting position of the in-vehicle camera.
Specifically, by measuring the distortion of a strain-transmitting object at the time of shipment when the on-vehicle camera is mounted and adjusted accurately on the vehicle, the distortion data is compared with the distortion data obtained from the image captured during travel. Then, the positional deviation is detected, and the positional deviation amount is calculated.
Specifically, the strain-transmitting object provided in the vehicle does not cause a positional shift with respect to the vehicle over time, and the strain-transmitting object is not a parallel plate and is usually formed in a curved surface shape having different curvatures in the vertical direction and the horizontal direction. In addition, a position shift position of the in-vehicle camera with respect to the vehicle is detected by utilizing the existence of distortion due to manufacturing variation.
Further, the present invention is not limited to the displacement of the camera mounting position with respect to the “vehicle”. When an image is acquired by the camera, a change in the imaging position of the subject on the camera image plane occurs between the subject and the camera. This can be applied when there is an object with distortion that occurs.
[第1の実施形態]
まず、第1の実施形態として、車載カメラとして単眼カメラを車体に取り付けた場合の、取り付け位置ずれ検知方法及びその装置について説明する。
単眼カメラとしてピンホールカメラを例としてあげ、入射光の直進性を低下させる歪みのある透過物体としてフロントガラスが前方にあるカメラとする。
ピンホールカメラによって直線状の物体を撮像した場合は、通常は直線として撮像される。
しかしながら、カメラと直線状の物体との間に、フロントガラスなどの歪みのある透過物体があると、直線を撮像しても直線にはならない。
例えば、カメラと直線状物体との間に、一般的なフロントガラスが存在する場合と、存在しない場合とでは、カメラとセンサ上の結像位置は、0.003mm程度変化し、結像位置の変化量は、フロントガラスとカメラ位置によって変化することが分かっている。
結像位置0.003mmの変化は、画素ピッチが6μmのセンサの場合、0.5pixelに相当する。この結像位置の変化は、基線長が16cm、焦点距離が8mmのステレオカメラの場合、19.5m先のチャートを1.3m以上異なる距離と測距してしまう原因となるのである。
本実施例は、このような、フロントガラスの歪みに起因する結像位置の変化を利用して、車載カメラの取り付け位置の位置ずれを検知するのである。
フロントガラスが歪んでいることで、車載カメラの位置ずれがより増幅されるため、位置ずれを検知しやすくなる。
[First Embodiment]
First, as a first embodiment, an attachment position deviation detection method and apparatus when a monocular camera is attached to a vehicle body as an in-vehicle camera will be described.
A pinhole camera is taken as an example of a monocular camera, and a camera with a windshield in front is used as a distorted transmissive object that reduces the straightness of incident light.
When a linear object is imaged by a pinhole camera, the image is usually captured as a straight line.
However, if there is a distorted transparent object such as a windshield between the camera and the linear object, the straight line is not captured even if it is captured.
For example, the image formation position on the camera and the sensor changes by about 0.003 mm between the case where a general windshield is present and the case where there is no general windshield between the camera and the linear object. It has been found that the amount of change varies with the windshield and camera position.
The change in the image formation position of 0.003 mm corresponds to 0.5 pixel in the case of a sensor having a pixel pitch of 6 μm. This change in the imaging position causes the distance between the chart 19.5 m ahead and a distance different by 1.3 m or more in the case of a stereo camera having a base length of 16 cm and a focal length of 8 mm.
In the present embodiment, the displacement of the mounting position of the in-vehicle camera is detected by using such a change in the imaging position caused by the distortion of the windshield.
Since the positional deviation of the in-vehicle camera is further amplified due to the distortion of the windshield, the positional deviation can be easily detected.
図1は、第1の実施形態に係るカメラ装置の構成を示す図である。
図1に示すカメラ装置は、レンズ及び撮像素子(センサ)を含むカメラユニット10と、制御部11と、を備えており、制御部11は、センサ画像が入力となり、各カメラの用途に合わせた画像処理を行う画像処理部12と、駐車支援、測距、白線検知などの各目的に即した認識を行う認識部13と、カメラユニット10の位置ずれ検知を行う位置ずれ検知部14と、認識部13による認識結果及び位置ずれ検知部14による検知結果が入力され、入力されたこれらの結果を図示しないディスプレイに表示又は音によって運転者に知らせる表示・警報制御部15と、を備えている。
認識部13による認識結果、位置ずれ検知部14による検知結果は、ヘッドアップディスプレイにより表示するなど、様々な態様が考えられる。
FIG. 1 is a diagram illustrating a configuration of a camera device according to the first embodiment.
The camera device shown in FIG. 1 includes a
Various modes are conceivable, such as displaying the recognition result by the
また、認識結果や検知結果を、ディスプレイなどに表示したり警報したりするのではなく、ブレーキ制御やドアのロックなどの制御を行う際の情報として活用するようにしてもよい。
位置ずれ検知部14は、カメラユニット10によるセンサ出力画像を入力として、画像中の特徴点をセンサ上での座標として出力する特徴点抽出部20と、特徴点抽出部20により抽出された特徴点座標を入力とし、フロントガラスとカメラユニット10との相対位置ずれ量候補値を算出する位置ずれ量算出部22と、位置ずれ量算出部22で求めた相対位置ずれ量候補値を入力とし、カメラユニット10の取り付け位置がフロントガラスに対してずれたか否かの判定を行い、その情報を表示・警報制御部15に出力する位置ずれ判定部24と、を備えている。
また、図1に示す位置ずれ検知部14は、特徴点抽出部20、位置ずれ量算出部22、位置ずれ判定部24のそれぞれ処理に用いるパラメータやデータを格納したメモリ(ROM)21、23、25を備えているが、これらのメモリは、各処理部によって共有される単一のメモリで合っても良い。
また、制御部11による一部又は全部の処理は、ASICなどのハードウェアによって実行されてもよいし、制御部11が有するCPU(Central Processing Unit)によるソフトウェア処理によって実行されてもよい。
In addition, the recognition result and the detection result may be used as information when performing control such as brake control and door lock, instead of displaying on a display or alarming.
The positional
Further, the
Further, part or all of the processing by the control unit 11 may be executed by hardware such as ASIC, or may be executed by software processing by a CPU (Central Processing Unit) included in the control unit 11.
次に、位置ずれ検知部14における各処理部について説明する。
図2は、第1の実施形態にかかる位置ずれ検知処理を説明するフローチャートである。
また、図3は、第1の実施形態にかかる位置ずれ検知処理を詳細に説明する図である。
図2、図3を用いて、第1の実施形態に係る位置ずれ検知処理を説明する。
まず、図2のステップS51において、特徴点抽出部20は、カメラユニット10から図3(a)に示すような、直線状の物体Bを含む複数フレームの風景画像Aを取得する。
次に、ステップS52において、風景画像(入力画像)Aを二値化して図2(b)のような画像A’を得る。
次に、ステップS53において、図2(b)の画像から、直線状の物体(被写体)B’と背景とのエッジにおける各座標(pi,qi)を特徴点座標(比較特徴点情報)として抽出する。
そして、特徴点抽出部20は、抽出した特徴点を、センサ(撮像素子)上での座標として位置ずれ量算出部22に出力する。
なお、入力画像Aは、車両の走行中に撮影されたものでも、停止中に撮影されたものでもかまわない。
走行中に撮影した画像を用いる場合は、周囲の風景から直線性のある被写体(例えば、信号のポールや横断歩道の模様、白線、車両のエッジ、建物のエッジなど)の直線部分を検出する。特徴点はエッジ抽出とハフ変換を組み合わせて検出することができる。
Next, each processing unit in the
FIG. 2 is a flowchart for explaining misalignment detection processing according to the first embodiment.
FIG. 3 is a diagram for explaining in detail the misregistration detection process according to the first embodiment.
The misregistration detection process according to the first embodiment will be described with reference to FIGS.
First, in step S51 of FIG. 2, the feature point extraction unit 20 acquires a plurality of frames of landscape images A including a linear object B as shown in FIG.
Next, in step S52, the landscape image (input image) A is binarized to obtain an image A ′ as shown in FIG.
Next, in step S53, the coordinates (pi, qi) at the edge of the linear object (subject) B ′ and the background are extracted as feature point coordinates (comparison feature point information) from the image of FIG. To do.
Then, the feature point extraction unit 20 outputs the extracted feature points to the positional deviation amount calculation unit 22 as coordinates on the sensor (imaging device).
The input image A may be taken while the vehicle is running or may be taken while the vehicle is stopped.
In the case of using an image taken while traveling, a straight line portion of a subject having linearity (for example, a signal pole or a crosswalk pattern, a white line, a vehicle edge, a building edge, or the like) is detected from surrounding scenery. Feature points can be detected by combining edge extraction and Hough transform.
また、特徴点抽出を行う被写体を認識するための辞書データを予めメモリ21などに記憶しておいてもよい。
また、入力画像として停止中に得られる画像を用いる状況としては、例えば車検などの定期検査などの場合が考えられる。
この場合は、カメラの撮像画角範囲内に特徴点が直線状に並んでいるチャートを配置し、画像を取得し、これらの特徴点を検出する事が考えられる。
走行中に位置ずれを検知したいのか、定期検査などで位置ずれが起きていないかを確認したいのか、使用目的に応じてどのような特徴点を抽出するようにするかを決め、メモリ21に記憶する情報を決定する。
なお、直線状の物体Bが、1フレームのみに撮像される可能性は極めて低いため、1フレームのみにおいて風景画像の特徴点(直線状物体Bのエッジ)が抽出可能であった場合には、特徴点抽出部20から後述する位置ずれ量算出部22への特徴点座標の出力は行わないようにすればよい。
In addition, dictionary data for recognizing a subject on which feature points are to be extracted may be stored in advance in the
In addition, as a situation where an image obtained during a stop is used as an input image, for example, a periodic inspection such as an automobile inspection can be considered.
In this case, it is conceivable to arrange a chart in which feature points are arranged in a straight line within the imaging field angle range of the camera, acquire an image, and detect these feature points.
Whether to detect misalignment during traveling, whether to check for misalignment in periodic inspections, etc., decides what feature points should be extracted according to the purpose of use, and stores them in the
In addition, since it is very unlikely that the linear object B is captured in only one frame, when the feature point of the landscape image (the edge of the linear object B) can be extracted in only one frame, What is necessary is just not to perform the output of the feature point coordinate from the feature point extraction unit 20 to the positional deviation amount calculation unit 22 described later.
次に、ステップS54において、位置ずれ量算出部22は、特徴点抽出部20で抽出された特徴点座標を入力とし、フロントガラスとカメラの相対位置ずれ量の候補値を出力する。
そのために、メモリ23には出荷初期データとして、基準特徴点座標データ(xi,yi)が記憶されている(後述する)。
この基準特徴点データは、カメラユニットに位置ずれがない状態で直線状の検査チャートを撮影した場合に、フロントガラスの歪みのみによって生じた位置ずれを含む、検査チャート上の座標である。
特徴点座標としてセンサ縦方向の直線を使用する場合には、位置ずれ量算出部22は、前述した各特徴点座標(pi,qi)と、各基準特徴点座標(xi,yi)について、Σ(xi−pi)を計算し、各フレームについてx座標の差が最小のもの(図3(c))を、その画像から算出されたフロントガラスとカメラの相対位置ずれ量の候補値とする(図3(d))。
そして、ステップS55において、この中から閾値を超えた相対位置ずれ量候補があればフロントガラスとカメラとの間に位置ずれが発生していると判断する(ステップS56)。ない場合は、位置ずれなしを判断する(ステップS57)。
また、温度による歪み量変化を求めている場合には、上述したずれ量とともに温度情報を出力する。
Next, in step S54, the positional deviation amount calculation unit 22 receives the feature point coordinates extracted by the feature point extraction unit 20, and outputs a candidate value for the relative positional deviation amount between the windshield and the camera.
For this purpose, reference feature point coordinate data (xi, yi) is stored in the memory 23 as initial shipment data (described later).
The reference feature point data is coordinates on the inspection chart including a positional deviation caused only by the distortion of the windshield when a linear inspection chart is photographed with no positional deviation in the camera unit.
When a straight line in the sensor vertical direction is used as the feature point coordinates, the positional deviation amount calculation unit 22 calculates Σ for each feature point coordinate (pi, qi) and each reference feature point coordinate (xi, yi) described above. (Xi-pi) is calculated, and the one with the smallest difference in the x-coordinate for each frame (FIG. 3C) is set as a candidate value for the amount of relative displacement between the windshield and the camera calculated from the image ( FIG. 3 (d)).
In step S55, if there is a relative positional deviation amount candidate exceeding the threshold value from among these, it is determined that a positional deviation has occurred between the windshield and the camera (step S56). If not, it is determined that there is no displacement (step S57).
In addition, when a change in distortion amount due to temperature is obtained, temperature information is output together with the above-described deviation amount.
図4は、位置ずれ量算出部において相対位置ずれの候補値を算出する方法を詳細に説明する図である。
図4(a)に示す風景画像において、特徴点座標Σ(xi−pi)の点群を全て含むような(pmax−pmin)×(qmax−qmin)の画素エリアを設定する(図4(b))。
初期データとしては、メモリ23に格納している複数のずれ状態データから、上述した画素エリアの範囲を切り出す(図4(c)のずれ状態1、ずれ状態2)。
そして、切り出した範囲内で、図4(a)に示す風景画像のy座標で、Σ(xi−pi)を複数のずれ状態データに対して行い、最小となるものを、ある風景画像から求められたずれ状態とする。
後段の位置ずれ判定部24には、ずれ状態だけではなく、判定に使用したエリア情報をも出力する。位置ずれ判定部24では、位置ずれ量算出部22で求めた相対位置ずれ量候補値を入力とし、カメラユニット10の取り付け位置がフロントガラスに対してずれている旨の判定情報を表示・警報制御部15に出力する。
位置ずれ判定部24は、入力された相対位置ずれ量候補値から、フロントガラスとカメラユニット10の位置ずれ量を横軸としてヒストグラムを作成する。
ここで、特徴点抽出誤差などが含まれるため、図3(d)で説明したように、判定可能閾値をもうけ、その閾値を超えた場合、フロントガラスとカメラの位置ずれが起きていると判定する。
FIG. 4 is a diagram for explaining in detail a method for calculating a candidate value for relative displacement in the displacement amount calculation unit.
In the landscape image shown in FIG. 4A, a pixel area of (p max −p min ) × (q max −q min ) that includes all the point groups of the feature point coordinates Σ (xi−pi) is set ( FIG. 4 (b)).
As the initial data, the range of the pixel area described above is cut out from the plurality of shift state data stored in the memory 23 (shift
Then, within the cut out range, Σ (xi−pi) is performed on a plurality of shift state data at the y coordinate of the landscape image shown in FIG. 4A, and a minimum one is obtained from a certain landscape image. It is set as the shifted state.
Not only the displacement state but also the area information used for the determination is output to the subsequent position
The positional
Here, since feature point extraction errors and the like are included, as described with reference to FIG. 3D, when a threshold that can be determined is set and the threshold is exceeded, it is determined that the positional deviation between the windshield and the camera has occurred. To do.
図5は、図4の処理で得られたずれ状態候補データのヒストグラムを示す図である。
図5において、横軸はずれ状態(ずれ量)、縦軸は、頻度を示している。
このヒストグラムは、必ずしも、正規分布のようなデータになるとは限らない。
それは、図4(c)におけるずれ状態1、ずれ状態2の比較から分かるように、画像領域によっては、フロントガラスによる直線の歪み方が類似している部分と、類似していない部分が存在しているからである。
なお、図4(c)では、類似している箇所は、画面中央領域、類似していない箇所は、画面両端領域である。
図4(a)に示した風景画像から抽出される直線状の物体が、画面の特定領域に集中してしまう場合、全く異なるずれ状態であっても2つの状態がずれ状態候補としてあがってしまう。
FIG. 5 is a diagram showing a histogram of deviation state candidate data obtained by the processing of FIG.
In FIG. 5, the horizontal axis indicates a shift state (shift amount), and the vertical axis indicates the frequency.
This histogram is not necessarily data like a normal distribution.
As can be seen from the comparison between the
In FIG. 4C, the similar part is the screen center area, and the dissimilar part is the screen both end area.
When the linear object extracted from the landscape image shown in FIG. 4A concentrates on a specific area of the screen, even if the displacement state is completely different, the two states will appear as displacement state candidates. .
そこで、図5に示すように、ヒストグラムの頻度に閾値を設け、ある頻度を超えた画面領域にて重み付けをする。
重み付け位置をあるずれ状態の頻度が超えたら、その頻度と近いずれ状態に着目する。
図5では、ずれ状態1、2、3を注目するずれ量とする。
ずれ状態の初期データを比較し、ずれ状態1、2、3を見分けるのに適したエリアを探索する(図6の枠40、41で示すエリア)。
同じy座標で各ずれ状態のx座標の差分を求め、最も大きなエリアを特徴エリアとしてもよい。
全てのずれ状態の特徴エリアを予め算出しておいても良いが、そのずれ状態同士を比較するかによって、エリア位置が変化するととともに、初期に記憶されている状態は多数あるため、ある程度、候補が絞られてからエリア探索する例を上記に挙げた。
特徴エリアに風景画像の特徴点がある場合は、他のエリアよりも重みをつけてヒストグラムを作成する。
図7に示したヒストグラムでは、重み付けをすることによって、ずれ状態1、2、3の中でも差がつくようになる。
図7のヒストグラムにおいて、ずれ量が判定可能な閾値を超え、かつ他のずれ量候補との差がある基準値以上であれば、その時点でずれ量を決定することが出来る。
Therefore, as shown in FIG. 5, a threshold value is provided for the frequency of the histogram, and weighting is performed on a screen area exceeding a certain frequency.
When the frequency of a certain deviation state exceeds the weighted position, attention is paid to the frequency and the near future state.
In FIG. 5, the shift states 1, 2, and 3 are the shift amounts to be noticed.
The initial data of the shift state is compared, and an area suitable for distinguishing the shift states 1, 2, and 3 is searched (areas indicated by
It is also possible to obtain the difference between the x-coordinates of each shift state with the same y-coordinate, and use the largest area as the feature area.
The feature areas of all the deviation states may be calculated in advance, but the area position changes depending on whether the deviation states are compared with each other, and there are many states that are initially stored. An example of searching for an area after narrowing down is given above.
If there is a feature point of a landscape image in the feature area, a histogram is created with a weight more than other areas.
In the histogram shown in FIG. 7, a difference is generated even in the shift states 1, 2, and 3 by weighting.
In the histogram of FIG. 7, if the deviation amount exceeds a threshold that can be determined and the difference from other deviation amount candidates is equal to or larger than a reference value, the deviation amount can be determined at that time.
図8は、第1の実施形態において、歪みデータの初期値(基準特徴座標データ)を取得する処理を説明するフローチャートである。
(1)検査チャートの画像を取得する(ステップS101)
図9は初期データ(歪みデータの初期値)を取得する際の、カメラ、検査チャート及び歪み透過物体の配置関係を示した図である。また、図10は、初期データの取得方法について説明した図である。
なお、カメラユニット10は歪みのないピンホールカメラであり、車両に対する取り付けの調整が終わっている状態である。
本実施形態は、この理想の取り付け初期位置からのずれを検知するものである。
図9では、カメラユニット10の前方に歪み透過物体50が設置されている例を示しているが、前方以外に歪み透過物体があってもよい。
例えば、撮像する対象(風景やヒト)からの光線がカメラ光学系に入射するまでの光路上に、車両に対して経時で位置変化を起こさない歪み透過物体がある状態であればよい。
検査チャート55としては、直線性を有する(直線状の)パターンを用意することが必要とされる。
検査チャート55の模様に直線性がある場合、この検査チャート55と車両100、もしくは検査チャート55とカメラユニット10の位置を精度よく設置する必要はない。
検査チャートを表示するディスプレイ上には、図10(a)に示すような白と黒の直線エッジ画像(パターン)が表示されており、その画像のエッジ位置を1pixelずつ移動させるなどして、多くの直線データの歪み画像データを取得する事が望ましい。検査チャートは縦の直線だけでなく、横回転させるなどして、なるべく多くのデータを取得する。
また、測定環境の温度を変化させ、各温度の検査チャートの画像を取得してもよい。
FIG. 8 is a flowchart for describing processing for acquiring an initial value (reference feature coordinate data) of distortion data in the first embodiment.
(1) Obtaining an image of an inspection chart (step S101)
FIG. 9 is a diagram showing an arrangement relationship between the camera, the inspection chart, and the strain transmitting object when initial data (initial value of strain data) is acquired. FIG. 10 is a diagram illustrating a method for acquiring initial data.
In addition, the
In the present embodiment, a deviation from the ideal initial mounting position is detected.
Although FIG. 9 shows an example in which the
For example, it suffices if there is a distorted transmission object that does not change its position with respect to the vehicle over time on the optical path until a light beam from an object to be imaged (landscape or human) enters the camera optical system.
As the
When the pattern of the
A white and black straight edge image (pattern) as shown in FIG. 10A is displayed on the display for displaying the inspection chart, and the edge position of the image is moved by one pixel at a time. It is desirable to obtain distortion image data of the straight line data. The inspection chart acquires as much data as possible by rotating not only the vertical straight line but also horizontally.
Moreover, the temperature of the measurement environment may be changed to obtain an image of the inspection chart at each temperature.
(2)画像を二値化する(ステップS102)
直線状の被写体(検査チャート)は、図10(b)に示すように、歪み透過物体50によって歪んで撮像される。その歪み座標を求めるために、センサ画像を二値化する(図10(c))。
(3)二値化した画像から(基準)特徴点データ(xi,yi)を抽出する(ステップS103)
二値化した画像から図10の例のように特徴点データ(基準特徴点)を取得する。
図10では縦方向の直線を例としてあげているが、近似直線はなるべく多くの種類の傾きを求めた方が精度よく位置ずれを検知できる。
走行中に直線状の特徴点が得られる領域においては、同じセンサ領域で近似直線の傾きの種類が多くとれるようにした方がよい。
検査チャート55はカメラユニット10に対して特に位置の規定などを行わないとしているので特徴点の結像する理想座標はないが、初期位置からのずれを検出したいので、理想座標はなくてもよい。
(2) Binarize the image (step S102)
A straight subject (inspection chart) is distorted and imaged by the
(3) Extract (reference) feature point data (xi, yi) from the binarized image (step S103)
Feature point data (reference feature points) is acquired from the binarized image as in the example of FIG.
In FIG. 10, a straight line in the vertical direction is taken as an example, but the displacement can be detected with higher accuracy by obtaining as many types of inclination as possible in the approximate straight line.
In a region where a linear feature point is obtained during traveling, it is preferable that many types of inclination of the approximate straight line can be obtained in the same sensor region.
Since the
図11は、特徴点が1ラインの直線状になるような検査チャートを前方に設置してピンホールカメラにより撮影したときに、歪み透過物体がある場合と無い場合の画素の状態を示した図である。
カメラユニット10と検査チャート55の位置は動かしていない。
歪み透過物体50なしの状態では、直線状の被写体は、センサ座標上でも直線状に結像されるが、歪み透過物体がある場合は、直線状に結像されない。
歪み透過物体50は、通常、縦方向と横方向とで曲率が異なる曲面形状で形成されており、かつ製造ばらつきが存在し、歪み透過物体に入射する光線と出射する光線の角度は僅かに異なる。
従って、カメラに入射する光線の角度は、歪み透過物体50の有無によって異なり、カメラのセンサ上での結像位置が変化する。
FIG. 11 is a diagram showing the state of a pixel when a distortion transmission object is present and when there is a distortion transmission object when an inspection chart with a feature point having a linear shape is set in front and photographed by a pinhole camera. It is.
The positions of the
In the state without the
The
Therefore, the angle of the light ray incident on the camera varies depending on the presence or absence of the
結像位置変化量はフロントガラスのどの領域を光線が通過したかにより変化するため、車両と歪み透過物体50との相対位置が経時でずれないとすれば、結像位置変化量の変化から、歪み透過物体50とカメラユニット10との相対位置関係がずれたか否かがわかり、最終的に車両とカメラの相対位置関係の変化がわかる。
(4)歪み透過物体とカメラの相対位置関係及び、基準特徴点データ(xi,yi)の値を記憶する(ステップS104)。
ステップS103で求めた特徴点データ(xi,yi)と、そのときの歪み透過物体50とカメラユニット10との相対位置関係をメモリ(図1のメモリ21)などに記憶する。
歪み透過物体50とカメラユニット10との相対位置関係として記憶するデータとしては、車体にカメラを設置して位置を調整した後の初期状態をゼロとし、調整後のカメラの車両に対する設置位置(絶対値)を精度よく算出する必要はない。
Since the imaging position change amount changes depending on which region of the windshield the light beam passes, if the relative position between the vehicle and the
(4) The relative positional relationship between the distorted transmission object and the camera and the value of the reference feature point data (xi, yi) are stored (step S104).
The feature point data (xi, yi) obtained in step S103 and the relative positional relationship between the
As data to be stored as a relative positional relationship between the
本実施形態によっては、カメラ前方に設置してある歪み透過物体(フロントやリアのウィンドウガラスなど)の歪みに起因する、カメラ像面上での結像位置ずれを利用するので、以下のことを実現できるようになる。
すなわち、走行中に、車両に対してカメラの取り付け位置がずれたと検知できると、例えば認識結果からブレーキ制御やハンドル制御を行なうようなカメラでは、運転者に取り付け位置ずれによって認識結果の信頼性が低下したと警告し、ブレーキ制御やハンドル制御を解除する事ができる。
また、車両に対するカメラの取り付け位置ずれ量が算出できると、カメラの取り付け位置を微調整できる取り付け機構(もしくは取り付け部品を交換)によってカメラの取り付け位置を補正できるとともに、取り付け位置を調整しなおしても初期の出荷状態から変化してしまっているのでカメラを修理にださなければいけないという判定をカメラ使用者に警告することもできる。
Depending on the present embodiment, the imaging position shift on the camera image plane caused by distortion of a distortion transmission object (front or rear window glass, etc.) installed in front of the camera is used. Can be realized.
That is, if it can be detected that the camera mounting position has shifted with respect to the vehicle during driving, for example, in a camera that performs brake control or steering wheel control based on the recognition result, the reliability of the recognition result may be reduced by the driver due to the mounting position shift. It can warn that it has fallen, and can release brake control and steering wheel control.
In addition, if the amount of camera mounting position deviation relative to the vehicle can be calculated, the camera mounting position can be corrected by a mounting mechanism that can finely adjust the camera mounting position (or replacement of mounting parts), and the mounting position can be adjusted again. The camera user can be warned of the determination that the camera must be repaired because it has changed from the initial shipping state.
[第2の実施形態]
上記に説明した第1の実施形態は、単眼カメラに関するものであったが、下記に説明する第2の実施形態は、被写体までの距離を測定するステレオカメラの車両に対する取り付け位置ずれ量、及びカメラ同士の相対位置関係のずれ量を算出する装置に関するものである。
なお、歪み透過物体としては、第1の実施形態と同様にフロントガラスを用いることが出来る。
なおここで、ステレオカメラ装置とは基線長離れた位置に複数のカメラを配置し、カメラ間での結像位置の差(視差)を検出して被写体までの距離を算出する装置である。
ステレオカメラ装置を車両に取り付ける際、経時でのステレオカメラ装置全体の取り付け位置ずれとカメラ間での相対位置ずれを検出する必要がある。
ステレオカメラ全体での取り付け位置ずれが発生すると、被写体までの距離が変わってしまい、ブレーキ制御、ハンドル制御などに使用されている場合には取り付け位置ずれによる算出距離の精度劣化は重大な事故の原因となる。
また、ステレオカメラ装置を構成するカメラ間での相対位置ずれが生じると(特に視差が変化するようなカメラの相対位置ずれ)、距離精度の劣化の大きな要因となるため、ずれの早期発見が重要である。
ステレオカメラによって高精度に測距する場合には、レンズや製造ばらつきによる歪みを補正した後に相関演算を行う必要がある。
[Second Embodiment]
The first embodiment described above relates to a monocular camera, but the second embodiment described below is a mounting position shift amount of a stereo camera for measuring a distance to a subject and a camera. The present invention relates to an apparatus for calculating a shift amount of a relative positional relationship between each other.
As the strain transmission object, a windshield can be used as in the first embodiment.
Here, the stereo camera device is a device in which a plurality of cameras are arranged at positions apart from the base line length, and a distance to the subject is calculated by detecting a difference in image formation position (parallax) between the cameras.
When the stereo camera device is attached to the vehicle, it is necessary to detect an attachment position shift of the entire stereo camera device and a relative position shift between the cameras over time.
If the mounting position shift in the entire stereo camera occurs, the distance to the subject will change, and when used for brake control, steering wheel control, etc., the accuracy of the calculated distance due to the mounting position shift will cause a serious accident. It becomes.
In addition, if a relative position shift occurs between the cameras that make up the stereo camera device (particularly the relative position shift of the camera that changes the parallax), it will be a major factor in the deterioration of distance accuracy, so early detection of the shift is important. It is.
When ranging with high accuracy using a stereo camera, it is necessary to perform correlation calculation after correcting distortion caused by lens and manufacturing variations.
図12は、第2の実施形態に係るステレオカメラ装置の構成を示す図である。
図12に示すステレオカメラ装置は、それぞれレンズ及び撮像素子(センサ)を含む左右のカメラユニット60L、60Rを備えたステレオカメラユニット60と、及び制御部60aを備えている。
制御部60aは、位置ずれ検知部61と、両カメラユニットのセンサ画像が入力となり、各カメラの歪み補正処理を行う前処理部62と、後述する相関演算部64と、駐車支援、測距、白線検知などの各目的に即した認識を行う認識部66と、認識部66による認識結果及び位置ずれ検知部61による検知結果が入力され、入力されたこれらの結果を図示しないディスプレイに表示又は音によって運転者に知らせる表示・警報制御部75と、を備えている。
FIG. 12 is a diagram illustrating a configuration of a stereo camera device according to the second embodiment.
The stereo camera device shown in FIG. 12 includes a
The
また、位置ずれ検知部61は、ステレオカメラユニット60に含まれるカメラユニット60L、60Rによるセンサ出力画像を入力として、画像中の特徴点をセンサ上での座標として出力する特徴点抽出部69と、特徴点抽出部69により抽出された特徴点座標を入力とし、フロントガラスと各カメラユニット60L、60Rとの相対位置ずれ量候補値を算出する位置ずれ量算出部71と、位置ずれ量算出部71で求めた相対位置ずれ量候補値を入力とし、ステレオカメラユニット60(カメラユニット60L、60R)の取り付け位置がフロントガラスに対してずれたか否かの判定を行い、その情報を表示・警報制御部15に出力する位置ずれ判定部73と、を備えている。
The
前処理部62が行う歪み補正処理の方法としては、補正前後の変換先の情報をもつLUT(ルックアップテーブル)を使用してもよいし、歪み多項式を利用してもよい。
LUTでは大きな記憶容量が必要なため、歪みを多項式で表す方が望ましいと考える。歪み補正式としては例えば(式1)に示した高次の多項式が考えられる。
・・・(式1)
式1において、δx、δyはあるレンズのある点のx方向、y方向の歪み量であり、x,yは理想正規化座標、f1,f2…,fk、g1,g2…,gkはある温度における歪み係数である。
これらの歪み係数を求めるためにx,y,δx,δyの値を既知データとし、画像全体でこの歪み式を満たすような歪み係数の最適化を行うなどが考えられる。これらの歪み係数もしくはLUTデータはメモリ63に予め記憶されている事が望ましい。
As a distortion correction processing method performed by the pre-processing unit 62, an LUT (lookup table) having conversion destination information before and after correction may be used, or a distortion polynomial may be used.
Since a large storage capacity is required in the LUT, it is preferable that the distortion is expressed by a polynomial expression. As the distortion correction formula, for example, a high-order polynomial shown in (Formula 1) can be considered.
... (Formula 1)
In
In order to obtain these distortion coefficients, the values of x, y, δx, δy are known data, and optimization of the distortion coefficients so as to satisfy the distortion equation in the entire image can be considered. These distortion coefficients or LUT data are preferably stored in the memory 63 in advance.
また、歪みとして認識するのはカメラユニットを構成するレンズの歪みでもよいし、フロントガラスの歪みを含んでも良い。
フロントガラスの歪みを含んだ歪み多項式を求める方法として例えば、車両に対してカメラを取り付けた後に調整を行い、その後に検査チャートを規定の設置位置に設置し、その検査チャートにおける特徴点の実測座標と、理想座標の関係から歪み多項式を求める方法があげられる。
Further, the distortion recognized as the distortion of the lens constituting the camera unit or the distortion of the windshield may be included.
As a method for obtaining the distortion polynomial including the distortion of the windshield, for example, adjustment is performed after the camera is mounted on the vehicle, and then the inspection chart is installed at the specified installation position, and the actual coordinates of the feature points in the inspection chart And a method for obtaining a distortion polynomial from the relationship of ideal coordinates.
本実施形態では、カメラ取り付け調整後にフロントガラスの歪みも含めた歪み補正を行うものとする。
また、メモリ63には歪み係数の他に、歪み補正処理に使用するカメラの焦点距離や、画素ピッチなどの情報を記憶しておく。
前処理部62により歪み補正された画像データは、後段の特徴点抽出部69と相関演算部64に出力される。
特徴点抽出部69は、上述した第1の実施形態で説明した処理を行うカメラ間の相対位置ずれ量およびカメラ全体の取り付け位置ずれを算出するので、2つのカメラの画像データを特徴点抽出部69に入力する。
In this embodiment, it is assumed that distortion correction including distortion of the windshield is performed after the camera mounting adjustment.
In addition to the distortion coefficient, the memory 63 stores information such as the focal length of the camera used for the distortion correction process and the pixel pitch.
The image data whose distortion has been corrected by the preprocessing unit 62 is output to the feature
Since the feature
ステレオカメラユニット60において、2つのカメラユニット60L、60Rが一体となってずれる機構となっており、二つのカメラの相対位置ずれは検出せずにカメラ全体での取り付け位置ずれのみを検出する場合は、どちらか一方のカメラの画像データのみ特徴点抽出部69に入力されればよい。
ステレオカメラユニット60全体の取り付け位置ずれを検知する処理は、第1の実施形態で述べた方法と同じであるので、カメラ間の相対位置ずれ量を検出する場合について説明する。
位置ずれ量算出部71は第1の実施形態(図1)の位置ずれ量算出部22と同様の構成である。
メモリ72には、ステレオカメラユニット60を取り付けて調整をした際に取得した初期データが記憶されている。
When the
Since the process of detecting the mounting position shift of the entire
The positional deviation amount calculation unit 71 has the same configuration as the positional deviation amount calculation unit 22 of the first embodiment (FIG. 1).
The
ここで、第2の実施形態における初期データの取得方法について説明する。
図13は、第2の実施形態において、歪みデータの初期値を取得する処理を説明するフローチャートである。
(1)検査チャートの画像を取得する(ステップS201)
図14は、第2の実施形態において、歪みデータの初期データを取得する際の、ステレオカメラユニット60と、検査チャート55と、歪み透過物体50と、の配置関係を示した図である。
ステレオカメラユニット60は、フロントガラス(歪み透過物体)50の歪みを含んだ歪みが補正されたカメラである。
検査チャート55としては直線性を有する(直線状の)パターンを用意するが、フロントガラス50の歪みを含んだ歪み補正が行われているステレオカメラであるので、取り付け位置ずれが起きていない場合には、検査チャート55の直線は、直線として撮像される。
Here, an initial data acquisition method according to the second embodiment will be described.
FIG. 13 is a flowchart for describing processing for acquiring an initial value of distortion data in the second embodiment.
(1) An image of an inspection chart is acquired (step S201).
FIG. 14 is a diagram illustrating an arrangement relationship among the
The
As the
ここでは、ステレオカメラユニット60を構成する2つのカメラユニット60L、60Rにより画像を取得する。
また、例えば図15に示したように、検査チャート55の代わりに、発光体56を用いても良い。
発光体56を用いる場合には、カメラに対する入射角を変え、その角度はピンホールカメラの像面上で、歪みのある透過物体がない場合に直線状に結像するようにする。また、発光体の光は広がりのない光である必要がある。
(2)画像を二値化する(ステップS202)
第1の実施形態と同様である。
(3)二値化した画像に対して特徴点データ(xi,yi)を抽出する(ステップS203)
これも、第1の実施形態と同様である。
Here, an image is acquired by the two
Further, for example, as shown in FIG. 15, a
When the
(2) Binarize the image (step S202)
This is the same as in the first embodiment.
(3) Feature point data (xi, yi) is extracted from the binarized image (step S203).
This is also the same as in the first embodiment.
(4)歪み透過物体と各カメラユニットの相対位置関係及び、特徴点データ(xi,yi)の値を記憶する(ステップS204)
基本的に、第1の実施形態と同様である。
初期の位置ずれが起きていない場合には特徴点データは直線状だが、ずれ量算出をするために追加された、後述するステレオカメラユニット60と歪み透過物体50との相対位置を変化させた場合には、被写体からの光線の光路が変わる。
(5)歪み透過物体とステレオカメラユニットの相対位置関係を変更する(ステップS205)
ステレオカメラユニット60の設置位置が初期状態からずれたか否かだけでなく、ずれ量を判断する際に必要なステップである。
ステレオカメラユニット60の取り付け位置が経時で最大にずれ得ると見積もられる範囲、または補正機構がある場合にはその補正許容範囲に応じて位置変更をすればよい。
ステレオカメラユニット60と歪み透過物体(フロントガラス50)との相対位置を変更すると、被写体(チャート55)からの光線が歪み透過物体を透過する領域が変わるので、ステップS203の特徴点データ(xi,yi)の値が変わる。
(4) Store the relative positional relationship between the strain transmission object and each camera unit and the value of the feature point data (xi, yi) (step S204).
This is basically the same as in the first embodiment.
When the initial position deviation does not occur, the feature point data is linear, but when the relative position between a stereo camera unit 60 (described later) and the
(5) The relative positional relationship between the distortion transmission object and the stereo camera unit is changed (step S205).
This step is necessary not only for determining whether the installation position of the
The position of the
When the relative position between the
相対位置を変更する際には歪み透過物体50を動かしても、ステレオカメラユニット60を動かしてもよいが、車体に歪み透過物体が取り付けられている状態を想定すると、車両におけるカメラ取り付け部に並進機構を設けたり、ステレオカメラユニットにおいて各カメラユニットを回転させる回転機構を設けておけば、取り扱いがし易いと考えられる。
もしくは、カメラ取り付け部に予め何種類かの取り付け部品を用意し、それらの部品を変更した際のデータを取得してもよい。
相対位置関係の変更としては、カメラ取り付け調整後のカメラ位置をゼロとしたときのx,y,z軸並進、x,y,z軸回転があり、複数のカメラユニット(60L、60R)の相対位置関係は変えずに、ステレオカメラユニット全体の歪み透過物体に対する位置を変更する(図16(a))データ取得方法、もしくは、各カメラユニットの相対位置、ステレオカメラユニット全体の位置のいずれも変更する(図16(b))データ取得方法が考えられる。
なお、位置ずれ判定部73は、位置ずれ量算出部71から入力されるカメラ60Rとカメラ60Lそれぞれの特徴点データ(xi,yi)と、メモリ74に格納されたカメラユニット60Rとカメラユニット60Lの初期データとを比較し、類似データを探してずれ量を検出する。
When changing the relative position, the
Alternatively, some types of attachment parts may be prepared in advance in the camera attachment unit, and data when the parts are changed may be acquired.
Changes in the relative positional relationship include x, y, z axis translation and x, y, z axis rotation when the camera position after camera attachment adjustment is zero, and the relative relationship between the plurality of camera units (60L, 60R). The position of the entire stereo camera unit with respect to the distortion transmission object is changed without changing the positional relationship (FIG. 16A), or the data acquisition method, or the relative position of each camera unit and the position of the entire stereo camera unit are both changed. (FIG. 16B) A data acquisition method is conceivable.
The
以下に、このずれ量に基づく位置ずれ判断について説明する。
図17は、第2の実施異形態における、位置ずれ判定部による位置ずれ判断処理を説明するフローチャートである。
位置ずれ判定部は、ステップS300において、カメラユニット60L、60Rの特徴点データが初期値データと一致するか判断する(ステップS300)。
次に、双方で一致した場合(ステップS300でYes)、ステレオカメラユニット全体として位置ずれしていないと判断する(ステップS301)。
双方が一致しない場合(ステップS300でNo)、双方のカメラユニットについて類似データが存在するかを確認する(ステップS302)。
双方について、類似データが存在する場合(ステップS302でYes)で、各カメラユニットの相対位置ずれ量候補が一致した場合(ステップS303でYes)、ステレオカメラユニット全体が位置ずれしていると判断する(ステップS304)。
In the following, the misregistration determination based on this misalignment amount will be described.
FIG. 17 is a flowchart for explaining misregistration determination processing by the misregistration determination unit in the second embodiment.
In step S300, the displacement determination unit determines whether the feature point data of the
Next, when both coincide (Yes in step S300), it is determined that the stereo camera unit as a whole is not displaced (step S301).
If the two do not match (No in step S300), it is checked whether similar data exists for both camera units (step S302).
If similar data exists for both (Yes in step S302) and the relative positional deviation amount candidates of the respective camera units match (Yes in step S303), it is determined that the entire stereo camera unit is displaced. (Step S304).
一致しない場合(ステップS303でNo)、各カメラユニットがばらばらに位置ずれしていると判断される(ステップS305)。
ステップ302で、双方のカメラユニットついて類似データがないと判断され(ステップS302でNo)、一方のカメラユニットについての類似データが存在すると判断された場合(ステップS306でYes)、データ類似しない一方のカメラユニットのみが位置ずれしていると判断する(ステップS307)。
最後に、ステップS306で、双方のカメラユニットともに類似データがないと判断される場合は、他の要因による結像位置変位であると判断する(ステップS308)。
If they do not match (No in step S303), it is determined that the camera units are displaced from each other (step S305).
If it is determined in
Finally, if it is determined in step S306 that there is no similar data in both camera units, it is determined that the imaging position displacement is due to other factors (step S308).
以上の判断処理について詳しくは説明する。
(1)フロントガラス50に対して、カメラユニット60Rとカメラユニット60Lがそれぞれ全く位置ずれを起こしていない場合、位置ずれ量算出部71から出力されるカメラユニット60Rとカメラユニット60Lのデータはメモリ74に記憶されている出荷時初期データとほぼ一致しx座標の差はほぼゼロになる。この場合、二つのカメラユニットはフロントガラス50に対して位置ずれを起こしていないと判定し、このまま測距を続けてもよいと判断する。
(2)フロントガラスに対してステレオカメラユニット全体が位置ずれを起こした場合
位置ずれ量算出部71から出力されるカメラユニット60Rとカメラユニット60Lのデータに類似したデータがメモリ74に存在し、且つ各カメラユニット60L、60Rとフロントガラス50の相対位置ずれ量候補値が一致したときに、位置ずれ判定部73は、ステレオカメラユニット60全体が、フロントガラス50に対して位置ずれを起こしたと判定する。
フロントガラスに対する(車両に対する)カメラユニット60の姿勢がわかるので、ステレオカメラユニットの位置ずれが補正許容範囲内であり、且つ補正機構を備えていれば、ずれ量分だけフロントガラスに対する位置を動かしてもよいし、また、大きくカメラの姿勢がずれてしまった場合には補正許容範囲外と判断し、ステレオカメラユニットの位置調整が必要であるというエラーメッセージを、ディスプレイやヘッドアップディスプレイに出力する。
The above determination process will be described in detail.
(1) When the
(2) When the entire stereo camera unit is displaced with respect to the windshield Data similar to the data of the
Since the attitude of the
(3)ステレオカメラユニットを構成するカメラユニットのうちの一部が、出荷時の位置からの位置ずれを起こした場合
位置ずれ量算出部71から出力される位置ずれの起きていないカメラユニットのデータはメモリ74に記憶されている出荷時初期データとほぼ一致するが、位置ずれを起こしたカメラユニットのデータに類似するデータがない場合に、位置ずれ判定部73は、フロントガラス50に対して二つのうち一つのカメラが出荷時から位置ずれを起こさず、一つのカメラが位置ずれを起こしたと判定する。
言い換えれば、位置ずれ量算出部71から出力される各カメラのユニットのデータのうち、出荷時初期データとほぼ一致するデータに対応するカメラユニットについては、出荷時位置からの位置ずれが発生していないと判断し、初期出荷位置と一致しない(該当するデータがない)データに対応するカメラユニットについては、出荷時位置からの位置ずれが起きていると判断する。
この場合、カメラの相対位置を補正する機構を備えていれば補正を行い、備えていなければ、表示・警報制御部75は、調整が必要な事を運転者に知らせる。
(3) When a part of the camera units constituting the stereo camera unit is misaligned from the position at the time of shipment Data of the camera unit that is not misaligned and output from the misalignment amount calculation unit 71 Is substantially the same as the initial shipping data stored in the memory 74, but when there is no data similar to the data of the camera unit that has caused the position shift, the position
In other words, among the camera unit data output from the positional deviation amount calculation unit 71, the positional deviation from the shipping position has occurred for the camera unit corresponding to the data that substantially matches the initial factory data. For the camera unit corresponding to the data that does not match the initial shipping position (there is no corresponding data), it is determined that a positional deviation from the shipping position has occurred.
In this case, if a mechanism for correcting the relative position of the camera is provided, correction is performed, and if not provided, the display /
(4)2つのカメラのうち少なくとも1つのカメラにおいて、相対位置関係ではない結像位置変化が出荷時から発生した場合
位置ずれ量算出部71から出力される2つのカメラユニットのデータ全てについて、メモリ74に記憶されているデータ中に類似したデータがない場合、これは位置ずれ予想範囲内での位置ずれではないので、位置ずれ判定部73は、他の要因でカメラの結像位置変化が起きていると判定する。
相対位置関係ではない結像位置変化としては、例えば内部パラメータと呼ばれるレンズのディストーションが経時で変化しているなどの原因が考えられる。
この場合、相関演算部64は、前処理部62から出力された画像の相関演算を行う。
メモリ65には各ステレオカメラユニット60L、60Rの基線長、画素数、探索幅情報が記憶されていることが望ましく、ステレオカメラの基線長、画素数、探索幅などに応じてステレオマッチングを行い、相関演算を行う。マッチング処理としては、公知の各種のものを用いることができる。
(4) When at least one of the two cameras has an imaging position change that does not have a relative positional relationship from the time of shipment, the memory for all the data of the two camera units output from the positional deviation amount calculation unit 71 If there is no similar data in the data stored in 74, this is not a positional deviation within the expected positional deviation range, so the positional
As the imaging position change that is not in the relative positional relationship, for example, a cause such as a change in lens distortion called an internal parameter with time can be considered.
In this case, the correlation calculation unit 64 performs correlation calculation of the image output from the preprocessing unit 62.
The
例えばSAD(Sum of Absolute Difference)法が挙げられる。
なお、SAD法は、基準画像内で設定されたテンプレートと、これと相関をとるべき比較画像内のブロックとの互いに対応する各ピクセル(画素)の輝度値の差の絶対値の積算値を算出して評価値とし、該評価値が最も小さいものに係る比較画像内のブロックをマッチング領域とするものである。
また、位置ずれ量算出部71から入力される位置ずれ量に基づいて、画像処理によって補正してもよい。
For example, the SAD (Sum of Absolute Difference) method can be mentioned.
The SAD method calculates an integrated value of absolute values of differences in luminance values of pixels corresponding to each other between a template set in the reference image and a block in the comparison image to be correlated with the template. Thus, an evaluation value is obtained, and a block in the comparison image relating to the smallest evaluation value is used as a matching region.
Further, correction may be performed by image processing based on the positional deviation amount input from the positional deviation amount calculation unit 71.
認識部66は、相関演算部64で計算・生成された視差画像を入力として、測距対象物の認識を行う。
測距対象物の認識する際には、あらかじめ測距対象物の特徴を辞書データとしてメモリに記憶しておいてもよいし、視差が同じグループを一つのブロックとして、どのような物体があるか否かは認識しないが、そこに物体があるか否かを認識するようにしてもよい。後者の場合、測距精度がよいほど高精度に認識できる。
表示・警報制御部75には、認識部66による認識結果及び位置ずれ判定部73からの判定結果が入力される。
判定結果は、図示しないディスプレイに表示したり、音によって運転者に知らせる方法や、ヘッドアップディスプレイに表示したりするなど様々な方法が考えられる。
また、表示や警報を装置で認識結果を出力するのではなく、ブレーキ制御やドアのロックなどの制御を行う際の情報として活用される事も考えられる。
The recognizing unit 66 receives the parallax image calculated and generated by the correlation calculating unit 64 as input, and recognizes the distance measuring object.
When recognizing an object to be measured, the features of the object to be measured may be stored in the memory as dictionary data in advance, and what kind of object is present with a group having the same parallax as one block Whether or not there is an object may be recognized. In the latter case, the higher the distance measurement accuracy, the higher the accuracy of recognition.
The display /
Various methods are conceivable, such as displaying the determination result on a display (not shown), notifying the driver by sound, or displaying the determination result on a head-up display.
It is also conceivable that the display or alarm is not output as a recognition result by the device but is used as information when performing control such as brake control or door lock.
<その他の実施形態>
図18は、本実施形態の距離計測装置を適用可能な車両を示す模式図である。
本実施形態の画像処理システムは、車両前方の画像を取得するための撮像ユニット81と、取得した画像に基づいて車両80の前方に存在する他の車両までの距離を算出する等の処理を行う画像解析ユニット82を有している。撮像ユニット81は、車両80が走行する前方の画像を撮像できるように、座席のルームミラー位置等に設置されている。撮像ユニット81で撮像された車両前方の画像は、画像信号化されて画像解析ユニット82に入力される。画像解析ユニット82は、撮像ユニット81から出力された画像信号を解析する。
撮像ユニット81として、上記実施形態の撮像ユニット10、60を適用できる。
また、画像解析ユニット82の一部の機能として、上記実施形態の画像処理部12、認識部13を適用することが出来る。
また、位置ずれ判定部24、73による判定結果を、ヘッドアップディスプレイ89に表示することが出来る。
車両走行制御ユニット88は、画像解析ユニット82で計算された距離に基づいてハンドルやブレーキの制御も行うことが出来る。
<Other embodiments>
FIG. 18 is a schematic diagram showing a vehicle to which the distance measuring device of the present embodiment can be applied.
The image processing system of the present embodiment performs processing such as calculating the distance to an
As the
In addition, the
In addition, the determination result by the position
The vehicle
10 カメラユニット、11 制御部、12 画像処理部、13 認識部、14 検知部、15 表示・警報制御部、20 特徴点抽出部、22 位置ずれ量算出部、24 位置ずれ判定部、26 表示・警報制御部、26 量算出部、31 視差計算部、33 CPU、50 フロントガラス、55 検査チャート、56 発光体、60 ステレオカメラユニット、60L、60R カメラユニット、60a 制御部、61 位置ずれ検知部 62 前処理部、64 相関演算部、66 認識部、69 特徴点抽出部、71 位置ずれ量算出部、73 位置ずれ判定部73、75 表示・警報制御部
DESCRIPTION OF
Claims (8)
前記カメラユニットが前記透過物体を介して撮影した画像に含まれる、特徴的なパターンに係る特徴点座標を抽出する特徴点抽出部と、
位置ずれがない状態で撮影した画像から前記特徴点抽出部により抽出された基準特徴点情報と、判定対象となる状態で撮影した画像から抽出された比較特徴点情報と、
との関係に基づいて、前記カメラユニットの前記透過物体に対する位置ずれの有無を判定する位置ずれ判定部と、
を備えたことを特徴とする位置ずれ検出装置。 In the position shift detection device according to claim 1,
A feature point extraction unit that extracts feature point coordinates relating to a characteristic pattern included in an image captured by the camera unit through the transparent object;
Reference feature point information extracted by the feature point extraction unit from an image photographed in the absence of positional deviation, comparison feature point information extracted from an image photographed in a state to be determined,
Based on the relationship, and a displacement determination unit that determines the presence or absence of displacement of the camera unit with respect to the transmission object;
A misalignment detection apparatus comprising:
前記基準特徴点情報と、前記比較特徴点情報と、を比較して前記カメラユニットと前記透過物体との相対的な位置ずれ量の候補値を算出する位置ずれ量算出部を備え、
前記位置ずれ判定部は、前記候補値の頻度分布から、前記カメラユニットの位置ずれの有無を判定することを特徴とする位置ずれ検出装置。 In the position shift detection device according to claim 2,
A positional deviation amount calculation unit that compares the reference feature point information and the comparative feature point information to calculate a candidate value of a relative positional deviation amount between the camera unit and the transmission object;
The misregistration detection apparatus, wherein the misregistration determination unit determines presence / absence of misalignment of the camera unit from the frequency distribution of the candidate values.
前記カメラユニットは、複数のカメラユニットを有する複眼カメラユニットであって、
前記特徴点抽出部は、各カメラユニットによって取得された各画像について、前記比較特徴点情報及び前記基準特徴点情報を抽出し、
前記位置ずれ量算出部は、前記各カメラユニットに係る前記比較特徴点情報と前記基準特徴点情報の類似度に基づいて、各カメラユニット間の相対的な位置ずれ量又は前記複眼カメラユニット全体の前記透過物体に対する位置ずれ量の候補値を算出し、
前記位置ずれ判定部は、前記候補値に基づいて、所定の基準により、各カメラユニット間の位置ずれ又は前記複眼カメラユニット全体の位置ずれの有無を判定すること特徴とする位置ずれ検出装置。 In the position shift detection device according to claim 2,
The camera unit is a compound eye camera unit having a plurality of camera units,
The feature point extraction unit extracts the comparison feature point information and the reference feature point information for each image acquired by each camera unit,
The positional deviation amount calculation unit is configured to calculate a relative positional deviation amount between the camera units or the entire compound-eye camera unit based on the similarity between the comparison feature point information and the reference feature point information regarding each camera unit. Calculating a candidate value of the amount of displacement with respect to the transparent object;
The position shift determination unit determines whether or not there is a position shift between the camera units or a position shift of the entire compound-eye camera unit based on the candidate value based on the candidate value.
前記所定のパターンは直線状のパターンであり、前記直線状のパターンを含む画像は、広がりのない光を出射する発光体が直線として結像するように、前記発光体を撮影することにより取得されることを特徴とする位置ずれ検出装置。 In the position shift detection device according to any one of claims 2 to 4,
The predetermined pattern is a linear pattern, and an image including the linear pattern is acquired by photographing the illuminant so that the illuminant emitting non-spreading light is imaged as a straight line. An apparatus for detecting misalignment.
前記基準特徴点情報は、前記画像における領域に応じて重み付けされることを特徴とする位置ずれ検出装置。 The misregistration detection apparatus according to claim 3,
The reference feature point information is weighted according to a region in the image.
位置ずれがない状態で撮影した画像から前記特徴点抽出ステップにより抽出された基準特徴点情報と、判定対象となる状態で撮影した画像から抽出された比較特徴点情報と、との関係に基づいて、前記カメラユニットの前記透過物体に対する位置ずれの有無を判定する位置ずれステップと、
を含むことを特徴とする位置ずれ検出方法。 A feature point extracting step of extracting feature point coordinates relating to a characteristic pattern included in an image captured by the camera unit through the transparent object;
Based on the relationship between the reference feature point information extracted by the feature point extraction step from the image photographed in the absence of misalignment and the comparison feature point information extracted from the image photographed in the determination target state A displacement step for determining the presence or absence of displacement of the camera unit with respect to the transmission object;
A misregistration detection method comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012063732A JP6019646B2 (en) | 2012-03-21 | 2012-03-21 | Misalignment detection apparatus, vehicle, and misalignment detection method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012063732A JP6019646B2 (en) | 2012-03-21 | 2012-03-21 | Misalignment detection apparatus, vehicle, and misalignment detection method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2013195783A true JP2013195783A (en) | 2013-09-30 |
JP6019646B2 JP6019646B2 (en) | 2016-11-02 |
Family
ID=49394787
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012063732A Active JP6019646B2 (en) | 2012-03-21 | 2012-03-21 | Misalignment detection apparatus, vehicle, and misalignment detection method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6019646B2 (en) |
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2902967A1 (en) * | 2014-01-31 | 2015-08-05 | Ricoh Company, Ltd. | Stereo camera calibration method, disparity calculating device, and stereo camera |
JP5911623B1 (en) * | 2015-03-27 | 2016-04-27 | 株式会社ファンクリエイト | Detection device and detection method for road joints |
JP2017009387A (en) * | 2015-06-19 | 2017-01-12 | 富士重工業株式会社 | Image processing device |
JP2017009388A (en) * | 2015-06-19 | 2017-01-12 | 富士重工業株式会社 | Image processing device |
WO2017042999A1 (en) * | 2015-09-07 | 2017-03-16 | パナソニックIpマネジメント株式会社 | In-vehicle stereo camera device and method for correcting same |
WO2017158951A1 (en) * | 2016-03-15 | 2017-09-21 | オムロン株式会社 | Object detection system, abnormality determination method, and program |
KR20180012494A (en) * | 2016-07-27 | 2018-02-06 | 현대모비스 주식회사 | Apparatus and method for compensating tolerance of vehicle-mounted camera |
JP2019068272A (en) * | 2017-09-29 | 2019-04-25 | 株式会社デンソー | Circumference monitoring device and calibration method of the same |
JP2019090707A (en) * | 2017-11-15 | 2019-06-13 | 株式会社デンソーテン | Image processing device and image processing method |
JP2019132855A (en) * | 2014-01-31 | 2019-08-08 | 株式会社リコー | Stereo camera calibration method, parallax calculation device, and stereo camera |
JP2019192355A (en) * | 2018-04-19 | 2019-10-31 | パナソニックIpマネジメント株式会社 | Heating cooker |
CN110827348A (en) * | 2019-11-14 | 2020-02-21 | 上海眼控科技股份有限公司 | Self-checking processing method, device and equipment for position of camera equipment and storage medium |
CN111693254A (en) * | 2019-03-12 | 2020-09-22 | 纬创资通股份有限公司 | Vehicle-mounted lens offset detection method and vehicle-mounted lens offset detection system |
JP2020165968A (en) * | 2020-03-19 | 2020-10-08 | 株式会社リコー | Calibration method, calibration device, and program |
US10984555B2 (en) | 2017-03-30 | 2021-04-20 | Mitsubishi Electric Corporation | Object detection device and vehicle |
CN113766209A (en) * | 2020-05-29 | 2021-12-07 | 上海汉时信息科技有限公司 | Camera offset processing method and device |
WO2022014215A1 (en) * | 2020-07-16 | 2022-01-20 | 日立Astemo株式会社 | Processing device and vehicle-mounted camera device |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0636987A (en) * | 1992-07-17 | 1994-02-10 | Nikon Corp | Projection aligner |
JPH06241735A (en) * | 1993-02-16 | 1994-09-02 | Nippon Sheet Glass Co Ltd | Simulating method for prespective distortion of plate-like body |
JPH09163359A (en) * | 1995-12-04 | 1997-06-20 | Honda Motor Co Ltd | Environment recognition device for vehicle |
JP2000322565A (en) * | 1999-03-10 | 2000-11-24 | Calsonic Kansei Corp | Image data correcting circuit |
JP2004173037A (en) * | 2002-11-21 | 2004-06-17 | Kyocera Corp | Optical-axis deviation detecting apparatus of vehicle-mounted camera |
JP2004247979A (en) * | 2003-02-14 | 2004-09-02 | Hitachi Ltd | On-vehicle camera apparatus |
JP2004289562A (en) * | 2003-03-24 | 2004-10-14 | Sanyo Electric Co Ltd | Video camera |
JP2004340840A (en) * | 2003-05-19 | 2004-12-02 | Honda Motor Co Ltd | Distance measuring device, distance measuring method and distance measuring program |
JP2005294932A (en) * | 2004-03-31 | 2005-10-20 | Konica Minolta Medical & Graphic Inc | Image processing method, image processing apparatus and image processing program |
JP2009080572A (en) * | 2007-09-25 | 2009-04-16 | Toshiba Corp | Apparatus and method for detecting moving body |
-
2012
- 2012-03-21 JP JP2012063732A patent/JP6019646B2/en active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0636987A (en) * | 1992-07-17 | 1994-02-10 | Nikon Corp | Projection aligner |
JPH06241735A (en) * | 1993-02-16 | 1994-09-02 | Nippon Sheet Glass Co Ltd | Simulating method for prespective distortion of plate-like body |
JPH09163359A (en) * | 1995-12-04 | 1997-06-20 | Honda Motor Co Ltd | Environment recognition device for vehicle |
JP2000322565A (en) * | 1999-03-10 | 2000-11-24 | Calsonic Kansei Corp | Image data correcting circuit |
JP2004173037A (en) * | 2002-11-21 | 2004-06-17 | Kyocera Corp | Optical-axis deviation detecting apparatus of vehicle-mounted camera |
JP2004247979A (en) * | 2003-02-14 | 2004-09-02 | Hitachi Ltd | On-vehicle camera apparatus |
JP2004289562A (en) * | 2003-03-24 | 2004-10-14 | Sanyo Electric Co Ltd | Video camera |
JP2004340840A (en) * | 2003-05-19 | 2004-12-02 | Honda Motor Co Ltd | Distance measuring device, distance measuring method and distance measuring program |
JP2005294932A (en) * | 2004-03-31 | 2005-10-20 | Konica Minolta Medical & Graphic Inc | Image processing method, image processing apparatus and image processing program |
JP2009080572A (en) * | 2007-09-25 | 2009-04-16 | Toshiba Corp | Apparatus and method for detecting moving body |
Cited By (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3514758A1 (en) * | 2014-01-31 | 2019-07-24 | Ricoh Company, Ltd. | Stereo camera calibration method, disparity calculating device, and stereo camera |
JP2015163866A (en) * | 2014-01-31 | 2015-09-10 | 株式会社リコー | Stereocamera calibration method, parallax calculation device and stereocamera |
EP2902967A1 (en) * | 2014-01-31 | 2015-08-05 | Ricoh Company, Ltd. | Stereo camera calibration method, disparity calculating device, and stereo camera |
JP2019132855A (en) * | 2014-01-31 | 2019-08-08 | 株式会社リコー | Stereo camera calibration method, parallax calculation device, and stereo camera |
JP5911623B1 (en) * | 2015-03-27 | 2016-04-27 | 株式会社ファンクリエイト | Detection device and detection method for road joints |
JP2016186756A (en) * | 2015-03-27 | 2016-10-27 | 株式会社ファンクリエイト | Device and method of detecting joint part of road |
JP2017009387A (en) * | 2015-06-19 | 2017-01-12 | 富士重工業株式会社 | Image processing device |
JP2017009388A (en) * | 2015-06-19 | 2017-01-12 | 富士重工業株式会社 | Image processing device |
WO2017042999A1 (en) * | 2015-09-07 | 2017-03-16 | パナソニックIpマネジメント株式会社 | In-vehicle stereo camera device and method for correcting same |
WO2017158951A1 (en) * | 2016-03-15 | 2017-09-21 | オムロン株式会社 | Object detection system, abnormality determination method, and program |
KR102528003B1 (en) | 2016-07-27 | 2023-05-02 | 현대모비스 주식회사 | Apparatus and method for compensating tolerance of vehicle-mounted camera |
KR20180012494A (en) * | 2016-07-27 | 2018-02-06 | 현대모비스 주식회사 | Apparatus and method for compensating tolerance of vehicle-mounted camera |
US10984555B2 (en) | 2017-03-30 | 2021-04-20 | Mitsubishi Electric Corporation | Object detection device and vehicle |
JP2019068272A (en) * | 2017-09-29 | 2019-04-25 | 株式会社デンソー | Circumference monitoring device and calibration method of the same |
JP7066378B2 (en) | 2017-11-15 | 2022-05-13 | 株式会社デンソーテン | Image processing device and image processing method |
JP2019090707A (en) * | 2017-11-15 | 2019-06-13 | 株式会社デンソーテン | Image processing device and image processing method |
JP2019192355A (en) * | 2018-04-19 | 2019-10-31 | パナソニックIpマネジメント株式会社 | Heating cooker |
JP7142320B2 (en) | 2018-04-19 | 2022-09-27 | パナソニックIpマネジメント株式会社 | heating cooker |
CN111693254A (en) * | 2019-03-12 | 2020-09-22 | 纬创资通股份有限公司 | Vehicle-mounted lens offset detection method and vehicle-mounted lens offset detection system |
CN110827348A (en) * | 2019-11-14 | 2020-02-21 | 上海眼控科技股份有限公司 | Self-checking processing method, device and equipment for position of camera equipment and storage medium |
JP2020165968A (en) * | 2020-03-19 | 2020-10-08 | 株式会社リコー | Calibration method, calibration device, and program |
JP6996582B2 (en) | 2020-03-19 | 2022-01-17 | 株式会社リコー | Calibration method, calibration equipment and program |
CN113766209A (en) * | 2020-05-29 | 2021-12-07 | 上海汉时信息科技有限公司 | Camera offset processing method and device |
CN113766209B (en) * | 2020-05-29 | 2024-04-30 | 上海汉时信息科技有限公司 | Camera offset processing method and device |
WO2022014215A1 (en) * | 2020-07-16 | 2022-01-20 | 日立Astemo株式会社 | Processing device and vehicle-mounted camera device |
JP7405710B2 (en) | 2020-07-16 | 2023-12-26 | 日立Astemo株式会社 | Processing equipment and in-vehicle camera equipment |
Also Published As
Publication number | Publication date |
---|---|
JP6019646B2 (en) | 2016-11-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6019646B2 (en) | Misalignment detection apparatus, vehicle, and misalignment detection method | |
KR102022388B1 (en) | Calibration system and method using real-world object information | |
EP2889641B1 (en) | Image processing apparatus, image processing method, program and image processing system | |
US9378553B2 (en) | Stereo image processing device for vehicle | |
US9704404B2 (en) | Lane detection apparatus and operating method for the same | |
EP3287985B1 (en) | Image processing device | |
WO2016056197A1 (en) | In-vehicle camera calibration device, image generation device, in-vehicle camera calibration method, and image generation method | |
JP5011049B2 (en) | Image processing system | |
JP5880703B2 (en) | Lane marking indicator, driving support system | |
CN106289159B (en) | Vehicle distance measurement method and device based on distance measurement compensation | |
US11119210B2 (en) | Vehicle control device and vehicle control method | |
JPH09142236A (en) | Periphery monitoring method and device for vehicle, and trouble deciding method and device for periphery monitoring device | |
KR102132242B1 (en) | Stereo Camera Rectification System | |
US11030761B2 (en) | Information processing device, imaging device, apparatus control system, movable body, information processing method, and computer program product | |
JP2017004176A (en) | Road surface marking detection device and road surface marking detection method | |
EP2910897B1 (en) | Stereo image processing device and stereo image processing method | |
JP2021025868A (en) | Stereo camera | |
KR101276073B1 (en) | System and method for detecting distance between forward vehicle using image in navigation for vehicle | |
WO2017154305A1 (en) | Image processing device, apparatus control system, imaging device, image processing method, and program | |
JP2010176592A (en) | Driving support device for vehicle | |
CN111033316B (en) | Identification sensor, control method therefor, automobile, vehicle lamp, object identification system, and object identification method | |
US10643077B2 (en) | Image processing device, imaging device, equipment control system, equipment, image processing method, and recording medium storing program | |
JP6507590B2 (en) | Image conversion apparatus and image conversion method | |
WO2019058755A1 (en) | Object distance detection device | |
JP4900377B2 (en) | Image processing device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150218 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20160113 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160202 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160331 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160906 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160919 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6019646 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |