JP2006163607A - Image processor and processing method - Google Patents

Image processor and processing method Download PDF

Info

Publication number
JP2006163607A
JP2006163607A JP2004351577A JP2004351577A JP2006163607A JP 2006163607 A JP2006163607 A JP 2006163607A JP 2004351577 A JP2004351577 A JP 2004351577A JP 2004351577 A JP2004351577 A JP 2004351577A JP 2006163607 A JP2006163607 A JP 2006163607A
Authority
JP
Japan
Prior art keywords
image data
feature
image
reference state
acceleration
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004351577A
Other languages
Japanese (ja)
Other versions
JP4196211B2 (en
Inventor
Shogo Watanabe
省吾 渡辺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2004351577A priority Critical patent/JP4196211B2/en
Publication of JP2006163607A publication Critical patent/JP2006163607A/en
Application granted granted Critical
Publication of JP4196211B2 publication Critical patent/JP4196211B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processor for accurately calculating a correction quantity of image data taken by a camera 200 mounted on a mobile body while eliminating the influence of pitching/bouncing of the mobile body. <P>SOLUTION: This processor comprises an image data acquisition means 10 for successively acquiring image data continuously taken at predetermined time intervals from an imaging device 200 for imaging the circumference of the mobile body; a characteristic extraction means for extracting a characteristic part from each of the acquired image data; an acceleration detection means 30 for detecting the acceleration of each extracted characteristic part; a reference position determination means 40 for determining a reference state position of each characteristic part; and a correction quantity calculation means 50 for calculating a slippage on image of each characteristic part extracted by the extraction means 20. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、移動体の姿勢変化に起因する画像のずれを補正する画像処理装置及び画像処理方法に関する。   The present invention relates to an image processing apparatus and an image processing method for correcting image shift caused by a change in posture of a moving body.

この種の画像処理装置及び画像処理方法に関し、白線に代表されるレーンマーカ等を直線近似して画像中の消失点(FOE)を検出し、この消失点の位置に基づいてピッチ角又は撮像高の変化を計測するものがある。   With respect to this type of image processing apparatus and image processing method, a lane marker represented by a white line is linearly approximated to detect a vanishing point (FOE) in the image, and the pitch angle or imaging height is determined based on the position of the vanishing point. Some measure change.

特許文献1には、レーンマーカが曲線の場合でもピッチ角および撮像高が計測できるように、撮像された画像から抽出されたレーンマーカに座標変換を施し、所定の平面座標系において2本のレーンマーカが互いに平行であることに基づいて、観測者側となる車両のピッチ角変化を検出する装置が記載されている。   In Patent Document 1, coordinate conversion is performed on a lane marker extracted from a captured image so that the pitch angle and imaging height can be measured even when the lane marker is a curve, and two lane markers are mutually connected in a predetermined plane coordinate system. An apparatus for detecting a change in the pitch angle of a vehicle on the observer side based on being parallel is described.

また、特許文献2には、車載したカメラで車外を撮影している場合、ピッチングなどによりカメラに視軸変化が発生すると、画像中の全対象物において同量のy座標位置変位が生じることから、画像から複数の対象物を抽出し、抽出された対象物のy座標変位量の平均値によりピッチング量を補正する装置が記載されている。   Further, in Patent Document 2, when an outside camera is photographed with a vehicle-mounted camera, if the visual axis change occurs in the camera due to pitching or the like, the same amount of y coordinate position displacement occurs in all objects in the image. Describes an apparatus that extracts a plurality of objects from an image and corrects the pitching amount by an average value of y-coordinate displacement amounts of the extracted objects.

しかしながら、特許文献1の手法では、基準となるレーンマーカ等が無い場合は、ピッチ角および撮像高を計測することができないという問題があった。また、特許文献2の手法では、対象物のy座標変位量を用いてピッチ角を計測するため、ピッチングなどの視軸変化によらないy座標の位置変化を、視軸変化の発生によるものと誤って判断し、間違った視軸補正をしてしまうという問題があった。
特開平11−203445号公報 特開2001−84497号公報
However, the method of Patent Document 1 has a problem that the pitch angle and the imaging height cannot be measured when there is no reference lane marker or the like. In the method of Patent Document 2, since the pitch angle is measured using the y-coordinate displacement amount of the object, the position change of the y-coordinate that does not depend on the visual axis change such as pitching is caused by the occurrence of the visual axis change. There was a problem in that it was wrongly determined and the visual axis was corrected incorrectly.
Japanese Patent Laid-Open No. 11-203445 JP 2001-84497 A

本発明は、以上の課題を鑑みてなされたものであり、画像処理において、観測者側の姿勢変化によって生じる影響を排除することを目的とする。
本発明によれば、移動体の周囲を所定のタイミングで連続的に撮像する撮像装置から画像データを順次取得し、取得された各画像データから特徴部を抽出し、抽出された各特徴部の速度又は加速度を検出し、検出された各特徴部の速度又は加速度に基づいて特徴部の基準状態位置を判断し、判断された特徴部の基準状態位置に基づいて、移動体の挙動に起因する画像データの補正量を算出する画像処理装置又は画像処理方法が提供される。
本発明の画像処理装置及び画像処理方法は、レーンマーカ等の存在を必要とせず、移動体と観測対象との相対的位置変化が生じた場合でも自己(観測者側)の姿勢変化に起因する画像データの補正量を正確に算出することができる。
The present invention has been made in view of the above problems, and an object of the present invention is to eliminate an influence caused by a change in posture on the observer side in image processing.
According to the present invention, image data is sequentially acquired from an imaging device that continuously captures the periphery of a moving body at a predetermined timing, and feature portions are extracted from each acquired image data. The speed or acceleration is detected, the reference state position of the feature is determined based on the detected speed or acceleration of each feature, and based on the determined reference state position of the feature, due to the behavior of the moving body An image processing apparatus or an image processing method for calculating a correction amount of image data is provided.
The image processing apparatus and the image processing method of the present invention do not require the presence of a lane marker or the like, and even when a relative position change between the moving object and the observation target occurs, an image resulting from a change in posture of the self (observer side) The amount of data correction can be calculated accurately.

以下、図面に基づいて、本発明に係る実施形態の画像処理装置100を説明する。本実施形態の画像処理装置100は、撮像装置200とともに車両その他の移動体に搭載される。本実施形態の画像処理装置100を含む車載装置のブロック構成を図1に示した。図1に示すように、本実施形態の画像処理装置100は、同じ車両に搭載された車両姿勢検出装置300、走行支援装置400、又は障害物検出装置500と、車載LANにより情報の授受が可能なように接続されている。画像処理装置100により算出された画像データの補正量又は補正された画像データは、これらに向けて出力され、車両姿勢検出、走行支援、障害物検出等に利用される。
本実施形態の画像処理装置100は、画像データ取得手段10と、特徴抽出手段20と、加速度検出手段30と、基準位置判断手段40と、補正量算出手段50と、画像データ補正手段60とを有する。具体的には、少なくとも、画像データに基づいて補正量を算出するプログラムを格納したROM(Read Only Memory)等と、このROM等に格納されたプログラムを実行することで基準位置判断手段40、補正量算出手段50、画像データ補正手段60として機能するCPU(Central Processing Unit)等と、アクセス可能な記憶装置70として機能するRAM(Random Access Memory)等とを備えている。記憶装置70は、画像処理装置100がアクセス可能であればよく、画像処理装置100の装置内部又は装置外部に設けられる。もちろん、これらの機能を実現するASIC(Application Specific Integrated Circuit)、又はFPGA(Field Programmable Gate Array)等のLSIを搭載してもよい。
Hereinafter, an image processing apparatus 100 according to an embodiment of the present invention will be described with reference to the drawings. The image processing apparatus 100 according to the present embodiment is mounted on a vehicle or other moving body together with the imaging apparatus 200. A block configuration of an in-vehicle device including the image processing apparatus 100 of the present embodiment is shown in FIG. As shown in FIG. 1, the image processing apparatus 100 according to the present embodiment can exchange information with a vehicle posture detection device 300, a travel support device 400, or an obstacle detection device 500 mounted on the same vehicle via an in-vehicle LAN. It is connected like that. The correction amount of the image data calculated by the image processing apparatus 100 or the corrected image data is output toward these, and is used for vehicle posture detection, driving support, obstacle detection, and the like.
The image processing apparatus 100 according to this embodiment includes an image data acquisition unit 10, a feature extraction unit 20, an acceleration detection unit 30, a reference position determination unit 40, a correction amount calculation unit 50, and an image data correction unit 60. Have. Specifically, at least a ROM (Read Only Memory) or the like that stores a program for calculating a correction amount based on image data and a program stored in the ROM or the like to execute the reference position determination means 40 and correction A CPU (Central Processing Unit) that functions as the amount calculation means 50 and the image data correction means 60, and a RAM (Random Access Memory) that functions as an accessible storage device 70 are provided. The storage device 70 only needs to be accessible by the image processing apparatus 100 and is provided inside or outside the image processing apparatus 100. Of course, an LSI such as an application specific integrated circuit (ASIC) or a field programmable gate array (FPGA) that realizes these functions may be mounted.

以下、画像処理装置100について説明する。
「画像データ取得手段10」は、自車両周辺を撮像する撮像装置200から、所定のタイミングで連続的に撮像された画像データを順次取得する。撮像装置200は、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサや、CCD(Charge Coupled Device)等の撮像素子を備えた撮像手段210と、撮像手段210により撮像された画像データを時系列でフレームごとに記憶するフレームメモリ220とを備える。
Hereinafter, the image processing apparatus 100 will be described.
The “image data acquisition means 10” sequentially acquires image data continuously captured at a predetermined timing from the imaging device 200 that captures the periphery of the host vehicle. The imaging apparatus 200 includes an imaging unit 210 including an image sensor such as a complementary metal oxide semiconductor (CMOS) image sensor and a charge coupled device (CCD), and image data captured by the imaging unit 210 in time series for each frame. And a frame memory 220 for storage.

「特徴抽出手段20」は、画像データ取得手段10により取得された各画像データ(フレーム)から、撮像対象の画像上の動きを観測することができる特徴部を抽出する。特徴抽出手段20は、追跡領域設定、エッジ検出、画像変換等の通常の画像処理を行うことができる。   The “feature extraction unit 20” extracts a feature portion that can observe the movement on the image to be captured from each image data (frame) acquired by the image data acquisition unit 10. The feature extraction unit 20 can perform normal image processing such as tracking area setting, edge detection, and image conversion.

「加速度検出手段30」は、特徴抽出手段20により抽出された特徴部の速度及び/又は加速度を検出する。画像データ中の特徴部は、自車両周囲に存在する観測対象に対応する。この画像データ中の特徴部は、自車両の移動又は観測対象の移動による相対的位置変化に伴い移動する。加速度検出手段30は、画像データ中における特徴部の移動速度又は移動加速度を検出する。具体的に、加速度検出手段30は、撮像タイミングが異なる2つの画像データに含まれる特徴部の位置を比較し、その位置変化量を1階微分又は2階微分することにより、特徴部の速度、加速度を求める。求めた特徴部の速度又は加速度は、撮像タイミング識別子又はフレーム識別子と対応づけて記憶装置70に記憶させる。1の画像データ中に複数の特徴部が存在する場合は、いずれか1又は2以上の特徴部を選択して速度又は加速度を算出してもよいし、すべての特徴部について速度又は加速度を算出してもよい。   The “acceleration detection means 30” detects the speed and / or acceleration of the feature portion extracted by the feature extraction means 20. The characteristic part in the image data corresponds to the observation target existing around the host vehicle. The characteristic part in this image data moves with the relative position change by the movement of the own vehicle or the movement of the observation target. The acceleration detection means 30 detects the moving speed or moving acceleration of the feature in the image data. Specifically, the acceleration detection means 30 compares the position of the feature part included in two image data with different imaging timings, and performs the first-order differentiation or the second-order differentiation of the position change amount, whereby the speed of the feature part, Find the acceleration. The obtained velocity or acceleration of the characteristic portion is stored in the storage device 70 in association with the imaging timing identifier or the frame identifier. When there are a plurality of feature parts in one image data, either one or two or more feature parts may be selected to calculate the speed or acceleration, or the speed or acceleration may be calculated for all the feature parts. May be.

「基準位置判断手段40」は、加速度検出手段30により検出された特徴部の速度又は加速度に基づいて、特徴部の基準状態位置を判断する。具体的に、基準位置判断手段40は、撮像装置200を搭載する自車両が基準状態にある画像データを抽出し、この抽出した画像データに含まれる特徴部の画像データ上の位置を基準状態位置として判断する。判断された特徴部の基準状態位置は、撮像タイミングに対応づけて記憶装置70に記憶される。記憶された特徴部の基準状態位置は、その後に撮像された画像データの補正量の算出時に読み出される。   The “reference position determination unit 40” determines the reference state position of the feature based on the speed or acceleration of the feature detected by the acceleration detection unit 30. Specifically, the reference position determination unit 40 extracts image data in which the host vehicle on which the imaging apparatus 200 is mounted is in the reference state, and determines the position on the image data of the feature portion included in the extracted image data as the reference state position. Judge as. The determined reference state position of the feature is stored in the storage device 70 in association with the imaging timing. The stored reference state position of the characteristic portion is read out when calculating the correction amount of the image data captured thereafter.

本実施形態は、車両(移動体)の挙動と観測対象に対応する特徴部(画像データ)の挙動との関係に着目し、特徴部の画像データ上の挙動に基づいて車両の状態を判断し、車両が基準状態(最も正確な画像処理を行える状態)であることを検出する。本実施形態では、車両にピッチング及び/又はバウンシングが生じている「振動状態」に対して定義された、車両にピッチング及び/又はバウンシングが生じていない「基準状態」を検出する。   The present embodiment focuses on the relationship between the behavior of the vehicle (moving body) and the behavior of the feature (image data) corresponding to the observation target, and determines the state of the vehicle based on the behavior of the feature on the image data. Then, it is detected that the vehicle is in a reference state (a state where the most accurate image processing can be performed). In the present embodiment, a “reference state” in which pitching and / or bouncing has not occurred in the vehicle, which is defined with respect to a “vibration state” in which pitching and / or bouncing has occurred in the vehicle, is detected.

特に限定されないが、本実施形態の基準位置判断手段40は、画像データの各特定部の移動加速度が所定の閾値未満である場合は、移動体が基準状態にあると判断する。つまり、基準位置判断手段40は、加速度検出手段30により検出された特徴部の加速度が所定の閾値未満である画像データを抽出し、その画像データに含まれる特徴部の画像上の位置を基準状態位置として判断する。判断結果となる基準状態位置は、画像データの撮像タイミングに対応づけて記憶装置70に記憶する。この場合、特徴部の加速度を評価する閾値は、ゼロ近傍の値であることが好ましい。   Although not particularly limited, the reference position determination unit 40 of the present embodiment determines that the moving body is in the reference state when the movement acceleration of each specific part of the image data is less than a predetermined threshold. That is, the reference position determination unit 40 extracts image data in which the acceleration of the feature detected by the acceleration detection unit 30 is less than a predetermined threshold, and determines the position on the image of the feature included in the image data in the reference state. Judge as position. The reference state position that is the determination result is stored in the storage device 70 in association with the imaging timing of the image data. In this case, the threshold value for evaluating the acceleration of the feature part is preferably a value near zero.

また、本実施形態の基準位置判断手段40は、画像データの各特定部の移動速度が略最大である場合は、移動体が基準状態にあると判断する。つまり、基準位置判断手段40は、加速度検出手段30により検出された特徴部の速度が略最大である画像データを抽出し、その画像データに含まれる特徴部の画像上の位置を基準状態位置として判断する。判断結果となる基準状態位置は、画像データの撮像タイミングに対応づけて記憶装置70に記憶する。   Further, the reference position determination unit 40 of the present embodiment determines that the moving body is in the reference state when the moving speed of each specific part of the image data is substantially maximum. That is, the reference position determination unit 40 extracts image data in which the speed of the feature detected by the acceleration detection unit 30 is approximately maximum, and uses the position of the feature included in the image data on the image as the reference state position. to decide. The reference state position that is the determination result is stored in the storage device 70 in association with the imaging timing of the image data.

さらに、本実施形態の基準位置判断手段40は、画像データの各特定部の加速度の符合が反転した場合は、移動体が基準状態にあると判断する。つまり、基準位置判断手段40は、加速度検出手段30により検出された特徴部の加速度の符合が反転した(反転後最初乃至初期に撮像された)画像データを抽出し、その画像データに含まれる特徴部の画像上の位置を基準状態位置として判断する。判断結果となる基準状態位置は、画像データの撮像タイミングに対応づけて記憶装置70に記憶する。   Further, the reference position determination unit 40 of the present embodiment determines that the moving body is in the reference state when the sign of acceleration of each specific part of the image data is inverted. That is, the reference position determination unit 40 extracts image data in which the sign of the acceleration of the feature portion detected by the acceleration detection unit 30 is inverted (captured first to initially after the inversion), and the feature included in the image data. The position of the image on the image is determined as the reference state position. The reference state position that is the determination result is stored in the storage device 70 in association with the imaging timing of the image data.

ここで、本実施形態が定義する「車両の基準状態」について、「車両の振動状態」対比しつつ、図2〜図6に基づいて説明する。   Here, the “vehicle reference state” defined by the present embodiment will be described with reference to FIGS. 2 to 6 while being compared with the “vehicle vibration state”.

自車両にピッチングおよびバウンシングが生じておらず、自車両が基準状態であるとき、特徴部の画像上の位置変化は、主に、自車両と撮像対象の相対位置変化に起因して生じる。図2(A)は、自車両Rと観測対象Qとの距離がx(t)である場合の相対位置関係を、図2(B)は、自車両Rと観測対象Qとの距離がx(t)の場合(t>t)である場合の相対位置関係を示す。図3(A)は、図2(A)に示す相対位置関係おいて撮像された観測対象Qの画像データを示し、図3(B)は、図2(B)に示す相対位置関係において撮像された観測対象Qの画像データを示す。自車両と観測対象Qの相対位置が変化すると俯角(仰角)が変化するため、自車両に設置された撮像手段210により撮像される観測対象Qの画像上の位置が変化する。時系列での画像上のy座標の変化は、図6(A)に示すとおりである。 When the host vehicle is not pitched or bouncing and the host vehicle is in the reference state, the position change of the feature portion on the image is mainly caused by the relative position change between the host vehicle and the imaging target. 2A shows the relative positional relationship when the distance between the host vehicle R and the observation target Q is x (t 0 ), and FIG. 2B shows the distance between the host vehicle R and the observation target Q. The relative positional relationship in the case of x (t 1 ) (t 1 > t 0 ) is shown. FIG. 3A shows the image data of the observation target Q imaged in the relative positional relationship shown in FIG. 2A, and FIG. 3B shows the imaged in the relative positional relationship shown in FIG. The image data of the observed object Q is shown. Since the depression angle (elevation angle) changes when the relative position of the host vehicle and the observation target Q changes, the position of the observation target Q on the image picked up by the imaging means 210 installed in the host vehicle changes. The change of the y coordinate on the image in time series is as shown in FIG.

つぎに、自車両にピッチング及び/又はバウンシングが生じており、自車両が振動状態であるときの特徴部の位置変化について説明する。たとえば、ピッチング中心から観測対象までの距離に対して、ピッチング中心から撮像手段210(カメラ)までの距離が十分小さい場合、画像データ上における特徴部の動きは、ピッチング挙動に支配されていると考えることができる。つまり、撮像手段210(カメラ)の回転中心は、ピッチング中心であると仮定することができる。   Next, the positional change of the characteristic part when the own vehicle is pitched and / or bouncing and the own vehicle is in a vibration state will be described. For example, when the distance from the pitching center to the imaging means 210 (camera) is sufficiently small with respect to the distance from the pitching center to the observation target, it is considered that the movement of the feature on the image data is governed by the pitching behavior. be able to. That is, it can be assumed that the rotation center of the imaging means 210 (camera) is the pitching center.

ピッチングおよびバウンシングは、路面から入力された振動が、タイヤ〜コイルスプリング・ダンパー〜ボディー(シャシー)へと伝わることで生じる。つまり、ピッチングおよびバウンシングの振動周波数は、これらが形成するバネ・マス・ダンパー系の固有振動数であり、一般的には1〜2Hz程度である。   Pitching and bouncing occur when vibrations input from the road surface are transmitted from the tire to the coil spring damper to the body (chassis). That is, the vibration frequency of pitching and bouncing is the natural frequency of the spring-mass-damper system formed by them, and is generally about 1 to 2 Hz.

図4(A)は、自車両にピッチング及び/又はバウンシングが生じていないときの撮像方向P1を示し、図4(B)は、自車両にピッチング及び/又はバウンシングが生じているときの撮像方向P2を示す。また、図5(A)は、図4(A)に示す基準状態において撮像された観測対象Qの画像データを示し、図5(B)は、図4(B)に示す振動状態において撮像された観測対象Qの画像データを示す。ピッチング及び/又はバウンシングにより自車両の姿勢が変化すると俯角(仰角)が変化するため、画像全体にもピッチングおよびバウンシングによる動きが検出され、観測対象Qの画像上の位置が変化する。時系列での画像上のy座標の変化は、図6(B)に示すとおりである。   4A shows the imaging direction P1 when pitching and / or bouncing has not occurred in the host vehicle, and FIG. 4B shows the imaging direction when pitching and / or bouncing has occurred in the host vehicle. P2 is shown. 5A shows the image data of the observation target Q imaged in the reference state shown in FIG. 4A, and FIG. 5B is imaged in the vibration state shown in FIG. 4B. The image data of the observed object Q is shown. When the attitude of the host vehicle changes due to pitching and / or bouncing, the depression angle (elevation angle) changes, so that movement due to pitching and bouncing is detected in the entire image, and the position of the observation target Q on the image changes. The change of the y coordinate on the image in time series is as shown in FIG.

以上のように、画像データ上の特徴部の変化量は、自車両と観測対象Qとの相対位置の変化に起因する変位量と、自車両、つまり撮像手段(カメラ)219に生じるピッチングやバウンシングに起因する変位量とが重畳されて検出される。このような要因により複合的に生じる時系列での画像上の変化は、図6(C))に示すとおりである。   As described above, the amount of change in the feature on the image data includes the amount of displacement caused by the change in the relative position between the host vehicle and the observation target Q, and the pitching or bouncing that occurs in the host vehicle, that is, the imaging means (camera) 219 The amount of displacement due to is superimposed and detected. The change in the image in the time series that occurs in a complex manner due to such factors is as shown in FIG.

ピッチ角変化量や撮像高変化量を正確に計測するためには、それぞれの要因に起因する変化量を分離し、それぞれを分析する必要がある。本実施形態は、ピッチング/バウンシングの影響が無視できる、バネ・マス・ダンパー系の静的な平衡状態を検出し、その状態を「車両の基準状態」とすることにより、ピッチング/バウンシングの影響を排除した画像処理を行う。ピッチング/バウンシングの影響が無い基準状態とは、車両のバネ・マス・ダンパー系が平衡状態にあることを意味し、この平衡状態を検出できればピッチング/バウンシングが生じていない基準状態における観測対象に対応する特徴部の画像上の位置を計測することができる。   In order to accurately measure the change amount of the pitch angle and the change amount of the imaging height, it is necessary to separate the change amounts caused by the respective factors and analyze them. In this embodiment, the influence of pitching / bouncing is detected by detecting a static equilibrium state of the spring / mass / damper system in which the influence of pitching / bouncing is negligible, and setting the state as a “vehicle reference state”. Perform the excluded image processing. The reference state without the influence of pitching / bouncing means that the vehicle's spring / mass / damper system is in an equilibrium state. It is possible to measure the position of the feature on the image.

先述した図6(A)に示すように、ピッチング/バウンシングによる変位量が重畳されていない状態(図2の時刻tおよびtでの観測タイミング)は、観測対象Qの画像位置y(t)およびy(t)は、自車両と観測対象Qの相対位置関係で決まるため、相対位置関係に応じた特徴部の画像データ上の変位量を求めることができる。他方、図6(B)に示すピッチング/バウンシングに起因する特徴部の変位量は、観測対象Qの画像データの位置から直接的に計測することはできない。そこで、本実施形態では、特徴部の画像上の挙動を利用してその変位量を求める。すなわち、本実施形態では、特徴部の画像上の挙動を観察することにより、ピッチング/バウンシングの影響が無い基準状態を検出し、検出した基準状態における観測対象に対応する特徴部の画像データ上の基準状態位置(例えば、y(t)およびy(t))を計測し、これを基準の位置として、実際に撮像された観測対象に対応する特徴部の画像データ上の位置を評価することにより、画像データ上のずれ量又は補正量を求める。 As shown in FIG. 6A, the state in which the displacement amount due to pitching / bouncing is not superimposed (observation timings at times t 0 and t 1 in FIG. 2) is the image position y (t Since 0 ) and y (t 1 ) are determined by the relative positional relationship between the host vehicle and the observation target Q, the displacement amount of the feature portion on the image data according to the relative positional relationship can be obtained. On the other hand, the amount of displacement of the feature due to the pitching / bouncing shown in FIG. 6B cannot be directly measured from the position of the image data of the observation target Q. Therefore, in the present embodiment, the amount of displacement is obtained using the behavior of the feature on the image. That is, in this embodiment, a reference state that is not affected by pitching / bouncing is detected by observing the behavior of the feature portion on the image, and the feature portion image data corresponding to the observation target in the detected reference state is detected. A reference state position (for example, y (t 0 ) and y (t 1 )) is measured, and using this as a reference position, the position on the image data of the feature corresponding to the actually imaged observation target is evaluated. Thus, the shift amount or the correction amount on the image data is obtained.

ピッチング/バウンシングの周波数である1〜2Hz程度の振動は、観測対象と自車両の相対位置関係の変化におけるダイナミクスよりも十分高いため、ピッチング/バウンシングに起因する動きが、画像上の動きの支配的な要因となると考えることができる。一般的に振動状態で撮像した観測対象の特徴部の画像においては、時間に対する変位量の1階微分が速度となり、2階微分が加速度となる。速度が最大値であるとき、加速度がゼロであるとき又は加速度の符合が反転する(プラスからマイナス/マイナスからプラスへ変化する)とき(図6(B)のt、t)は、バネ・マス・ダンパー系が平衡状態にあり、ピッチング/バウンシングによる変位が略ゼロとなると考えることができる。 Since the vibration of about 1 to 2 Hz, which is the frequency of pitching / bouncing, is sufficiently higher than the dynamics in the change in the relative positional relationship between the observation target and the host vehicle, the motion due to pitching / bouncing is dominant in the motion on the image Can be considered to be a major factor. In general, in an image of a characteristic part to be observed imaged in a vibration state, the first-order derivative of the displacement with respect to time is the speed, and the second-order derivative is the acceleration. When the speed is the maximum value, when the acceleration is zero, or when the sign of the acceleration is reversed (changes from plus to minus / minus to plus) (t 0 , t 1 in FIG. 6B), the spring It can be considered that the mass damper system is in an equilibrium state, and the displacement due to pitching / bouncing becomes substantially zero.

このため、本実施形態では、ピッチング/バウンシングの影響が無い基準状態を、観測対象に対応する特徴部の画像データ上における移動速度情報、移動加速度情報又は移動加速度の符合情報に基づいて検出する。具体的に、本実施形態の基準位置判断手段40は、加速度検出手段20により検出された画像データ上における特徴部の移動加速度が、予め設定されたゼロ近傍の所定の閾値未満である場合、自車両が基準状態であると判断する。他の手法として、基準状態位置判断手段40は、加速度検出手段20により検出された画像データ上における特徴部の移動速度が、最大値である場合、自車両が基準状態であると判断する。さらに他の手法として、基準状態位置判断手段40は、加速度検出手段20により検出された画像データ上における特徴部の加速度の符号と先のタイミングに抽出された特徴部の加速度とを比較して、加速度の符合が変化した場合、自車両が基準状態であると判断する。   For this reason, in the present embodiment, a reference state that is not affected by pitching / bouncing is detected based on moving speed information, moving acceleration information, or moving acceleration sign information on the image data of the feature corresponding to the observation target. Specifically, the reference position determination unit 40 according to the present embodiment automatically determines that the movement acceleration of the feature on the image data detected by the acceleration detection unit 20 is less than a predetermined threshold value near zero set in advance. It is determined that the vehicle is in the reference state. As another method, the reference state position determination unit 40 determines that the host vehicle is in the reference state when the moving speed of the feature on the image data detected by the acceleration detection unit 20 is the maximum value. As yet another method, the reference state position determination unit 40 compares the sign of the acceleration of the feature on the image data detected by the acceleration detection unit 20 with the acceleration of the feature extracted at the previous timing, If the sign of acceleration changes, it is determined that the host vehicle is in the reference state.

そして、基準位置判断手段40は自車両が基準状態時における画像データに含まれる特徴部の画像上の位置を基準状態位置として判断する。さらに基準位置判断手段40は、特徴部の基準状態位置を画像データの撮像タイミングと対応づけて記憶する。   Then, the reference position determination unit 40 determines the position on the image of the characteristic part included in the image data when the host vehicle is in the reference state as the reference state position. Further, the reference position determination unit 40 stores the reference state position of the feature portion in association with the image data capturing timing.

「補正量算出手段50」は、基準位置判断手段40により判断された特徴部の画像上の基準状態位置を参照し、特徴抽出手段20により抽出された各特徴部の画像上の補正量を算出する。つまり、補正量算出手段50は、画像データ中の特徴部の移動加速度が所定閾値未満乃至ゼロとなったタイミング、移動速度が略最大となったタイミング又は加速度の符合が反転したタイミングにおける特徴部の位置(基準状態位置)と現タイミングにおける(判断対象となる)特徴部の位置とを比較して、特徴部の画像データ上のずれ量(補正量)を算出する。   The “correction amount calculation means 50” refers to the reference state position on the feature image determined by the reference position determination means 40, and calculates the correction amount on the image of each feature portion extracted by the feature extraction means 20. To do. In other words, the correction amount calculating means 50 determines whether the feature portion in the image data has a characteristic acceleration at a timing at which the moving acceleration of the characteristic portion is less than a predetermined threshold or zero, a timing at which the moving speed is substantially maximum, or a timing at which the sign of the acceleration is reversed. The position (reference state position) is compared with the position of the feature portion (to be determined) at the current timing to calculate the shift amount (correction amount) of the feature portion on the image data.

特に限定されないが、補正量算出手段50は、基準位置判断手段40により判断された特徴部の画像上の基準状態位置に基づいて所定時間経過後の所定タイミングにおける特徴部の予測位置を算出し、当該算出された特徴部の予測位置と、その所定タイミングにおいて撮像された画像データの特徴部の観測位置とを比較し、特徴抽出手段20により抽出された各特徴部の画像上の補正量を算出する。   Although not particularly limited, the correction amount calculation unit 50 calculates the predicted position of the feature portion at a predetermined timing after the elapse of a predetermined time based on the reference state position on the image of the feature portion determined by the reference position determination unit 40, The calculated predicted position of the feature portion is compared with the observation position of the feature portion of the image data captured at the predetermined timing, and the correction amount on the image of each feature portion extracted by the feature extraction unit 20 is calculated. To do.

補正量(ずれ量)の算出手法の一例を説明する。加速度がゼロとなったときの特徴部の位置を時系列で連続して観測したとき、任意のタイミングからΔt秒後のy座標位置は、以下のように表現できる。ここでは、観測対象の特徴部の位置をy(t)およびy(t)とし、特徴部の画像上の加速度がゼロ(又は速度が略最大)となり、次に加速度がゼロ(速度が略最大)となるまでの時間をTとし、時刻tからΔtだけ時刻が経過した時点t+Δtにおける特徴部の画像上の位置y(t+Δt)を示した。

Figure 2006163607
An example of a correction amount (deviation amount) calculation method will be described. When the position of the characteristic portion when the acceleration becomes zero is continuously observed in time series, the y coordinate position after Δt seconds from an arbitrary timing can be expressed as follows. Here, the position of the feature to be observed is y (t 0 ) and y (t 1 ), the acceleration on the image of the feature is zero (or the velocity is almost maximum), and then the acceleration is zero (the velocity is The time until reaching (approximately the maximum) is T, and the position y (t 1 + Δt) of the feature portion on the image at the time t 1 + Δt when the time has elapsed by Δt from the time t 1 is shown.
Figure 2006163607


したがって、観測対象の画像上のy座標位置をY(t+Δt)とすると、ピッチング/バウンシングにより生じている画像上の位置変位Δyは、下式により求めることができる。

Figure 2006163607

Therefore, if the y coordinate position on the image to be observed is Y (t 1 + Δt), the position displacement Δy on the image caused by pitching / bouncing can be obtained by the following equation.
Figure 2006163607


このように、記憶された先のタイミングにおける基準状態位置に基づいて、ピッチングやバウンシングが生じていない状況下であって、所定タイミングにおける特徴部の画像データ上の位置を予測し、現時点で実際に観測された特徴部の画像上の位置と比較/変換することにより、現時点を含む所定タイミングにおける画像データのずれ量(補正量)を算出することができる。算出した補正量は、画像データを補正する画像データ補正手段60へ出力してもよいし、車両姿勢検出装置300、走行支援装置400、障害物検出装置500その他の外部装置に向けて出力してもよい。

In this way, based on the stored reference state position at the previous timing, the position on the image data of the feature portion at the predetermined timing is predicted under the situation where no pitching or bouncing has occurred, By comparing / converting the observed feature position on the image, the shift amount (correction amount) of the image data at a predetermined timing including the current time can be calculated. The calculated correction amount may be output to the image data correction unit 60 that corrects the image data, or output to the vehicle posture detection device 300, the travel support device 400, the obstacle detection device 500, and other external devices. Also good.

補正量算出手段50により算出された補正量(ずれ量)から、自車両のピッチングにより生じるピッチ角変化量およびバウンシングにより生じる撮像高変化量を導出することもできる。補正量から導出されたピッチ角および撮像高に関する情報は、対象物の距離計測や対象物への衝突時間推定(以下TTC)に用いることができる。例えば、観測対象と自車両の衝突時間推定(TTC)の推定において、自車両(カメラ)と観測対象が上下に大きく変化しない場合、観測対象に対応する特徴部の画像上の位置と画像上の移動速度から、式:衝突時間(TTC) = y / vから算出することができる。ここでyは、処理原点を消失点としたときの観測対象の画像上の縦座標値であり、vは観測対象の縦方向の移動速度である。 From the correction amount (deviation amount) calculated by the correction amount calculation means 50, it is also possible to derive the pitch angle change amount caused by pitching of the host vehicle and the imaging height change amount caused by bouncing. Information on the pitch angle and the imaging height derived from the correction amount can be used for distance measurement of the object and estimation of the collision time with the object (hereinafter referred to as TTC). For example, in the estimation of the collision time estimation (TTC) between the observation target and the own vehicle, when the own vehicle (camera) and the observation target do not change significantly in the vertical direction, the position of the feature corresponding to the observation target on the image From the moving speed, it can be calculated from the formula: collision time (TTC) = y / v y . Here, y is the ordinate value on the observation target image when the processing origin is the vanishing point, and vy is the vertical movement speed of the observation target.

以上のように構成された画像処理装置の100の動作を説明する。画像処理装置100の制御手順を図7のフローチャートに示した。
まず、ステップS1で撮像装置200の撮像手段(カメラ)210は自車両(移動体)の周囲を所定のタイミングで連続的に撮像し、撮像された画像データをフレームメモリ220に格納する(S1)。
The operation of the image processing apparatus 100 configured as described above will be described. The control procedure of the image processing apparatus 100 is shown in the flowchart of FIG.
First, in step S1, the imaging means (camera) 210 of the imaging apparatus 200 continuously captures the surroundings of the host vehicle (moving body) at a predetermined timing, and stores the captured image data in the frame memory 220 (S1). .

ステップS2では画像処理装置100の画像データ取得手段10が、記憶された画像データを順次取得する(S2)。ステップS3では、特徴抽出手段20が取得した画像データから、観測対象の動きを追跡できるパターン又は領域である、観測対象に対応する特徴部を抽出する(S3)。   In step S2, the image data acquisition means 10 of the image processing apparatus 100 sequentially acquires stored image data (S2). In step S3, a feature portion corresponding to the observation target, which is a pattern or region in which the movement of the observation target can be tracked, is extracted from the image data acquired by the feature extraction unit 20 (S3).

ステップS4では、連続するフレーム間において、S3で抽出された特徴部の追跡処理を行い、特徴部の画像データ上における位置を計測する(S4)。   In step S4, the feature portion extracted in S3 is tracked between successive frames, and the position of the feature portion on the image data is measured (S4).

ステップS5では、加速度算出手段30が、S4で得た特徴部の時系列の位置情報に基づいて移動する特徴部の加速度又は速度を算出する(S5)。   In step S5, the acceleration calculation means 30 calculates the acceleration or speed of the moving feature based on the time-series position information of the feature obtained in S4 (S5).

ステップS6では、基準位置判断手段40が、S5で算出された加速度が所定閾値以下であるか否かを判断する(S6)、設定される加速度の閾値はゼロ又はゼロ近傍の値であることが好ましい。このS6において、S5で算出された速度が略最大であるか否かを判断するようにしてもよい。さらに、このS6において、S5で算出された加速度の符合が反転したか否かを判断するようにしてもよい。   In step S6, the reference position determination means 40 determines whether or not the acceleration calculated in S5 is equal to or less than a predetermined threshold (S6). The set acceleration threshold is zero or a value near zero. preferable. In S6, it may be determined whether or not the speed calculated in S5 is substantially maximum. Further, in S6, it may be determined whether or not the sign of the acceleration calculated in S5 is reversed.

ステップS6において、基準位置判断手段40が、加速度は所定閾値未満である(又は速度は略最大値である、又は加速度の符合は反転した)と判断した場合、ステップS7へ進み、S4により得られる特徴部の座標値を「基準状態位置」として記憶する(S7)。「基準状態位置」はこの画像データが撮像された撮像タイミングと対応づけて格納することが好ましい。記憶装置70へ格納後、ステップS9へ進む。   In step S6, when the reference position determination means 40 determines that the acceleration is less than the predetermined threshold (or the speed is substantially the maximum value, or the sign of the acceleration is reversed), the process proceeds to step S7 and is obtained by S4. The coordinate value of the feature is stored as “reference state position” (S7). The “reference state position” is preferably stored in association with the imaging timing at which this image data was captured. After storing in the storage device 70, the process proceeds to step S9.

ステップS6において、基準位置判断手段40が、加速度は所定閾値未満でない(又は速度は略最大ではない、又は加速度の符合は変化していない)と判断した場合、ステップS7において記憶された「基準状態位置」を読み出す(S8)。ステップS9において、最新の基準状態位置が得られた時刻(タイミングt1)から所定の時間Δt経過後の所定タイミングにおける、ピッチング/バウンシングが発生していない場合の推定位置を算出する(S9)。   When the reference position determination means 40 determines in step S6 that the acceleration is not less than a predetermined threshold (or the speed is not substantially maximum or the sign of the acceleration has not changed), the “reference state” stored in step S7 "Position" is read (S8). In step S9, an estimated position when pitching / bouncing has not occurred at a predetermined timing after the elapse of a predetermined time Δt from the time (timing t1) when the latest reference state position is obtained is calculated (S9).

補正量算出手段50は、実際にS4において観測された特徴部の位置と、S9において算出されたピッチング/バウンシングが発生していない場合の推定位置とを比較して、現在時点におけるピッチング/バウンシングにより生じた特徴部の画像上の変位を算出する。この変位に基づいて、画像データの補正量又はずれ量を求める。   The correction amount calculation means 50 compares the actual position of the feature observed in S4 with the estimated position calculated in S9 when no pitching / bouncing has occurred, and performs the pitching / bouncing at the current time point. The displacement of the generated feature on the image is calculated. Based on this displacement, a correction amount or deviation amount of the image data is obtained.

算出された補正量(ずれ量)は、画像データ補正手段60へ送出される。画像データ補正手段60は、補正量に基づいて画像データを補正する。これにより、ピッチング又はバウンシングに起因する画像のずれが補正され、正確な画像データを得ることができる。なお、補正した画像データを外部装置(車両姿勢検出装置300、走行支援装置400、又は障害物検出装置500)へ送出することができる。算出された補正量は、車両姿勢検出装置300、走行支援装置400、又は障害物検出装置500に送出され(S11)、画像データの補正量として利用されるほか、ピッチ角又は撮像高の補正量として利用される。   The calculated correction amount (deviation amount) is sent to the image data correction means 60. The image data correction unit 60 corrects the image data based on the correction amount. Thereby, the image shift due to pitching or bouncing is corrected, and accurate image data can be obtained. The corrected image data can be sent to an external device (the vehicle attitude detection device 300, the travel support device 400, or the obstacle detection device 500). The calculated correction amount is sent to the vehicle posture detection device 300, the driving support device 400, or the obstacle detection device 500 (S11), and is used as a correction amount for image data, as well as a correction amount for pitch angle or imaging height. Used as

本実施形態の画像処理装置100によれば、レーンマーカ等のリファレンスやマークが無い場合であっても、ピッチング/バウンシングにより生じた画像上の位置誤差を算出することができ、画像上の補正量、自車両のピッチ角、又は撮像高の変化量を計測することができる。   According to the image processing apparatus 100 of the present embodiment, even when there is no reference or mark such as a lane marker, the position error on the image caused by pitching / bouncing can be calculated, and the correction amount on the image, The pitch angle of the host vehicle or the amount of change in imaging height can be measured.

また、ピッチング/バウンシングを要因とするずれ量を正確に求めることができるため、適切な補正量を算出し、車両の挙動による影響を排除した正確な画像データを得ることができる。例えば、ピッチングが発生していないにもかかわらず、他の要因によって生じた変位に基づいてピッチング補正を行ってしまうといった誤った補正処理を行うことがない。   In addition, since the shift amount caused by pitching / bouncing can be obtained accurately, an appropriate correction amount can be calculated, and accurate image data that eliminates the influence of the vehicle behavior can be obtained. For example, although no pitching has occurred, an erroneous correction process is not performed in which pitching correction is performed based on a displacement caused by other factors.

本実施形態の画像処理装置100は、画像上における特徴部の加速度が略ゼロ(所定閾値以下)となったとき、速度が最大となったとき、又は加速度の符号が変化したときを、
移動体にピッチング/バウンシングが生じていない基準状態と判断し、移動体が基準状態にあるタイミングにおいて撮像された画像データの特徴部の位置に基づいて、画像データのずれ量を算出するため、ピッチングおよびバウンシングによる影響を排除した補正量を算出することができる。
The image processing apparatus 100 according to the present embodiment, when the acceleration of the feature on the image becomes substantially zero (below a predetermined threshold), when the speed becomes maximum, or when the sign of the acceleration changes.
Pitching is performed because it is determined that the moving body is in a reference state in which no pitching / bouncing has occurred and the moving amount of the image data is calculated based on the position of the feature of the image data captured at the timing when the moving body is in the reference state. Further, it is possible to calculate a correction amount that eliminates the influence of bouncing.

また、移動体が基準状態である場合に撮像された特徴部の画像上の位置を、時間的に外挿して実際に観測された画像データの補正量(ずれ量)を算出することにより、ピッチングおよびバウンシングの影響を排除した、より正確な補正量を算出することができる。   In addition, pitching is performed by extrapolating temporally the position of the imaged feature on the moving object in the reference state and calculating the correction amount (deviation amount) of the actually observed image data. Further, it is possible to calculate a more accurate correction amount that eliminates the influence of bouncing.

本明細書では、画像処理装置100を例にして説明したが、本願の画像処理方法を使用した場合も、同様に作用し、同様の効果を奏する。   In the present specification, the image processing apparatus 100 has been described as an example. However, when the image processing method of the present application is used, the image processing apparatus 100 operates in the same manner and has the same effects.

なお、以上説明した実施形態は、本発明の理解を容易にするために記載されたものであって、本発明を限定するために記載されたものではない。したがって、上記の実施形態に開示された各要素は、本発明の技術的範囲に属する全ての設計変更や均等物をも含む趣旨である。   The embodiment described above is described for facilitating the understanding of the present invention, and is not described for limiting the present invention. Therefore, each element disclosed in the above embodiment is intended to include all design changes and equivalents belonging to the technical scope of the present invention.

画像処理装置のブロック構成図である。It is a block block diagram of an image processing apparatus. (A)(B)は、自車両の状態を説明する第1の図である。(A) (B) is the 1st figure explaining the state of the own vehicle. (A)(B)は、図2(A)(B)の状態において撮像された観測対象(先行車)n画像データを示す図である。(A) (B) is a figure which shows the observation object (preceding vehicle) n image data imaged in the state of FIG. 2 (A) (B). (A)(B)は、自車両の状態を説明する第2の図である。(A) (B) is the 2nd figure explaining the state of the own vehicle. (A)(B)は、図3(A)(B)の状態において撮像された観測対象(先行車)n画像データを示す図である。(A) (B) is a figure which shows the observation object (preceding vehicle) n image data imaged in the state of FIG. 3 (A) (B). (A)(B)(C)は、画像上のy座標位置の経時的変化を示す図である。(A) (B) (C) is a figure which shows the time-dependent change of the y coordinate position on an image. 画像処理装置の制御手順を示す図である。It is a figure which shows the control procedure of an image processing apparatus.

符号の説明Explanation of symbols

100…画像処理装置
10…画像データ取得手段
20…特徴抽出手段
30…加速度検出手段
40…基準位置判断手段
50…補正量算出手段
60…画像データ補正手段
70…記憶装置
200…撮像装置
210…撮像手段
220…フレームメモリ
300…車両姿勢検出装置
400…走行支援装置
500…障害物検出装置


DESCRIPTION OF SYMBOLS 100 ... Image processing apparatus 10 ... Image data acquisition means 20 ... Feature extraction means 30 ... Acceleration detection means 40 ... Reference position judgment means 50 ... Correction amount calculation means 60 ... Image data correction means 70 ... Storage device 200 ... Imaging device 210 ... Imaging Means 220 ... Frame memory 300 ... Vehicle posture detection device 400 ... Driving support device 500 ... Obstacle detection device


Claims (14)

移動体に搭載され、当該移動体の周囲を所定のタイミングで連続的に撮像する撮像装置から画像データを順次取得する画像データ取得手段と、
前記画像データ取得手段により取得された各画像データから特徴部を抽出する特徴抽出手段と、
前記特徴抽出手段により抽出された各特徴部の速度又は加速度を検出する加速度検出手段と、
前記加速度検出手段により検出された各特徴部の速度又は加速度に基づいて、特徴部の基準状態位置を判断する基準位置判断手段と、
前記基準位置判断手段により判断された特徴部の基準状態位置に基づいて、前記移動体の挙動に起因する画像データの補正量を算出して出力する補正量算出手段とを有する画像処理装置。
An image data acquisition unit that is mounted on a mobile body and sequentially acquires image data from an imaging device that continuously images the periphery of the mobile body at a predetermined timing;
Feature extraction means for extracting a feature from each image data acquired by the image data acquisition means;
Acceleration detecting means for detecting the speed or acceleration of each feature extracted by the feature extracting means;
Reference position determination means for determining a reference state position of the feature based on the speed or acceleration of each feature detected by the acceleration detection means;
An image processing apparatus comprising: a correction amount calculation unit that calculates and outputs a correction amount of image data caused by the behavior of the moving body based on the reference state position of the characteristic portion determined by the reference position determination unit.
前記基準位置判断手段は、前記加速度検出手段により検出された各特徴部の加速度が所定の閾値未満である画像データを抽出し、当該画像データに含まれる特徴部の画像上の位置を基準状態位置として判断するとともに、基準状態位置を前記画像データの撮像タイミングに対応づけて記憶する請求項1に記載の画像処理装置。   The reference position determination means extracts image data in which the acceleration of each feature detected by the acceleration detection means is less than a predetermined threshold, and determines the position on the image of the feature included in the image data as a reference state position The image processing apparatus according to claim 1, wherein the reference state position is stored in association with the imaging timing of the image data. 前記所定の閾値は、ゼロ近傍の値である請求項2に記載の画像処理装置。   The image processing apparatus according to claim 2, wherein the predetermined threshold is a value near zero. 前記基準位置判断手段は、前記加速度検出手段により検出された各特徴部の速度が略最大である画像データを抽出し、当該画像データに含まれる特徴部の画像上の位置を基準状態位置として判断するとともに、基準状態位置を前記画像データの撮像タイミングに対応づけて記憶する請求項1に記載の画像処理装置。   The reference position determination unit extracts image data in which the speed of each feature detected by the acceleration detection unit is approximately maximum, and determines the position on the image of the feature included in the image data as a reference state position. The image processing apparatus according to claim 1, wherein a reference state position is stored in association with an imaging timing of the image data. 前記基準位置判断手段は、前記加速度検出手段により検出された各特徴部の加速度の符号が変化した画像データを抽出し、当該画像データに含まれる特徴部の画像上の位置を基準状態位置として判断するとともに、基準状態位置を前記画像データの撮像タイミングに対応づけて記憶する請求項1に記載の画像処理装置。   The reference position determination unit extracts image data in which the sign of acceleration of each feature detected by the acceleration detection unit is changed, and determines a position on the image of the feature included in the image data as a reference state position. The image processing apparatus according to claim 1, wherein a reference state position is stored in association with an imaging timing of the image data. 前記補正量算出手段は、前記基準位置判断手段により判断された特徴部の基準状態位置に基づいて所定時間経過後の所定タイミングにおける特徴部の予測位置を算出し、当該算出された特徴部の予測位置と、当該所定タイミングにおいて撮像された画像データの特徴部の観測位置とを比較し、前記特徴抽出手段により抽出された各特徴部の画像上のずれ量から前記補正量を算出する請求項1〜5のいずれかに記載の画像処理装置。   The correction amount calculating means calculates a predicted position of the feature at a predetermined timing after a predetermined time based on the reference state position of the feature determined by the reference position determining means, and predicts the calculated feature 2. The correction amount is calculated from a shift amount on the image of each feature portion extracted by the feature extraction unit by comparing the position and the observation position of the feature portion of the image data captured at the predetermined timing. The image processing device according to any one of? 前記補正量算出手段により算出された補正量に基づいて、前記画像データを補正する画像データ補正手段をさらに備えた請求項1〜6のいずれかに記載の画像処理装置。   The image processing apparatus according to claim 1, further comprising an image data correction unit that corrects the image data based on the correction amount calculated by the correction amount calculation unit. 移動体の周囲を所定のタイミングで連続的に撮像する撮像装置から画像データを順次取得するステップと、
前記取得された各画像データから特徴部を抽出するステップと、
前記抽出された各特徴部の速度又は加速度を検出するステップと、
前記検出された各特徴部の速度又は加速度に基づいて特徴部の基準状態位置を判断するステップと、
前記判断された特徴部の基準状態位置に基づいて、前記移動体の挙動に起因する画像データの補正量を算出するステップとを有する画像処理方法。
Sequentially acquiring image data from an imaging device that continuously images the periphery of the moving object at a predetermined timing;
Extracting a feature from each acquired image data;
Detecting the speed or acceleration of each extracted feature;
Determining a reference state position of the feature based on the detected speed or acceleration of each feature;
And calculating a correction amount of the image data resulting from the behavior of the moving body based on the determined reference state position of the characteristic portion.
前記基準状態位置を判断するステップは、
前記検出された各特徴部の加速度が所定の閾値未満である画像データを抽出するステップと、
当該抽出された画像データに含まれる特徴部の画像上の位置を基準状態位置として判断するステップと、
当該判断された基準状態位置を前記画像データの撮像タイミングに対応づけて記憶するステップとを有する請求項8に記載の画像処理方法。
The step of determining the reference state position includes:
Extracting image data in which the detected acceleration of each feature is less than a predetermined threshold;
Determining the position on the image of the feature portion included in the extracted image data as a reference state position;
The image processing method according to claim 8, further comprising a step of storing the determined reference state position in association with the imaging timing of the image data.
前記所定の閾値は、ゼロ近傍の値である請求項9に記載の画像処理方法。   The image processing method according to claim 9, wherein the predetermined threshold is a value near zero. 前記基準状態位置を判断するステップは、
前記検出された各特徴部の速度が略最大である画像データを抽出するステップと、
当該抽出された画像データに含まれる特徴部の画像上の位置を基準状態位置として判断するステップと、
当該判断された基準状態位置を前記画像データの撮像タイミングに対応づけて記憶するステップとを有する請求項8に記載の画像処理方法。
The step of determining the reference state position includes:
Extracting image data in which the speed of each detected feature is approximately maximum;
Determining the position on the image of the feature portion included in the extracted image data as a reference state position;
The image processing method according to claim 8, further comprising a step of storing the determined reference state position in association with the imaging timing of the image data.
前記基準状態位置を判断するステップは、
前記検出された各特徴部の加速度の符号が変化した画像データを抽出するステップと、
当該抽出された画像データに含まれる特徴部の画像上の位置を基準状態位置として判断するステップと、
当該判断された基準状態位置を前記画像データの撮像タイミングに対応づけて記憶するステップとを有する請求項8に記載の画像処理方法。
The step of determining the reference state position includes:
Extracting image data in which the sign of acceleration of each detected feature has changed;
Determining the position on the image of the feature portion included in the extracted image data as a reference state position;
The image processing method according to claim 8, further comprising a step of storing the determined reference state position in association with the imaging timing of the image data.
前記補正量を算出するステップは、前記判断された特徴部の基準状態位置に基づいて所定時間経過後の所定タイミングにおける特徴部の予測位置と、当該所定タイミングにおいて撮像された画像データの特徴部の観測位置とを比較し、前記抽出された各特徴部の画像上の補正量を算出する請求項8〜12のいずれかに記載の画像処理方法。   The step of calculating the correction amount includes: a predicted position of the feature portion at a predetermined timing after a lapse of a predetermined time based on the determined reference state position of the feature portion; and a feature portion of image data captured at the predetermined timing. The image processing method according to claim 8, wherein a correction amount on the image of each extracted characteristic part is calculated by comparing with an observation position. 前記算出された補正量に基づいて、前記画像データを補正するステップをさらに有する請求項8〜13のいずれかに記載の画像処理方法。

The image processing method according to claim 8, further comprising a step of correcting the image data based on the calculated correction amount.

JP2004351577A 2004-12-03 2004-12-03 Image processing apparatus and image processing method Expired - Fee Related JP4196211B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004351577A JP4196211B2 (en) 2004-12-03 2004-12-03 Image processing apparatus and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004351577A JP4196211B2 (en) 2004-12-03 2004-12-03 Image processing apparatus and image processing method

Publications (2)

Publication Number Publication Date
JP2006163607A true JP2006163607A (en) 2006-06-22
JP4196211B2 JP4196211B2 (en) 2008-12-17

Family

ID=36665580

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004351577A Expired - Fee Related JP4196211B2 (en) 2004-12-03 2004-12-03 Image processing apparatus and image processing method

Country Status (1)

Country Link
JP (1) JP4196211B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011170750A (en) * 2010-02-22 2011-09-01 Denso Corp White line recognition device
KR101486804B1 (en) 2013-03-15 2015-01-29 주식회사 엡스 Speed measuring method without loop
JP2016125999A (en) * 2014-12-26 2016-07-11 株式会社デンソー Pitching determination device
JP2017151764A (en) * 2016-02-25 2017-08-31 トヨタ自動車株式会社 Travelling control device

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011170750A (en) * 2010-02-22 2011-09-01 Denso Corp White line recognition device
KR101486804B1 (en) 2013-03-15 2015-01-29 주식회사 엡스 Speed measuring method without loop
JP2016125999A (en) * 2014-12-26 2016-07-11 株式会社デンソー Pitching determination device
JP2017151764A (en) * 2016-02-25 2017-08-31 トヨタ自動車株式会社 Travelling control device

Also Published As

Publication number Publication date
JP4196211B2 (en) 2008-12-17

Similar Documents

Publication Publication Date Title
JP5761451B2 (en) Road surface condition estimation device
JP4962581B2 (en) Lane marking detector
JP5804185B2 (en) Moving object position / orientation estimation apparatus and moving object position / orientation estimation method
JP6458651B2 (en) Road marking detection device and road marking detection method
US8350909B2 (en) Method and in-vehicle device for correcting alignment information representative of the alignment of an in-vehicle camera
CN107121132B (en) Method and device for obtaining vehicle environment image and method for identifying object in environment
EP2541465A2 (en) Vehicle periphery monitoring system
US20120070088A1 (en) Picture image processor, method for processing picture image and method for processing picture image
WO2015125298A1 (en) Local location computation device and local location computation method
JP2011065338A (en) Object tracking device and program
JP6780648B2 (en) Information processing equipment, information processing methods, and programs
JP6708730B2 (en) Mobile
JP5663411B2 (en) Ranging device
KR20180021159A (en) Signaling device and signaling device recognition method
WO2015125299A1 (en) Local location computation device and local location computation method
EP1820020B1 (en) Apparatus and method for detecting objects
JP5587250B2 (en) Ranging device
JP2009012521A (en) Traveling support system and traveling support method for vehicle
JP6838365B2 (en) Self-position estimation method and self-position estimation device
JP5304064B2 (en) Speed measuring device and speed measuring method
JP5107154B2 (en) Motion estimation device
JP4196211B2 (en) Image processing apparatus and image processing method
JP4069919B2 (en) Collision determination device and method
JP5425500B2 (en) Calibration apparatus and calibration method
JP6184447B2 (en) Estimation apparatus and estimation program

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20071204

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080110

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20080110

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080212

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20080520

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080617

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080730

A911 Transfer of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20080813

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080903

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080916

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111010

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121010

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121010

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131010

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees