JP2020074136A - Detection device, detection method, detection program and recording medium - Google Patents

Detection device, detection method, detection program and recording medium Download PDF

Info

Publication number
JP2020074136A
JP2020074136A JP2020001175A JP2020001175A JP2020074136A JP 2020074136 A JP2020074136 A JP 2020074136A JP 2020001175 A JP2020001175 A JP 2020001175A JP 2020001175 A JP2020001175 A JP 2020001175A JP 2020074136 A JP2020074136 A JP 2020074136A
Authority
JP
Japan
Prior art keywords
unit
pixel
white line
captured image
calibration
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020001175A
Other languages
Japanese (ja)
Inventor
加藤 正浩
Masahiro Kato
正浩 加藤
和俊 北野
Kazutoshi Kitano
和俊 北野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pioneer Corp
Original Assignee
Pioneer Electronic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pioneer Electronic Corp filed Critical Pioneer Electronic Corp
Priority to JP2020001175A priority Critical patent/JP2020074136A/en
Publication of JP2020074136A publication Critical patent/JP2020074136A/en
Priority to JP2021195884A priority patent/JP2022033130A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Traffic Control Systems (AREA)

Abstract

To perform calibration corresponding to a change even if a distance between an imaging part and a road face is changed due to a change in the weight of a moving body and a change in the pneumatic pressure of wheels.SOLUTION: A moving amount detection part 321a detects a pixel moving amount on the basis of a captured imaged image which is captured by an imaging part 210 with respect to a stop line being a feature part on a road face having a well-known length along a traveling direction of a moving body MV. A specification part 322A specifies a white line region in the captured image. Then, when it is determined that the moving body MV linearly travels on the flat road face at a constant velocity, the calibration part 323A calibrates a distance on the road face corresponding to one pixel related to a distance between the imaging part 210 and the road face, on the basis of the well-known length along the traveling direction of the moving body MV on the stop line, in addition to the pixel moving amount and a specified result of the white line region in the captured image.SELECTED DRAWING: Figure 4

Description

本発明は、検出装置、検出方法及び検出プログラム、並びに、当該検出プログラムが記録された記録媒体に関する。   The present invention relates to a detection device, a detection method and a detection program, and a recording medium having the detection program recorded therein.

車両等の移動体の車輪速度と移動体速度との差を正規化したスリップ率λと、車輪と路面間とのグリップ力を正規化した摩擦係数μは、図1及び図2に示されるような関係(以下、「μ―λ特性」という)となっている。ここで、図1には駆動時のμ―λ特性が示され、図2には制動時のμ―λ特性との関係が示されている。   The slip ratio λ that normalizes the difference between the wheel speed of a moving body such as a vehicle and the moving body speed, and the friction coefficient μ that normalizes the grip force between the wheel and the road surface are as shown in FIGS. 1 and 2. (Hereinafter referred to as “μ-λ characteristic”). Here, FIG. 1 shows the μ-λ characteristic during driving, and FIG. 2 shows the relationship with the μ-λ characteristic during braking.

なお、図1及び図2においては、乾燥路面におけるμ―λ特性が実線にて示され、湿潤路面におけるμ―λ特性が一点鎖線にて示されるとともに、凍結路面におけるμ―λ特性が二点鎖線にて示されている。   1 and 2, the μ-λ characteristic on a dry road surface is shown by a solid line, the μ-λ characteristic on a wet road surface is shown by a chain line, and the μ-λ characteristic on a frozen road surface is shown by two points. It is shown by the dashed line.

図1に示される駆動時のスリップ率λの増加に伴う摩擦係数μの変化において、摩擦係数μが最大となるスリップ率よりも小さな状態が、移動体が安定して走行できる安定領域となっている。一方、摩擦係数μが最大となるスリップ率よりも大きな状態では、グリップ力が低下して最悪な場合は空転やロック現象が生じる不安定領域となっている。   In the change of the friction coefficient μ accompanying the increase of the slip ratio λ during driving shown in FIG. 1, a state where the friction coefficient μ is smaller than the maximum slip ratio is a stable region in which the moving body can stably travel. There is. On the other hand, in a state where the friction coefficient μ is larger than the maximum slip ratio, the grip force is reduced, and in the worst case, an idling or locking phenomenon occurs, which is an unstable region.

図2に示される制動時のスリップ率λの増加に伴う摩擦係数μの変化において、摩擦係数μが最小となるスリップ率よりも大きな状態が、安定領域となっている。一方、摩擦係数μが最小となるスリップ率よりも小さな状態では、不安定領域となっている。   In the variation of the friction coefficient μ with the increase of the slip ratio λ during braking shown in FIG. 2, the stable region is a state in which the friction coefficient μ is larger than the minimum slip ratio. On the other hand, in the state where the friction coefficient μ is smaller than the minimum slip ratio, the region is unstable.

そして、摩擦係数μの絶対値が最大値となるスリップ率の絶対値以下の範囲にスリップ率λを制御すれば、移動体は安定走行を維持することができる。一方、不安定状態が継続してタイヤの空転やロックが生じると、車両の駆動・制動・操舵のコントロールが不能になる。   Then, if the slip ratio λ is controlled within a range equal to or smaller than the absolute value of the slip ratio at which the absolute value of the friction coefficient μ becomes the maximum value, the moving body can maintain stable traveling. On the other hand, if the unstable state continues and the tire slips or locks, control of driving, braking, and steering of the vehicle becomes impossible.

このため、事故の危険を回避するため、内燃機関自動車では主にブレーキ油圧制御とエンジン制御とを用いたABS(Antilock Brake System)等が採用されている。こうしたABS等では、スリップ状態を判断し、エンジンの駆動トルクとブレーキ油圧の制動トルクとを制御して、安定領域に近づける制御を行う。また、電気自動車においても、スリップ率λを推定して、モータのトルクを適切に制御することで、安定領域内に維持するようなアンチスリップ制御が提案されている。このように、スリップ率λを検知することは、走行状態を把握する上で非常に重要となっている。   Therefore, in order to avoid the risk of accidents, an ABS (Antilock Brake System) mainly using brake hydraulic pressure control and engine control is adopted in an internal combustion engine vehicle. In such an ABS or the like, the slip state is determined, and the drive torque of the engine and the braking torque of the brake hydraulic pressure are controlled to bring the control close to the stable region. Also in electric vehicles, anti-slip control has been proposed in which the slip ratio λ is estimated and the torque of the motor is appropriately controlled to maintain the slip ratio in a stable region. Thus, detecting the slip ratio λ is very important for understanding the running state.

さて、スリップ率λは次の(1)式により算出するため、車輪半径rと、回転角速度ωと、移動体速度vとが必要となる。
λ=(r・ω−v)/Max(r・ω,v) …(1)
Since the slip ratio λ is calculated by the following equation (1), the wheel radius r, the rotational angular velocity ω, and the moving body velocity v are required.
λ = (r · ω−v) / Max (r · ω, v) (1)

ここで、Max(r・ω,v)は、(r・ω)とvとの数値の大きな方を示す。駆動時には、(r・ω)がvよりも大きいため、Max(r・ω,v)=r・ωである。一方、制動時には、vが(r・ω)よりも大きいため、Max(r・ω,v)=vである。   Here, Max (r · ω, v) represents the larger one of (r · ω) and v. At the time of driving, since (r · ω) is larger than v, Max (r · ω, v) = r · ω. On the other hand, during braking, v is larger than (r · ω), and thus Max (r · ω, v) = v.

なお、例えば、移動体が自動車の場合には、車輪の空気圧が十分であれば車輪半径rは一定と考えられる。また、回転角速度ωは車輪に搭載したエンコーダのパルス出力や、電気自動車であればモータに接続してあるレゾルバの信号出力から検出が可能である。   For example, when the moving body is an automobile, the wheel radius r is considered to be constant if the air pressure of the wheels is sufficient. Further, the rotational angular velocity ω can be detected from a pulse output of an encoder mounted on a wheel or, in the case of an electric vehicle, a signal output of a resolver connected to a motor.

一方,移動体速度vを検知する方法としては、以下の(a)〜(c)が一般的に挙げられる。
(a)非駆動輪の回転速度から算出
(b)加速度センサにより検出された加速度値を積分して算出
(c)光学的なセンサによる検出結果に基づく算出
On the other hand, the following (a) to (c) are generally mentioned as a method for detecting the moving body speed v.
(A) Calculated from the rotational speed of the non-driving wheel (b) Calculated by integrating the acceleration value detected by the acceleration sensor (c) Calculated based on the detection result by the optical sensor

ここで、(a)の方法は、ブレーキは全ての車輪にかかるので、制動時の移動体速度vを検知することができない。また、4輪駆動の場合には、非駆動輪が存在しないので、移動体速度vを検知することができない。   Here, in the method of (a), since the brake is applied to all the wheels, the moving body speed v at the time of braking cannot be detected. Further, in the case of four-wheel drive, since there are no non-driving wheels, the moving body speed v cannot be detected.

また、(b)の方法では、加速度センサの出力を積分するため、加速度センサの出力に存在するオフセットが蓄積されてしまう。この結果、移動体速度vを正確に検知することができない。   Further, in the method of (b), since the output of the acceleration sensor is integrated, the offset existing in the output of the acceleration sensor is accumulated. As a result, the moving body speed v cannot be detected accurately.

これらの(a)及び(b)の方法の欠点が原理的に存在しない(c)の方法が期待されている。かかる(c)の方法を採用した技術として、特許文献1に記載の技術が提案されている(以下、「従来例」と呼ぶ)。この従来例の技術では、自車両の近傍の光景を撮像した画像信号から、車両の走行状態または停止状態を判定する。また、画像における道路標示の寸法と、道路上における道路標示の寸法に基づいて、自車両の車体速度(すなわち、移動体速度)を検出するようになっている。なお、従来例の技術では、道路標示が画像内に存在する場合のみ車体速度の検知を行い、道路標示が画像内にない場合は走行/停止の判定のみを行うようになっている。   The method (c) is expected in which the drawbacks of the methods (a) and (b) do not exist in principle. As a technique adopting the method (c), the technique described in Patent Document 1 has been proposed (hereinafter, referred to as "conventional example"). In the technique of this conventional example, the running state or the stopped state of the vehicle is determined from an image signal obtained by capturing an image of a scene near the vehicle. Further, the vehicle body speed of the host vehicle (that is, the moving body speed) is detected based on the size of the road marking on the image and the size of the road marking on the road. In the conventional technology, the vehicle speed is detected only when the road marking is present in the image, and only the running / stopping determination is made when the road marking is not in the image.

特開2009−205642号公報JP, 2009-205642, A

上述した従来例の技術では、撮像画像内に道路標示が存在しない場合には、車体速度を検出しない。この結果、撮像画像内に道路標示が存在しない状態の継続中に車体速度が変化しても、最後に撮像画像内に道路標示が存在していた時点に検出された車体速度をそのまま現時点の車体速度と推定することになる。このため、各時点における車体速度を精度良く検知できるとはいい難かった。   In the technique of the conventional example described above, the vehicle speed is not detected when the road marking does not exist in the captured image. As a result, even if the vehicle speed changes while the road marking is not present in the captured image, the vehicle speed detected at the time when the road marking was last present in the captured image remains as it is. It will be estimated as speed. For this reason, it was difficult to accurately detect the vehicle speed at each time point.

また、従来例の技術では、撮像装置を車体に装着するため、乗車人数や積載荷物の違い、また、車輪の空気圧の違いによって,撮像装置と路面との間の距離が変わる。この結果、撮像倍率が変化するため、撮像画像中における道路標示のサイズが変化することになる。   Further, in the technique of the conventional example, since the image pickup device is mounted on the vehicle body, the distance between the image pickup device and the road surface changes depending on the number of passengers, the load of luggage, and the air pressure of the wheels. As a result, since the imaging magnification changes, the size of the road marking in the captured image changes.

例えば、図3(A)に示されるように、撮像部210が、結像レンズ系211(焦点距離:f)と、正方形の撮像面212(一辺の長さ:D)とを備え、結像レンズ系211から撮像面212までの距離を「d」とする。この場合、直下の路面LDを撮像する場合、結像レンズ系211から路面LDまでの距離(以下、「撮像部210から路面LDまでの距離」ともいう)を「h」とすると、撮像部210による撮像の光学倍率mは、次の(2)式で表される。
m=1/((h/f)−1) …(2)
なお、撮像面212におけるピクセル構成は、NU個×NU個(例えば、30個×30個)となっている。
For example, as illustrated in FIG. 3A, the imaging unit 210 includes an imaging lens system 211 (focal length: f) and a square imaging surface 212 (length of one side: D) to form an image. The distance from the lens system 211 to the imaging surface 212 is “d”. In this case, when the image of the road surface LD directly below is taken, if the distance from the imaging lens system 211 to the road surface LD (hereinafter, also referred to as “the distance from the image pickup unit 210 to the road surface LD”) is “h”, the image pickup unit 210. The optical magnification m of the image pickup by is expressed by the following equation (2).
m = 1 / ((h / f) -1) (2)
The pixel configuration on the imaging surface 212 is NU × NU (for example, 30 × 30).

この結果、路面LD上において撮像対象となる正方形領域の一辺の長さHは、次の(3)式の通りとなる。
H=D/m=D・((h/f)−1) …(3)
As a result, the length H of one side of the square area to be imaged on the road surface LD is expressed by the following equation (3).
H = D / m = D · ((h / f) −1) (3)

例えば、f=8[mm]、D=1.7[mm]、h=495[mm]とすると、H=103.5[mm]となる。   For example, if f = 8 [mm], D = 1.7 [mm], and h = 495 [mm], then H = 103.5 [mm].

さて、図3(B)に示されるように、図3(A)の状態から、車重が重くなり、距離hが短くなって距離h*となると、撮像部210による撮像の光学倍率が、図3(A)の状態における「m」から、次の(4)式で表される「m*」に変化する。
*=1/((h*/f)−1) …(4)
Now, as shown in FIG. 3 (B), when the vehicle weight becomes heavier and the distance h becomes shorter and becomes the distance h * from the state of FIG. 3 (A), the optical magnification of the image pickup by the image pickup unit 210 becomes In the state of FIG. 3A, “m” is changed to “m * ” represented by the following expression (4).
m * = 1 / ((h * / f) -1) (4)

この結果、撮像対象となる正方形領域の一辺の長さが、図3(A)の状態における「H」から、次の(5)式で表される「H*」に変化する。
*=D/m*=D・((h*/f)−1) …(5)
As a result, the length of one side of the square area to be imaged changes from “H” in the state of FIG. 3A to “H * ” represented by the following equation (5).
H * = D / m * = D * ((h * / f) -1) (5)

例えば、h*=445[mm]となると、H*=92.9[mm]となり、上述した図3(A)の状態におけるH=103.5[mm]から10%程度変化する。この結果、1ピクセルの大きさに対応する路面上の領域の大きさも、上述した図3(A)の状態から10%程度変化することになる。 For example, when h * = 445 [mm], H * = 92.9 [mm], which is about 10% change from H = 103.5 [mm] in the state of FIG. As a result, the size of the area on the road surface corresponding to the size of 1 pixel also changes by about 10% from the state of FIG. 3A described above.

ところで、単位時間ごとの撮像画像間の相関によって画像の移動距離を求め、前後方向及び横方向の車体速度を算出するようにした場合、撮像画像における1ピクセルの大きさに対応する路面上の領域の大きさが変化すると、算出される車体速度も変化する。すなわち、1ピクセルの大きさに対応する路面上の領域の大きさが10%程度変化すると、速度算出値も10%程度変化して、誤差が生じることになる。   By the way, when the moving distance of the image is obtained by the correlation between the captured images for each unit time and the vehicle speed in the front-rear direction and the lateral direction is calculated, an area on the road surface corresponding to the size of one pixel in the captured image. If the magnitude of the changes, the calculated vehicle speed also changes. That is, when the size of the area on the road surface corresponding to the size of one pixel changes by about 10%, the calculated speed value also changes by about 10%, which causes an error.

路面変動に対する動的な誤差は、平均化処理によって誤差による影響を少なくできる。しかしながら、車両重量の変化や車輪の空気圧の変化はオフセットとなるため、平均化処理では誤差の影響を抑制することができない。   The dynamic error with respect to the road surface fluctuation can be less affected by the error by the averaging process. However, since the change in vehicle weight and the change in air pressure of the wheels are offset, the influence of error cannot be suppressed by the averaging process.

このため、車両重量の変化や車輪の空気圧の変化が生じても、車体速度を精度良く検出することができる技術が待望されている。かかる要請に応えることが、本発明が解決すべき課題の一つとして挙げられる。   Therefore, there is a demand for a technique capable of accurately detecting the vehicle body speed even when the vehicle weight changes or the wheel air pressure changes. Responding to such a request is one of the problems to be solved by the present invention.

本発明は、上記を鑑みてなされたものであり、車両重量の変化や車輪の空気圧の変化により、路面と撮像部との距離が変化しても、当該変化に応じた較正を行うことができる検出装置及び検出方法を提供することを目的とする。   The present invention has been made in view of the above, and even if the distance between the road surface and the imaging unit changes due to a change in vehicle weight or a change in wheel air pressure, calibration can be performed according to the change. An object is to provide a detection device and a detection method.

請求項1に記載の発明は、移動体に搭載された撮像部により所定時間隔てて進行方向に沿って撮像された、既知の長さを有する路面上特徴部を含む複数の画像を取得する取得部と;前記取得部により取得された複数の画像に基づいて、前記既知の長さに対応する、所定幅の画像領域の数を算出し、当該算出された数と前記既知の長さとに基づいて前記所定幅に対応する前記路面上の距離に関連する距離情報を出力する出力部と;を備えることを特徴とする検出装置である。
請求項4に記載の発明は、移動体に搭載された撮像部により所定時間隔てて進行方向に沿って撮像された路面上特徴部を含む複数の画像を取得する取得部と;前記取得部により取得された複数の画像に基づいて得られた前記画像における所定画像領域の幅に対応する路面上の距離を示す情報を、過去に出力された距離情報に基づいて較正し、較正結果を新たな距離情報として出力する第1出力部と;前記新たな距離情報を利用して、前記移動体の速度を出力する第2出力部と;を備えることを特徴とする検出装置である。
The invention according to claim 1 obtains a plurality of images including a road surface characteristic portion having a known length, which are imaged along an advancing direction at predetermined time intervals by an imaging unit mounted on a moving body. And a number of image areas of a predetermined width corresponding to the known length based on the plurality of images acquired by the acquisition unit, and based on the calculated number and the known length. And an output unit that outputs distance information related to the distance on the road surface corresponding to the predetermined width.
According to a fourth aspect of the present invention, an acquisition unit that acquires a plurality of images including a road surface feature imaged by the imaging unit mounted on the moving body along the traveling direction at predetermined time intervals; The information indicating the distance on the road surface corresponding to the width of the predetermined image area in the image obtained based on the plurality of acquired images is calibrated based on the distance information output in the past, and the calibration result is updated. A detection device, comprising: a first output unit that outputs distance information; and a second output unit that outputs the speed of the moving body using the new distance information.

請求項5に記載の発明は、取得部と、出力部とを備える検出装置において使用される検出方法であって、前記取得部が、移動体に搭載された撮像部により所定時間隔てて進行方向に沿って撮像された、既知の長さを有する路面上特徴部を含む複数の画像を取得する取得工程と;前記出力部が、前記取得工程において取得された複数の画像に基づいて、前記既知の長さに対応する、所定幅の画像領域の数を算出し、当該算出された数と前記既知の長さとに基づいて前記所定幅に対応する前記路面上の距離に関連する距離情報を出力する距離情報出力工程と;を備えることを特徴とする検出方法である。   According to a fifth aspect of the present invention, there is provided a detection method used in a detection device including an acquisition unit and an output unit, wherein the acquisition unit is moved at a predetermined time interval by an imaging unit mounted on a moving body. An acquisition step of acquiring a plurality of images including a road surface characteristic portion having a known length, which are imaged along the; and the output section, based on the plurality of images acquired in the acquisition step, the known step. Calculates the number of image areas of a predetermined width corresponding to the length of, and outputs distance information related to the distance on the road surface corresponding to the predetermined width based on the calculated number and the known length. And a distance information output step of:

請求項6に記載の発明は、検出装置が有するコンピュータに、請求項5に記載の検出方法を実行させる、ことを特徴とする検出プログラムである。   A sixth aspect of the present invention is a detection program that causes a computer included in the detection device to execute the detection method according to the fifth aspect.

請求項7に記載の発明は、検出装置が有するコンピュータにより読み取り可能に、請求項6に記載の検出プログラムが記録されている、ことを特徴とする記録媒体である。   The invention according to claim 7 is a recording medium characterized in that the detection program according to claim 6 is recorded so that it can be read by a computer included in the detection device.

駆動時のスリップ率と摩擦係数との関係を示す図である。It is a figure which shows the relationship between the slip ratio at the time of driving, and a friction coefficient. 制動時のスリップ率と摩擦係数との関係を示す図である。It is a figure which shows the relationship between the slip ratio at the time of braking, and a friction coefficient. 車両重量などの変化による速度算出値の変化を説明するための図である。FIG. 6 is a diagram for explaining a change in a speed calculation value due to a change in vehicle weight or the like. 本発明の第1実施形態に係る検出装置の構成を示す図である。It is a figure which shows the structure of the detection apparatus which concerns on 1st Embodiment of this invention. 図4の移動量検出部の動作を説明するための図である。5 is a diagram for explaining the operation of the movement amount detection unit of FIG. 4. FIG. 第1実施形態における較正環境を説明するための図である。It is a figure for demonstrating the calibration environment in 1st Embodiment. 図4の特定部の動作を説明するための図である。FIG. 5 is a diagram for explaining the operation of the identifying unit in FIG. 4. 図4の較正部による較正動作を説明するための図である。FIG. 5 is a diagram for explaining a calibration operation by the calibration unit of FIG. 4. 本発明の第2実施形態に係る検出装置の構成を示す図である。It is a figure which shows the structure of the detection apparatus which concerns on 2nd Embodiment of this invention. 図9の2個の撮像部の配置位置の関係を説明するための図である。It is a figure for demonstrating the relationship of the arrangement position of two imaging parts of FIG. 第2実施形態における較正環境を説明するための図である。It is a figure for demonstrating the calibration environment in 2nd Embodiment. 図9の特定部の動作を説明するための図である。It is a figure for demonstrating operation | movement of the specific part of FIG. 図9の較正部による較正動作を説明するための図である。FIG. 10 is a diagram for explaining a calibration operation by the calibration unit in FIG. 9. 本発明の第1実施例に係る検出装置の構成を示す図である。It is a figure which shows the structure of the detection apparatus which concerns on 1st Example of this invention. 図14の制御ユニットにより実行されるピクセル移動量の検出処理を説明するためのフローチャートである。15 is a flowchart for explaining a pixel movement amount detection process executed by the control unit of FIG. 14. 図14の制御ユニットにより実行される車体速度の出力処理を説明するためのフローチャートである。16 is a flowchart for explaining a vehicle body speed output process executed by the control unit of FIG. 14. 図14の制御ユニットにより実行される白線領域の特定処理を説明するためのフローチャートである。15 is a flowchart for explaining white line area specifying processing executed by the control unit of FIG. 14. 図14の制御ユニットにより実行される較正条件のモニタ処理を説明するためのフローチャートである。15 is a flowchart for explaining a calibration condition monitoring process executed by the control unit of FIG. 14. 図14の制御ユニットにより実行されるピクセル距離の較正処理を説明するためのフローチャートである。15 is a flowchart for explaining a pixel distance calibration process executed by the control unit of FIG. 14. 本発明の第2実施例に係る検出装置の構成を示す図である。It is a figure which shows the structure of the detection apparatus which concerns on 2nd Example of this invention. 図20の制御ユニットにより実行されるピクセル移動量の検出処理を説明するためのフローチャートである。21 is a flow chart for explaining a pixel movement amount detection process executed by the control unit of FIG. 20. 図20の制御ユニットにより実行される白線領域の特定処理を説明するためのフローチャートである。21 is a flowchart for explaining white line area specifying processing executed by the control unit of FIG. 20. 図20の制御ユニットにより実行されるピクセル距離の較正処理を説明するためのフローチャートである。21 is a flowchart illustrating a pixel distance calibration process executed by the control unit of FIG. 20.

以下、本発明の実施形態を、図4〜図13を参照して説明する。なお、以下の説明及び図面においては、同一又は同等の要素には同一の符号を付し、重複する説明を省略する。   Hereinafter, an embodiment of the present invention will be described with reference to FIGS. In the following description and drawings, the same or equivalent elements will be denoted by the same reference symbols, without redundant description.

[第1実施形態]
まず、本発明の第1実施形態を、図4〜図8を参照して説明する。
[First Embodiment]
First, a first embodiment of the present invention will be described with reference to FIGS.

<構成>
図4には、第1実施形態に係る検出装置300Aの構成が、ブロック図にて示されている。図4に示されるように、検出装置300Aは、撮像部210、ナビゲーション装置220及びECU(Electronic Control Unit)230と接続されている。そして、検出装置300A、撮像部210、ナビゲーション装置220及びECU230は、移動体MVに搭載されている。
<Structure>
FIG. 4 is a block diagram showing the configuration of the detection device 300A according to the first embodiment. As shown in FIG. 4, the detection device 300A is connected to the imaging unit 210, the navigation device 220, and an ECU (Electronic Control Unit) 230. The detection device 300A, the imaging unit 210, the navigation device 220, and the ECU 230 are mounted on the moving body MV.

上記の撮像部210は、移動体MVの固定的な位置に搭載され、上述の図3を参照して説明したように、固定位置の直下の路面を撮像する。この撮像部210は、周期時間TPで路面の撮像を周期的に行う。こうして撮像された画像のデータ(以下、「撮像画像データ」という)は、検出装置300Aへ送られる。   The image capturing unit 210 is mounted at a fixed position of the moving body MV and captures an image of the road surface immediately below the fixed position, as described with reference to FIG. The image capturing unit 210 periodically captures an image of the road surface at a cycle time TP. The data of the image thus captured (hereinafter referred to as “captured image data”) is sent to the detection device 300A.

なお、「周期時間TP」は、移動体MVが高速で走行していても、周期時間TPを隔てて撮像された2つの画像には共通の路面上領域が含まれるようにするとの観点から、実験、シミュレーション等に基づいて、予め定められる。   It should be noted that “cycle time TP” means that, even if the moving body MV is traveling at high speed, two images captured at the cycle time TP include a common road surface area, It is determined in advance based on experiments, simulations and the like.

上記のナビゲーション装置220は、地図情報と現在位置情報とに基づいて、利用者に対して、移動体MVの走行操作支援を行う。このナビゲーション装置220は、移動体MVが、走行方向に存在する交差点から所定距離以内となると、その旨を検出装置300Aへ送る。   The navigation device 220 described above provides the user with driving operation support for the moving body MV based on the map information and the current position information. When the moving body MV is within a predetermined distance from an intersection existing in the traveling direction, the navigation device 220 sends a message to that effect to the detection device 300A.

なお、「所定距離」は、第1実施形態において路面上特徴部として採用する交差点手前の停止線に関する走行方向に沿った始めから終わりまでの撮像のための適切な事前通知の観点から、実験、シミュレーション、経験等に基づいて、予め定められる。   Note that the “predetermined distance” is, from the viewpoint of appropriate prior notification for imaging from the beginning to the end along the traveling direction regarding the stop line before the intersection adopted as the road surface characteristic portion in the first embodiment, from the viewpoint of the experiment, It is determined in advance based on simulation, experience, etc.

上記のECU230は、車輪の回転速度センサ、加速度センサ、操舵角センサ、傾きセンサ等の各種センサから取得したセンサ検出情報に基づいて、移動体MVの走行を制御したり、利用者に走行情報を提供したりする。このECU230は、加速度情報、操舵角情報及び傾き情報を検出装置300Aへ送る。   The ECU 230 controls the traveling of the moving body MV or sends traveling information to the user based on sensor detection information acquired from various sensors such as a wheel rotation speed sensor, an acceleration sensor, a steering angle sensor, and an inclination sensor. To provide. The ECU 230 sends acceleration information, steering angle information, and tilt information to the detection device 300A.

なお、ECU230は、検出装置300Aから送られた移動体速度(走行速度情報)を更に取得し、取得された移動体速度を移動体MVの走行制御に役立てるようになっている。   The ECU 230 further acquires the moving body speed (running speed information) sent from the detection device 300A, and uses the acquired moving body speed for traveling control of the moving body MV.

上記の検出装置300Aは、図4に示されるように、取得部310Aと、第1出力部320Aとを備えている。また、検出装置300Aは、第2出力部330を備えている。   As shown in FIG. 4, the detection device 300A includes an acquisition unit 310A and a first output unit 320A. Further, the detection device 300A includes a second output section 330.

上記の取得部310Aは、撮像部210から送られた撮像画像データを受ける。そして、取得部310Aは、当該撮像画像データを第1出力部320Aへ送る。   The acquisition unit 310A described above receives the captured image data sent from the imaging unit 210. Then, the acquisition unit 310A sends the captured image data to the first output unit 320A.

上記の第1出力部320Aは、取得部310Aから送られた撮像画像データを受ける。そして、第1出力部320Aは、周期時間TPを隔てて撮像された2つの画像間における同一の路面位置のピクセルの移動量の個数(以下、「ピクセル移動量」という)を検出するとともに、後述する較正条件を満たした場合には、1ピクセルに対応する路面上の距離(以下、「ピクセル距離」という)を較正する。検出されたピクセル移動量及び較正されたピクセル距離は、第2出力部330へ出力される。かかる機能を有する第1出力部320Aの構成の詳細については、後述する。   The first output unit 320A receives the captured image data sent from the acquisition unit 310A. Then, the first output unit 320A detects the number of movement amounts of pixels at the same road surface position between two images captured at the cycle time TP (hereinafter, referred to as “pixel movement amount”), and will be described later. If the calibration condition is satisfied, the distance on the road surface corresponding to one pixel (hereinafter, referred to as “pixel distance”) is calibrated. The detected pixel movement amount and the calibrated pixel distance are output to the second output unit 330. Details of the configuration of the first output unit 320A having such a function will be described later.

上記の第2出力部330は、第1出力部320Aから送られたピクセル移動量を受けるたびに、最新の較正されたピクセル距離及び周期時間TPに基づいて、移動体MVの走行情報として移動体速度を算出する。そして、第2出力部330は、算出された移動体速度をECU230へ出力する。   Each time the second output unit 330 receives the pixel movement amount sent from the first output unit 320A, the second output unit 330 uses the latest calibrated pixel distance and the cycle time TP as the traveling information of the moving body MV. Calculate speed. Then, the second output unit 330 outputs the calculated moving body speed to the ECU 230.

《第1出力部320Aの構成》
次に、上述した第1出力部320Aの構成について説明する。
<< Configuration of the first output unit 320A >>
Next, the configuration of the above-described first output unit 320A will be described.

第1出力部320Aは、図4に示されるように、移動量検出部321Aと、特定部322Aとを備えている。また、第1出力部320Aは、較正部323Aを備えている。   As shown in FIG. 4, the first output section 320A includes a movement amount detection section 321A and a specification section 322A. In addition, the first output unit 320A includes a calibration unit 323A.

上記の移動量検出部321Aは、取得部310Aから送られた撮像画像データを受ける。そして、移動量検出部321Aは、当該撮像画像データに基づいて、いわゆる変位量探索法によりピクセル移動量を検出する。こうして検出されたピクセル移動量は、較正部323A及び第2出力部330へ送られる。   The movement amount detection unit 321A receives the captured image data sent from the acquisition unit 310A. Then, the movement amount detection unit 321A detects the pixel movement amount by a so-called displacement amount search method based on the captured image data. The pixel movement amount thus detected is sent to the calibration unit 323A and the second output unit 330.

なお、移動量検出部321Aの動作の詳細については、後述する。   The details of the operation of the movement amount detection unit 321A will be described later.

上記の特定部322Aは、取得部310Aから送られた撮像画像データを受ける。そして、特定部322Aは、撮像画像データから得られる画像中における白線領域を特定する。こうして特定された白線領域の情報(以下、「白線領域情報」という)は、較正部323Aへ送られる。   The specifying unit 322A receives the captured image data sent from the acquisition unit 310A. Then, the identifying unit 322A identifies the white line region in the image obtained from the captured image data. Information on the white line area thus specified (hereinafter referred to as “white line area information”) is sent to the calibration unit 323A.

なお、特定部322Aの動作の詳細については、後述する。   The details of the operation of the identifying unit 322A will be described later.

上記の較正部323Aは、移動量検出部321Aから送られたピクセル移動量、及び、特定部322Aから送られた白線領域情報を受ける。そして、較正部323Aは、ECU230から送られた加速度情報、操舵角情報及び傾き情報により、移動体MVが平坦な路面を等速直進走行していると判断できる場合に、当該ピクセル移動量及び当該白線領域情報に加えて、路上に描かれた停止線の進行方向の長さがほぼ45[cm]であることに基づいて、ピクセル距離を較正する。こうして較正されたピクセル距離は、第2出力部330へ送られる。   The calibration unit 323A receives the pixel movement amount sent from the movement amount detection unit 321A and the white line area information sent from the identification unit 322A. Then, the calibration unit 323A determines, based on the acceleration information, the steering angle information, and the tilt information sent from the ECU 230, that the pixel movement amount and the pixel movement amount when the moving body MV is traveling straight on a flat road surface at a constant speed. In addition to the white line region information, the pixel distance is calibrated based on the fact that the length of the stop line drawn on the road in the traveling direction is approximately 45 [cm]. The pixel distance thus calibrated is sent to the second output section 330.

なお、較正部323Aの動作の詳細については、後述する。   The details of the operation of the calibration unit 323A will be described later.

<動作>
次に、上記のように較正された検出装置300Aの動作について、検出装置300Aの各要素で行われる処理に着目して説明する。
<Operation>
Next, the operation of the detection apparatus 300A calibrated as described above will be described focusing on the processing performed by each element of the detection apparatus 300A.

なお、撮像部210は、既に動作を開始しており、周期時間TPで撮像した路面画像の撮像画像データを、逐次、検出装置300Aへ送っているものとする。また、ナビゲーション装置220は、既に動作を開始しており、移動体MVが、走行方向に存在する交差点から所定距離以内となると、その旨を検出装置300Aへ送るようになっているものとする。また、ECU230は、既に動作を開始しており、加速度情報、操舵角情報及び傾き情報を検出装置300Aへ送っているものとする(図4参照)。   It is assumed that the imaging unit 210 has already started its operation and sequentially sends the captured image data of the road surface image captured at the cycle time TP to the detection device 300A. Further, it is assumed that the navigation device 220 has already started its operation, and when the moving body MV is within a predetermined distance from the intersection existing in the traveling direction, the fact is sent to the detection device 300A. It is also assumed that the ECU 230 has already started its operation and has sent the acceleration information, the steering angle information, and the tilt information to the detection device 300A (see FIG. 4).

さらに、検出装置300Aでは、既に、複数回のピクセル距離の較正が行われており、較正部323Aには、最近の所定回数分の較正時刻及び後述する暫定ピクセル距離を含む較正履歴が保持されているものとする。また、第2出力部330には、最新に較正されたピクセル距離が保持されているものとする。ここで、ピクセル距離の最初の較正が行われるまでの期間においては、第2出力部330には、平均的なピクセル距離が保持されるようになっている。   Further, the detection device 300A has already calibrated the pixel distance a plurality of times, and the calibration unit 323A holds the calibration history including the latest predetermined number of times of calibration and a temporary pixel distance described later. Be present. Further, it is assumed that the second output unit 330 holds the latest calibrated pixel distance. Here, in the period until the first calibration of the pixel distance is performed, the second output unit 330 holds the average pixel distance.

なお、「所定回数」は、停止線の進行方向の長さの変動等のピクセル距離の較正結果への影響を抑制するための平均化処理を行うとの観点から、実験、シミュレーション、経験等に基づいて予め定められる。また、「平均的なピクセル距離」は、実験、シミュレーション、経験等に基づいて、移動体MVに対応して予め定められる。   Note that the "predetermined number of times" refers to experiments, simulations, experience, etc. from the viewpoint of performing averaging processing to suppress the influence on the calibration result of the pixel distance such as the variation in the length of the stop line in the traveling direction. It is predetermined based on Further, the “average pixel distance” is predetermined corresponding to the moving body MV based on experiments, simulations, experiences, and the like.

《画像データの取得処理》
検出装置300Aでは、取得部310Aが、撮像部210から送られた撮像画像データを受ける。そして、取得部310Aは、当該撮像画像データを、第1出力部320Aの移動量検出部321A及び特定部322Aへ送る(図4参照)。
<Image data acquisition processing>
In the detection device 300A, the acquisition unit 310A receives the captured image data sent from the imaging unit 210. Then, the acquisition unit 310A sends the captured image data to the movement amount detection unit 321A and the identification unit 322A of the first output unit 320A (see FIG. 4).

《ピクセル移動量の検出処理》
次に、移動量検出部321Aによるピクセル移動量の検出処理について説明する。
<< Pixel movement amount detection processing >>
Next, a process of detecting the pixel movement amount by the movement amount detection unit 321A will be described.

取得部310Aから送られた撮像画像データを受けると、移動量検出部321Aは、今回の撮像画像データから得られる今回画像と前回の撮像画像データから得られる前回画像とにおける共通の特徴領域の位置の変位量を、ピクセル移動量として検出する。そして、移動量検出部321Aは、検出されたピクセル移動量を較正部323A及び第2出力部330へ送る(図4参照)。   Upon receiving the captured image data sent from the acquisition unit 310A, the movement amount detection unit 321A causes the position of the common characteristic region in the current image obtained from the captured image data of this time and the previous image obtained from the previous captured image data. The displacement amount of is detected as the pixel movement amount. Then, the movement amount detection unit 321A sends the detected pixel movement amount to the calibration unit 323A and the second output unit 330 (see FIG. 4).

なお、共通する特徴領域が複数ある場合には、移動量検出部321Aは、複数の特徴領域のそれぞれの変位量の平均値を、ピクセル移動量として採用する。   If there are a plurality of common characteristic regions, the movement amount detection unit 321A adopts the average value of the displacement amounts of the plurality of characteristic regions as the pixel movement amount.

図5には、移動量検出部321Aによる移動量検出の例が示されている。この図5の例は、移動体MVがX方向に沿って直進しており、時刻TjにおけるX方向位置がXjであり、時刻Tj+1(=Tj+TP)おけるX方向位置がXj+1である場合の例となっている。また、図5の例は、時刻Tjにおける撮像画像と時刻Tj+1における撮像画像とにおける共通の特徴領域が、特徴領域Aと特徴領域Bの2種類である例が示されている。この図5の例では、特徴領域Aの変位量が「ΔXjA」であり、特徴領域Bの変位量が「ΔXjB」であるので、ピクセル移動量ΔXjは、次の(6)式により算出される。
ΔXj=(ΔXjA+ΔXjB)/2 …(6)
FIG. 5 shows an example of movement amount detection by the movement amount detection unit 321A. In the example of FIG. 5, the moving body MV is traveling straight along the X direction, the X direction position at time T j is X j , and the X direction position at time T j + 1 (= T j + TP) is. This is an example of the case of X j + 1 . In addition, the example of FIG. 5, a common characteristic region in the captured image in the captured image and the time T j + 1 at time T j is two and is an example of a characteristic region A and the characteristic region B are shown. In the example of FIG. 5, since the displacement amount of the characteristic region A is “ΔX jA ” and the displacement amount of the characteristic region B is “ΔX jB ”, the pixel movement amount ΔX j is calculated by the following equation (6). Is calculated.
ΔX j = (ΔX jA + ΔX jB ) / 2 (6)

《移動体速度vの出力処理》
次いで、第2出力部330による移動体速度vの出力処理について説明する。
<< Output process of moving body speed v >>
Next, the output process of the moving body speed v by the second output unit 330 will be described.

移動量検出部321Aから送られたピクセル移動量を受けると、第2出力部330は、ピクセル移動量、保持しているピクセル距離(すなわち、最新に較正されたピクセル距離)及び周期時間TPに基づいて移動体速度vを算出する。そして、第2出力部330は、算出された移動体速度vをECU230へ出力する。   Upon receiving the pixel movement amount sent from the movement amount detection unit 321A, the second output unit 330 may determine the pixel movement amount, the held pixel distance (ie, the latest calibrated pixel distance), and the cycle time TP. Then, the moving body speed v is calculated. Then, the second output unit 330 outputs the calculated moving body speed v to the ECU 230.

ここで、第2出力部330は、ピクセル移動量を「PN」とし、ピクセル距離を「PD」とした場合に、移動体速度vを、次の(7)式により算出する。
v=PN・PD/TP …(7)
Here, when the pixel movement amount is “PN” and the pixel distance is “PD”, the second output unit 330 calculates the moving body velocity v by the following equation (7).
v = PN PD / TP (7)

《白線領域の特定処理》
次に、特定部322Aによる白線領域の特定処理について説明する。
<< White line area specification processing >>
Next, the white line area specifying process by the specifying unit 322A will be described.

かかる白線領域の特定処理は、後述する較正部323Aによるピクセル距離の較正のために行われる。かかるピクセル距離の較正に際しての環境(以下、「較正環境」という)が、図6に示されている。この図6に示されるように、ピクセル距離の較正は、移動体MVが、平坦な路面の等速直線走行で、進行方向の長さW(≒45[cm])の路面上の白線である停止線SPLを、停止線SPLの長手方向に対して直角に横切る際に行われる。   The white line area specifying process is performed for the pixel distance calibration by the calibration unit 323A described later. An environment for calibrating the pixel distance (hereinafter, referred to as “calibration environment”) is shown in FIG. As shown in FIG. 6, in the calibration of the pixel distance, the mobile body MV is a white line on the road surface having a length W (≈45 [cm]) in the traveling direction when the mobile body MV travels at a constant speed on a flat road surface. This is performed when the stop line SPL is crossed at right angles to the longitudinal direction of the stop line SPL.

なお、以下の説明においては、新たなピクセル距離の較正に利用される停止線SPLは、走行方向位置(すなわち、X方向位置)XRから走行方向位置XPまでが白線領域になっているものとする。   In the following description, the stop line SPL used for the calibration of the new pixel distance is assumed to be a white line region from the traveling direction position (that is, the X direction position) XR to the traveling direction position XP. ..

さて、取得部310Aから送られた撮像画像データを受けると、特定部322Aは、撮像画像データから得られる画像における白線領域を、当該画像における各ピクセルの明るさに基づいて特定し、特定結果を、白線領域情報として、較正部323Aへ送る(図4参照)。かかる白線領域の特定結果には、図7(A)に示される前方一部白線、及び、図7(B)に示される後方一部白線の2種類が含まれている。   Now, when receiving the captured image data sent from the acquisition unit 310A, the identification unit 322A identifies the white line region in the image obtained from the captured image data based on the brightness of each pixel in the image, and determines the identification result. , And sends it to the calibration unit 323A as white line area information (see FIG. 4). The white line area identification result includes two types, a front partial white line shown in FIG. 7A and a rear partial white line shown in FIG. 7B.

なお、特定部322Aは、特定結果が前方一部白線の場合には、画像中の白線領域のX方向の長さのピクセル数a(以下、「前方長a」ともいう)を特定する。また、特定部322Aは、特定結果が後方一部白線の場合には、画像中の非白線領域のX方向の長さのピクセル数b(以下、「前方長b」ともいう)を特定する。   When the identification result is a front partial white line, the identification unit 322A identifies the number of pixels a in the X-direction length of the white line area in the image (hereinafter, also referred to as “front length a”). Further, when the specification result is a partial back white line, the specifying unit 322A specifies the number of pixels b in the length of the non-white line region in the image in the X direction (hereinafter, also referred to as “front length b”).

そして、特定部322Aは、前方一部白線の場合には、図7(A)に示される白線領域情報[白線フラグ:ON,前方長:a]を較正部323Aへ送る(図4参照)。また、特定部322Aは、後方一部白線の場合には、図7(B)に示される白線領域情報[白線フラグ:ON,前方長:b]を較正部323Aへ送る(図4参照)。   Then, in the case of a partial front white line, the specifying unit 322A sends the white line area information [white line flag: ON, front length: a] shown in FIG. 7A to the calibration unit 323A (see FIG. 4). In the case of a partial white line behind, the specifying unit 322A sends the white line area information [white line flag: ON, front length: b] shown in FIG. 7B to the calibration unit 323A (see FIG. 4).


《ピクセル距離の較正処理》
次いで、較正部323Aによる較正処理について説明する。
]
<< Pixel distance calibration process >>
Next, the calibration process by the calibration unit 323A will be described.

較正処理に際しては、較正部323Aは、ナビゲーション装置220から、移動体MVが走行方向に存在する交差点から所定距離以内となった旨を受けたか否かの交差点判定を行う。この交差点判定の結果が肯定的となると、較正部323Aは、ECU230から送られた加速度情報、操舵角情報及び傾き情報により、移動体MVが平坦な路面を等速直進走行していると判断できるか否の等速直進判定を行う。   In the calibration process, the calibration unit 323A determines whether or not the navigation device 220 has received from the navigation device 220 that the moving body MV is within a predetermined distance from the intersection existing in the traveling direction. If the result of this intersection determination is affirmative, the calibration unit 323A can determine that the moving body MV is traveling straight at a constant speed on the flat road surface based on the acceleration information, the steering angle information, and the tilt information sent from the ECU 230. Whether or not to go straight at a constant speed is determined.

等速直進判定の結果が肯定的である場合には、較正部323Aは、特定部322Aから送られた白線領域情報が「前方一部白線」となったか否かの白線開始判定を行う。この白線開始判定の結果が肯定的となると、等速直進判定の結果が肯定的である状態が維持されることを条件として、較正部323Aは、特定部322Aから送られた白線領域情報が「後方一部白線」となった否かの白線終了判定の結果が肯定的となるまで、移動量検出部321Aから送られたピクセル移動量を収集する。   If the result of the straight-ahead straight velocity determination is affirmative, the calibration unit 323A determines whether or not the white line region information sent from the identification unit 322A has become a "front partial white line". If the result of the white line start determination is affirmative, the white line area information sent from the identifying unit 322A is “the condition that the result of the constant speed straight ahead determination is positive” is maintained. The pixel movement amount sent from the movement amount detection unit 321A is collected until the result of the white line end determination of whether or not it becomes "a rear partial white line" is affirmative.

そして、白線終了判定の結果が肯定的となると、較正部323Aは、「前方一部白線」となった時点における白線領域情報に含まれる前方長a、収集されたピクセル移動量ΔX1,…,ΔXM、及び、「後方一部白線」となった時点における白線領域情報に含まれる前方長bに基づいて、暫定ピクセル距離PT[cm]を、次の(8)式により算出する。
PT=45/(a+ΔX1+…+ΔXM−b) …(8)
Then, when the result of the white line end determination is affirmative, the calibration unit 323A causes the front length a included in the white line region information at the time when the “front partial white line” is set, the collected pixel movement amount ΔX 1 , ..., The provisional pixel distance PT [cm] is calculated by the following equation (8) based on ΔX M and the front length b included in the white line area information at the time when the “rear partial white line” is reached.
PT = 45 / (a + ΔX 1 + ... + ΔX M −b) (8)

次に、較正部323Aは、算出された今回の暫定ピクセル距離と、内部に保持している過去における所定回数の較正時に算出された暫定ピクセル距離との重み付け平均を算出して、今回較正されたピクセル距離を算出する。この後、較正部323Aは、それまで内部に保持していた暫定ピクセル距離のうちで最も古いものに代えて、今回の暫定ピクセル距離を内部に保持する。   Next, the calibration unit 323A calculates the weighted average of the calculated provisional pixel distance of this time and the provisional pixel distance that is internally stored and is calculated at a predetermined number of times in the past, and is calibrated this time. Calculate pixel distance. After that, the calibration unit 323A internally retains the provisional pixel distance of this time in place of the oldest one of the provisional pixel distances retained therein.

なお、重み付け平均では、現在までの経過時間が長いものほど重みが少なくするようになっている。   In the weighted average, the weight is decreased as the elapsed time to the present is longer.

較正部323Aは、算出されたピクセル距離を第2出力部330へ送る。この結果、第2出力部330は、新たなピクセル距離を利用した移動体速度vの算出を行うようになる。   The calibration unit 323A sends the calculated pixel distance to the second output unit 330. As a result, the second output unit 330 comes to calculate the moving body speed v using the new pixel distance.

なお、図8には、時刻T1で前方一部白線の撮像画像が得られ、時刻T5で後方一部白線の撮像画像が得られた場合の例が示されている。この図8の例では、次の(9)式により、暫定ピクセル距離PT[cm]が算出される。
PT=45/(a+ΔX1+ΔX2+ΔX3+ΔX4−b) …(9)
Note that FIG. 8 shows an example in which a captured image of the front partial white line is obtained at time T 1 and a captured image of the rear partial white line is obtained at time T 5 . In the example of FIG. 8, the provisional pixel distance PT [cm] is calculated by the following equation (9).
PT = 45 / (a + ΔX 1 + ΔX 2 + ΔX 3 + ΔX 4 −b) (9)

以上説明したように、第1実施形態では、移動体MVの走行方向に沿って既知の長さを有する路面上特徴部である停止線に関する撮像部210による撮像画像に基づいて、移動量検出部321Aが、ピクセル移動量を検出する。また、特定部322Aが、撮像画像中における白線領域を特定する。そして、較正部323Aが、ピクセル移動量及び撮像画像内における白線領域の特定結果に加えて、移動体MVの走行方向に沿った停止線の既知の長さに基づいて、移動体MVが平坦な路面を等速直進走行していると判断できる場合に、撮像部210と路面との間の距離に関連する、1ピクセルに対応する路面上の距離を較正する。   As described above, in the first embodiment, the movement amount detecting unit is based on the image captured by the image capturing unit 210 regarding the stop line which is the road surface characteristic portion having the known length along the traveling direction of the moving body MV. 321A detects the pixel movement amount. Further, the identifying unit 322A identifies the white line area in the captured image. Then, the calibration unit 323A flattens the moving body MV based on the known length of the stop line along the traveling direction of the moving body MV in addition to the pixel movement amount and the result of identifying the white line region in the captured image. When it can be determined that the vehicle is traveling straight at a constant speed on the road surface, the distance on the road surface corresponding to one pixel, which is related to the distance between the imaging unit 210 and the road surface, is calibrated.

したがって、第1実施形態によれば、移動体重量の変化や車輪の空気圧の変化により、路面と撮像部210との距離が変化しても、1ピクセルに対応する路面上の距離を当該変化に応じて較正することができる。   Therefore, according to the first embodiment, even if the distance between the road surface and the image capturing unit 210 changes due to a change in the weight of the moving body or a change in the air pressure of the wheels, the distance on the road surface corresponding to one pixel is changed. It can be calibrated accordingly.

また、第1実施形態では、較正結果及びピクセル移動量に基づいて、第2出力部330が、移動体速度を算出する。このため、走行情報として精度の良い移動体速度を出力することができる。   In addition, in the first embodiment, the second output unit 330 calculates the moving body speed based on the calibration result and the pixel movement amount. Therefore, it is possible to accurately output the moving body speed as the traveling information.

また、第1実施形態では、路面上特徴部として停止線を採用する。このため、撮像画像の各ピクセルの明るさを調べることにより、停止線領域(すなわち、白線領域)を容易に特定することができる。   Further, in the first embodiment, a stop line is adopted as the road surface characteristic portion. Therefore, by checking the brightness of each pixel of the captured image, the stop line area (that is, the white line area) can be easily specified.

また、第1実施形態では、交差点に近付いた旨の情報を取得し、停止線を通過することを予め推測する。このため、効率的な較正を行うことができる。   In addition, in the first embodiment, information indicating that an intersection is approached is acquired, and it is presumed that the vehicle will pass the stop line. Therefore, efficient calibration can be performed.

また、第1実施形態では、今回の暫定ピクセル距離と、過去における所定回数の較正時に算出された暫定ピクセル距離との重み付け平均を算出して、最終的な較正結果を得る。
これは、停止線が欠けていたり、塗装がはみ出ていたりして、想定長が45[cm]からずれている場合もあるためである。このため、停止線の進行方向の長さの変動等のピクセル距離の較正結果への影響を抑制した較正を行うことができる。
Further, in the first embodiment, a final calibration result is obtained by calculating a weighted average of the provisional pixel distance of this time and the provisional pixel distance calculated during a predetermined number of times of calibration in the past.
This is because there is a case where the estimated length is deviated from 45 [cm] due to a lack of a stop line or a protruding coating. Therefore, it is possible to perform the calibration while suppressing the influence of the pixel distance on the calibration result such as the variation of the length of the stop line in the traveling direction.

また、第1実施形態では、直進走行中、定速走行中、かつ、路面傾きのない状況であるときに較正を実施する。これは、横方向の移動があると停止線の通過が斜めになり、45[cm]以上の長さに基づいて較正を行ってしまうこと、及び、加速度や減速度が大きいときや路面傾きがある場合は、サスペンション等の伸縮が生じるため、撮像時の光学倍率が変化している最中であることによる。このため、精度の良いピクセル距離の較正を行うことができる。   Further, in the first embodiment, the calibration is performed when the vehicle is traveling straight ahead, traveling at a constant speed, and when the road surface is not inclined. This is because the passage of the stop line becomes slanted when there is a lateral movement, and calibration is performed based on a length of 45 [cm] or more, and when the acceleration or deceleration is large or the road inclination is large. In some cases, expansion and contraction of the suspension and the like occur, and this is because the optical magnification at the time of imaging is being changed. Therefore, it is possible to perform accurate pixel distance calibration.

[第2実施形態]
次に、本発明の第2実施形態を、図9〜図13を主に参照して説明する。
[Second Embodiment]
Next, a second embodiment of the present invention will be described mainly with reference to FIGS. 9 to 13.

<構成>
図9には、第2実施形態に係る検出装置300Bの構成が、ブロック図にて示されている。図9に示されるように、検出装置300Bは、撮像部210F,210R及びECU230と接続されている。そして、検出装置300B、撮像部210F,210R及びECU230は、移動体MVに搭載されている。
<Structure>
FIG. 9 is a block diagram showing the configuration of the detection device 300B according to the second embodiment. As shown in FIG. 9, the detection device 300B is connected to the imaging units 210 F and 210 R and the ECU 230. The detection device 300B, the imaging units 210 F and 210 R, and the ECU 230 are mounted on the moving body MV.

上記の撮像部210F,210Rのそれぞれは、上述した撮像部210と同様に構成される。そして、撮像部210Fは、移動体MVの前側に配置され、撮像部210Rは、撮像部210Fから距離Dを隔てた移動体MVの後側に配置される(図10参照)。なお、撮像部210F,210Rは、同一タイミングで撮像を行うようになっている。 Each of the image capturing units 210 F and 210 R described above is configured similarly to the image capturing unit 210 described above. Then, the imaging unit 210 F is arranged on the front side of the moving body MV, and the imaging unit 210 R is arranged on the rear side of the moving body MV separated by a distance D from the imaging unit 210 F (see FIG. 10). The image capturing units 210 F and 210 R capture images at the same timing.

撮像部210Fにより撮像された画像(以下、「前側撮像画像」という)のデータは、検出装置300Bへ送られる。また、撮像部210Rにより撮像された画像(以下、「後側撮像画像」という)のデータも検出装置300Bへ送られる。 The data of the image captured by the image capturing unit 210 F (hereinafter, referred to as “front side captured image”) is sent to the detection device 300B. Further, the data of the image captured by the image capturing unit 210 R (hereinafter, referred to as “rear side captured image”) is also sent to the detection device 300B.

なお、ECU230からは、上述した第1実施形態の場合と同様に、加速度情報、操舵角情報及び傾き情報を検出装置300Bへ送られる。また、ECU230は、検出装置300Bから送られた移動体速度を更に取得し、取得された移動体速度を移動体MVの走行制御に役立てるようになっている。   Note that, similarly to the case of the above-described first embodiment, the ECU 230 sends the acceleration information, the steering angle information, and the tilt information to the detection device 300B. In addition, the ECU 230 further acquires the moving body speed sent from the detection device 300B, and uses the acquired moving body speed for traveling control of the moving body MV.

上記の検出装置300Bは、図9に示されるように、取得部310Bと、第1出力部320Bとを備えている。また、検出装置300Bは、第2出力部330を備えている。   The detection device 300B includes an acquisition unit 310B and a first output unit 320B, as shown in FIG. 9. Further, the detection device 300B includes a second output section 330.

上記の取得部310Bは、撮像部210Fから送られた前側撮像画像のデータ、及び、撮像部210Rから送られた後側撮像画像のデータを受ける。そして、取得部310Bは、前側撮像画像のデータ及び後側撮像画像のデータを第1出力部320Bへ送る。 Additional acquisition unit 310B, the data of the front captured image sent from the imaging unit 210 F, and receives the data of the side captured image after being sent from the imaging unit 210 R. Then, the acquisition unit 310B sends the data of the front side captured image and the data of the rear side captured image to the first output unit 320B.

上記の第1出力部320Bは、取得部310Bから送られた前側撮像画像のデータ及び後側撮像画像のデータを受ける。そして、第1出力部320Bは、ピクセル移動量を検出するとともに、上述した第1実施形態の場合と同様の較正条件を満たした場合には、ピクセル距離を較正する。検出されたピクセル移動量及び較正されたピクセル距離は、第2出力部330へ出力する。かかる機能を有する第1出力部320Bの構成の詳細については、後述する。   The first output unit 320B described above receives the data of the front side captured image and the data of the rear side captured image sent from the acquisition unit 310B. Then, the first output unit 320B detects the pixel movement amount and calibrates the pixel distance when the same calibration condition as in the case of the first embodiment described above is satisfied. The detected pixel movement amount and the calibrated pixel distance are output to the second output unit 330. Details of the configuration of the first output unit 320B having such a function will be described later.

なお、上記の第2出力部330は、第1出力部320Bから送られたピクセル移動量を受けるたびに、上述した第1実施形態の場合と同様に、最新の較正されたピクセル距離及び周期時間TPに基づいて、移動体MVの走行情報として移動体速度を算出する。そして、第2出力部330は、算出された移動体MVの移動体速度をECU230へ出力する。   It should be noted that the second output section 330 receives the latest calibrated pixel distance and cycle time each time it receives the pixel movement amount sent from the first output section 320B, as in the case of the first embodiment described above. Based on TP, the moving body speed is calculated as the traveling information of the moving body MV. Then, the second output unit 330 outputs the calculated moving body speed of the moving body MV to the ECU 230.

《第1出力部320Bの構成》
次に、上述した第1出力部320Bの構成について説明する。
<< Configuration of the first output unit 320B >>
Next, the configuration of the above-described first output unit 320B will be described.

第1出力部320Bは、図9に示されるように、移動量検出部321Bと、特定部322Bとを備えている。また、第1出力部320Bは、較正部323Bを備えている。   As shown in FIG. 9, the first output unit 320B includes a movement amount detection unit 321B and a specifying unit 322B. The first output unit 320B also includes a calibration unit 323B.

上記の移動量検出部321Bは、取得部310Bから送られた前側撮像画像のデータ及び後側撮像画像のデータを受ける。そして、移動量検出部321Bは、前側撮像画像のデータ及び後側撮像画像のデータに基づいて、いわゆる変位量探索法によりピクセル移動量を検出する。こうして検出されたピクセル移動量は、較正部323B及び第2出力部330へ送られる。   The movement amount detection unit 321B described above receives the data of the front side captured image and the data of the rear side captured image sent from the acquisition unit 310B. Then, the movement amount detection unit 321B detects the pixel movement amount by a so-called displacement amount search method based on the data of the front side captured image and the data of the rear side captured image. The pixel movement amount thus detected is sent to the calibration unit 323B and the second output unit 330.

なお、移動量検出部321Bの動作の詳細については、後述する。   The details of the operation of the movement amount detection unit 321B will be described later.

上記の特定部322Bは、取得部310Bから送られた前側撮像画像のデータ及び後側撮像画像のデータを受ける。そして、特定部322Bは、前側撮像画像のデータ及び後側撮像画像のデータから得られる画像中における白線領域を特定する。こうして特定された白線領域の情報(以下、「白線領域情報」という)は、較正部323Bへ送られる。   The specifying unit 322B receives the data of the front side captured image and the data of the rear side captured image sent from the acquisition unit 310B. Then, the identifying unit 322B identifies the white line region in the image obtained from the data of the front captured image and the data of the rear captured image. Information on the white line area thus specified (hereinafter referred to as “white line area information”) is sent to the calibration unit 323B.

なお、特定部322Bの動作の詳細については、後述する。   The details of the operation of the identifying unit 322B will be described later.

上記の較正部323Bは、移動量検出部321Bから送られたピクセル移動量、及び、特定部322Bから送られた白線領域情報を受ける。そして、較正部323Bは、ECU230から送られた加速度情報、操舵角情報及び傾き情報により、移動体MVが平坦な路面を等速直進走行していると判断できる場合に、当該ピクセル移動量及び当該白線領域情報に加えて、上述した撮像部210Fと撮像部210Rとの間の距離Dに基づいて、ピクセル距離を較正する。こうして較正されたピクセル距離は、第2出力部330へ送られる。 The calibration unit 323B receives the pixel movement amount sent from the movement amount detection unit 321B and the white line area information sent from the identification unit 322B. Then, the calibration unit 323B determines, based on the acceleration information, the steering angle information, and the inclination information sent from the ECU 230, that the pixel movement amount and the pixel movement amount when the moving body MV is traveling straight on a flat road surface at a constant speed. In addition to the white line area information, the pixel distance is calibrated based on the distance D between the image capturing unit 210 F and the image capturing unit 210 R described above. The pixel distance thus calibrated is sent to the second output section 330.

なお、較正部323Bの動作の詳細については、後述する。   The details of the operation of the calibration unit 323B will be described later.

<動作>
次に、上記のように較正された検出装置300Bの動作について、検出装置300Bの各要素で行われる処理に着目して説明する。
<Operation>
Next, the operation of the detection device 300B calibrated as described above will be described focusing on the processing performed by each element of the detection device 300B.

なお、撮像部210F,210Rは、既に動作を開始しており、周期時間TPで撮像した路面画像の前側撮像画像のデータ及び後側撮像画像のデータを、逐次、検出装置300Bへ送っているものとする。また、ECU230は、既に動作を開始しており、加速度情報、操舵角情報及び傾き情報を検出装置300Bへ送っているものとする(図9参照)。 Note that the imaging units 210 F and 210 R have already started to operate, and sequentially send the front-side captured image data and the rear-side captured image data of the road surface image captured at the cycle time TP to the detection device 300B. Be present. It is also assumed that the ECU 230 has already started its operation and has sent the acceleration information, the steering angle information, and the tilt information to the detection device 300B (see FIG. 9).

さらに、検出装置300Bでは、既に、複数回のピクセル距離の較正が行われており、較正部323Bには、最近の所定回数分の較正時刻及び後述する暫定ピクセル距離を含む較正履歴が保持されているとともに、第2出力部330には、最新に較正されたピクセル距離が保持されているのものとする。ここで、ピクセル距離の最初の較正が行われるまでの期間においては、上述した第1実施形態の場合と同様に、第2出力部330には、平均的なピクセル距離が保持されるようになっている。   Furthermore, the detection device 300B has already calibrated the pixel distance a plurality of times, and the calibration unit 323B holds the calibration history including the latest predetermined number of times of calibration and a temporary pixel distance described later. In addition, it is assumed that the second output section 330 holds the latest calibrated pixel distance. Here, in the period until the first calibration of the pixel distance is performed, as in the case of the above-described first embodiment, the second output unit 330 holds the average pixel distance. ing.

《画像データの取得処理》
検出装置300Bでは、取得部310Bが、撮像部210F,210Rから送られた前側撮像画像のデータ及び後側撮像画像のデータを受ける。そして、取得部310Bは、前側撮像画像のデータ及び後側撮像画像のデータを、第1出力部320Bの移動量検出部321B及び特定部322Bへ送る(図9参照)。
<Image data acquisition processing>
In the detection device 300B, the acquisition unit 310B receives the data of the front side captured image and the data of the rear side captured image sent from the image capturing units 210 F and 210 R. Then, the acquisition unit 310B sends the data of the front side captured image and the data of the rear side captured image to the movement amount detection unit 321B and the identification unit 322B of the first output unit 320B (see FIG. 9).

《ピクセル移動量の検出処理》
次に、移動量検出部321Bによるピクセル移動量の検出処理について説明する。
<< Pixel movement amount detection processing >>
Next, a process of detecting the pixel movement amount by the movement amount detection unit 321B will be described.

取得部310Bから送られた前側撮像画像のデータを受けると、移動量検出部321Bは、上述した第1実施形態のピクセル移動量の検出と同様にして、今回の前側撮像画像のデータから得られる今回前側撮像画像と前回の前側撮像画像のデータから得られる前回前側撮像画像とにおける共通の特徴領域の位置の変位量を、前側ピクセル移動量として検出する。また、取得部310Bから送られた後側撮像画像のデータを受けると、移動量検出部321Bは、第1実施形態のピクセル移動量の検出と同様にして、今回の後側撮像画像のデータから得られる今回後側撮像画像と前回の後側撮像画像のデータから得られる前回後側撮像画像とにおける共通の特徴領域の位置の変位量を、後側ピクセル移動量として検出する。   Upon receiving the data of the front side captured image sent from the acquisition unit 310B, the movement amount detection unit 321B obtains the data of the front side captured image this time in the same manner as the detection of the pixel movement amount of the first embodiment described above. The displacement amount of the position of the common characteristic region in the previous front side captured image obtained from the data of the front side captured image this time and the previous front side captured image is detected as the front side pixel movement amount. Further, when receiving the data of the rear side captured image sent from the acquisition unit 310B, the movement amount detection unit 321B determines from the data of the rear side captured image of this time in the same manner as the detection of the pixel movement amount of the first embodiment. The displacement amount of the position of the common characteristic region in the obtained current rear side captured image and the previous rear side captured image obtained from the data of the previous rear side captured image is detected as the rear side pixel movement amount.

なお、今回前側撮像画像と前回前側撮像画像とに共通する特徴領域が複数ある場合には、移動量検出部321Bは、複数の特徴領域のそれぞれの変位量の平均値を、前側ピクセル移動量として採用する。また、今回後側撮像画像と前回後側撮像画像とに共通する特徴領域が複数ある場合には、移動量検出部321Bは、複数の特徴領域のそれぞれの変位量の平均値を、後側ピクセル移動量として採用する。   If there are a plurality of characteristic regions common to the front side captured image this time and the previous front side captured image, the movement amount detection unit 321B determines the average value of the displacement amounts of the plurality of characteristic regions as the front side pixel movement amount. adopt. In addition, when there are a plurality of characteristic regions common to the rear-side captured image this time and the previous rear-side captured image, the movement amount detection unit 321B calculates the average value of the displacement amounts of the plurality of characteristic regions as the rear-side pixels. Used as the amount of movement.

引き続き、移動量検出部321Bは、前側ピクセル移動量と後側ピクセル移動量との平均を、ピクセル移動量として算出する。そして、移動量検出部321Bは、算出されたピクセル移動量を較正部323B及び第2出力部330へ送る(図9参照)。   Subsequently, the movement amount detection unit 321B calculates the average of the front side pixel movement amount and the rear side pixel movement amount as the pixel movement amount. Then, the movement amount detection unit 321B sends the calculated pixel movement amount to the calibration unit 323B and the second output unit 330 (see FIG. 9).

《移動体速度vの出力処理》
次いで、第2出力部330による移動体速度vの出力処理について説明する。
<< Output process of moving body speed v >>
Next, the output process of the moving body speed v by the second output unit 330 will be described.

移動量検出部321Bから送られたピクセル移動量を受けると、第2出力部330は、第1実施形態の場合と同様にして、ピクセル移動量、保持しているピクセル距離(すなわち、最新に較正されたピクセル距離)及び周期時間TPに基づいて移動体速度vを算出する。そして、第2出力部330は、算出された移動体速度vをECU230へ出力する。   Upon receiving the pixel movement amount sent from the movement amount detection unit 321B, the second output unit 330, similarly to the case of the first embodiment, the pixel movement amount, the held pixel distance (that is, the latest calibration). The moving body speed v is calculated based on the calculated pixel distance) and the cycle time TP. Then, the second output unit 330 outputs the calculated moving body speed v to the ECU 230.

《白線領域の特定処理》
次に、特定部322Bによる白線領域の特定処理について説明する。
<< White line area specification processing >>
Next, the white line area specifying process by the specifying unit 322B will be described.

かかる白線領域の特定処理は、後述する較正部323Bによるピクセル距離の較正のために行われる。かかるピクセル距離の較正環境が、図11に示されている。この図11に示されるように、ピクセル距離の較正は、移動体MVが、平坦な路面にある例えば横断歩道標示のような白線領域LCPを等速直線走行で横切る際に行われる。   The white line area specifying process is performed for calibration of the pixel distance by the calibration unit 323B described later. Such a pixel distance calibration environment is shown in FIG. As shown in FIG. 11, the pixel distance is calibrated when the moving body MV crosses a white line region LCP on a flat road surface, such as a pedestrian crossing sign, in a straight line at a constant speed.

なお、以下の説明においては、新たなピクセル距離の較正に利用される白線領域LCPは、走行方向位置(すなわち、X方向位置)XRから走行方向位置XPまでが白線領域になっているものとする。   In the following description, the white line area LCP used for calibration of a new pixel distance is a white line area from the traveling direction position (that is, the X direction position) XR to the traveling direction position XP. ..

さて、取得部310Bから送られた前側撮像画像のデータ及び後側撮像画像のデータを受けると、特定部322Bは、前側撮像画像及び後側撮像画像における白線領域を、当該画像における各ピクセルの明るさに基づいて特定し、特定結果を、白線領域情報として、較正部323Bへ送る(図9参照)。かかる白線領域の特定結果には、図12(A)に示される「第1後方一部白線」、及び、図12(B)に示される「第2後方一部白線」の2種類が含まれる。ここで、「第1後方一部白線」は、前側設置の撮像部210Fによる撮像で得られた前側撮像画像における後方一部白線の状態である。また、「第2後方一部白線」は、後側設置の撮像部210Rによる撮像で得られた後側撮像画像における後方一部白線の状態である。 Now, when receiving the data of the front side captured image and the data of the rear side captured image sent from the acquisition section 310B, the identification section 322B sets the white line areas in the front side captured image and the rear side captured image to the brightness of each pixel in the image. Based on this, the specification result is sent to the calibration unit 323B as white line area information (see FIG. 9). The result of specifying the white line area includes two types of “first rear partial white line” shown in FIG. 12A and “second rear partial white line” shown in FIG. 12B. .. Here, the “first rear partial white line” is a state of a rear partial white line in the front side captured image obtained by the image capturing by the image capturing unit 210 F installed on the front side. Further, the “second rear partial white line” is a state of a rear partial white line in the rear side captured image obtained by the image pickup by the image pickup unit 210 R installed on the rear side.

なお、第2実施形態では、特定部322Bは、前側撮像画像において、白線を通過する際に「第1後方一部白線」となるまでの白線が明確に特定できる状態が継続したことを条件として、白線領域情報を生成するようになっている。このため、タイヤ痕等により白線が明確に特定できなかった場合には、特定部322Bは、白線領域情報を生成しない。すなわち、第2実施形態では、タイヤ痕等により白線が明確に特定できなかった場合には、ピクセル距離の較正を行わない。   Note that in the second embodiment, the specifying unit 322B is conditioned on the condition that the white line until the "first rear partial white line" can be clearly specified when passing through the white line in the front side captured image is continued. , White line area information is generated. Therefore, if the white line cannot be clearly identified due to tire marks or the like, the identifying unit 322B does not generate the white line area information. That is, in the second embodiment, the pixel distance is not calibrated when the white line cannot be clearly identified due to tire marks or the like.

また、第2実施形態において前側撮像画像における第1後方一部白線及び後側撮像画像における第2後方一部白線に着目して白線領域の特定を行うのは、細い白線の場合は撮像画像内に複数の白線が入っていると計測に間違いを生じやすいことにもよる。かかる工夫を行うことにより、無駄な較正を行わずに済むので、無駄をなくせる。   Further, in the second embodiment, the white line region is specified by focusing on the first rear partial white line in the front side captured image and the second rear partial white line in the rear side captured image. This is also because it is easy to make an error in the measurement when there are multiple white lines in. By carrying out such a device, it is possible to avoid wasteful calibration, so that waste can be eliminated.

なお、特定部322Bは、特定結果が前側撮像画像における第1後方一部白線の場合には、画像中の非白線領域のX方向の長さa(以下、「前方長a」ともいう)を特定する。また、特定部322Bは、特定結果が後側撮像画像における第2後方一部白線の場合には、画像中の非白線領域のX方向の長さb(以下、「前方長b」ともいう)を特定する。   When the identification result is the first rear partial white line in the front side captured image, the identifying unit 322B determines the length a in the X direction of the non-white line region in the image (hereinafter, also referred to as “front length a”). Identify. Further, when the identification result is the second rear partial white line in the back side captured image, the identifying unit 322B has a length b in the X direction of the non-white line region in the image (hereinafter, also referred to as “front length b”). Specify.

そして、特定部322Bは、前側撮像画像における第1後方一部白線の場合には、図12(A)に示される白線領域情報[第1後方一部白線フラグ:ON,前方長:a]を較正部323Bへ送る(図9参照)。また、特定部322Bは、第2後方一部白線の場合には、図12(B)に示される白線領域情報[第2後方一部白線フラグ:ON,前方長:b]を較正部323Bへ送る(図9参照)。   Then, in the case of the first rear partial white line in the front side captured image, the specifying unit 322B sets the white line area information [first rear partial white line flag: ON, front length: a] shown in FIG. It is sent to the calibration unit 323B (see FIG. 9). Further, in the case of the second rear partial white line, the specifying unit 322B sends the white line area information [second rear partial white line flag: ON, front length: b] shown in FIG. 12B to the calibration unit 323B. Send (see FIG. 9).

《ピクセル距離の較正処理》
次いで、較正部323Bによる較正処理について説明する。
<< Pixel distance calibration process >>
Next, the calibration process by the calibration unit 323B will be described.

較正処理に際しては、較正部323Bは、ECU230から送られた加速度情報、操舵角情報及び傾き情報により、移動体MVが平坦な路面での等速直進走行をしていると判断できるか否の等速直進判定を行う。   In the calibration process, the calibration unit 323B determines whether the moving body MV is traveling straight at a constant speed on a flat road surface based on the acceleration information, the steering angle information, and the tilt information sent from the ECU 230. Judgment of straight ahead.

等速直進判定の結果が肯定的である場合には、較正部323Bは、特定部322Bから送られた前側撮像画像における白線領域情報が「第1後方一部白線」となったか否かの前側白線終了判定を行う。この前側白線終了判定の結果が肯定的となると、平坦な路面での等速直進判定の結果が肯定的である状態が維持されることを条件として、較正部323Bは、特定部322Bから送られた後側撮像画像における白線領域情報が「第2後方一部白線」となった否かの後側白線終了判定の結果が肯定的となるまで、移動量検出部321Bから送られたピクセル移動量ΔX1,…,ΔXNを収集する(図13参照)。 If the result of the straight-ahead straight velocity determination is affirmative, the calibration unit 323B determines whether or not the white line area information in the front side captured image sent from the specifying unit 322B is “first rear partial white line”. White line end judgment is performed. When the result of this front side white line end determination is affirmative, the calibration unit 323B is sent from the specifying unit 322B on condition that the result of the constant velocity straight ahead determination on a flat road surface is maintained affirmative. The amount of pixel movement sent from the movement amount detection unit 321B until the result of the rear white line end determination whether the white line region information in the rear side captured image is “second rear partial white line” is affirmative. ΔX 1 , ..., ΔX N are collected (see FIG. 13).

そして、後側白線終了判定の結果が肯定的となると、較正部323Bは、前側撮像画像における白線領域情報が「第1後方一部白線」となった時点における白線領域情報に含まれる前方長a、収集されたピクセル移動量ΔX1,…,ΔXN、及び、後側撮像画像における白線領域情報が「第2後方一部白線」となった時点における白線領域情報に含まれる前方長b、並びに、撮像部210Fと撮像部210Rとの間の距離Dに基づいて、暫定ピクセル距離PT[cm]を、次の(10)式により算出する。
PT=D/(a+ΔX1+…+ΔXN−b) …(10)
Then, when the result of the rear white line end determination is affirmative, the calibration unit 323B causes the front length a included in the white line region information at the time when the white line region information in the front side captured image becomes the “first rear partial white line”. , The collected pixel movement amounts ΔX 1 , ..., ΔX N , and the front length b included in the white line area information at the time when the white line area information in the back side captured image becomes the “second rear partial white line”, and , The provisional pixel distance PT [cm] is calculated by the following equation (10) based on the distance D between the imaging unit 210 F and the imaging unit 210 R.
PT = D / (a + ΔX 1 + ... + ΔX N −b) (10)

次に、較正部323Bは、算出された今回の暫定ピクセル距離と、内部に保持している過去における所定回数の較正時に算出された暫定ピクセル距離との重み付け平均を算出して、今回較正されたピクセル距離を算出する。この後、較正部323Bは、それまで内部に保持していた暫定ピクセル距離のうちで最も古いものに代えて、今回の暫定ピクセル距離を内部に保持する。   Next, the calibration unit 323B calculates the weighted average of the calculated provisional pixel distance of this time and the provisional pixel distance that is internally stored and is calculated a predetermined number of times in the past, and is calibrated this time. Calculate pixel distance. After that, the calibration unit 323B internally retains the provisional pixel distance of this time in place of the oldest provisional pixel distance retained up to that point.

なお、重み付け平均では、第1実施形態の場合と同様に、現在までの経過時間が長いものほど重みが少なくするようになっている。   In the weighted average, the weight is reduced as the elapsed time to the present is longer, as in the case of the first embodiment.

較正部323Bは、算出されたピクセル距離を第2出力部330へ送る。この結果、第2出力部330は、新たなピクセル距離を利用した移動体速度vの算出を行うようになる。   The calibration unit 323B sends the calculated pixel distance to the second output unit 330. As a result, the second output unit 330 comes to calculate the moving body speed v using the new pixel distance.

以上説明したように、第2実施形態では、移動体MVの走行方向に沿って既知の距離Dで移動体MVに配置された撮像部210F,210Rによる路面上特徴部である白線の撮像画像に基づいて、移動量検出部321Bが、ピクセル移動量を検出する。また、特定部322Bが、撮像画像中における白線領域を特定する。そして、較正部323Bが、ピクセル移動量及び撮像画像内における白線領域の特定結果に加えて、既知の距離Dに基づいて、移動体MVが平坦な路面を等速直進走行していると判断できる場合に、撮像部210F,210Rと路面との間の距離に関連する、1ピクセルに対応する路面上の距離を較正する。 As described above, in the second embodiment, the imaging of the white line which is the road surface feature by the imaging units 210 F and 210 R arranged on the moving body MV at the known distance D along the traveling direction of the moving body MV. The movement amount detector 321B detects the pixel movement amount based on the image. Further, the identifying unit 322B identifies the white line area in the captured image. Then, the calibration unit 323B can determine that the moving body MV is traveling straight at a constant speed on the flat road surface based on the known distance D in addition to the pixel movement amount and the result of specifying the white line region in the captured image. In this case, the distance on the road surface corresponding to one pixel, which is related to the distance between the imaging units 210 F and 210 R and the road surface, is calibrated.

したがって、第2実施形態によれば、路面上特徴部である白線が移動体の走行方向に沿った長さが既知であるか未知であるかにかかわらず、移動体重量の変化や車輪の空気圧の変化により、路面と撮像部との距離が変化しても、1ピクセルに対応する路面上の距離を当該変化に応じて較正することができる。   Therefore, according to the second embodiment, regardless of whether the length of the white line on the road surface along the traveling direction of the moving body is known or unknown, the change in the weight of the moving body and the air pressure of the wheels are reduced. Even if the distance between the road surface and the image capturing unit changes due to the change of, the distance on the road surface corresponding to one pixel can be calibrated according to the change.

また、第2実施形態では、較正結果及びピクセル移動量に基づいて、第2出力部が、移動体速度を算出する。このため、走行情報として精度の良い移動体速度を出力することができる。   In the second embodiment, the second output unit calculates the moving body speed based on the calibration result and the pixel movement amount. Therefore, it is possible to accurately output the moving body speed as the traveling information.

また、第2実施形態では、路面上特徴部として白線を採用する。このため、撮像画像の各ピクセルの明るさを調べることにより、白線領域を容易に特定することができる。   Further, in the second embodiment, a white line is adopted as the road surface characteristic portion. Therefore, the white line region can be easily specified by checking the brightness of each pixel of the captured image.

また、第2実施形態では、第1実施形態の場合と同様に、今回の暫定ピクセル距離と、過去における最近における所定回数の較正時に算出された暫定ピクセル距離との重み付け平均を算出して、最終的な較正結果を得る。このため、白線の進行方向の長さの変動等のピクセル距離の較正結果への影響を抑制した較正を行うことができる。   Further, in the second embodiment, as in the case of the first embodiment, a weighted average of the provisional pixel distances of this time and the provisional pixel distances calculated at a predetermined number of times of calibration in the past is calculated, and the final average is calculated. To obtain the correct calibration result. Therefore, it is possible to perform the calibration while suppressing the influence of the pixel distance on the calibration result such as the variation of the length of the white line in the traveling direction.

また、第2実施形態では、第1実施形態の場合と同様に、直進走行中、定速走行中、かつ、路面傾きのない状況であるときに較正を実施する。このため、精度の良いピクセル距離の較正を行うことができる。   In addition, in the second embodiment, as in the case of the first embodiment, the calibration is performed when the vehicle is traveling straight ahead, traveling at a constant speed, and when there is no road surface inclination. Therefore, it is possible to perform accurate pixel distance calibration.

[実施形態の変形]
本発明は、上記の第1及び第2実施形態に限定されるものではなく、様々な変形が可能である。
[Modification of Embodiment]
The present invention is not limited to the first and second embodiments described above, and various modifications are possible.

例えば、上記の第1実施形態では、路面上特徴部として交差点の手前の停止線を採用するようにしたが、移動体の走行方向に沿って既知の長さを有する道路標示であれば、他の種類の道路標示を路面上特徴部として採用してもよい。   For example, in the above-described first embodiment, the stop line before the intersection is adopted as the road surface characteristic portion, but if the road marking has a known length along the traveling direction of the moving body, other The types of road markings may be adopted as the road surface characteristic portion.

また、上記の第2実施形態では、路面上特徴部として横断歩道等の白線を採用するようにしたが、白線以外の道路標示を路面上特徴部として採用してもよい。   Further, in the above-described second embodiment, the white line such as a pedestrian crossing is adopted as the road surface characteristic part, but road markings other than the white line may be adopted as the road surface characteristic part.

また、上記の第2実施形態では、前側画像の時間変化から得られる前側ピクセル移動量と、後側画像の時間変化から得られる後側ピクセル移動量との平均をピクセル移動量として検出するようにした。これに対し、前側ピクセル移動量及び後側ピクセル移動量のいずれか一方をピクセル移動量として検出するようにしてもよい。   In the second embodiment, the average of the front pixel movement amount obtained from the time change of the front image and the rear pixel movement amount obtained from the time change of the rear image is detected as the pixel movement amount. did. On the other hand, either the front side pixel movement amount or the rear side pixel movement amount may be detected as the pixel movement amount.

また、上記の第2実施形態では、前側撮像画像が第1後方一部白線となった時点から後側撮像画像が第2後方一部白線となった時点までの撮像画像の変化に基づいて、ピクセル距離を較正するようにした。これに対し、前側撮像画像が第1前方一部白線となった時点から後側撮像画像が第2前方一部白線となった時点までの撮像画像の変化に基づいて、ピクセル距離を較正するようにしてもよい。   In the second embodiment described above, based on the change in the captured image from the time when the front captured image becomes the first rear partial white line to the time when the rear captured image becomes the second rear partial white line, Pixel distance was calibrated. On the other hand, the pixel distance is calibrated based on the change in the captured image from the time when the front captured image becomes the first front partial white line to the time when the rear captured image becomes the second front partial white line. You can

また、上記の第1及び第2実施形態では、いわゆる変位量探索法によりピクセル移動量を検出するようにしたが、画像相関法又は空間フィルタ法によりピクセル移動量を検出するようにしてもよい。   Further, in the first and second embodiments described above, the pixel movement amount is detected by the so-called displacement amount search method, but the pixel movement amount may be detected by the image correlation method or the spatial filter method.

また、上記の第1及び第2実施形態では、撮像部と路面との距離に関連する距離関連情報として、1ピクセルに対応する路面上の距離であるピクセル距離を較正するようにした。これに対し、複数ピクセルの集合である所定の画像要素の走行方向の長さ対応する路面上の距離である画像要素距離を較正するようにしてもよい。   In addition, in the above-described first and second embodiments, the pixel distance, which is the distance on the road surface corresponding to one pixel, is calibrated as the distance-related information related to the distance between the imaging unit and the road surface. On the other hand, the image element distance, which is the distance on the road surface corresponding to the length in the traveling direction of a predetermined image element that is a set of a plurality of pixels, may be calibrated.

また、上記の第1及び第2実施形態では、第2出力部が走行情報として移動体速度(走行速度)を出力するようにしたが、移動体速度に代えて、又は、移動体速度に加えて、走行距離を出力するようにしてもよい。   Further, in the above-described first and second embodiments, the second output unit outputs the moving body speed (running speed) as the traveling information, but instead of the moving body speed or in addition to the moving body speed. Then, the traveling distance may be output.

また、上記の第1及び第2実施形態では、今回の暫定ピクセル距離と、過去の所定数の暫定ピクセル距離との重み付け平均を算出してピクセル距離を較正するようにした。これに対し、今回の暫定ピクセル距離をそのまま、較正されたピクセル距離としてもよい。   In the first and second embodiments described above, the pixel distance is calibrated by calculating the weighted average of the provisional pixel distance of this time and the predetermined number of past provisional pixel distances. On the other hand, the provisional pixel distance of this time may be used as it is as the calibrated pixel distance.

また、上記の第1及び第2実施形態では、撮像部が検出装置の外部に用意されることを前提としたが、検出装置が撮像部を備えるようにしてもよい。   Further, in the above-described first and second embodiments, it is assumed that the imaging unit is provided outside the detection device, but the detection device may include the imaging unit.

また、上記の第1及び第2実施形態では、検出装置が移動体に搭載されるようにした。これに対し、検出装置を移動体外に設置し、車両搭載の撮像部やECUと無線通信網を介して接続するようにしてもよい。   In addition, in the above-described first and second embodiments, the detection device is mounted on the moving body. On the other hand, the detection device may be installed outside the moving body and connected to the vehicle-mounted image pickup unit or ECU via a wireless communication network.

なお、上記の第1及び第2実施形態の検出装置を、中央処理装置(CPU:Central Processing Unit)等を備えた演算手段としてのコンピュータとして構成し、予め用意されたプログラムを当該コンピュータで実行することにより、上記の第1及び第2実施形態の検出装置の機能の一部又は全部を実行するようにしてもよい。このプログラムはハードディスク、CD−ROM、DVD等のコンピュータで読み取り可能な記録媒体に記録され、当該コンピュータによって記録媒体からロードされて実行される。また、このプログラムは、CD−ROM、DVD等の可搬型記録媒体に記録された形態で取得されるようにしてもよいし、インターネットなどのネットワークを介した配信の形態で取得されるようにしてもよい。   The detection devices of the above-described first and second embodiments are configured as a computer as an arithmetic unit having a central processing unit (CPU) and the like, and a program prepared in advance is executed by the computer. By doing so, some or all of the functions of the detection devices of the first and second embodiments described above may be executed. This program is recorded on a computer-readable recording medium such as a hard disk, a CD-ROM, or a DVD, and is loaded from the recording medium by the computer and executed. Further, this program may be acquired in a form recorded in a portable recording medium such as a CD-ROM or a DVD, or may be acquired in a distributed form via a network such as the Internet. Good.

次に、本発明の実施例を、図14〜図23を主に参照して説明する。なお、以下の説明においては、上述した実施形態を含めて、同一又は同等の要素には同一の符号を付し、重複する説明を極力省略する。   Next, an embodiment of the present invention will be described mainly with reference to FIGS. In the following description, the same or equivalent elements, including those in the above-described embodiment, will be denoted by the same reference symbols, and redundant description will be omitted as much as possible.

[第1実施例]
まず、本発明の第1実施例を、図14〜図19を主に参照して説明する。
[First embodiment]
First, a first embodiment of the present invention will be described mainly with reference to FIGS.

<構成>
図14には、第1実施例に係る検出装置100Aの構成が概略的に示されている。この検出装置100Aは、上述した第1実施形態に係る検出装置300Aの一態様となっている。
<Structure>
FIG. 14 schematically shows the configuration of the detection device 100A according to the first embodiment. The detection device 100A is an aspect of the detection device 300A according to the above-described first embodiment.

図14に示されるように、検出装置100Aは、撮像部210、ナビゲーション装置220及びECU230と接続されている。そして、検出装置100A、撮像部210、ナビゲーション装置220及びECU230は、車両CRに搭載されている。   As shown in FIG. 14, the detection device 100A is connected to the imaging unit 210, the navigation device 220, and the ECU 230. The detection device 100A, the imaging unit 210, the navigation device 220, and the ECU 230 are mounted on the vehicle CR.

上記の検出装置100Aは、制御ユニット110Aを備えている。また、検出装置100Aは、記憶ユニット120を備えている。   The detection device 100A includes a control unit 110A. In addition, the detection device 100A includes a storage unit 120.

上記の制御ユニット110Aは、演算手段としての中央処理装置(CPU)を備えて構成される。この制御ユニット110Aは、プログラムを実行することにより、上述した第1実施形態における検出装置300Aとしての機能、すなわち、取得部310A、第1出力部320A及び第2出力部330としての機能を果たすようになっている。   The control unit 110A is configured to include a central processing unit (CPU) as a calculation means. By executing the program, the control unit 110A functions as the detection device 300A in the above-described first embodiment, that is, functions as the acquisition unit 310A, the first output unit 320A, and the second output unit 330. It has become.

制御ユニット110Aが実行するプログラムは、記憶ユニット120に記憶され、記録ユニットからロードされて実行される。このプログラムは、CD−ROM、DVD等の可搬型記録媒体に記録された形態で取得されるようにしてもよいし、インターネットなどのネットワークを介した配信の形態で取得されるようにしてもよい。   The program executed by the control unit 110A is stored in the storage unit 120, loaded from the recording unit and executed. This program may be acquired in a form recorded on a portable recording medium such as a CD-ROM or a DVD, or may be acquired in a form distributed via a network such as the Internet. ..

なお、制御ユニット110Aが実行する処理については、後述する。   The processing executed by the control unit 110A will be described later.

上記の記憶ユニット120には、制御ユニット110Aは利用する様々な情報データが記憶される。こうした情報データには、制御ユニット110Aが実行するプログラム、最新のピクセル移動量、最新のピクセル距離を含む較正履歴等が含まれている。この記憶ユニット120には、制御ユニット110Aがアクセスできるようになっている。   The storage unit 120 stores various information data used by the control unit 110A. Such information data includes the program executed by the control unit 110A, the latest pixel movement amount, the calibration history including the latest pixel distance, and the like. The control unit 110A can access the storage unit 120.

<動作>
次に、上記のように構成された検出装置100Aによる検出動作について、制御ユニット110Aによる処理に着目して説明する。
<Operation>
Next, the detection operation performed by the detection device 100A configured as described above will be described focusing on the processing performed by the control unit 110A.

なお、撮像部210は、既に動作を開始しており、周期時間TPで撮像した路面画像の撮像画像データを、逐次、検出装置100Aへ送っているものとする。また、ナビゲーション装置220は、既に動作を開始しており、車両CRが、走行方向に存在する交差点から所定距離以内となると、その旨を検出装置100Aへ送るようになっているものとする。また、ECU230は、既に動作を開始しており、加速度情報、操舵角情報及び傾き情報を検出装置100Aへ送っているものとする(図14参照)。   It is assumed that the image capturing unit 210 has already started its operation and sequentially transmits the captured image data of the road surface image captured at the cycle time TP to the detection device 100A. Further, it is assumed that the navigation device 220 has already started its operation, and when the vehicle CR is within a predetermined distance from an intersection existing in the traveling direction, the fact is sent to the detection device 100A. It is also assumed that the ECU 230 has already started its operation and has sent the acceleration information, the steering angle information, and the tilt information to the detection device 100A (see FIG. 14).

さらに、検出装置100Aでは、既に、複数回のピクセル距離の較正が行われており、記憶ユニット120には、最近の所定回数分の較正時刻、前回の撮像画像から抽出された特徴領域の特性及び画像内位置、並びに、後述する暫定ピクセル距離を含む較正履歴等が記憶されているものとする。ここで、ピクセル距離の最初の較正が行われるまでの期間においては、記憶ユニット120には、平均的なピクセル距離が記憶されるようになっている。   Further, in the detection apparatus 100A, the pixel distance has already been calibrated a plurality of times, and the storage unit 120 stores the calibration times for the latest predetermined times, the characteristics of the characteristic region extracted from the previous captured image, and It is assumed that the position in the image, a calibration history including a temporary pixel distance described later, and the like are stored. Here, the average pixel distance is stored in the storage unit 120 until the first calibration of the pixel distance is performed.

《ピクセル移動量の検出処理》
まず、制御ユニット110Aによるピクセル移動量の検出処理について説明する。
<< Pixel movement amount detection processing >>
First, the process of detecting the pixel movement amount by the control unit 110A will be described.

ピクセル移動量の検出処理に際しては、図15に示されるように、まず、ステップS11において、制御ユニット110Aが、新たな撮像画像データを受けたか否かを判定する。ステップS11における判定の結果が否定的であった場合(ステップS11:N)には、ステップS11の処理が繰り返される。   In the process of detecting the pixel movement amount, as shown in FIG. 15, first, in step S11, the control unit 110A determines whether or not new captured image data has been received. When the result of the determination in step S11 is negative (step S11: N), the process of step S11 is repeated.

新たな撮像画像データを受け、ステップS11における判定の結果が肯定的となると(ステップS11:Y)、処理はステップS12へ進む。このステップS12では、制御ユニット110Aが、新たな撮像画像データから得られる撮像画像(今回の撮像画像)における特徴領域を抽出し、当該特徴領域の特性及び画像内位置を特定する。   When new captured image data is received and the result of the determination in step S11 is affirmative (step S11: Y), the process proceeds to step S12. In step S12, the control unit 110A extracts the characteristic region in the captured image (current captured image) obtained from the new captured image data, and specifies the characteristic of the characteristic region and the position in the image.

次に、ステップS13において、制御ユニット110Aが、ピクセル移動量を検出する。かかるピクセル移動量の検出に際して、制御ユニット110Aは、記憶ユニット120内の前回の撮像画像から抽出された特徴領域の特性及び画像内位置を参照して、今回の撮像画像と前回の撮像画像とにおける共通の特徴領域の画像内位置の変位量を、新たなピクセル移動量として検出する。   Next, in step S13, the control unit 110A detects the pixel movement amount. In detecting the pixel movement amount, the control unit 110A refers to the characteristic of the characteristic region and the position in the image extracted from the previous captured image in the storage unit 120, and refers to the current captured image and the previous captured image. The amount of displacement of the common feature region in the image is detected as a new pixel movement amount.

なお、共通する特徴領域が複数ある場合には、制御ユニット110Aは、複数の特徴領域のそれぞれの変位量の平均値を、ピクセル移動量として採用する。   When there are a plurality of common characteristic regions, the control unit 110A adopts the average value of the displacement amounts of the plurality of characteristic regions as the pixel movement amount.

そして、制御ユニット110Aは、今回の撮像画像における特徴領域の特性及び画像内位置を、前回の撮像画像から抽出された特徴領域の特性及び画像内位置として記憶ユニット120内に登録する。また、制御ユニット110Aは、新たなピクセル移動量を、最新のピクセル移動量として記憶ユニット120内に登録する。   Then, the control unit 110A registers, in the storage unit 120, the characteristic and the in-image position of the characteristic region in the current captured image as the characteristic and the in-image position of the characteristic region extracted from the previously captured image. Further, the control unit 110A registers the new pixel movement amount in the storage unit 120 as the latest pixel movement amount.

こうしてステップS13の処理が終了すると、処理はステップS11へ戻る。以後、ステップS11〜S13が繰り返され、新たな撮像画像のデータを受けるたびに、ピクセル移動量が検出される。   When the process of step S13 is completed in this way, the process returns to step S11. After that, steps S11 to S13 are repeated, and the pixel movement amount is detected every time data of a new captured image is received.

《車体速度vの出力処理》
次いで、制御ユニット110Aによる車体速度vの出力処理について説明する。
<< Processing to output vehicle speed v >>
Next, the output processing of the vehicle body speed v by the control unit 110A will be described.

車体速度vの出力処理に際しては、図16に示されるように、まず、ステップS21において、制御ユニット110Aが、新たなピクセル移動量が検出されたか否かを判定する。ステップS21における判定の結果が否定的であった場合(ステップS21:N)には、ステップS21の処理が繰り返される。   In the output processing of the vehicle body speed v, as shown in FIG. 16, first, in step S21, the control unit 110A determines whether or not a new pixel movement amount is detected. If the result of the determination in step S21 is negative (step S21: N), the process of step S21 is repeated.

新たなピクセル移動量が検出され、ステップS21における判定の結果が肯定的となると(ステップS21:Y)、処理はステップS22へ進む。このステップS22では、記憶ユニット120内に登録されている最新のピクセル移動量(PN)及び最新のピクセル距離(PL)に基づいて、上述した(7)式により、車体速度vを算出する。そして、制御ユニット110Aは、算出された車体速度vをECU230へ出力する。   When a new pixel movement amount is detected and the result of the determination in step S21 is affirmative (step S21: Y), the process proceeds to step S22. In step S22, the vehicle body speed v is calculated by the above-described equation (7) based on the latest pixel movement amount (PN) and the latest pixel distance (PL) registered in the storage unit 120. Then, control unit 110A outputs the calculated vehicle body speed v to ECU 230.

こうしてステップS22の処理が終了すると、処理はステップS21へ戻る。以後、ステップS21,S22の処理が繰り返され、新たなピクセル移動量が検出されるたびに、すなわち、新たな撮像データを受けるたびに、新たな車体速度vが算出され、算出された車体速度vがECU230へ出力される。   When the process of step S22 ends in this way, the process returns to step S21. Thereafter, the processes of steps S21 and S22 are repeated, and a new vehicle body speed v is calculated each time a new pixel movement amount is detected, that is, each time new imaging data is received, and the calculated vehicle body speed v Is output to the ECU 230.

《白線領域の特定処理》
次に、制御ユニット110Aによる白線領域の特定処理について説明する。なお、当該白線領域の特定処理は、上述したピクセル移動量の検出処理及び車体速度vの出力処理と並行して実行される。
<< White line area specification processing >>
Next, the white line area specifying process by the control unit 110A will be described. The white line area specifying process is executed in parallel with the pixel movement amount detecting process and the vehicle body speed v output process described above.

かかる白線領域の特定処理は、後述するピクセル距離の較正のために行われる。このピクセル距離の較正に際しての較正環境は、上述した図6に示される場合と同様となっている。   The white line area specifying process is performed for the purpose of calibrating the pixel distance, which will be described later. The calibration environment for this pixel distance calibration is the same as that shown in FIG. 6 described above.

さて、白線領域の特定処理に際しては、図17に示されるように、まず、ステップS31において、制御ユニット110Aが、新たな撮像画像データを受けたか否かを判定する。ステップS31における判定の結果が否定的であった場合(ステップS31:N)には、ステップS31の処理が繰り返される。   In the white line area specifying process, as shown in FIG. 17, first, in step S31, the control unit 110A determines whether or not new captured image data has been received. When the result of the determination in step S31 is negative (step S31: N), the process of step S31 is repeated.

新たな撮像画像データを受け、ステップS31における判定の結果が肯定的となると(ステップS31:Y)、処理はステップS32へ進む。このステップS32では、制御ユニット110Aが、新たな撮像画像データから得られる撮像画像における白線領域を、当該撮像画像における各ピクセルの明るさに基づいて特定する。   When new captured image data is received and the result of the determination in step S31 is affirmative (step S31: Y), the process proceeds to step S32. In this step S32, the control unit 110A specifies the white line area in the captured image obtained from the new captured image data based on the brightness of each pixel in the captured image.

次に、ステップS33において、制御ユニット110Aが、白線領域の特定結果が「前方一部白線(図7(A)参照)」であるか否かを判定する。ステップS33の判定の結果が否定的であった場合(ステップS33:N)には、処理はステップS31へ戻る。そして、ステップS33の判定の結果が肯定的となるまで、ステップS31〜S33の処理が繰り返される。   Next, in step S33, the control unit 110A determines whether or not the identification result of the white line area is “a front partial white line (see FIG. 7A)”. If the result of the determination in step S33 is negative (step S33: N), the process returns to step S31. Then, the processes of steps S31 to S33 are repeated until the result of the determination of step S33 becomes affirmative.

白線領域の特定結果が「前方一部白線」となり、ステップS33における判定の結果が肯定的となると(ステップS33:Y)、処理はステップS34へ進む。このステップS34では、制御ユニット110Aが、前方長a(図7(A)参照)を算出する。そして、処理はステップS35へ進む。   If the white line area identification result is “front partial white line” and the determination result in step S33 is affirmative (step S33: Y), the process proceeds to step S34. In step S34, the control unit 110A calculates the front length a (see FIG. 7A). Then, the process proceeds to step S35.

次いで、ステップS35において、制御ユニット110Aが、新たな撮像画像データを受けたか否かを判定する。ステップS35における判定の結果が否定的であった場合(ステップS35:N)には、ステップS35の処理が繰り返される。   Next, in step S35, the control unit 110A determines whether or not new captured image data has been received. If the result of the determination in step S35 is negative (step S35: N), the process of step S35 is repeated.

新たな撮像画像データを受け、ステップS35における判定の結果が肯定的となると(ステップS35:Y)、処理はステップS36へ進む。このステップS36では、制御ユニット110Aが、新たな撮像画像データから得られる撮像画像における白線領域を、当該撮像画像における各ピクセルの明るさに基づいて特定する。   When new captured image data is received and the result of the determination in step S35 is affirmative (step S35: Y), the process proceeds to step S36. In step S36, the control unit 110A identifies the white line area in the captured image obtained from the new captured image data based on the brightness of each pixel in the captured image.

次に、ステップS37において、制御ユニット110Aが、白線領域の特定結果が「後方一部白線(図7(B)参照)」であるか否かを判定する。ステップS37の判定の結果が否定的であった場合(ステップS37:N)には、処理はステップS35へ戻る。そして、ステップS37の判定の結果が肯定的となるまで、ステップS35〜S37の処理が繰り返される。   Next, in step S37, the control unit 110A determines whether or not the identification result of the white line area is “rear partial white line (see FIG. 7B)”. If the result of the determination in step S37 is negative (step S37: N), the process returns to step S35. Then, the processes of steps S35 to S37 are repeated until the result of the determination of step S37 becomes affirmative.

白線領域の特定結果が「後方一部白線」となり、ステップS37における判定の結果が肯定的となると(ステップS37:Y)、処理はステップS38へ進む。このステップS38では、制御ユニット110Aが、前方長b(図7(B)参照)を算出する。そして、処理はステップS31へ戻る。   If the white line area identification result is “rear partial white line” and the determination result in step S37 is affirmative (step S37: Y), the process proceeds to step S38. In step S38, the control unit 110A calculates the front length b (see FIG. 7B). Then, the process returns to step S31.

以後、ステップS31〜S38が繰り返される。この結果、車両CRが白線を横切るたびに、白線領域の特定が行われる。   After that, steps S31 to S38 are repeated. As a result, the white line area is specified every time the vehicle CR crosses the white line.

《較正条件のモニタ処理》
次に、制御ユニット110Aによる較正条件のモニタ処理について説明する。なお、当該較正条件のモニタ処理は、上述したピクセル移動量の検出処理、車体速度vの出力処理及び白線領域の特定処理と並行して実行される。
<< Monitoring of calibration conditions >>
Next, the process of monitoring the calibration conditions by the control unit 110A will be described. The calibration condition monitoring process is executed in parallel with the above-described pixel movement amount detection process, vehicle body speed v output process, and white line region identification process.

較正条件のモニタ処理に際しては、図18に示されるように、まず、ステップS41において、ECU230から送られた最新の操舵角情報に基づいて、車両CRが直進中か否かを判定する。ステップS41における判定の結果が否定的であった場合(ステップS41:N)には、処理は、後述するステップS44へ進む。   In the calibration condition monitoring process, as shown in FIG. 18, first, in step S41, it is determined whether or not the vehicle CR is traveling straight ahead based on the latest steering angle information sent from the ECU 230. When the result of the determination in step S41 is negative (step S41: N), the process proceeds to step S44 described later.

ステップS41における判定の結果が肯定的であった場合(ステップS41:Y)には、処理はステップS42へ進む。このステップS42では、制御ユニット110Aが、ECU230から送られた最新の加速度情報に基づいて、車両CRが加速中又は減速中か否かを判定する。ステップS42における判定の結果が肯定的であった場合(ステップS42:Y)には、処理はステップS44へ進む。   If the result of the determination in step S41 is affirmative (step S41: Y), the process proceeds to step S42. In this step S42, control unit 110A determines whether or not vehicle CR is accelerating or decelerating based on the latest acceleration information sent from ECU 230. When the result of the determination in step S42 is affirmative (step S42: Y), the process proceeds to step S44.

ステップS42における判定の結果が否定的であった場合(ステップS42:N)には、処理はステップS43へ進む。このステップS43では、制御ユニット110Aが、ECU230から送られた最新の傾き情報に基づいて、車両CRの車体傾きが有るか否かを判定する。   When the result of the determination in step S42 is negative (step S42: N), the process proceeds to step S43. In step S43, control unit 110A determines whether or not there is a vehicle body inclination of vehicle CR based on the latest inclination information sent from ECU 230.

ステップS43における判定の結果が肯定的であった場合(ステップS43:Y)には、処理はステップS44へ進む。このステップS44では、制御ユニット110Aが、較正条件フラグを「OFF」に設定する。そして、処理はステップS41へ戻る。   If the result of the determination in step S43 is affirmative (step S43: Y), the process proceeds to step S44. In step S44, the control unit 110A sets the calibration condition flag to "OFF". Then, the process returns to step S41.

一方、ステップS43における判定の結果が否定的であった場合(ステップS43:N)には、処理はステップS45へ進む。このステップS45では、制御ユニット110Aが、較正条件フラグを「ON」に設定する。そして、処理はステップS41へ戻る。   On the other hand, if the result of the determination in step S43 is negative (step S43: N), the process proceeds to step S45. In step S45, the control unit 110A sets the calibration condition flag to "ON". Then, the process returns to step S41.

以後、ステップS41〜S44の処理が繰り返される。この結果、車両CRが平坦な路面を等速直進走行しているという較正条件が満たされていると判断される場合には、較正条件フラグが「ON」となる。一方、当該較正条件が満たされていないと判断される場合には、較正条件フラグが「OFF」となる。   After that, the processes of steps S41 to S44 are repeated. As a result, when it is determined that the calibration condition that the vehicle CR travels straight on a flat road surface at a constant speed is satisfied, the calibration condition flag is set to "ON". On the other hand, when it is determined that the calibration condition is not satisfied, the calibration condition flag is “OFF”.

《ピクセル距離の較正処理》
次いで、制御ユニット110Aによるピクセル距離の較正処理について説明する。なお、当該ピクセル距離の較正処理は、上述したピクセル移動量の検出処理、車体速度vの出力処理、白線領域の特定処理及び較正条件のモニタ処理と並行して実行される。
<< Pixel distance calibration process >>
Next, the pixel distance calibration process by the control unit 110A will be described. The pixel distance calibration process is performed in parallel with the above-described pixel movement amount detection process, vehicle body speed v output process, white line region identification process, and calibration condition monitor process.

ピクセル距離の較正処理に際しては、図19に示されるように、まず、ステップS50において、制御ユニット110Aが、ナビゲーション装置220から走行方向に存在する交差点から所定距離以内となった旨を受けたか否かを判定することにより、交差点に接近したか否かを判定する。ステップS50における判定の結果が否定的であった場合(ステップS50:N)には、ステップS50の処理が繰り返される。   In the pixel distance calibration process, as shown in FIG. 19, first, in step S50, it is determined whether or not the control unit 110A receives from the navigation device 220 that it is within a predetermined distance from an intersection existing in the traveling direction. By determining, it is determined whether or not the intersection is approached. If the result of the determination in step S50 is negative (step S50: N), the process of step S50 is repeated.

交差点に接近し、ステップS50における判定の結果が肯定的となると(ステップS50:Y)、処理はステップS51へ進む。このステップS51では、制御ユニット110Aが、較正条件フラグが「ON」であるか否かを判定することにより、車両CRが平坦な路面を等速直進走行しているか否かを判定する。   When the vehicle approaches the intersection and the result of the determination in step S50 is affirmative (step S50: Y), the process proceeds to step S51. In step S51, the control unit 110A determines whether the calibration condition flag is "ON" to determine whether the vehicle CR is traveling straight on a flat road surface at a constant speed.

ステップS51における判定の結果が否定的であった場合(ステップS51:N)には、処理はステップS50へ戻る。そして、ステップS50,S51の処理が繰り返される。   If the result of the determination in step S51 is negative (step S51: N), the process returns to step S50. Then, the processes of steps S50 and S51 are repeated.

ステップS51における判定の結果が肯定的であった場合(ステップS51:Y)には、処理はステップS52へ進む。このステップS52では、制御ユニット110Aが、上述した白線領域の特定処理により「前方一部白線」となっていることが特定され、前方長aが求められたかを判定する。   When the result of the determination in step S51 is affirmative (step S51: Y), the process proceeds to step S52. In step S52, the control unit 110A determines that the front part white line is identified by the white line area specifying process described above, and determines whether the front length a is obtained.

ステップS51における判定の結果が否定的であった場合(ステップS52:N)には、処理はステップS51へ戻る。そして、ステップS51における判定の結果が否定的とならないことを条件として、ステップS51,S52の処理が繰り返される。   When the result of the determination in step S51 is negative (step S52: N), the process returns to step S51. Then, the processing in steps S51 and S52 is repeated, provided that the result of the determination in step S51 is not negative.

ステップS52における判定の結果が肯定的となると(ステップS52:Y)、処理はステップS53へ進む。このステップS53では、距離パラメータLを前方長aに設定する。   When the result of the determination in step S52 is affirmative (step S52: Y), the process proceeds to step S53. In this step S53, the distance parameter L is set to the front length a.

次に、ステップS54において、制御ユニット110Aが、較正条件フラグが「ON」であるか否かを判定することにより、車両CRが平坦な路面を等速直進走行しているか否かを判定する。ステップS54における判定の結果が否定的であった場合(ステップS54:N)には、処理はステップS50へ戻る。   Next, in step S54, the control unit 110A determines whether or not the calibration condition flag is "ON", thereby determining whether or not the vehicle CR is traveling straight at a constant speed on a flat road surface. When the result of the determination in step S54 is negative (step S54: N), the process returns to step S50.

ステップS54における判定の結果が肯定的であった場合(ステップS54:Y)には、処理はステップS55へ進む。このステップS55では、制御ユニット110Aが、上述したピクセル移動量の検出処理により新たなピクセル移動量(ΔXj)が検出されたか否かを判定する。 When the result of the determination in step S54 is affirmative (step S54: Y), the process proceeds to step S55. In step S55, the control unit 110A determines whether or not a new pixel movement amount (ΔX j ) is detected by the above-described pixel movement amount detection processing.

ステップS55における判定の結果が否定的であった場合(ステップS55:N)には、処理はステップS54へ戻る。そして、ステップS54における判定の結果が否定的とならないことを条件として、ステップS54,S55の処理が繰り返される。   If the result of the determination in step S55 is negative (step S55: N), the process returns to step S54. Then, the processing in steps S54 and S55 is repeated, provided that the result of the determination in step S54 is not negative.

ステップS55における判定の結果が肯定的となると(ステップS55:Y)、処理はステップS56へ進む。このステップS56では、制御ユニット110Aが、それまでの距離パラメータLの値に新たなピクセル移動量(ΔXj)を加算して、距離パラメータLの値を更新する。 When the result of the determination in step S55 is affirmative (step S55: Y), the process proceeds to step S56. In this step S56, the control unit 110A updates the value of the distance parameter L by adding the new pixel movement amount (ΔX j ) to the value of the distance parameter L up to that point.

次いで、ステップS57において、制御ユニット110Aが、上述した白線領域の特定処理により「後方一部白線」となっていることが特定され、前方長bが求められているかを判定する。ステップS57における判定の結果が否定的であった場合(ステップS57:N)には、処理はステップS54へ戻る。そして、ステップS54における判定の結果が否定的とならないことを条件として、ステップS54〜S57の処理が繰り返される。   Next, in step S57, the control unit 110A determines that the "rear partial white line" is identified by the white line area identification processing described above, and determines whether the front length b is obtained. If the result of the determination in step S57 is negative (step S57: N), the process returns to step S54. Then, the processing in steps S54 to S57 is repeated, provided that the result of the determination in step S54 is not negative.

ステップS57における判定の結果が肯定的となると(ステップS57:Y)、処理はステップS58へ進む。このステップS58では、制御ユニット110Aが、それまでの距離パラメータLの値から前方長bを減算して、距離パラメータLの値を更新する。   When the result of the determination in step S57 is affirmative (step S57: Y), the process proceeds to step S58. In this step S58, the control unit 110A updates the value of the distance parameter L by subtracting the front length b from the value of the distance parameter L up to that point.

次に、ステップS59において、制御ユニット110Aが、その時点における距離パラメータLの値に基づき、次の(11)式により、暫定ピクセル距離PT[cm]を算出する。
PT=45/L …(11)
なお、(11)式は、上述した(8)式と等価な式となっている。
Next, in step S59, the control unit 110A calculates the provisional pixel distance PT [cm] by the following equation (11) based on the value of the distance parameter L at that time.
PT = 45 / L (11)
The equation (11) is an equation equivalent to the above equation (8).

引き続き、制御ユニット110Aは、算出された今回の暫定ピクセル距離と、記憶ユニット120内に記憶されている過去における所定回数の較正時に算出された暫定ピクセル距離との重み付け平均を算出して、新たに較正されたピクセル距離を算出する。この後、制御ユニット110Aは、記憶ユニット120内の最新のピクセル距離を当該新たに較正されたピクセル距離に更新するとともに、それまで記憶ユニット120内に記憶されていた暫定ピクセル距離のうちで最も古いものに代えて、今回の暫定ピクセル距離を現在時刻とともに記憶ユニット120に格納する。この結果、上述した車体速度vの出力処理に際して、制御ユニット110Aは、新たなピクセル距離を利用した車体速度vの算出を行うようになる。   Subsequently, the control unit 110A calculates a weighted average of the calculated current provisional pixel distance and the provisional pixel distance stored in the storage unit 120 during a predetermined number of calibrations in the past, and newly calculates the weighted average. Calculate the calibrated pixel distance. Thereafter, the control unit 110A updates the latest pixel distance in the storage unit 120 to the newly calibrated pixel distance, and the oldest pixel distance previously stored in the storage unit 120. Instead of this, the provisional pixel distance of this time is stored in the storage unit 120 together with the current time. As a result, during the above-described output processing of the vehicle body speed v, the control unit 110A comes to calculate the vehicle body speed v using the new pixel distance.

こうしてステップS59の処理が終了すると、処理はステップS50へ戻る。そして、ステップS50〜S59の処理が繰り返される。この結果、車両CRが、平坦な路面を等速直進走行して、交差点の手前の停止線(白線)を横切るたびに、ピクセル距離が較正される。   When the process of step S59 is completed in this way, the process returns to step S50. Then, the processing of steps S50 to S59 is repeated. As a result, the pixel distance is calibrated each time the vehicle CR travels straight and straight on a flat road surface and crosses the stop line (white line) before the intersection.

以上説明したように、第1実施例では、車両CRの撮像部210による撮像画像に基づいて、制御ユニット110Aが、ピクセル移動量を検出する。また、制御ユニット110Aが、撮像画像中における白線領域を特定する。そして、制御ユニット110Aが、ピクセル移動量及び撮像画像内における白線領域の特定結果に加えて、車両CRの走行方向に沿った停止線の既知の長さに基づいて、車両CRが平坦な路面を等速直進走行していると判断できる場合に、撮像部210と路面との間の距離に関連する、1ピクセルに対応する路面上の距離を較正する。   As described above, in the first embodiment, the control unit 110A detects the pixel movement amount based on the image captured by the image capturing section 210 of the vehicle CR. In addition, the control unit 110A identifies the white line area in the captured image. Then, the control unit 110A determines the flat surface of the vehicle CR based on the known length of the stop line along the traveling direction of the vehicle CR in addition to the pixel movement amount and the result of identifying the white line area in the captured image. When it can be determined that the vehicle is traveling straight at a constant speed, the distance on the road surface corresponding to one pixel, which is related to the distance between the imaging unit 210 and the road surface, is calibrated.

したがって、第1実施例によれば、車両重量の変化や車輪の空気圧の変化により、路面と撮像部との距離が変化しても、1ピクセルに対応する路面上の距離を当該変化に応じて較正することができる。   Therefore, according to the first embodiment, even if the distance between the road surface and the imaging unit changes due to a change in vehicle weight or a change in wheel air pressure, the distance on the road surface corresponding to one pixel is changed according to the change. Can be calibrated.

また、第1実施例では、較正結果及びピクセル移動量に基づいて、制御ユニット110Aが、車体速度を算出する。このため、走行情報として精度の良い車体速度を出力することができる。   Further, in the first embodiment, the control unit 110A calculates the vehicle body speed based on the calibration result and the pixel movement amount. Therefore, it is possible to output the vehicle speed with high accuracy as the traveling information.

また、第1実施例では、路面上特徴部として停止線を採用する。このため、撮像画像の各ピクセルの明るさを調べることにより、停止線領域(すなわち、白線領域)を容易に特定することができる。   Further, in the first embodiment, a stop line is adopted as the road surface characteristic portion. Therefore, by checking the brightness of each pixel of the captured image, the stop line area (that is, the white line area) can be easily specified.

また、第1実施例では、交差点に近付いた旨の情報を取得し、停止線を通過することを予め推測する。このため、効率的な較正を行うことができる。   In addition, in the first embodiment, information indicating that an intersection is approached is acquired and it is presumed that the vehicle will pass the stop line. Therefore, efficient calibration can be performed.

また、第1実施例では、今回の暫定ピクセル距離と、過去における所定回数の較正時に算出された暫定ピクセル距離との重み付け平均を算出して、最終的な較正結果を得る。このため、停止線の進行方向の長さの変動等のピクセル距離の較正結果への影響を抑制した較正を行うことができる。   Further, in the first embodiment, the final calibration result is obtained by calculating the weighted average of the provisional pixel distance of this time and the provisional pixel distance calculated during the predetermined number of times of calibration in the past. Therefore, it is possible to perform the calibration while suppressing the influence of the pixel distance on the calibration result such as the variation of the length of the stop line in the traveling direction.

また、第1実施例では、直進走行中、定速走行中、かつ、路面傾きのない状況であるときに較正を実施する。このため、精度の良いピクセル距離の較正を行うことができる。   Further, in the first embodiment, the calibration is carried out when the vehicle is traveling straight ahead, traveling at a constant speed, and when there is no road surface inclination. Therefore, it is possible to perform accurate pixel distance calibration.

[第2実施例]
次に、本発明の第2実施例を、図20〜図23を主に参照して説明する。
[Second Embodiment]
Next, a second embodiment of the present invention will be described mainly with reference to FIGS.

<構成>
図20には、第1実施例に係る検出装置100Bの構成が概略的に示されている。この検出装置100Bは、上述した第2実施形態に係る検出装置300Bの一態様となっている。
<Structure>
FIG. 20 schematically shows the configuration of the detection device 100B according to the first embodiment. The detection device 100B is an aspect of the detection device 300B according to the second embodiment described above.

図20に示されるように、検出装置100Bは、撮像部210F,210R及びECU230と接続されている。そして、検出装置100B、撮像部210F,210R及びECU230は、車両CRに搭載されている。 As shown in FIG. 20, the detection device 100B is connected to the imaging units 210 F and 210 R and the ECU 230. The detection apparatus 100B, the imaging unit 210 F, 210 R and ECU230 is mounted on the vehicle CR.

上記の検出装置100Bは、制御ユニット110Bを備えている。また、検出装置100Bは、記憶ユニット120を備えている。   The detection device 100B described above includes a control unit 110B. The detection device 100B also includes a storage unit 120.

上記の制御ユニット110Bは、演算手段としての中央処理装置(CPU)を備えて構成される。この制御ユニット110Bは、プログラムを実行することにより、上述した第2実施形態における検出装置300Bとしての機能、すなわち、取得部310B、第1出力部320B及び第2出力部330としての機能を果たすようになっている。   The control unit 110B is configured to include a central processing unit (CPU) as a calculation means. By executing the program, the control unit 110B functions as the detection device 300B in the second embodiment described above, that is, functions as the acquisition unit 310B, the first output unit 320B, and the second output unit 330. It has become.

制御ユニット110Bが実行するプログラムは、記憶ユニット120に記憶され、記録ユニットからロードされて実行される。このプログラムは、CD−ROM、DVD等の可搬型記録媒体に記録された形態で取得されるようにしてもよいし、インターネットなどのネットワークを介した配信の形態で取得されるようにしてもよい。   The program executed by the control unit 110B is stored in the storage unit 120, loaded from the recording unit and executed. This program may be acquired in a form recorded on a portable recording medium such as a CD-ROM or a DVD, or may be acquired in a form distributed via a network such as the Internet. ..

なお、制御ユニット110Bが実行する処理については、後述する。   The processing executed by the control unit 110B will be described later.

上記の記憶ユニット120には、制御ユニット110Bが利用する様々な情報データが記憶される。こうした情報データには、制御ユニット110Bが実行するプログラム、最新のピクセル移動量、最新のピクセル距離を含む較正履歴等が含まれている。この記憶ユニット120には、制御ユニット110Bがアクセスできるようになっている。   The storage unit 120 stores various information data used by the control unit 110B. Such information data includes the program executed by the control unit 110B, the latest pixel movement amount, the calibration history including the latest pixel distance, and the like. The control unit 110B can access the storage unit 120.

<動作>
次に、上記のように構成された検出装置100Bによる検出動作について、制御ユニット110Bによる処理に着目して説明する。
<Operation>
Next, the detection operation by the detection device 100B configured as described above will be described focusing on the processing by the control unit 110B.

なお、撮像部210F,210Rは、既に動作を開始しており、周期時間TPで撮像した路面画像の前側撮像画像のデータ及び後側撮像画像のデータを、逐次、検出装置100Bへ送っているものとする。また、ECU230は、既に動作を開始しており、加速度情報、操舵角情報及び傾き情報を検出装置100Bへ送っているものとする(図20参照)。 Note that the imaging units 210 F and 210 R have already started to operate, and sequentially send the front-side captured image data and the rear-side captured image data of the road surface image captured at the cycle time TP to the detection device 100B. Be present. It is also assumed that the ECU 230 has already started its operation and has sent the acceleration information, the steering angle information, and the tilt information to the detection device 100B (see FIG. 20).

さらに、検出装置100Bでは、既に、複数回のピクセル距離の較正が行われており、記憶ユニット120には、最近の所定回数分の較正時刻、前回の撮像画像から抽出された特徴領域の特性及び画像内位置、並びに、後述する暫定ピクセル距離を含む較正履歴等が記憶されているものとする。ここで、ピクセル距離の最初の較正が行われるまでの期間においては、記憶ユニット120には、平均的なピクセル距離が記憶されるようになっている。   Further, in the detection apparatus 100B, the pixel distance has already been calibrated a plurality of times, and the storage unit 120 stores the calibration times for a predetermined number of recent times, the characteristics of the characteristic region extracted from the previous captured image, and It is assumed that the position in the image, a calibration history including a temporary pixel distance described later, and the like are stored. Here, the average pixel distance is stored in the storage unit 120 until the first calibration of the pixel distance is performed.

《ピクセル移動量の検出処理》
まず、制御ユニット110Bによるピクセル移動量の検出処理について説明する。
<< Pixel movement amount detection processing >>
First, a process of detecting the pixel movement amount by the control unit 110B will be described.

ピクセル移動量の検出処理に際しては、図21に示されるように、まず、ステップS61において、制御ユニット110Bが、新たな前側撮像画像のデータ及び新たな後側撮像画像のデータを受けたか否かを判定する。ステップS61における判定の結果が否定的であった場合(ステップS61:N)には、ステップS61の処理が繰り返される。   In the pixel movement amount detection processing, as shown in FIG. 21, first, in step S61, it is determined whether the control unit 110B has received new front side captured image data and new rear side captured image data. judge. When the result of the determination in step S61 is negative (step S61: N), the process of step S61 is repeated.

新たな前側撮像画像のデータを受け、ステップS61における判定の結果が肯定的となると(ステップS61:Y)、処理はステップS62へ進む。このステップS62では、制御ユニット110Bが、新たな前側撮像画像のデータから得られる前側撮像画像における特徴領域を抽出し、当該特徴領域の特性及び画像内位置を特定する。   When the data of the new front side captured image is received and the result of the determination in step S61 is affirmative (step S61: Y), the process proceeds to step S62. In step S62, the control unit 110B extracts the characteristic region in the front side captured image obtained from the data of the new front side captured image, and specifies the characteristic of the characteristic region and the position in the image.

次に、ステップS63において、制御ユニット110Bが、前側ピクセル移動量を検出する。かかる前側ピクセル移動量の検出に際して、制御ユニット110Bは、記憶ユニット120内の前回の前側撮像画像から抽出された特徴領域の特性及び画像内位置を参照して、今回の前側撮像画像と前回の前側撮像画像とにおける共通の特徴領域の画像内位置の変位量を、新たな前側ピクセル移動量として検出する。   Next, in step S63, the control unit 110B detects the front pixel movement amount. When detecting the front side pixel movement amount, the control unit 110B refers to the characteristic and the image position of the characteristic region extracted from the previous front side captured image in the storage unit 120 to refer to the front side captured image of this time and the front side of the previous time. The displacement amount of the position within the image of the common characteristic region in the captured image is detected as a new front pixel movement amount.

なお、共通する特徴領域が複数ある場合には、制御ユニット110Bは、複数の特徴領域のそれぞれの変位量の平均値を、新たな前側ピクセル移動量として採用する。   When there are a plurality of common characteristic regions, the control unit 110B adopts the average value of the displacement amounts of the plurality of characteristic regions as the new front pixel movement amount.

そして、制御ユニット110Bは、今回の撮像画像における特徴領域の特性及び画像内位置を、前回の撮像画像から抽出された特徴領域の特性及び画像内位置として記憶ユニット120内に登録する。また、制御ユニット110Bは、新たなピクセル移動量を、最新のピクセル移動量として記憶ユニット120内に登録する。   Then, the control unit 110B registers, in the storage unit 120, the characteristics and the in-image position of the characteristic area in the captured image of this time as the characteristics and the in-image position of the characteristic area extracted from the previously captured image. Further, the control unit 110B registers the new pixel movement amount in the storage unit 120 as the latest pixel movement amount.

次いで、ステップS64において、制御ユニット110Bが、新たな後側撮像画像のデータから得られる後側撮像画像における特徴領域を抽出し、当該特徴領域の特性及び画像内位置を特定する。   Next, in step S64, the control unit 110B extracts the characteristic region in the rear side captured image obtained from the data of the new rear side captured image, and specifies the characteristic of the characteristic region and the position in the image.

次に、ステップS65において、制御ユニット110Bが、後側ピクセル移動量を検出する。かかる後側ピクセル移動量の検出に際して、制御ユニット110Bは、記憶ユニット120内の前回の後側撮像画像から抽出された特徴領域の特性及び画像内位置を参照して、今回の後側撮像画像と前回の後側撮像画像とにおける共通の特徴領域の画像内位置の変位量を、新たな後側ピクセル移動量として検出する。   Next, in step S65, the control unit 110B detects the rear pixel movement amount. When detecting the rear side pixel movement amount, the control unit 110B refers to the characteristics and the image position of the characteristic region extracted from the previous rear side captured image in the storage unit 120, The amount of displacement of the in-image position of the common characteristic region in the previous captured image on the rear side is detected as a new amount of rear pixel movement.

なお、共通する特徴領域が複数ある場合には、前側ピクセル移動量の検出の場合と同様に、制御ユニット110Bは、複数の特徴領域のそれぞれの変位量の平均値を、新たな後側ピクセル移動量として採用する。   Note that when there are a plurality of common feature regions, the control unit 110B determines the average value of the displacement amounts of the plurality of feature regions as new rear pixel movements, as in the case of detecting the front pixel movement amount. Adopt as quantity.

次に、ステップS66において、制御ユニット110Bが、新たなピクセル移動量を検出する。かかるピクセル移動量の検出に際して、制御ユニット110Bは、前側ピクセル移動量と後側ピクセル移動量との平均を算出することにより、新たなピクセル移動量を検出する。   Next, in step S66, the control unit 110B detects a new pixel movement amount. When detecting the pixel movement amount, the control unit 110B detects a new pixel movement amount by calculating the average of the front side pixel movement amount and the rear side pixel movement amount.

そして、制御ユニット110Bは、今回の前側撮像画像における特徴領域の特性及び画像内位置、及び、今回の後側撮像画像における特徴領域の特性及び画像内位置を、前回の前側撮像画像における特徴領域の特性及び画像内位置、及び、前回の後側撮像画像における特徴領域の特性及び画像内位置として記憶ユニット120内に登録する。また、制御ユニット110Bは、新たなピクセル移動量を、最新のピクセル移動量として記憶ユニット120内に登録する。   Then, the control unit 110B determines the characteristics and intra-image position of the characteristic area in the front side captured image of this time, and the characteristics and intra-image position of the characteristic area in the rear side captured image of this time as the characteristics area of the previous front side captured image. It is registered in the storage unit 120 as the characteristic and the position in the image and the characteristic and the position in the image of the characteristic region in the last captured image on the rear side. Further, the control unit 110B registers the new pixel movement amount in the storage unit 120 as the latest pixel movement amount.

こうしてステップS66の処理が終了すると、処理はステップS61へ戻る。以後、ステップS61〜S66が繰り返され、新たな前側撮像画像のデータ及び新たな後側撮像画像のデータを受けるたびに、ピクセル移動量が検出される。   When the process of step S66 is completed in this way, the process returns to step S61. After that, steps S61 to S66 are repeated, and the pixel movement amount is detected each time the data of the new front side captured image and the data of the new rear side captured image are received.

《車体速度vの出力処理》
制御ユニット110Bによる車体速度vの出力処理は、上述した制御ユニット110Aによる車体速度vの出力処理と同様となっている(図16参照)。
<< Processing to output vehicle speed v >>
The output processing of the vehicle body speed v by the control unit 110B is similar to the output processing of the vehicle body speed v by the control unit 110A described above (see FIG. 16).

《白線領域の特定処理》
次に、制御ユニット110Bによる白線領域の特定処理について説明する。なお、当該白線領域の特定処理は、上述したピクセル移動量の検出処理及び車体速度vの出力処理と並行して実行される。
<< White line area specification processing >>
Next, the white line area specifying process by the control unit 110B will be described. The white line area specifying process is executed in parallel with the pixel movement amount detecting process and the vehicle body speed v output process described above.

かかる白線領域の特定処理は、後述するピクセル距離の較正のために行われる。このピクセル距離の較正に際しての較正環境は、上述した図11に示される場合と同様となっている。   The white line area specifying process is performed for the purpose of calibrating the pixel distance, which will be described later. The calibration environment for this pixel distance calibration is the same as that shown in FIG. 11 described above.

さて、白線領域の特定処理に際しては、図22に示されるように、まず、ステップS71において、制御ユニット110Bが、新たな前側撮像画像のデータを受けたか否かを判定する。ステップS71における判定の結果が否定的であった場合(ステップS71:N)には、ステップS71の処理が繰り返される。   Now, in the white line area specifying process, as shown in FIG. 22, first, in step S71, the control unit 110B determines whether or not new front side captured image data has been received. When the result of the determination in step S71 is negative (step S71: N), the process of step S71 is repeated.

新たな前側撮像画像データを受け、ステップS71における判定の結果が肯定的となると(ステップS71:Y)、処理はステップS72へ進む。このステップS72では、制御ユニット110Bが、新たな前側撮像画像のデータから得られる前側撮像画像における白線領域を、当該前側撮像画像における各ピクセルの明るさに基づいて特定する。   When new front side captured image data is received and the result of the determination in step S71 is affirmative (step S71: Y), the process proceeds to step S72. In step S72, the control unit 110B identifies the white line region in the front side captured image obtained from the data of the new front side captured image based on the brightness of each pixel in the front side captured image.

次に、ステップS73において、制御ユニット110Bが、白線領域の特定結果が「第1後方一部白線(図12(A)参照)」であるか否かを判定する。ステップS73の判定の結果が否定的であった場合(ステップS73:N)には、処理はステップS71へ戻る。そして、ステップS73の判定の結果が肯定的となるまで、ステップS71〜S73の処理が繰り返される。   Next, in step S73, the control unit 110B determines whether or not the result of identifying the white line area is “first rear partial white line (see FIG. 12A)”. If the result of the determination in step S73 is negative (step S73: N), the process returns to step S71. Then, the processes of steps S71 to S73 are repeated until the result of the determination of step S73 is affirmative.

前側撮像画像における白線領域の特定結果が「第1後方一部白線」となり、ステップS73における判定の結果が肯定的となると(ステップS73:Y)、処理はステップS74へ進む。このステップS74では、制御ユニット110Bが、前方長a(図12(A)参照)を求める。   If the result of specifying the white line area in the front captured image is “first rear partial white line” and the result of the determination in step S73 is affirmative (step S73: Y), the process proceeds to step S74. In step S74, the control unit 110B determines the front length a (see FIG. 12A).

なお、第2実施例では、制御ユニット110Bは、前側撮像画像において「第1後方一部白線」となるまでの白線が明確に特定できる状態が継続したことを条件として、「第1後方一部白線」を特定するようになっている。   In addition, in the second embodiment, the control unit 110B, on the condition that the white line until the "first rear partial white line" in the front side captured image can be clearly specified continues, "the first rear partial white line". The "white line" is specified.

次いで、ステップS75では、制御ユニット110Bが、新たな後側撮像画像のデータを受けたか否かを判定する。ステップS75における判定の結果が否定的であった場合(ステップS75:N)には、ステップS75の処理が繰り返される。   Next, in step S75, the control unit 110B determines whether or not the data of the new rear side captured image has been received. If the result of the determination in step S75 is negative (step S75: N), the process of step S75 is repeated.

新たな後側撮像画像のデータを受け、ステップS75における判定の結果が肯定的となると(ステップS75:Y)、処理はステップS76へ進む。このステップS76では、制御ユニット110Bが、新たな後側撮像画像のデータから得られる後側撮像画像における白線領域を、当該撮像画像における各ピクセルの明るさに基づいて特定する。   When the new rear-side captured image data is received and the result of the determination in step S75 is affirmative (step S75: Y), the process proceeds to step S76. In step S76, the control unit 110B identifies the white line region in the rear side captured image obtained from the data of the new rear side captured image based on the brightness of each pixel in the captured image.

次に、ステップS77において、制御ユニット110Bが、白線領域の特定結果が「第2後方一部白線(図12(B)参照)」であるか否かを判定する。ステップS77の判定の結果が否定的であった場合(ステップS77:N)には、処理はステップS75へ戻る。そして、ステップS77の判定の結果が肯定的となるまで、ステップS75〜S77の処理が繰り返される。   Next, in step S77, the control unit 110B determines whether or not the white line area identification result is the "second rear partial white line (see FIG. 12B)". If the result of the determination in step S77 is negative (step S77: N), the process returns to step S75. Then, the processes of steps S75 to S77 are repeated until the result of the determination of step S77 becomes affirmative.

後側撮像画像における白線領域の特定結果が「第2後方一部白線」となり、ステップS77における判定の結果が肯定的となると(ステップS77:Y)、処理はステップS78へ進む。このステップS78では、制御ユニット110Bが、前方長b(図12(B)参照)を求める。そして、処理はステップS71へ戻る。   If the white line region identification result in the rear side captured image is “second rear partial white line” and the determination result in step S77 is affirmative (step S77: Y), the process proceeds to step S78. In step S78, the control unit 110B obtains the front length b (see FIG. 12B). Then, the process returns to step S71.

以後、ステップS71〜S78が繰り返される。この結果、車両CRが白線を横切るたびに、白線領域の特定が行われる。   After that, steps S71 to S78 are repeated. As a result, the white line area is specified every time the vehicle CR crosses the white line.

《較正条件のモニタ処理》
制御ユニット110Bによる較正条件のモニタ処理は、上述した制御ユニット110Aによる較正条件のモニタ処理と同様となっている(図18参照)。
<< Monitoring of calibration conditions >>
The calibration condition monitoring process by the control unit 110B is similar to the calibration condition monitoring process by the control unit 110A described above (see FIG. 18).

《ピクセル距離の較正処理》
次いで、制御ユニット110Bによるピクセル距離の較正処理について説明する。なお、当該ピクセル距離の較正処理は、上述したピクセル移動量の検出処理、車体速度vの出力処理、白線領域の特定処理及び較正条件のモニタ処理と並行して実行される。
<< Pixel distance calibration process >>
Next, the pixel distance calibration process by the control unit 110B will be described. The pixel distance calibration process is performed in parallel with the above-described pixel movement amount detection process, vehicle body speed v output process, white line region identification process, and calibration condition monitor process.

ピクセル距離の較正処理に際しては、図23に示されるように、まず、ステップS81において、制御ユニット110Bが、較正条件フラグが「ON」であるか否かを判定することにより、車両CRが平坦な路面を等速直進走行しているか否かを判定する。ステップS81における判定の結果が否定的であった場合(ステップS81:N)には、ステップS81の処理が繰り返される。   In the pixel distance calibration process, as shown in FIG. 23, first, in step S81, the control unit 110B determines whether or not the calibration condition flag is “ON”, so that the vehicle CR is flat. It is determined whether or not the vehicle is traveling straight at a constant speed on the road surface. When the result of the determination in step S81 is negative (step S81: N), the process of step S81 is repeated.

ステップS81における判定の結果が肯定的であった場合(ステップS81:Y)には、処理はステップS82へ進む。このステップS82では、制御ユニット110Bが、上述した白線領域の特定処理により前側撮像画像が「第1後方一部白線」となっていることが特定され、前方長aが求められたかを判定する。   When the result of the determination in step S81 is affirmative (step S81: Y), the process proceeds to step S82. In step S82, the control unit 110B specifies that the front side captured image is the "first rear partial white line" by the white line area specifying process described above, and determines whether the front length a is obtained.

ステップS82における判定の結果が否定的であった場合(ステップS82:N)には、処理はステップS81へ戻る。そして、ステップS81,S82の処理が繰り返される。   When the result of the determination in step S82 is negative (step S82: N), the process returns to step S81. Then, the processes of steps S81 and S82 are repeated.

ステップS82における判定の結果が肯定的となると(ステップS82:Y)、処理はステップS83へ進む。このステップS83では、距離パラメータLを前方長aに設定する。   When the result of the determination in step S82 is affirmative (step S82: Y), the process proceeds to step S83. In this step S83, the distance parameter L is set to the front length a.

次に、ステップS84において、制御ユニット110Bが、較正条件フラグが「ON」であるか否かを判定することにより、車両CRが平坦な路面を等速直進走行しているか否かを判定する。ステップS84における判定の結果が否定的であった場合(ステップS84:N)には、処理はステップS81へ戻る。   Next, in step S84, the control unit 110B determines whether or not the calibration condition flag is “ON”, thereby determining whether or not the vehicle CR is traveling straight at a constant speed on a flat road surface. When the result of the determination in step S84 is negative (step S84: N), the process returns to step S81.

ステップS84における判定の結果が肯定的であった場合(ステップS84:Y)には、処理はステップS85へ進む。このステップS85では、制御ユニット110Bが、上述したピクセル移動量の検出処理により新たなピクセル移動量(ΔXj)が検出されたか否かを判定する。 When the result of the determination in step S84 is affirmative (step S84: Y), the process proceeds to step S85. In step S85, the control unit 110B determines whether or not a new pixel movement amount (ΔX j ) has been detected by the above-described pixel movement amount detection processing.

ステップS85における判定の結果が否定的であった場合(ステップS85:N)には、処理はステップS84へ戻る。そして、ステップS84における判定の結果が否定的とならないことを条件として、ステップS84,S85の処理が繰り返される。   When the result of the determination in step S85 is negative (step S85: N), the process returns to step S84. Then, the processing in steps S84 and S85 is repeated, provided that the result of the determination in step S84 is not negative.

ステップS85における判定の結果が肯定的となると(ステップS85:Y)、処理はステップS86へ進む。このステップS86では、制御ユニット110Bが、それまでの距離パラメータLの値に新たなピクセル移動量(ΔXj)を加算して、距離パラメータLの値を更新する。 When the result of the determination in step S85 is affirmative (step S85: Y), the process proceeds to step S86. In this step S86, the control unit 110B updates the value of the distance parameter L by adding the new pixel movement amount (ΔX j ) to the value of the distance parameter L up to that point.

次いで、ステップS87において、制御ユニット110Bが、上述した白線領域の特定処理により後側撮像画像が「第2後方一部白線」となっていることが特定され、前方長bが求められているかを判定する。ステップS87における判定の結果が否定的であった場合(ステップS87:N)には、処理はステップS84へ戻る。そして、ステップS84における判定の結果が否定的とならないことを条件として、ステップS84〜S87の処理が繰り返される。   Next, in step S87, the control unit 110B specifies that the back side captured image is the "second rear partial white line" by the white line area specifying process described above, and determines whether the front length b is obtained. judge. If the result of the determination in step S87 is negative (step S87: N), the process returns to step S84. Then, the processing in steps S84 to S87 is repeated, provided that the result of the determination in step S84 is not negative.

ステップS87における判定の結果が肯定的となると(ステップS87:Y)、処理はステップS88へ進む。このステップS88では、制御ユニット110Bが、それまでの距離パラメータLの値から前方長bを減算して、距離パラメータLの値を更新する。   When the result of the determination in step S87 is affirmative (step S87: Y), the process proceeds to step S88. In step S88, the control unit 110B updates the value of the distance parameter L by subtracting the front length b from the value of the distance parameter L up to that point.

次に、ステップS89において、制御ユニット110Bが、その時点における距離パラメータLの値に基づき、次の(12)式により、暫定ピクセル距離PT[cm]を算出する。
PT=D/L …(12)
なお、(12)式は、上述した(10)式と等価な式となっている。
Next, in step S89, the control unit 110B calculates the provisional pixel distance PT [cm] by the following equation (12) based on the value of the distance parameter L at that time.
PT = D / L (12)
The equation (12) is an equation equivalent to the above equation (10).

引き続き、制御ユニット110Bは、算出された今回の暫定ピクセル距離と、記憶ユニット120内に記憶されている過去における所定回数の較正時に算出された暫定ピクセル距離との重み付け平均を算出して、新たに較正されたピクセル距離を算出する。この後、制御ユニット110Bは、記憶ユニット120内の最新のピクセル距離を当該新たに較正されたピクセル距離に更新するとともに、それまで記憶ユニット120内に記憶されていた暫定ピクセル距離のうちで最も古いものに代えて、今回の暫定ピクセル距離を現在時刻とともに記憶ユニット120に格納する。この結果、上述した車体速度vの出力処理に際して、制御ユニット110Bは、新たなピクセル距離を利用した車体速度vの算出を行うようになる。   Subsequently, the control unit 110B calculates a weighted average of the calculated current provisional pixel distance and the provisional pixel distance stored in the storage unit 120 during a predetermined number of calibrations in the past, and newly calculates the weighted average. Calculate the calibrated pixel distance. Thereafter, the control unit 110B updates the latest pixel distance in the storage unit 120 to the newly calibrated pixel distance, and the oldest provisional pixel distance previously stored in the storage unit 120. Instead of this, the provisional pixel distance of this time is stored in the storage unit 120 together with the current time. As a result, during the above-described output processing of the vehicle body speed v, the control unit 110B comes to calculate the vehicle body speed v using the new pixel distance.

こうしてステップS89の処理が終了すると、処理はステップS81へ戻る。そして、ステップS81〜S89の処理が繰り返される。この結果、車両CRが、平坦な路面を等速直進走行して、交差点の手前の白線を横切るたびに、ピクセル距離が較正される。   When the process of step S89 ends in this way, the process returns to step S81. Then, the processes of steps S81 to S89 are repeated. As a result, the pixel distance is calibrated each time the vehicle CR travels straight and straight on a flat road surface and crosses the white line before the intersection.

以上説明したように、第2実施例では、車両CRの走行方向に沿って既知の距離Dで車両CRに配置された撮像部210F,210Rによる撮像画像に基づいて、制御ユニット110Bが、ピクセル移動量を検出する。また、制御ユニット110Bが、撮像画像中における白線領域を特定する。そして、制御ユニット110Bが、ピクセル移動量及び撮像画像内における白線領域の特定結果に加えて、既知の距離Dに基づいて、車両CRが平坦な路面を等速直進走行していると判断できる場合に、撮像部210F,210Rと路面との間の距離に関連する、1ピクセルに対応する路面上の距離を較正する。 As described above, in the second embodiment, the control unit 110B, based on the images captured by the image capturing units 210 F and 210 R arranged on the vehicle CR at the known distance D along the traveling direction of the vehicle CR, Detect the amount of pixel movement. Further, the control unit 110B identifies the white line area in the captured image. When the control unit 110B can determine that the vehicle CR is traveling straight at a constant speed on the flat road surface based on the known distance D, in addition to the pixel movement amount and the result of identifying the white line area in the captured image. First, the distance on the road surface corresponding to one pixel, which is related to the distance between the imaging units 210 F and 210 R and the road surface, is calibrated.

したがって、第2実施例によれば、路面上特徴部である白線の移動体の走行方向に沿った長さが既知である未知であるか否かにかかわらず、移動体重量の変化や車輪の空気圧の変化により、路面と撮像部との距離が変化しても、1ピクセルに対応する路面上の距離を当該変化に応じて較正することができる。   Therefore, according to the second embodiment, regardless of whether or not the length of the white line that is the road surface characteristic portion along the traveling direction of the moving body is known or unknown, the change in the moving body weight or the wheel Even if the distance between the road surface and the imaging unit changes due to the change in air pressure, the distance on the road surface corresponding to one pixel can be calibrated according to the change.

また、第2実施例では、較正結果及びピクセル移動量に基づいて、制御ユニット110Bが、車体速度を出力する。このため、走行情報として精度の良い車体速度を出力することができる。   Further, in the second embodiment, the control unit 110B outputs the vehicle body speed based on the calibration result and the pixel movement amount. Therefore, it is possible to output the vehicle speed with high accuracy as the traveling information.

また、第2実施例では、路面上特徴部として白線を採用する。このため、撮像画像の各ピクセルの明るさを調べることにより、白線領域を容易に特定することができる。   In addition, in the second embodiment, a white line is adopted as the road surface characteristic portion. Therefore, the white line region can be easily specified by checking the brightness of each pixel of the captured image.

また、第2実施例では、第1実施例の場合と同様に、今回の暫定ピクセル距離と、過去における所定回数の較正時に算出された暫定ピクセル距離との重み付け平均を算出して、最終的な較正結果を得る。このため、白線の進行方向の長さの変動等のピクセル距離の較正結果への影響を抑制した較正を行うことができる。   Further, in the second embodiment, as in the case of the first embodiment, a final weighted average of the provisional pixel distance of this time and the provisional pixel distance calculated at the time of the predetermined number of calibrations in the past is calculated, and the final weighted average is calculated. Get calibration results. Therefore, it is possible to perform the calibration while suppressing the influence of the pixel distance on the calibration result such as the variation of the length of the white line in the traveling direction.

また、第2実施例では、第1実施例の場合と同様に、直進走行中、定速走行中、かつ、路面傾きのない状況であるときに較正を実施する。このため、精度の良いピクセル距離の較正を行うことができる。   Further, in the second embodiment, as in the case of the first embodiment, the calibration is carried out when the vehicle is traveling straight ahead, traveling at a constant speed, and when there is no road surface inclination. Therefore, it is possible to perform accurate pixel distance calibration.

[実施例の変形]
本発明は、上記の第1及び第2実施例に限定されるものではなく、様々な変形が可能である。
[Modification of Example]
The present invention is not limited to the above-mentioned first and second embodiments, and various modifications can be made.

例えば、第1実施例に対しては、上述した第1実施形態に対する変形と同様の変形を行うことができる。また、第2実施例に対しては、上述した第2実施形態に対する変形と同様の変形を行うことができる。   For example, the same modification as that of the above-described first embodiment can be performed on the first example. Further, the same modification as that of the above-described second embodiment can be applied to the second example.

100A,100B … 検出装置
110A,110B … 制御ユニット(取得部、第1出力部、第2出力部)
300A,300B … 検出装置
310A,310B … 取得部
320A,320B … 第1出力部
321A,321B … 移動量検出部
322A,322B … 特定部
323A,323B … 較正部
330 … 第2出力部
100A, 100B ... Detection device 110A, 110B ... Control unit (acquisition part, 1st output part, 2nd output part)
300A, 300B ... Detecting device 310A, 310B ... Acquisition part 320A, 320B ... 1st output part 321A, 321B ... Moving amount detection part 322A, 322B ... Specific part 323A, 323B ... Calibration part 330 ... 2nd output part

Claims (1)

移動体に搭載された撮像部により撮像された路面上特徴部の画像を取得する取得部と;
前記取得部により取得された前記路面上特徴部の画像に基づいて、前記撮像部の搭載位置と路面との間の距離に関連する距離関連情報を出力する出力部と;を備え、
前記撮像部は、前記撮像部が前記移動体に固定されている固定位置の真下の路面を撮像する、
ことを特徴とする検出装置。
An acquisition unit for acquiring an image of the road surface characteristic part imaged by the imaging unit mounted on the moving body;
An output unit that outputs distance-related information related to the distance between the mounting position of the imaging unit and the road surface, based on the image of the road surface characteristic portion acquired by the acquisition unit;
The image capturing unit captures an image of a road surface directly below a fixed position where the image capturing unit is fixed to the moving body,
A detection device characterized by the above.
JP2020001175A 2020-01-08 2020-01-08 Detection device, detection method, detection program and recording medium Pending JP2020074136A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2020001175A JP2020074136A (en) 2020-01-08 2020-01-08 Detection device, detection method, detection program and recording medium
JP2021195884A JP2022033130A (en) 2020-01-08 2021-12-02 Detection device, detection method, detection program and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020001175A JP2020074136A (en) 2020-01-08 2020-01-08 Detection device, detection method, detection program and recording medium

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2018055553A Division JP2018113065A (en) 2018-03-23 2018-03-23 Detection device, detection method, detection program and recording medium

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2021195884A Division JP2022033130A (en) 2020-01-08 2021-12-02 Detection device, detection method, detection program and recording medium

Publications (1)

Publication Number Publication Date
JP2020074136A true JP2020074136A (en) 2020-05-14

Family

ID=70610158

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020001175A Pending JP2020074136A (en) 2020-01-08 2020-01-08 Detection device, detection method, detection program and recording medium

Country Status (1)

Country Link
JP (1) JP2020074136A (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007278951A (en) * 2006-04-10 2007-10-25 Alpine Electronics Inc Car body behavior measuring device
JP2009074861A (en) * 2007-09-19 2009-04-09 Toyota Central R&D Labs Inc Travel measuring device and position measuring device

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007278951A (en) * 2006-04-10 2007-10-25 Alpine Electronics Inc Car body behavior measuring device
JP2009074861A (en) * 2007-09-19 2009-04-09 Toyota Central R&D Labs Inc Travel measuring device and position measuring device

Similar Documents

Publication Publication Date Title
CA2987373C (en) Position estimation device and position estimation method
CN102076543B (en) Road surface friction coefficient estimating device and road surface friction coefficient estimating method
JP2015075382A (en) Object detection device
US10703365B1 (en) Lane tracking method and lane tracking system for an autonomous vehicle
CN106232446A (en) For the method determining the error of inertial sensor
CN111923914A (en) Identification of the shoulder driving of a motor vehicle
WO2018042628A1 (en) Speed calculation device, control method, program, and storage medium
JP2018113065A (en) Detection device, detection method, detection program and recording medium
WO2018173907A1 (en) Vehicle control device
KR20240046903A (en) Method and apparatus for determining and characterizing roadway unevenness
CN110550041A (en) Road adhesion coefficient estimation method based on cloud data sharing
KR101417770B1 (en) Method And Device for Detecting Incline of Vehicle
CN110782486A (en) High-resolution virtual wheel speed sensor
WO2015079533A1 (en) Detection device, detection method, detection program, and recording medium
JP6776717B2 (en) Road marking device
KR102237230B1 (en) System and Method for estimating a state of road for a vehicle
JPWO2017109978A1 (en) Distance estimation device, distance estimation method and program
JP2020074136A (en) Detection device, detection method, detection program and recording medium
JP2022033130A (en) Detection device, detection method, detection program and recording medium
JP2008007026A (en) Air pressure reduction detection device, air pressure reduction detection program and air pressure reduction detection method
JP2023123625A (en) Detection device, detection method, detection program and recording medium
KR102003574B1 (en) Method and apparatus for determining current vehicle-specific orientation data for a vehicle
KR20230147179A (en) Vehicle, load distribution identification method and its apparatus, media, and electronic devices
WO2017109973A1 (en) Distance estimation device, distance estimation method and program
JP6617578B2 (en) Road gradient acquisition system and road gradient acquisition program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200108

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210217

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210303

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210908