JP2018113065A - Detection device, detection method, detection program and recording medium - Google Patents

Detection device, detection method, detection program and recording medium Download PDF

Info

Publication number
JP2018113065A
JP2018113065A JP2018055553A JP2018055553A JP2018113065A JP 2018113065 A JP2018113065 A JP 2018113065A JP 2018055553 A JP2018055553 A JP 2018055553A JP 2018055553 A JP2018055553 A JP 2018055553A JP 2018113065 A JP2018113065 A JP 2018113065A
Authority
JP
Japan
Prior art keywords
unit
pixel
white line
captured image
calibration
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018055553A
Other languages
Japanese (ja)
Inventor
加藤 正浩
Masahiro Kato
正浩 加藤
和俊 北野
Kazutoshi Kitano
和俊 北野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pioneer Corp
Original Assignee
Pioneer Electronic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pioneer Electronic Corp filed Critical Pioneer Electronic Corp
Priority to JP2018055553A priority Critical patent/JP2018113065A/en
Publication of JP2018113065A publication Critical patent/JP2018113065A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To perform calibration corresponding to a change even if a distance between an imaging part and a road face is changed due to a change in the weight of a moving body and a change in the pneumatic pressure of wheels.SOLUTION: A moving amount detection part 321a detects a pixel moving amount on the basis of a captured imaged image which is captured by an imaging part 210 with respect to a stop line being a feature part on a road face having a well-known length along a traveling direction of a moving body MV. A specification part 322A specifies a white line region in the captured image. Then, when it is determined that the moving body MV linearly travels on the flat road face at a constant velocity, the calibration part 323A calibrates a distance on the road face corresponding to one pixel related to a distance between the imaging part 210 and the road face, on the basis of the well-known length along the traveling direction of the moving body MV on the stop line, in addition to the pixel moving amount and a specified result of the white line region in the captured image.SELECTED DRAWING: Figure 4

Description

本発明は、検出装置、検出方法及び検出プログラム、並びに、当該検出プログラムが記録された記録媒体に関する。   The present invention relates to a detection device, a detection method, a detection program, and a recording medium on which the detection program is recorded.

車両等の移動体の車輪速度と移動体速度との差を正規化したスリップ率λと、車輪と路面間とのグリップ力を正規化した摩擦係数μは、図1及び図2に示されるような関係(以下、「μ―λ特性」という)となっている。ここで、図1には駆動時のμ―λ特性が示され、図2には制動時のμ―λ特性との関係が示されている。   The slip ratio λ obtained by normalizing the difference between the wheel speed of the moving body such as a vehicle and the moving body speed, and the friction coefficient μ obtained by normalizing the grip force between the wheel and the road surface are as shown in FIGS. (Hereinafter referred to as “μ-λ characteristics”). Here, FIG. 1 shows the μ-λ characteristic during driving, and FIG. 2 shows the relationship with the μ-λ characteristic during braking.

なお、図1及び図2においては、乾燥路面におけるμ―λ特性が実線にて示され、湿潤路面におけるμ―λ特性が一点鎖線にて示されるとともに、凍結路面におけるμ―λ特性が二点鎖線にて示されている。   1 and 2, the μ-λ characteristic on the dry road surface is indicated by a solid line, the μ-λ characteristic on the wet road surface is indicated by a one-dot chain line, and the μ-λ characteristic on the frozen road surface is indicated by two points. It is indicated by a chain line.

図1に示される駆動時のスリップ率λの増加に伴う摩擦係数μの変化において、摩擦係数μが最大となるスリップ率よりも小さな状態が、移動体が安定して走行できる安定領域となっている。一方、摩擦係数μが最大となるスリップ率よりも大きな状態では、グリップ力が低下して最悪な場合は空転やロック現象が生じる不安定領域となっている。   In the change of the friction coefficient μ accompanying the increase of the slip ratio λ during driving shown in FIG. 1, a state where the friction coefficient μ is smaller than the slip ratio at which the friction coefficient μ is maximum is a stable region where the moving body can travel stably. Yes. On the other hand, in a state where the friction coefficient μ is larger than the slip ratio at which the friction coefficient μ is maximum, the gripping force is lowered, and in the worst case, an unstable region in which idling or a lock phenomenon occurs.

図2に示される制動時のスリップ率λの増加に伴う摩擦係数μの変化において、摩擦係数μが最小となるスリップ率よりも大きな状態が、安定領域となっている。一方、摩擦係数μが最小となるスリップ率よりも小さな状態では、不安定領域となっている。   In the change of the friction coefficient μ accompanying the increase of the slip ratio λ during braking shown in FIG. 2, the state where the friction coefficient μ is larger than the slip ratio at which the friction coefficient μ is minimum is the stable region. On the other hand, in a state where the friction coefficient μ is smaller than the slip ratio at which the friction coefficient μ is minimum, the region is unstable.

そして、摩擦係数μの絶対値が最大値となるスリップ率の絶対値以下の範囲にスリップ率λを制御すれば、移動体は安定走行を維持することができる。一方、不安定状態が継続してタイヤの空転やロックが生じると、車両の駆動・制動・操舵のコントロールが不能になる。   If the slip ratio λ is controlled within a range equal to or less than the absolute value of the slip ratio at which the absolute value of the friction coefficient μ is the maximum value, the moving body can maintain stable running. On the other hand, if the unstable state continues and the tire slips or locks, control of driving, braking and steering of the vehicle becomes impossible.

このため、事故の危険を回避するため、内燃機関自動車では主にブレーキ油圧制御とエンジン制御とを用いたABS(Antilock Brake System)等が採用されている。こうしたABS等では、スリップ状態を判断し、エンジンの駆動トルクとブレーキ油圧の制動トルクとを制御して、安定領域に近づける制御を行う。また、電気自動車においても、スリップ率λを推定して、モータのトルクを適切に制御することで、安定領域内に維持するようなアンチスリップ制御が提案されている。このように、スリップ率λを検知することは、走行状態を把握する上で非常に重要となっている。   For this reason, in order to avoid the danger of accidents, an ABS (Antilock Brake System) using mainly brake hydraulic pressure control and engine control is adopted in internal combustion engine vehicles. In such ABS or the like, the slip state is determined, and the engine driving torque and the braking torque of the brake hydraulic pressure are controlled so as to approach the stable region. Also in an electric vehicle, an anti-slip control is proposed in which the slip ratio λ is estimated and the motor torque is appropriately controlled so as to be maintained in a stable region. As described above, detecting the slip ratio λ is very important for grasping the traveling state.

さて、スリップ率λは次の(1)式により算出するため、車輪半径rと、回転角速度ωと、移動体速度vとが必要となる。
λ=(r・ω−v)/Max(r・ω,v) …(1)
Since the slip ratio λ is calculated by the following equation (1), the wheel radius r, the rotational angular velocity ω, and the moving body velocity v are required.
λ = (r · ω−v) / Max (r · ω, v) (1)

ここで、Max(r・ω,v)は、(r・ω)とvとの数値の大きな方を示す。駆動時には、(r・ω)がvよりも大きいため、Max(r・ω,v)=r・ωである。一方、制動時には、vが(r・ω)よりも大きいため、Max(r・ω,v)=vである。   Here, Max (r · ω, v) indicates the larger value of (r · ω) and v. Since (r · ω) is larger than v at the time of driving, Max (r · ω, v) = r · ω. On the other hand, at the time of braking, since v is larger than (r · ω), Max (r · ω, v) = v.

なお、例えば、移動体が自動車の場合には、車輪の空気圧が十分であれば車輪半径rは一定と考えられる。また、回転角速度ωは車輪に搭載したエンコーダのパルス出力や、電気自動車であればモータに接続してあるレゾルバの信号出力から検出が可能である。   For example, when the moving body is an automobile, the wheel radius r is considered to be constant if the wheel air pressure is sufficient. Further, the rotational angular velocity ω can be detected from the pulse output of an encoder mounted on a wheel or the signal output of a resolver connected to a motor in the case of an electric vehicle.

一方,移動体速度vを検知する方法としては、以下の(a)〜(c)が一般的に挙げられる。
(a)非駆動輪の回転速度から算出
(b)加速度センサにより検出された加速度値を積分して算出
(c)光学的なセンサによる検出結果に基づく算出
On the other hand, the following methods (a) to (c) are generally cited as methods for detecting the moving body speed v.
(A) Calculation based on rotation speed of non-driving wheels (b) Calculation by integrating acceleration values detected by acceleration sensor (c) Calculation based on detection result by optical sensor

ここで、(a)の方法は、ブレーキは全ての車輪にかかるので、制動時の移動体速度vを検知することができない。また、4輪駆動の場合には、非駆動輪が存在しないので、移動体速度vを検知することができない。   Here, in the method (a), since the brake is applied to all the wheels, the moving body speed v at the time of braking cannot be detected. Further, in the case of four-wheel drive, there is no non-drive wheel, so the moving body speed v cannot be detected.

また、(b)の方法では、加速度センサの出力を積分するため、加速度センサの出力に存在するオフセットが蓄積されてしまう。この結果、移動体速度vを正確に検知することができない。   In the method (b), since the output of the acceleration sensor is integrated, an offset existing in the output of the acceleration sensor is accumulated. As a result, the moving body speed v cannot be detected accurately.

これらの(a)及び(b)の方法の欠点が原理的に存在しない(c)の方法が期待されている。かかる(c)の方法を採用した技術として、特許文献1に記載の技術が提案されている(以下、「従来例」と呼ぶ)。この従来例の技術では、自車両の近傍の光景を撮像した画像信号から、車両の走行状態または停止状態を判定する。また、画像における道路標示の寸法と、道路上における道路標示の寸法に基づいて、自車両の車体速度(すなわち、移動体速度)を検出するようになっている。なお、従来例の技術では、道路標示が画像内に存在する場合のみ車体速度の検知を行い、道路標示が画像内にない場合は走行/停止の判定のみを行うようになっている。   The method (c) in which the drawbacks of the methods (a) and (b) do not exist in principle is expected. As a technique employing the method (c), a technique described in Patent Document 1 has been proposed (hereinafter referred to as “conventional example”). In the conventional technique, the running state or the stopped state of the vehicle is determined from an image signal obtained by capturing a scene in the vicinity of the host vehicle. Further, based on the dimensions of the road markings in the image and the dimensions of the road markings on the road, the vehicle body speed (that is, the moving body speed) of the host vehicle is detected. In the conventional technique, the vehicle body speed is detected only when the road marking is present in the image, and only the running / stop determination is performed when the road marking is not present in the image.

特開2009−205642号公報JP 2009-205642 A

上述した従来例の技術では、撮像画像内に道路標示が存在しない場合には、車体速度を検出しない。この結果、撮像画像内に道路標示が存在しない状態の継続中に車体速度が変化しても、最後に撮像画像内に道路標示が存在していた時点に検出された車体速度をそのまま現時点の車体速度と推定することになる。このため、各時点における車体速度を精度良く検知できるとはいい難かった。   In the conventional technique described above, the vehicle body speed is not detected when there is no road marking in the captured image. As a result, even if the vehicle speed changes while the road marking does not exist in the captured image, the vehicle speed detected at the time when the road marking was last present in the captured image remains unchanged. It will be estimated as speed. For this reason, it is difficult to accurately detect the vehicle speed at each time point.

また、従来例の技術では、撮像装置を車体に装着するため、乗車人数や積載荷物の違い、また、車輪の空気圧の違いによって,撮像装置と路面との間の距離が変わる。この結果、撮像倍率が変化するため、撮像画像中における道路標示のサイズが変化することになる。   In the prior art, since the imaging device is mounted on the vehicle body, the distance between the imaging device and the road surface changes depending on the number of passengers, the load, and the wheel air pressure. As a result, since the imaging magnification changes, the size of the road marking in the captured image changes.

例えば、図3(A)に示されるように、撮像部210が、結像レンズ系211(焦点距離:f)と、正方形の撮像面212(一辺の長さ:D)とを備え、結像レンズ系211から撮像面212までの距離を「d」とする。この場合、直下の路面LDを撮像する場合、結像レンズ系211から路面LDまでの距離(以下、「撮像部210から路面LDまでの距離」ともいう)を「h」とすると、撮像部210による撮像の光学倍率mは、次の(2)式で表される。
m=1/((h/f)−1) …(2)
なお、撮像面212におけるピクセル構成は、NU個×NU個(例えば、30個×30個)となっている。
For example, as shown in FIG. 3A, the imaging unit 210 includes an imaging lens system 211 (focal length: f) and a square imaging surface 212 (length of one side: D), and forms an image. The distance from the lens system 211 to the imaging surface 212 is “d”. In this case, when imaging the road surface LD immediately below, if the distance from the imaging lens system 211 to the road surface LD (hereinafter also referred to as “distance from the imaging unit 210 to the road surface LD”) is “h”, the imaging unit 210. The optical magnification m of imaging by is expressed by the following equation (2).
m = 1 / ((h / f) -1) (2)
The pixel configuration on the imaging surface 212 is NU × NU (for example, 30 × 30).

この結果、路面LD上において撮像対象となる正方形領域の一辺の長さHは、次の(3)式の通りとなる。
H=D/m=D・((h/f)−1) …(3)
As a result, the length H of one side of the square area to be imaged on the road surface LD is expressed by the following equation (3).
H = D / m = D · ((h / f) −1) (3)

例えば、f=8[mm]、D=1.7[mm]、h=495[mm]とすると、H=103.5[mm]となる。   For example, when f = 8 [mm], D = 1.7 [mm], and h = 495 [mm], H = 103.5 [mm].

さて、図3(B)に示されるように、図3(A)の状態から、車重が重くなり、距離hが短くなって距離h*となると、撮像部210による撮像の光学倍率が、図3(A)の状態における「m」から、次の(4)式で表される「m*」に変化する。
*=1/((h*/f)−1) …(4)
Now, as shown in FIG. 3 (B), when the vehicle weight increases from the state of FIG. 3 (A) and the distance h becomes shorter and becomes the distance h * , the optical magnification of imaging by the imaging unit 210 becomes It changes from “m” in the state of FIG. 3A to “m * ” expressed by the following equation (4).
m * = 1 / ((h * / f) -1) (4)

この結果、撮像対象となる正方形領域の一辺の長さが、図3(A)の状態における「H」から、次の(5)式で表される「H*」に変化する。
*=D/m*=D・((h*/f)−1) …(5)
As a result, the length of one side of the square area to be imaged changes from “H” in the state of FIG. 3A to “H * ” expressed by the following equation (5).
H * = D / m * = D · ((h * / f) −1) (5)

例えば、h*=445[mm]となると、H*=92.9[mm]となり、上述した図3(A)の状態におけるH=103.5[mm]から10%程度変化する。この結果、1ピクセルの大きさに対応する路面上の領域の大きさも、上述した図3(A)の状態から10%程度変化することになる。 For example, when h * = 445 [mm], H * = 92.9 [mm], which changes by about 10% from H = 103.5 [mm] in the state of FIG. As a result, the size of the area on the road surface corresponding to the size of one pixel also changes by about 10% from the state shown in FIG.

ところで、単位時間ごとの撮像画像間の相関によって画像の移動距離を求め、前後方向及び横方向の車体速度を算出するようにした場合、撮像画像における1ピクセルの大きさに対応する路面上の領域の大きさが変化すると、算出される車体速度も変化する。すなわち、1ピクセルの大きさに対応する路面上の領域の大きさが10%程度変化すると、速度算出値も10%程度変化して、誤差が生じることになる。   By the way, when the movement distance of an image is calculated | required by the correlation between the captured images for every unit time, and the vehicle body speed of the front-back direction and a horizontal direction is calculated, the area | region on the road surface corresponding to the magnitude | size of 1 pixel in a captured image When the size of the vehicle changes, the calculated vehicle speed also changes. That is, if the size of the area on the road surface corresponding to the size of one pixel changes by about 10%, the speed calculation value also changes by about 10%, resulting in an error.

路面変動に対する動的な誤差は、平均化処理によって誤差による影響を少なくできる。しかしながら、車両重量の変化や車輪の空気圧の変化はオフセットとなるため、平均化処理では誤差の影響を抑制することができない。   The dynamic error with respect to the road surface fluctuation can be less affected by the error by the averaging process. However, since the change in the vehicle weight and the change in the wheel air pressure are offset, the averaging process cannot suppress the influence of the error.

このため、車両重量の変化や車輪の空気圧の変化が生じても、車体速度を精度良く検出することができる技術が待望されている。かかる要請に応えることが、本発明が解決すべき課題の一つとして挙げられる。   For this reason, there is a need for a technique that can accurately detect the vehicle body speed even when the vehicle weight changes or the wheel air pressure changes. Meeting this requirement is one of the problems to be solved by the present invention.

本発明は、上記を鑑みてなされたものであり、車両重量の変化や車輪の空気圧の変化により、路面と撮像部との距離が変化しても、当該変化に応じた較正を行うことができる検出装置及び検出方法を提供することを目的とする。   The present invention has been made in view of the above, and even when the distance between the road surface and the imaging unit changes due to a change in vehicle weight or a change in wheel air pressure, calibration according to the change can be performed. An object is to provide a detection device and a detection method.

請求項1に記載の発明は、移動体に搭載された撮像部により所定時間隔てて進行方向に沿って撮像された、既知の長さを有する路面上特徴部を含む複数の画像を取得する取得部と;前記取得部により取得された複数の画像に基づいて、前記既知の長さに対応する、所定幅の画像領域の数を算出し、当該算出された数と前記既知の長さとに基づいて前記所定幅に対応する前記路面上の距離に関連する距離情報を出力する出力部と;を備えることを特徴とする検出装置である。
請求項4に記載の発明は、移動体に搭載された撮像部により所定時間隔てて進行方向に沿って撮像された路面上特徴部を含む複数の画像を取得する取得部と;前記取得部により取得された複数の画像に基づいて得られた前記画像における所定画像領域の幅に対応する路面上の距離を示す情報を、過去に出力された距離情報に基づいて較正し、較正結果を新たな距離情報として出力する第1出力部と;前記新たな距離情報を利用して、前記移動体の速度を出力する第2出力部と;を備えることを特徴とする検出装置である。
The invention according to claim 1 acquires a plurality of images including road surface features having a known length, which are imaged along a traveling direction at predetermined time intervals by an imaging unit mounted on a moving body. A number of image regions having a predetermined width corresponding to the known length based on the plurality of images acquired by the acquisition unit, and based on the calculated number and the known length And an output unit that outputs distance information related to the distance on the road surface corresponding to the predetermined width.
According to a fourth aspect of the present invention, there is provided an acquisition unit that acquires a plurality of images including a feature on the road surface captured along a traveling direction at predetermined time intervals by an imaging unit mounted on a moving body; Information indicating the distance on the road surface corresponding to the width of the predetermined image region in the image obtained based on the plurality of acquired images is calibrated based on the distance information output in the past, and the calibration result is newly determined. A detection apparatus comprising: a first output unit that outputs as distance information; and a second output unit that outputs the speed of the moving object using the new distance information.

請求項5に記載の発明は、取得部と、出力部とを備える検出装置において使用される検出方法であって、前記取得部が、移動体に搭載された撮像部により所定時間隔てて進行方向に沿って撮像された、既知の長さを有する路面上特徴部を含む複数の画像を取得する取得工程と;前記出力部が、前記取得工程において取得された複数の画像に基づいて、前記既知の長さに対応する、所定幅の画像領域の数を算出し、当該算出された数と前記既知の長さとに基づいて前記所定幅に対応する前記路面上の距離に関連する距離情報を出力する距離情報出力工程と;を備えることを特徴とする検出方法である。   The invention according to claim 5 is a detection method used in a detection apparatus including an acquisition unit and an output unit, wherein the acquisition unit is traveled at predetermined time intervals by an imaging unit mounted on a moving body. An acquisition step of acquiring a plurality of images including a feature on the road surface having a known length taken along the line; and the output unit based on the plurality of images acquired in the acquisition step And calculating distance information related to the distance on the road surface corresponding to the predetermined width based on the calculated number and the known length. And a distance information output step. A detection method comprising:

請求項6に記載の発明は、検出装置が有するコンピュータに、請求項5に記載の検出方法を実行させる、ことを特徴とする検出プログラムである。   A sixth aspect of the present invention is a detection program that causes a computer included in the detection apparatus to execute the detection method according to the fifth aspect.

請求項7に記載の発明は、検出装置が有するコンピュータにより読み取り可能に、請求項6に記載の検出プログラムが記録されている、ことを特徴とする記録媒体である。   The invention described in claim 7 is a recording medium in which the detection program according to claim 6 is recorded so as to be readable by a computer included in the detection apparatus.

駆動時のスリップ率と摩擦係数との関係を示す図である。It is a figure which shows the relationship between the slip ratio at the time of a drive, and a friction coefficient. 制動時のスリップ率と摩擦係数との関係を示す図である。It is a figure which shows the relationship between the slip ratio at the time of braking, and a friction coefficient. 車両重量などの変化による速度算出値の変化を説明するための図である。It is a figure for demonstrating the change of the speed calculation value by changes, such as a vehicle weight. 本発明の第1実施形態に係る検出装置の構成を示す図である。It is a figure which shows the structure of the detection apparatus which concerns on 1st Embodiment of this invention. 図4の移動量検出部の動作を説明するための図である。It is a figure for demonstrating operation | movement of the movement amount detection part of FIG. 第1実施形態における較正環境を説明するための図である。It is a figure for demonstrating the calibration environment in 1st Embodiment. 図4の特定部の動作を説明するための図である。It is a figure for demonstrating operation | movement of the specific part of FIG. 図4の較正部による較正動作を説明するための図である。It is a figure for demonstrating the calibration operation | movement by the calibration part of FIG. 本発明の第2実施形態に係る検出装置の構成を示す図である。It is a figure which shows the structure of the detection apparatus which concerns on 2nd Embodiment of this invention. 図9の2個の撮像部の配置位置の関係を説明するための図である。It is a figure for demonstrating the relationship of the arrangement position of two imaging parts of FIG. 第2実施形態における較正環境を説明するための図である。It is a figure for demonstrating the calibration environment in 2nd Embodiment. 図9の特定部の動作を説明するための図である。It is a figure for demonstrating operation | movement of the specific part of FIG. 図9の較正部による較正動作を説明するための図である。It is a figure for demonstrating the calibration operation | movement by the calibration part of FIG. 本発明の第1実施例に係る検出装置の構成を示す図である。It is a figure which shows the structure of the detection apparatus which concerns on 1st Example of this invention. 図14の制御ユニットにより実行されるピクセル移動量の検出処理を説明するためのフローチャートである。It is a flowchart for demonstrating the detection process of the pixel moving amount performed by the control unit of FIG. 図14の制御ユニットにより実行される車体速度の出力処理を説明するためのフローチャートである。FIG. 15 is a flowchart for explaining vehicle speed output processing executed by the control unit of FIG. 14. FIG. 図14の制御ユニットにより実行される白線領域の特定処理を説明するためのフローチャートである。It is a flowchart for demonstrating the identification process of the white line area | region performed by the control unit of FIG. 図14の制御ユニットにより実行される較正条件のモニタ処理を説明するためのフローチャートである。It is a flowchart for demonstrating the monitoring process of the calibration conditions performed by the control unit of FIG. 図14の制御ユニットにより実行されるピクセル距離の較正処理を説明するためのフローチャートである。It is a flowchart for demonstrating the calibration process of the pixel distance performed by the control unit of FIG. 本発明の第2実施例に係る検出装置の構成を示す図である。It is a figure which shows the structure of the detection apparatus which concerns on 2nd Example of this invention. 図20の制御ユニットにより実行されるピクセル移動量の検出処理を説明するためのフローチャートである。FIG. 21 is a flowchart for explaining pixel movement amount detection processing executed by the control unit of FIG. 20. FIG. 図20の制御ユニットにより実行される白線領域の特定処理を説明するためのフローチャートである。It is a flowchart for demonstrating the specific process of the white line area | region performed by the control unit of FIG. 図20の制御ユニットにより実行されるピクセル距離の較正処理を説明するためのフローチャートである。FIG. 21 is a flowchart for explaining pixel distance calibration processing executed by the control unit of FIG. 20. FIG.

以下、本発明の実施形態を、図4〜図13を参照して説明する。なお、以下の説明及び図面においては、同一又は同等の要素には同一の符号を付し、重複する説明を省略する。   Hereinafter, embodiments of the present invention will be described with reference to FIGS. In the following description and drawings, the same or equivalent elements are denoted by the same reference numerals, and redundant description is omitted.

[第1実施形態]
まず、本発明の第1実施形態を、図4〜図8を参照して説明する。
[First Embodiment]
First, a first embodiment of the present invention will be described with reference to FIGS.

<構成>
図4には、第1実施形態に係る検出装置300Aの構成が、ブロック図にて示されている。図4に示されるように、検出装置300Aは、撮像部210、ナビゲーション装置220及びECU(Electronic Control Unit)230と接続されている。そして、検出装置300A、撮像部210、ナビゲーション装置220及びECU230は、移動体MVに搭載されている。
<Configuration>
FIG. 4 is a block diagram showing the configuration of the detection apparatus 300A according to the first embodiment. As illustrated in FIG. 4, the detection device 300 </ b> A is connected to an imaging unit 210, a navigation device 220, and an ECU (Electronic Control Unit) 230. The detection device 300A, the imaging unit 210, the navigation device 220, and the ECU 230 are mounted on the moving body MV.

上記の撮像部210は、移動体MVの固定的な位置に搭載され、上述の図3を参照して説明したように、固定位置の直下の路面を撮像する。この撮像部210は、周期時間TPで路面の撮像を周期的に行う。こうして撮像された画像のデータ(以下、「撮像画像データ」という)は、検出装置300Aへ送られる。   The imaging unit 210 is mounted at a fixed position of the moving body MV, and images the road surface immediately below the fixed position as described with reference to FIG. The imaging unit 210 periodically performs imaging of the road surface with a period time TP. Data of the image thus captured (hereinafter referred to as “captured image data”) is sent to the detection apparatus 300A.

なお、「周期時間TP」は、移動体MVが高速で走行していても、周期時間TPを隔てて撮像された2つの画像には共通の路面上領域が含まれるようにするとの観点から、実験、シミュレーション等に基づいて、予め定められる。   In addition, from the viewpoint that the “cycle time TP” includes a common area on the road surface in the two images captured with the cycle time TP separated even when the moving body MV is traveling at a high speed. It is determined in advance based on experiments, simulations, and the like.

上記のナビゲーション装置220は、地図情報と現在位置情報とに基づいて、利用者に対して、移動体MVの走行操作支援を行う。このナビゲーション装置220は、移動体MVが、走行方向に存在する交差点から所定距離以内となると、その旨を検出装置300Aへ送る。   The navigation device 220 described above performs driving operation support of the moving body MV for the user based on the map information and the current position information. When the moving body MV is within a predetermined distance from the intersection existing in the traveling direction, the navigation device 220 sends a message to that effect to the detection device 300A.

なお、「所定距離」は、第1実施形態において路面上特徴部として採用する交差点手前の停止線に関する走行方向に沿った始めから終わりまでの撮像のための適切な事前通知の観点から、実験、シミュレーション、経験等に基づいて、予め定められる。   Note that the “predetermined distance” is an experiment from the viewpoint of appropriate prior notice for imaging from the beginning to the end along the traveling direction regarding the stop line before the intersection adopted as the road surface feature in the first embodiment, It is determined in advance based on simulation, experience, and the like.

上記のECU230は、車輪の回転速度センサ、加速度センサ、操舵角センサ、傾きセンサ等の各種センサから取得したセンサ検出情報に基づいて、移動体MVの走行を制御したり、利用者に走行情報を提供したりする。このECU230は、加速度情報、操舵角情報及び傾き情報を検出装置300Aへ送る。   The ECU 230 controls traveling of the moving body MV based on sensor detection information acquired from various sensors such as a wheel rotation speed sensor, an acceleration sensor, a steering angle sensor, and a tilt sensor, and provides traveling information to the user. Or provide. The ECU 230 sends acceleration information, steering angle information, and tilt information to the detection device 300A.

なお、ECU230は、検出装置300Aから送られた移動体速度(走行速度情報)を更に取得し、取得された移動体速度を移動体MVの走行制御に役立てるようになっている。   The ECU 230 further acquires the moving body speed (traveling speed information) sent from the detection device 300A, and uses the acquired moving body speed for traveling control of the moving body MV.

上記の検出装置300Aは、図4に示されるように、取得部310Aと、第1出力部320Aとを備えている。また、検出装置300Aは、第2出力部330を備えている。   As shown in FIG. 4, the detection apparatus 300A includes an acquisition unit 310A and a first output unit 320A. The detection apparatus 300 </ b> A includes a second output unit 330.

上記の取得部310Aは、撮像部210から送られた撮像画像データを受ける。そして、取得部310Aは、当該撮像画像データを第1出力部320Aへ送る。   The acquisition unit 310A receives the captured image data transmitted from the imaging unit 210. Then, the acquisition unit 310A sends the captured image data to the first output unit 320A.

上記の第1出力部320Aは、取得部310Aから送られた撮像画像データを受ける。そして、第1出力部320Aは、周期時間TPを隔てて撮像された2つの画像間における同一の路面位置のピクセルの移動量の個数(以下、「ピクセル移動量」という)を検出するとともに、後述する較正条件を満たした場合には、1ピクセルに対応する路面上の距離(以下、「ピクセル距離」という)を較正する。検出されたピクセル移動量及び較正されたピクセル距離は、第2出力部330へ出力される。かかる機能を有する第1出力部320Aの構成の詳細については、後述する。   The first output unit 320A receives the captured image data sent from the acquisition unit 310A. The first output unit 320A detects the number of movement amounts of pixels at the same road surface position (hereinafter referred to as “pixel movement amount”) between two images imaged at intervals of the period time TP. When the calibration condition is satisfied, the distance on the road surface corresponding to one pixel (hereinafter referred to as “pixel distance”) is calibrated. The detected pixel movement amount and the calibrated pixel distance are output to the second output unit 330. Details of the configuration of the first output unit 320A having such a function will be described later.

上記の第2出力部330は、第1出力部320Aから送られたピクセル移動量を受けるたびに、最新の較正されたピクセル距離及び周期時間TPに基づいて、移動体MVの走行情報として移動体速度を算出する。そして、第2出力部330は、算出された移動体速度をECU230へ出力する。   Whenever the second output unit 330 receives the pixel movement amount sent from the first output unit 320A, the second output unit 330 uses the latest calibrated pixel distance and cycle time TP as the travel information of the mobile unit MV. Calculate the speed. Then, the second output unit 330 outputs the calculated moving body speed to the ECU 230.

《第1出力部320Aの構成》
次に、上述した第1出力部320Aの構成について説明する。
<< Configuration of First Output Unit 320A >>
Next, the configuration of the first output unit 320A described above will be described.

第1出力部320Aは、図4に示されるように、移動量検出部321Aと、特定部322Aとを備えている。また、第1出力部320Aは、較正部323Aを備えている。   As shown in FIG. 4, the first output unit 320A includes a movement amount detection unit 321A and a specifying unit 322A. The first output unit 320A includes a calibration unit 323A.

上記の移動量検出部321Aは、取得部310Aから送られた撮像画像データを受ける。そして、移動量検出部321Aは、当該撮像画像データに基づいて、いわゆる変位量探索法によりピクセル移動量を検出する。こうして検出されたピクセル移動量は、較正部323A及び第2出力部330へ送られる。   The movement amount detection unit 321A receives the captured image data sent from the acquisition unit 310A. Then, the movement amount detection unit 321A detects the pixel movement amount by a so-called displacement amount search method based on the captured image data. The pixel movement amount thus detected is sent to the calibration unit 323A and the second output unit 330.

なお、移動量検出部321Aの動作の詳細については、後述する。   The details of the operation of the movement amount detection unit 321A will be described later.

上記の特定部322Aは、取得部310Aから送られた撮像画像データを受ける。そして、特定部322Aは、撮像画像データから得られる画像中における白線領域を特定する。こうして特定された白線領域の情報(以下、「白線領域情報」という)は、較正部323Aへ送られる。   The specifying unit 322A receives the captured image data sent from the acquisition unit 310A. Then, the specifying unit 322A specifies a white line region in an image obtained from captured image data. Information on the white line area thus identified (hereinafter referred to as “white line area information”) is sent to the calibration unit 323A.

なお、特定部322Aの動作の詳細については、後述する。   Details of the operation of the specifying unit 322A will be described later.

上記の較正部323Aは、移動量検出部321Aから送られたピクセル移動量、及び、特定部322Aから送られた白線領域情報を受ける。そして、較正部323Aは、ECU230から送られた加速度情報、操舵角情報及び傾き情報により、移動体MVが平坦な路面を等速直進走行していると判断できる場合に、当該ピクセル移動量及び当該白線領域情報に加えて、路上に描かれた停止線の進行方向の長さがほぼ45[cm]であることに基づいて、ピクセル距離を較正する。こうして較正されたピクセル距離は、第2出力部330へ送られる。   The calibration unit 323A receives the pixel movement amount sent from the movement amount detection unit 321A and the white line area information sent from the specifying unit 322A. When the calibration unit 323A can determine that the moving body MV is traveling straight at a constant speed on a flat road surface based on the acceleration information, the steering angle information, and the tilt information transmitted from the ECU 230, the calibration unit 323A In addition to the white line area information, the pixel distance is calibrated based on the fact that the length of the stop line drawn on the road is approximately 45 [cm]. The pixel distance thus calibrated is sent to the second output unit 330.

なお、較正部323Aの動作の詳細については、後述する。   The details of the operation of the calibration unit 323A will be described later.

<動作>
次に、上記のように較正された検出装置300Aの動作について、検出装置300Aの各要素で行われる処理に着目して説明する。
<Operation>
Next, the operation of the detection apparatus 300A calibrated as described above will be described by focusing on the processing performed by each element of the detection apparatus 300A.

なお、撮像部210は、既に動作を開始しており、周期時間TPで撮像した路面画像の撮像画像データを、逐次、検出装置300Aへ送っているものとする。また、ナビゲーション装置220は、既に動作を開始しており、移動体MVが、走行方向に存在する交差点から所定距離以内となると、その旨を検出装置300Aへ送るようになっているものとする。また、ECU230は、既に動作を開始しており、加速度情報、操舵角情報及び傾き情報を検出装置300Aへ送っているものとする(図4参照)。   It is assumed that the imaging unit 210 has already started the operation and sequentially sends the captured image data of the road surface image captured at the cycle time TP to the detection device 300A. In addition, the navigation device 220 has already started to operate, and when the moving body MV is within a predetermined distance from the intersection existing in the traveling direction, it is assumed that this is sent to the detection device 300A. Further, it is assumed that the ECU 230 has already started operation and has sent acceleration information, steering angle information, and tilt information to the detection device 300A (see FIG. 4).

さらに、検出装置300Aでは、既に、複数回のピクセル距離の較正が行われており、較正部323Aには、最近の所定回数分の較正時刻及び後述する暫定ピクセル距離を含む較正履歴が保持されているものとする。また、第2出力部330には、最新に較正されたピクセル距離が保持されているものとする。ここで、ピクセル距離の最初の較正が行われるまでの期間においては、第2出力部330には、平均的なピクセル距離が保持されるようになっている。   Furthermore, in the detection apparatus 300A, the calibration of the pixel distance is already performed a plurality of times, and the calibration unit 323A holds the calibration history including the latest predetermined calibration time and the provisional pixel distance described later. It shall be. In addition, it is assumed that the latest calibrated pixel distance is held in the second output unit 330. Here, in the period until the first calibration of the pixel distance is performed, the average pixel distance is held in the second output unit 330.

なお、「所定回数」は、停止線の進行方向の長さの変動等のピクセル距離の較正結果への影響を抑制するための平均化処理を行うとの観点から、実験、シミュレーション、経験等に基づいて予め定められる。また、「平均的なピクセル距離」は、実験、シミュレーション、経験等に基づいて、移動体MVに対応して予め定められる。   Note that the “predetermined number of times” is based on experiments, simulations, experiences, etc. from the viewpoint of performing an averaging process to suppress the influence of the pixel distance on the calibration result, such as fluctuations in the length of the stop line in the traveling direction. It is predetermined based on. The “average pixel distance” is determined in advance corresponding to the moving object MV based on experiments, simulations, experiences, and the like.

《画像データの取得処理》
検出装置300Aでは、取得部310Aが、撮像部210から送られた撮像画像データを受ける。そして、取得部310Aは、当該撮像画像データを、第1出力部320Aの移動量検出部321A及び特定部322Aへ送る(図4参照)。
<< Image data acquisition process >>
In detection device 300A, acquisition unit 310A receives the captured image data sent from imaging unit 210. Then, the acquiring unit 310A sends the captured image data to the movement amount detecting unit 321A and the specifying unit 322A of the first output unit 320A (see FIG. 4).

《ピクセル移動量の検出処理》
次に、移動量検出部321Aによるピクセル移動量の検出処理について説明する。
<< Pixel movement detection process >>
Next, pixel movement amount detection processing by the movement amount detection unit 321A will be described.

取得部310Aから送られた撮像画像データを受けると、移動量検出部321Aは、今回の撮像画像データから得られる今回画像と前回の撮像画像データから得られる前回画像とにおける共通の特徴領域の位置の変位量を、ピクセル移動量として検出する。そして、移動量検出部321Aは、検出されたピクセル移動量を較正部323A及び第2出力部330へ送る(図4参照)。   Upon receiving the captured image data sent from the acquisition unit 310A, the movement amount detection unit 321A positions the common feature region in the current image obtained from the current captured image data and the previous image obtained from the previous captured image data. Is detected as a pixel movement amount. Then, the movement amount detection unit 321A sends the detected pixel movement amount to the calibration unit 323A and the second output unit 330 (see FIG. 4).

なお、共通する特徴領域が複数ある場合には、移動量検出部321Aは、複数の特徴領域のそれぞれの変位量の平均値を、ピクセル移動量として採用する。   When there are a plurality of common feature areas, the movement amount detection unit 321A employs the average value of the displacement amounts of the plurality of feature areas as the pixel movement amount.

図5には、移動量検出部321Aによる移動量検出の例が示されている。この図5の例は、移動体MVがX方向に沿って直進しており、時刻TjにおけるX方向位置がXjであり、時刻Tj+1(=Tj+TP)おけるX方向位置がXj+1である場合の例となっている。また、図5の例は、時刻Tjにおける撮像画像と時刻Tj+1における撮像画像とにおける共通の特徴領域が、特徴領域Aと特徴領域Bの2種類である例が示されている。この図5の例では、特徴領域Aの変位量が「ΔXjA」であり、特徴領域Bの変位量が「ΔXjB」であるので、ピクセル移動量ΔXjは、次の(6)式により算出される。
ΔXj=(ΔXjA+ΔXjB)/2 …(6)
FIG. 5 shows an example of movement amount detection by the movement amount detection unit 321A. In the example of FIG. 5, the moving body MV travels straight along the X direction, the X direction position at time T j is X j , and the X direction position at time T j + 1 (= T j + TP) is This is an example in the case of X j + 1 . In addition, the example of FIG. 5, a common characteristic region in the captured image in the captured image and the time T j + 1 at time T j is two and is an example of a characteristic region A and the characteristic region B are shown. In the example of FIG. 5, the displacement amount of the feature region A is “ΔX jA ” and the displacement amount of the feature region B is “ΔX jB ”. Therefore, the pixel movement amount ΔX j is expressed by the following equation (6). Calculated.
ΔX j = (ΔX jA + ΔX jB ) / 2 (6)

《移動体速度vの出力処理》
次いで、第2出力部330による移動体速度vの出力処理について説明する。
<< Output processing of moving body speed v >>
Next, the output process of the moving body speed v by the second output unit 330 will be described.

移動量検出部321Aから送られたピクセル移動量を受けると、第2出力部330は、ピクセル移動量、保持しているピクセル距離(すなわち、最新に較正されたピクセル距離)及び周期時間TPに基づいて移動体速度vを算出する。そして、第2出力部330は、算出された移動体速度vをECU230へ出力する。   Upon receiving the pixel movement amount sent from the movement amount detection unit 321A, the second output unit 330 is based on the pixel movement amount, the held pixel distance (that is, the latest calibrated pixel distance), and the period time TP. To calculate the moving body speed v. Then, the second output unit 330 outputs the calculated moving body speed v to the ECU 230.

ここで、第2出力部330は、ピクセル移動量を「PN」とし、ピクセル距離を「PD」とした場合に、移動体速度vを、次の(7)式により算出する。
v=PN・PD/TP …(7)
Here, when the pixel movement amount is “PN” and the pixel distance is “PD”, the second output unit 330 calculates the moving body velocity v by the following equation (7).
v = PN / PD / TP (7)

《白線領域の特定処理》
次に、特定部322Aによる白線領域の特定処理について説明する。
《White line area identification processing》
Next, the white line area specifying process by the specifying unit 322A will be described.

かかる白線領域の特定処理は、後述する較正部323Aによるピクセル距離の較正のために行われる。かかるピクセル距離の較正に際しての環境(以下、「較正環境」という)が、図6に示されている。この図6に示されるように、ピクセル距離の較正は、移動体MVが、平坦な路面の等速直線走行で、進行方向の長さW(≒45[cm])の路面上の白線である停止線SPLを、停止線SPLの長手方向に対して直角に横切る際に行われる。   The white line region specifying process is performed for the calibration of the pixel distance by the calibration unit 323A described later. An environment for the calibration of such pixel distance (hereinafter referred to as “calibration environment”) is shown in FIG. As shown in FIG. 6, the calibration of the pixel distance is a white line on the road surface where the moving body MV is traveling at a constant speed on a flat road surface and has a length W (≈45 [cm]) in the traveling direction. This is performed when the stop line SPL is crossed at right angles to the longitudinal direction of the stop line SPL.

なお、以下の説明においては、新たなピクセル距離の較正に利用される停止線SPLは、走行方向位置(すなわち、X方向位置)XRから走行方向位置XPまでが白線領域になっているものとする。   In the following description, it is assumed that the stop line SPL used for calibration of the new pixel distance is a white line region from the travel direction position (that is, the X direction position) XR to the travel direction position XP. .

さて、取得部310Aから送られた撮像画像データを受けると、特定部322Aは、撮像画像データから得られる画像における白線領域を、当該画像における各ピクセルの明るさに基づいて特定し、特定結果を、白線領域情報として、較正部323Aへ送る(図4参照)。かかる白線領域の特定結果には、図7(A)に示される前方一部白線、及び、図7(B)に示される後方一部白線の2種類が含まれている。   Now, when the captured image data sent from the acquisition unit 310A is received, the identifying unit 322A identifies the white line region in the image obtained from the captured image data based on the brightness of each pixel in the image, and identifies the identified result. The white line area information is sent to the calibration unit 323A (see FIG. 4). The white line region identification results include two types, a front partial white line shown in FIG. 7A and a rear partial white line shown in FIG. 7B.

なお、特定部322Aは、特定結果が前方一部白線の場合には、画像中の白線領域のX方向の長さのピクセル数a(以下、「前方長a」ともいう)を特定する。また、特定部322Aは、特定結果が後方一部白線の場合には、画像中の非白線領域のX方向の長さのピクセル数b(以下、「前方長b」ともいう)を特定する。   Note that the specifying unit 322A specifies the number of pixels a in the length of the white line region in the image in the X direction a (hereinafter also referred to as “front length a”) when the specifying result is a partial front white line. Further, when the identification result is a rear partial white line, the identification unit 322A identifies the number of pixels b in the length in the X direction of the non-white line region in the image (hereinafter also referred to as “front length b”).

そして、特定部322Aは、前方一部白線の場合には、図7(A)に示される白線領域情報[白線フラグ:ON,前方長:a]を較正部323Aへ送る(図4参照)。また、特定部322Aは、後方一部白線の場合には、図7(B)に示される白線領域情報[白線フラグ:ON,前方長:b]を較正部323Aへ送る(図4参照)。   Then, in the case of a partial front white line, the specifying unit 322A sends white line region information [white line flag: ON, front length: a] shown in FIG. 7A to the calibration unit 323A (see FIG. 4). Further, in the case of a partial rear white line, the specifying unit 322A sends white line area information [white line flag: ON, front length: b] shown in FIG. 7B to the calibration unit 323A (see FIG. 4).


《ピクセル距離の較正処理》
次いで、較正部323Aによる較正処理について説明する。
]
<< Pixel distance calibration process >>
Next, calibration processing by the calibration unit 323A will be described.

較正処理に際しては、較正部323Aは、ナビゲーション装置220から、移動体MVが走行方向に存在する交差点から所定距離以内となった旨を受けたか否かの交差点判定を行う。この交差点判定の結果が肯定的となると、較正部323Aは、ECU230から送られた加速度情報、操舵角情報及び傾き情報により、移動体MVが平坦な路面を等速直進走行していると判断できるか否の等速直進判定を行う。   In the calibration process, the calibration unit 323A performs an intersection determination as to whether or not the navigation apparatus 220 has received that the moving body MV is within a predetermined distance from the intersection existing in the traveling direction. If the result of the intersection determination is affirmative, the calibration unit 323A can determine that the moving body MV is traveling straight at a constant speed on a flat road surface based on the acceleration information, the steering angle information, and the inclination information transmitted from the ECU 230. It is determined whether or not the vehicle travels straight at a constant speed.

等速直進判定の結果が肯定的である場合には、較正部323Aは、特定部322Aから送られた白線領域情報が「前方一部白線」となったか否かの白線開始判定を行う。この白線開始判定の結果が肯定的となると、等速直進判定の結果が肯定的である状態が維持されることを条件として、較正部323Aは、特定部322Aから送られた白線領域情報が「後方一部白線」となった否かの白線終了判定の結果が肯定的となるまで、移動量検出部321Aから送られたピクセル移動量を収集する。   When the result of the constant speed straight-ahead determination is affirmative, the calibration unit 323A performs white line start determination as to whether or not the white line region information sent from the specifying unit 322A is a “front partial white line”. If the result of the white line start determination is affirmative, the calibration unit 323A indicates that the white line region information sent from the specifying unit 322A is “on the condition that the result of the constant-velocity straight-ahead determination is positive is maintained. The pixel movement amount sent from the movement amount detection unit 321A is collected until the result of the white line end determination regarding whether or not “backward partial white line” is affirmative.

そして、白線終了判定の結果が肯定的となると、較正部323Aは、「前方一部白線」となった時点における白線領域情報に含まれる前方長a、収集されたピクセル移動量ΔX1,…,ΔXM、及び、「後方一部白線」となった時点における白線領域情報に含まれる前方長bに基づいて、暫定ピクセル距離PT[cm]を、次の(8)式により算出する。
PT=45/(a+ΔX1+…+ΔXM−b) …(8)
When the result of the white line end determination is affirmative, the calibration unit 323A determines that the forward length a included in the white line region information at the time when the “front partial white line” is obtained, the collected pixel movement amount ΔX 1 ,. Based on ΔX M and the front length b included in the white line region information at the time when the “backward partial white line” is reached, the provisional pixel distance PT [cm] is calculated by the following equation (8).
PT = 45 / (a + ΔX 1 +... + ΔX M −b) (8)

次に、較正部323Aは、算出された今回の暫定ピクセル距離と、内部に保持している過去における所定回数の較正時に算出された暫定ピクセル距離との重み付け平均を算出して、今回較正されたピクセル距離を算出する。この後、較正部323Aは、それまで内部に保持していた暫定ピクセル距離のうちで最も古いものに代えて、今回の暫定ピクセル距離を内部に保持する。   Next, the calibration unit 323A calculates the weighted average of the calculated current provisional pixel distance and the provisional pixel distance calculated during the predetermined number of calibrations held in the past, and is calibrated this time. Calculate the pixel distance. Thereafter, the calibration unit 323A retains the current provisional pixel distance inside instead of the oldest provisional pixel distance retained therein.

なお、重み付け平均では、現在までの経過時間が長いものほど重みが少なくするようになっている。   In the weighted average, the longer the elapsed time up to the present time, the smaller the weight.

較正部323Aは、算出されたピクセル距離を第2出力部330へ送る。この結果、第2出力部330は、新たなピクセル距離を利用した移動体速度vの算出を行うようになる。   The calibration unit 323A sends the calculated pixel distance to the second output unit 330. As a result, the second output unit 330 calculates the moving body speed v using the new pixel distance.

なお、図8には、時刻T1で前方一部白線の撮像画像が得られ、時刻T5で後方一部白線の撮像画像が得られた場合の例が示されている。この図8の例では、次の(9)式により、暫定ピクセル距離PT[cm]が算出される。
PT=45/(a+ΔX1+ΔX2+ΔX3+ΔX4−b) …(9)
FIG. 8 shows an example in which a captured image of the front partial white line is obtained at time T 1 and a captured image of the rear partial white line is obtained at time T 5 . In the example of FIG. 8, the provisional pixel distance PT [cm] is calculated by the following equation (9).
PT = 45 / (a + ΔX 1 + ΔX 2 + ΔX 3 + ΔX 4 −b) (9)

以上説明したように、第1実施形態では、移動体MVの走行方向に沿って既知の長さを有する路面上特徴部である停止線に関する撮像部210による撮像画像に基づいて、移動量検出部321Aが、ピクセル移動量を検出する。また、特定部322Aが、撮像画像中における白線領域を特定する。そして、較正部323Aが、ピクセル移動量及び撮像画像内における白線領域の特定結果に加えて、移動体MVの走行方向に沿った停止線の既知の長さに基づいて、移動体MVが平坦な路面を等速直進走行していると判断できる場合に、撮像部210と路面との間の距離に関連する、1ピクセルに対応する路面上の距離を較正する。   As described above, in the first embodiment, the movement amount detection unit is based on the captured image by the imaging unit 210 regarding the stop line that is a road surface characteristic unit having a known length along the traveling direction of the moving body MV. 321A detects the amount of pixel movement. Further, the specifying unit 322A specifies a white line region in the captured image. Then, the calibration unit 323A determines that the moving body MV is flat based on the known length of the stop line along the traveling direction of the moving body MV in addition to the pixel movement amount and the result of specifying the white line area in the captured image. When it can be determined that the vehicle is traveling straight at a constant speed on the road surface, the distance on the road surface corresponding to one pixel related to the distance between the imaging unit 210 and the road surface is calibrated.

したがって、第1実施形態によれば、移動体重量の変化や車輪の空気圧の変化により、路面と撮像部210との距離が変化しても、1ピクセルに対応する路面上の距離を当該変化に応じて較正することができる。   Therefore, according to the first embodiment, even if the distance between the road surface and the imaging unit 210 changes due to a change in the weight of the moving body or a change in the air pressure of the wheels, the distance on the road surface corresponding to one pixel is changed to the change. Can be calibrated accordingly.

また、第1実施形態では、較正結果及びピクセル移動量に基づいて、第2出力部330が、移動体速度を算出する。このため、走行情報として精度の良い移動体速度を出力することができる。   In the first embodiment, the second output unit 330 calculates the moving body speed based on the calibration result and the pixel movement amount. For this reason, it is possible to output a moving body speed with high accuracy as travel information.

また、第1実施形態では、路面上特徴部として停止線を採用する。このため、撮像画像の各ピクセルの明るさを調べることにより、停止線領域(すなわち、白線領域)を容易に特定することができる。   Moreover, in 1st Embodiment, a stop line is employ | adopted as a road surface characteristic part. For this reason, the stop line region (that is, the white line region) can be easily specified by examining the brightness of each pixel of the captured image.

また、第1実施形態では、交差点に近付いた旨の情報を取得し、停止線を通過することを予め推測する。このため、効率的な較正を行うことができる。   In the first embodiment, information indicating that the vehicle is approaching an intersection is acquired, and it is estimated in advance that the vehicle will pass a stop line. For this reason, efficient calibration can be performed.

また、第1実施形態では、今回の暫定ピクセル距離と、過去における所定回数の較正時に算出された暫定ピクセル距離との重み付け平均を算出して、最終的な較正結果を得る。
これは、停止線が欠けていたり、塗装がはみ出ていたりして、想定長が45[cm]からずれている場合もあるためである。このため、停止線の進行方向の長さの変動等のピクセル距離の較正結果への影響を抑制した較正を行うことができる。
In the first embodiment, a weighted average of the current provisional pixel distance and the provisional pixel distance calculated during a predetermined number of calibrations in the past is calculated to obtain a final calibration result.
This is because the assumed length may deviate from 45 [cm] due to missing stop lines or protruding paint. For this reason, the calibration which suppressed the influence on the calibration result of pixel distance, such as a fluctuation | variation of the length of the advancing direction of a stop line, can be performed.

また、第1実施形態では、直進走行中、定速走行中、かつ、路面傾きのない状況であるときに較正を実施する。これは、横方向の移動があると停止線の通過が斜めになり、45[cm]以上の長さに基づいて較正を行ってしまうこと、及び、加速度や減速度が大きいときや路面傾きがある場合は、サスペンション等の伸縮が生じるため、撮像時の光学倍率が変化している最中であることによる。このため、精度の良いピクセル距離の較正を行うことができる。   In the first embodiment, calibration is performed when the vehicle is traveling straight, traveling at a constant speed, and having no road surface inclination. This means that if there is a lateral movement, the stop line passes diagonally and calibration is performed based on a length of 45 [cm] or more, and when the acceleration or deceleration is large or the road surface is inclined. In some cases, the expansion and contraction of the suspension or the like occurs, so that the optical magnification at the time of imaging is changing. For this reason, accurate pixel distance calibration can be performed.

[第2実施形態]
次に、本発明の第2実施形態を、図9〜図13を主に参照して説明する。
[Second Embodiment]
Next, a second embodiment of the present invention will be described mainly with reference to FIGS.

<構成>
図9には、第2実施形態に係る検出装置300Bの構成が、ブロック図にて示されている。図9に示されるように、検出装置300Bは、撮像部210F,210R及びECU230と接続されている。そして、検出装置300B、撮像部210F,210R及びECU230は、移動体MVに搭載されている。
<Configuration>
FIG. 9 is a block diagram showing the configuration of the detection apparatus 300B according to the second embodiment. As shown in FIG. 9, the detection device 300 </ b> B is connected to the imaging units 210 F and 210 R and the ECU 230. The detection device 300B, the imaging units 210 F and 210 R, and the ECU 230 are mounted on the moving body MV.

上記の撮像部210F,210Rのそれぞれは、上述した撮像部210と同様に構成される。そして、撮像部210Fは、移動体MVの前側に配置され、撮像部210Rは、撮像部210Fから距離Dを隔てた移動体MVの後側に配置される(図10参照)。なお、撮像部210F,210Rは、同一タイミングで撮像を行うようになっている。 Each of the imaging units 210 F and 210 R is configured similarly to the imaging unit 210 described above. The imaging unit 210 F is arranged on the front side of the moving body MV, and the imaging unit 210 R is arranged on the rear side of the moving body MV that is separated from the imaging unit 210 F by a distance D (see FIG. 10). Note that the imaging units 210 F and 210 R perform imaging at the same timing.

撮像部210Fにより撮像された画像(以下、「前側撮像画像」という)のデータは、検出装置300Bへ送られる。また、撮像部210Rにより撮像された画像(以下、「後側撮像画像」という)のデータも検出装置300Bへ送られる。 Image captured by the imaging unit 210 F (hereinafter, referred to as "front side captured image") data is transmitted to the detector 300B. Data of an image captured by the imaging unit 210 R (hereinafter referred to as “rear captured image”) is also sent to the detection apparatus 300B.

なお、ECU230からは、上述した第1実施形態の場合と同様に、加速度情報、操舵角情報及び傾き情報を検出装置300Bへ送られる。また、ECU230は、検出装置300Bから送られた移動体速度を更に取得し、取得された移動体速度を移動体MVの走行制御に役立てるようになっている。   Note that the ECU 230 sends acceleration information, steering angle information, and tilt information to the detection device 300B, as in the case of the first embodiment described above. In addition, the ECU 230 further acquires the moving body speed sent from the detection device 300B, and uses the acquired moving body speed for traveling control of the moving body MV.

上記の検出装置300Bは、図9に示されるように、取得部310Bと、第1出力部320Bとを備えている。また、検出装置300Bは、第2出力部330を備えている。   As shown in FIG. 9, the detection device 300B includes an acquisition unit 310B and a first output unit 320B. In addition, the detection device 300 </ b> B includes a second output unit 330.

上記の取得部310Bは、撮像部210Fから送られた前側撮像画像のデータ、及び、撮像部210Rから送られた後側撮像画像のデータを受ける。そして、取得部310Bは、前側撮像画像のデータ及び後側撮像画像のデータを第1出力部320Bへ送る。 Additional acquisition unit 310B, the data of the front captured image sent from the imaging unit 210 F, and receives the data of the side captured image after being sent from the imaging unit 210 R. Then, the acquisition unit 310B sends the data of the front side captured image and the data of the rear side captured image to the first output unit 320B.

上記の第1出力部320Bは、取得部310Bから送られた前側撮像画像のデータ及び後側撮像画像のデータを受ける。そして、第1出力部320Bは、ピクセル移動量を検出するとともに、上述した第1実施形態の場合と同様の較正条件を満たした場合には、ピクセル距離を較正する。検出されたピクセル移動量及び較正されたピクセル距離は、第2出力部330へ出力する。かかる機能を有する第1出力部320Bの構成の詳細については、後述する。   The first output unit 320B receives the data of the front side captured image and the data of the rear side captured image sent from the acquisition unit 310B. The first output unit 320B detects the pixel movement amount and calibrates the pixel distance when the same calibration condition as that in the first embodiment described above is satisfied. The detected pixel movement amount and the calibrated pixel distance are output to the second output unit 330. Details of the configuration of the first output unit 320B having such a function will be described later.

なお、上記の第2出力部330は、第1出力部320Bから送られたピクセル移動量を受けるたびに、上述した第1実施形態の場合と同様に、最新の較正されたピクセル距離及び周期時間TPに基づいて、移動体MVの走行情報として移動体速度を算出する。そして、第2出力部330は、算出された移動体MVの移動体速度をECU230へ出力する。   Whenever the second output unit 330 receives the pixel movement amount sent from the first output unit 320B, the latest calibrated pixel distance and period time are the same as in the case of the first embodiment described above. Based on TP, the moving body speed is calculated as the traveling information of the moving body MV. Then, the second output unit 330 outputs the calculated moving body speed of the moving body MV to the ECU 230.

《第1出力部320Bの構成》
次に、上述した第1出力部320Bの構成について説明する。
<< Configuration of First Output Unit 320B >>
Next, the configuration of the first output unit 320B described above will be described.

第1出力部320Bは、図9に示されるように、移動量検出部321Bと、特定部322Bとを備えている。また、第1出力部320Bは、較正部323Bを備えている。   As shown in FIG. 9, the first output unit 320B includes a movement amount detection unit 321B and a specifying unit 322B. The first output unit 320B includes a calibration unit 323B.

上記の移動量検出部321Bは、取得部310Bから送られた前側撮像画像のデータ及び後側撮像画像のデータを受ける。そして、移動量検出部321Bは、前側撮像画像のデータ及び後側撮像画像のデータに基づいて、いわゆる変位量探索法によりピクセル移動量を検出する。こうして検出されたピクセル移動量は、較正部323B及び第2出力部330へ送られる。   The movement amount detection unit 321B receives the data of the front captured image and the data of the rear captured image sent from the acquisition unit 310B. Then, the movement amount detection unit 321B detects the pixel movement amount by a so-called displacement amount search method based on the data of the front side captured image and the data of the rear side captured image. The pixel movement amount thus detected is sent to the calibration unit 323B and the second output unit 330.

なお、移動量検出部321Bの動作の詳細については、後述する。   Details of the operation of the movement amount detection unit 321B will be described later.

上記の特定部322Bは、取得部310Bから送られた前側撮像画像のデータ及び後側撮像画像のデータを受ける。そして、特定部322Bは、前側撮像画像のデータ及び後側撮像画像のデータから得られる画像中における白線領域を特定する。こうして特定された白線領域の情報(以下、「白線領域情報」という)は、較正部323Bへ送られる。   The specifying unit 322B receives the data of the front captured image and the data of the rear captured image sent from the acquisition unit 310B. Then, the specifying unit 322B specifies a white line region in an image obtained from the data of the front captured image and the data of the rear captured image. Information on the white line area thus identified (hereinafter referred to as “white line area information”) is sent to the calibration unit 323B.

なお、特定部322Bの動作の詳細については、後述する。   Details of the operation of the specifying unit 322B will be described later.

上記の較正部323Bは、移動量検出部321Bから送られたピクセル移動量、及び、特定部322Bから送られた白線領域情報を受ける。そして、較正部323Bは、ECU230から送られた加速度情報、操舵角情報及び傾き情報により、移動体MVが平坦な路面を等速直進走行していると判断できる場合に、当該ピクセル移動量及び当該白線領域情報に加えて、上述した撮像部210Fと撮像部210Rとの間の距離Dに基づいて、ピクセル距離を較正する。こうして較正されたピクセル距離は、第2出力部330へ送られる。 The calibration unit 323B receives the pixel movement amount sent from the movement amount detection unit 321B and the white line area information sent from the specifying unit 322B. When the calibration unit 323B can determine that the moving body MV is traveling straight on a flat road surface at a constant speed based on the acceleration information, the steering angle information, and the inclination information transmitted from the ECU 230, the calibration unit 323B in addition to the white line area information, based on the distance D between the imaging unit 210 F and the imaging unit 210 R described above, to calibrate the pixel distance. The pixel distance thus calibrated is sent to the second output unit 330.

なお、較正部323Bの動作の詳細については、後述する。   The details of the operation of the calibration unit 323B will be described later.

<動作>
次に、上記のように較正された検出装置300Bの動作について、検出装置300Bの各要素で行われる処理に着目して説明する。
<Operation>
Next, the operation of the detection device 300B calibrated as described above will be described by paying attention to processing performed by each element of the detection device 300B.

なお、撮像部210F,210Rは、既に動作を開始しており、周期時間TPで撮像した路面画像の前側撮像画像のデータ及び後側撮像画像のデータを、逐次、検出装置300Bへ送っているものとする。また、ECU230は、既に動作を開始しており、加速度情報、操舵角情報及び傾き情報を検出装置300Bへ送っているものとする(図9参照)。 Note that the imaging units 210 F and 210 R have already started operation, and sequentially transmit the data of the front side captured image and the data of the rear side captured image of the road surface image captured at the period time TP to the detection device 300B. It shall be. Further, it is assumed that the ECU 230 has already started operation and has sent acceleration information, steering angle information, and tilt information to the detection device 300B (see FIG. 9).

さらに、検出装置300Bでは、既に、複数回のピクセル距離の較正が行われており、較正部323Bには、最近の所定回数分の較正時刻及び後述する暫定ピクセル距離を含む較正履歴が保持されているとともに、第2出力部330には、最新に較正されたピクセル距離が保持されているのものとする。ここで、ピクセル距離の最初の較正が行われるまでの期間においては、上述した第1実施形態の場合と同様に、第2出力部330には、平均的なピクセル距離が保持されるようになっている。   Furthermore, the detection apparatus 300B has already performed a plurality of times of pixel distance calibration, and the calibration unit 323B holds a calibration history including a recent predetermined number of calibration times and a provisional pixel distance described later. In addition, it is assumed that the latest calibrated pixel distance is held in the second output unit 330. Here, in the period until the initial calibration of the pixel distance, the average pixel distance is held in the second output unit 330 as in the case of the first embodiment described above. ing.

《画像データの取得処理》
検出装置300Bでは、取得部310Bが、撮像部210F,210Rから送られた前側撮像画像のデータ及び後側撮像画像のデータを受ける。そして、取得部310Bは、前側撮像画像のデータ及び後側撮像画像のデータを、第1出力部320Bの移動量検出部321B及び特定部322Bへ送る(図9参照)。
<< Image data acquisition process >>
In the detection apparatus 300B, the acquisition unit 310B receives the data of the front side captured image and the data of the rear side captured image sent from the imaging units 210 F and 210 R. Then, the acquisition unit 310B sends the data of the front side captured image and the data of the rear side captured image to the movement amount detection unit 321B and the specifying unit 322B of the first output unit 320B (see FIG. 9).

《ピクセル移動量の検出処理》
次に、移動量検出部321Bによるピクセル移動量の検出処理について説明する。
<< Pixel movement detection process >>
Next, pixel movement amount detection processing by the movement amount detection unit 321B will be described.

取得部310Bから送られた前側撮像画像のデータを受けると、移動量検出部321Bは、上述した第1実施形態のピクセル移動量の検出と同様にして、今回の前側撮像画像のデータから得られる今回前側撮像画像と前回の前側撮像画像のデータから得られる前回前側撮像画像とにおける共通の特徴領域の位置の変位量を、前側ピクセル移動量として検出する。また、取得部310Bから送られた後側撮像画像のデータを受けると、移動量検出部321Bは、第1実施形態のピクセル移動量の検出と同様にして、今回の後側撮像画像のデータから得られる今回後側撮像画像と前回の後側撮像画像のデータから得られる前回後側撮像画像とにおける共通の特徴領域の位置の変位量を、後側ピクセル移動量として検出する。   When receiving the data of the front side captured image sent from the acquisition unit 310B, the movement amount detection unit 321B is obtained from the data of the current front side captured image in the same manner as the detection of the pixel movement amount of the first embodiment described above. A displacement amount of the position of the common feature region in the previous front side captured image obtained from the data of the current front side captured image and the previous front side captured image is detected as a front pixel movement amount. In addition, when receiving the rear captured image data sent from the acquisition unit 310B, the movement amount detection unit 321B uses the current rear captured image data in the same manner as the detection of the pixel movement amount of the first embodiment. A displacement amount of the position of the common feature region in the current rear captured image obtained from the current rear captured image obtained from the previous rear captured image data is detected as a rear pixel movement amount.

なお、今回前側撮像画像と前回前側撮像画像とに共通する特徴領域が複数ある場合には、移動量検出部321Bは、複数の特徴領域のそれぞれの変位量の平均値を、前側ピクセル移動量として採用する。また、今回後側撮像画像と前回後側撮像画像とに共通する特徴領域が複数ある場合には、移動量検出部321Bは、複数の特徴領域のそれぞれの変位量の平均値を、後側ピクセル移動量として採用する。   When there are a plurality of feature areas common to the current front captured image and the previous front captured image, the movement amount detection unit 321B uses the average value of the displacement amounts of the plurality of feature areas as the front pixel movement amount. adopt. In addition, when there are a plurality of feature areas common to the current rear side captured image and the previous rear side captured image, the movement amount detection unit 321B determines the average value of the displacement amounts of the plurality of feature areas as the rear pixel. Adopted as the amount of movement.

引き続き、移動量検出部321Bは、前側ピクセル移動量と後側ピクセル移動量との平均を、ピクセル移動量として算出する。そして、移動量検出部321Bは、算出されたピクセル移動量を較正部323B及び第2出力部330へ送る(図9参照)。   Subsequently, the movement amount detection unit 321B calculates the average of the front pixel movement amount and the rear pixel movement amount as the pixel movement amount. Then, the movement amount detection unit 321B sends the calculated pixel movement amount to the calibration unit 323B and the second output unit 330 (see FIG. 9).

《移動体速度vの出力処理》
次いで、第2出力部330による移動体速度vの出力処理について説明する。
<< Output processing of moving body speed v >>
Next, the output process of the moving body speed v by the second output unit 330 will be described.

移動量検出部321Bから送られたピクセル移動量を受けると、第2出力部330は、第1実施形態の場合と同様にして、ピクセル移動量、保持しているピクセル距離(すなわち、最新に較正されたピクセル距離)及び周期時間TPに基づいて移動体速度vを算出する。そして、第2出力部330は、算出された移動体速度vをECU230へ出力する。   Upon receiving the pixel movement amount sent from the movement amount detection unit 321B, the second output unit 330 performs the pixel movement amount and the held pixel distance (that is, the latest calibration) in the same manner as in the first embodiment. The moving body speed v is calculated based on the pixel distance) and the period time TP. Then, the second output unit 330 outputs the calculated moving body speed v to the ECU 230.

《白線領域の特定処理》
次に、特定部322Bによる白線領域の特定処理について説明する。
《White line area identification processing》
Next, the white line area specifying process by the specifying unit 322B will be described.

かかる白線領域の特定処理は、後述する較正部323Bによるピクセル距離の較正のために行われる。かかるピクセル距離の較正環境が、図11に示されている。この図11に示されるように、ピクセル距離の較正は、移動体MVが、平坦な路面にある例えば横断歩道標示のような白線領域LCPを等速直線走行で横切る際に行われる。   The white line region specifying process is performed for the calibration of the pixel distance by the calibration unit 323B described later. Such a pixel distance calibration environment is shown in FIG. As shown in FIG. 11, the calibration of the pixel distance is performed when the moving body MV crosses a white line region LCP such as a pedestrian crossing sign on a flat road surface by a constant speed straight line traveling.

なお、以下の説明においては、新たなピクセル距離の較正に利用される白線領域LCPは、走行方向位置(すなわち、X方向位置)XRから走行方向位置XPまでが白線領域になっているものとする。   In the following description, it is assumed that the white line region LCP used for calibration of a new pixel distance is a white line region from the traveling direction position (that is, the X direction position) XR to the traveling direction position XP. .

さて、取得部310Bから送られた前側撮像画像のデータ及び後側撮像画像のデータを受けると、特定部322Bは、前側撮像画像及び後側撮像画像における白線領域を、当該画像における各ピクセルの明るさに基づいて特定し、特定結果を、白線領域情報として、較正部323Bへ送る(図9参照)。かかる白線領域の特定結果には、図12(A)に示される「第1後方一部白線」、及び、図12(B)に示される「第2後方一部白線」の2種類が含まれる。ここで、「第1後方一部白線」は、前側設置の撮像部210Fによる撮像で得られた前側撮像画像における後方一部白線の状態である。また、「第2後方一部白線」は、後側設置の撮像部210Rによる撮像で得られた後側撮像画像における後方一部白線の状態である。 When receiving the data of the front side captured image and the data of the rear side captured image sent from the acquisition unit 310B, the specifying unit 322B determines the white line area in the front side captured image and the rear side captured image as the brightness of each pixel in the image. The identification result is sent to the calibration unit 323B as white line area information (see FIG. 9). Such white line region identification results include two types: a “first rear partial white line” shown in FIG. 12A and a “second rear partial white line” shown in FIG. . Here, "first rear part white line" is a state of the rear part white line in front captured image obtained by the imaging by the imaging section 210 F of the front installation. Further, "second rear part white line", according to the imaging unit 210 R of the rear installation is the state of the rear part white line on the side captured image after being obtained by the imaging.

なお、第2実施形態では、特定部322Bは、前側撮像画像において、白線を通過する際に「第1後方一部白線」となるまでの白線が明確に特定できる状態が継続したことを条件として、白線領域情報を生成するようになっている。このため、タイヤ痕等により白線が明確に特定できなかった場合には、特定部322Bは、白線領域情報を生成しない。すなわち、第2実施形態では、タイヤ痕等により白線が明確に特定できなかった場合には、ピクセル距離の較正を行わない。   In the second embodiment, the specifying unit 322B is configured on the condition that a state in which the white line until the “first rear partial white line” can be clearly specified when passing the white line in the front captured image has continued. White line area information is generated. For this reason, when the white line cannot be clearly specified due to the tire marks or the like, the specifying unit 322B does not generate the white line region information. That is, in the second embodiment, the pixel distance is not calibrated when the white line cannot be clearly specified due to tire marks or the like.

また、第2実施形態において前側撮像画像における第1後方一部白線及び後側撮像画像における第2後方一部白線に着目して白線領域の特定を行うのは、細い白線の場合は撮像画像内に複数の白線が入っていると計測に間違いを生じやすいことにもよる。かかる工夫を行うことにより、無駄な較正を行わずに済むので、無駄をなくせる。   In the second embodiment, the white line region is specified by focusing on the first rear partial white line in the front captured image and the second rear partial white line in the rear captured image. It also depends on the fact that multiple white lines are likely to cause errors in measurement. By carrying out such a device, it is not necessary to perform useless calibration, so that uselessness can be eliminated.

なお、特定部322Bは、特定結果が前側撮像画像における第1後方一部白線の場合には、画像中の非白線領域のX方向の長さa(以下、「前方長a」ともいう)を特定する。また、特定部322Bは、特定結果が後側撮像画像における第2後方一部白線の場合には、画像中の非白線領域のX方向の長さb(以下、「前方長b」ともいう)を特定する。   Note that when the identification result is the first rear partial white line in the front-side captured image, the identification unit 322B determines the length a in the X direction of the non-white line region in the image (hereinafter also referred to as “front length a”). Identify. Further, when the specifying result is the second rear partial white line in the rear captured image, the specifying unit 322B determines the length b in the X direction of the non-white line region in the image (hereinafter also referred to as “front length b”). Is identified.

そして、特定部322Bは、前側撮像画像における第1後方一部白線の場合には、図12(A)に示される白線領域情報[第1後方一部白線フラグ:ON,前方長:a]を較正部323Bへ送る(図9参照)。また、特定部322Bは、第2後方一部白線の場合には、図12(B)に示される白線領域情報[第2後方一部白線フラグ:ON,前方長:b]を較正部323Bへ送る(図9参照)。   Then, in the case of the first rear partial white line in the front-side captured image, the specifying unit 322B displays the white line area information [first rear partial white line flag: ON, front length: a] illustrated in FIG. The data is sent to the calibration unit 323B (see FIG. 9). Further, in the case of the second rear partial white line, the specifying unit 322B sends the white line area information [second rear partial white line flag: ON, front length: b] illustrated in FIG. 12B to the calibration unit 323B. Send (see FIG. 9).

《ピクセル距離の較正処理》
次いで、較正部323Bによる較正処理について説明する。
<< Pixel distance calibration process >>
Next, calibration processing by the calibration unit 323B will be described.

較正処理に際しては、較正部323Bは、ECU230から送られた加速度情報、操舵角情報及び傾き情報により、移動体MVが平坦な路面での等速直進走行をしていると判断できるか否の等速直進判定を行う。   In the calibration process, whether or not the calibration unit 323B can determine that the moving body MV is traveling straight at a constant speed on a flat road surface based on the acceleration information, the steering angle information, and the tilt information transmitted from the ECU 230, and the like. Performs a straight-ahead determination.

等速直進判定の結果が肯定的である場合には、較正部323Bは、特定部322Bから送られた前側撮像画像における白線領域情報が「第1後方一部白線」となったか否かの前側白線終了判定を行う。この前側白線終了判定の結果が肯定的となると、平坦な路面での等速直進判定の結果が肯定的である状態が維持されることを条件として、較正部323Bは、特定部322Bから送られた後側撮像画像における白線領域情報が「第2後方一部白線」となった否かの後側白線終了判定の結果が肯定的となるまで、移動量検出部321Bから送られたピクセル移動量ΔX1,…,ΔXNを収集する(図13参照)。 When the result of the constant-velocity straight-ahead determination is affirmative, the calibration unit 323B determines whether the white line region information in the front-side captured image sent from the specifying unit 322B is “first rear partial white line”. The white line end determination is performed. If the result of the front white line end determination is affirmative, the calibration unit 323B is sent from the specifying unit 322B on the condition that the result of the constant speed straight traveling determination on a flat road surface is maintained positive. The pixel movement amount sent from the movement amount detection unit 321B until the result of the determination of the end of the rear white line whether or not the white line region information in the rear captured image becomes “second rear partial white line” is affirmative. ΔX 1 ,..., ΔX N are collected (see FIG. 13).

そして、後側白線終了判定の結果が肯定的となると、較正部323Bは、前側撮像画像における白線領域情報が「第1後方一部白線」となった時点における白線領域情報に含まれる前方長a、収集されたピクセル移動量ΔX1,…,ΔXN、及び、後側撮像画像における白線領域情報が「第2後方一部白線」となった時点における白線領域情報に含まれる前方長b、並びに、撮像部210Fと撮像部210Rとの間の距離Dに基づいて、暫定ピクセル距離PT[cm]を、次の(10)式により算出する。
PT=D/(a+ΔX1+…+ΔXN−b) …(10)
When the result of the determination of the end of the rear white line becomes affirmative, the calibration unit 323B determines that the front length a included in the white line area information at the time when the white line area information in the front captured image becomes the “first rear partial white line”. , collected pixel shift amount [Delta] X 1, ..., [Delta] X N, and the front length is included in the white line area information at the time the white line area information becomes "second rear part white line" in the rear captured image b, and , based on the distance D between the imaging unit 210 F and the imaging unit 210 R, the interim pixel distance PT [cm], it is calculated by the following equation (10).
PT = D / (a + ΔX 1 +... + ΔX N −b) (10)

次に、較正部323Bは、算出された今回の暫定ピクセル距離と、内部に保持している過去における所定回数の較正時に算出された暫定ピクセル距離との重み付け平均を算出して、今回較正されたピクセル距離を算出する。この後、較正部323Bは、それまで内部に保持していた暫定ピクセル距離のうちで最も古いものに代えて、今回の暫定ピクセル距離を内部に保持する。   Next, the calibration unit 323B calculates the weighted average of the calculated current provisional pixel distance and the provisional pixel distance calculated during the predetermined number of calibrations held in the past, and is calibrated this time. Calculate the pixel distance. Thereafter, the calibration unit 323B retains the current provisional pixel distance inside instead of the oldest provisional pixel distance retained therein.

なお、重み付け平均では、第1実施形態の場合と同様に、現在までの経過時間が長いものほど重みが少なくするようになっている。   In the weighted average, as in the case of the first embodiment, the weight is decreased as the elapsed time up to the present is longer.

較正部323Bは、算出されたピクセル距離を第2出力部330へ送る。この結果、第2出力部330は、新たなピクセル距離を利用した移動体速度vの算出を行うようになる。   The calibration unit 323B sends the calculated pixel distance to the second output unit 330. As a result, the second output unit 330 calculates the moving body speed v using the new pixel distance.

以上説明したように、第2実施形態では、移動体MVの走行方向に沿って既知の距離Dで移動体MVに配置された撮像部210F,210Rによる路面上特徴部である白線の撮像画像に基づいて、移動量検出部321Bが、ピクセル移動量を検出する。また、特定部322Bが、撮像画像中における白線領域を特定する。そして、較正部323Bが、ピクセル移動量及び撮像画像内における白線領域の特定結果に加えて、既知の距離Dに基づいて、移動体MVが平坦な路面を等速直進走行していると判断できる場合に、撮像部210F,210Rと路面との間の距離に関連する、1ピクセルに対応する路面上の距離を較正する。 As described above, in the second embodiment, imaging of a white line that is a feature on the road surface by the imaging units 210 F and 210 R arranged on the moving body MV at a known distance D along the traveling direction of the moving body MV. Based on the image, the movement amount detection unit 321B detects the pixel movement amount. Further, the specifying unit 322B specifies a white line region in the captured image. Then, the calibration unit 323B can determine that the moving body MV is traveling straight at a constant speed on a flat road surface based on the known distance D in addition to the pixel movement amount and the identification result of the white line region in the captured image. In this case, the distance on the road surface corresponding to one pixel related to the distance between the imaging units 210 F and 210 R and the road surface is calibrated.

したがって、第2実施形態によれば、路面上特徴部である白線が移動体の走行方向に沿った長さが既知であるか未知であるかにかかわらず、移動体重量の変化や車輪の空気圧の変化により、路面と撮像部との距離が変化しても、1ピクセルに対応する路面上の距離を当該変化に応じて較正することができる。   Therefore, according to the second embodiment, regardless of whether the length along the traveling direction of the moving body is known or unknown, the white line that is the road surface characteristic portion is changed in the moving body weight or the air pressure of the wheel. Even if the distance between the road surface and the imaging unit changes due to the change, the distance on the road surface corresponding to one pixel can be calibrated according to the change.

また、第2実施形態では、較正結果及びピクセル移動量に基づいて、第2出力部が、移動体速度を算出する。このため、走行情報として精度の良い移動体速度を出力することができる。   In the second embodiment, the second output unit calculates the moving body speed based on the calibration result and the pixel movement amount. For this reason, it is possible to output a moving body speed with high accuracy as travel information.

また、第2実施形態では、路面上特徴部として白線を採用する。このため、撮像画像の各ピクセルの明るさを調べることにより、白線領域を容易に特定することができる。   Moreover, in 2nd Embodiment, a white line is employ | adopted as a road surface characteristic part. For this reason, the white line region can be easily specified by examining the brightness of each pixel of the captured image.

また、第2実施形態では、第1実施形態の場合と同様に、今回の暫定ピクセル距離と、過去における最近における所定回数の較正時に算出された暫定ピクセル距離との重み付け平均を算出して、最終的な較正結果を得る。このため、白線の進行方向の長さの変動等のピクセル距離の較正結果への影響を抑制した較正を行うことができる。   In the second embodiment, as in the case of the first embodiment, a weighted average of the current provisional pixel distance and the provisional pixel distance calculated during a predetermined number of recent calibrations in the past is calculated, and the final A typical calibration result. For this reason, the calibration which suppressed the influence on the calibration result of pixel distance, such as the fluctuation | variation of the length of the advancing direction of a white line, can be performed.

また、第2実施形態では、第1実施形態の場合と同様に、直進走行中、定速走行中、かつ、路面傾きのない状況であるときに較正を実施する。このため、精度の良いピクセル距離の較正を行うことができる。   In the second embodiment, as in the case of the first embodiment, calibration is performed when the vehicle is traveling straight, traveling at a constant speed, and having no road surface inclination. For this reason, accurate pixel distance calibration can be performed.

[実施形態の変形]
本発明は、上記の第1及び第2実施形態に限定されるものではなく、様々な変形が可能である。
[Modification of Embodiment]
The present invention is not limited to the first and second embodiments described above, and various modifications are possible.

例えば、上記の第1実施形態では、路面上特徴部として交差点の手前の停止線を採用するようにしたが、移動体の走行方向に沿って既知の長さを有する道路標示であれば、他の種類の道路標示を路面上特徴部として採用してもよい。   For example, in the first embodiment described above, the stop line before the intersection is adopted as the road surface characteristic portion. However, if the road marking has a known length along the traveling direction of the moving body, These types of road markings may be employed as road surface features.

また、上記の第2実施形態では、路面上特徴部として横断歩道等の白線を採用するようにしたが、白線以外の道路標示を路面上特徴部として採用してもよい。   In the second embodiment, a white line such as a pedestrian crossing is used as the road surface feature. However, a road marking other than the white line may be used as the road surface feature.

また、上記の第2実施形態では、前側画像の時間変化から得られる前側ピクセル移動量と、後側画像の時間変化から得られる後側ピクセル移動量との平均をピクセル移動量として検出するようにした。これに対し、前側ピクセル移動量及び後側ピクセル移動量のいずれか一方をピクセル移動量として検出するようにしてもよい。   In the second embodiment, the average of the front pixel movement amount obtained from the temporal change of the front image and the rear pixel movement amount obtained from the temporal change of the rear image is detected as the pixel movement amount. did. On the other hand, one of the front pixel movement amount and the rear pixel movement amount may be detected as the pixel movement amount.

また、上記の第2実施形態では、前側撮像画像が第1後方一部白線となった時点から後側撮像画像が第2後方一部白線となった時点までの撮像画像の変化に基づいて、ピクセル距離を較正するようにした。これに対し、前側撮像画像が第1前方一部白線となった時点から後側撮像画像が第2前方一部白線となった時点までの撮像画像の変化に基づいて、ピクセル距離を較正するようにしてもよい。   Moreover, in said 2nd Embodiment, based on the change of the captured image from the time of a front side captured image becoming a 1st back partial white line until the time of a back side captured image becoming a 2nd back partial white line, The pixel distance was calibrated. On the other hand, the pixel distance is calibrated based on the change in the captured image from the time when the front captured image becomes the first front partial white line to the time when the rear captured image becomes the second front partial white line. It may be.

また、上記の第1及び第2実施形態では、いわゆる変位量探索法によりピクセル移動量を検出するようにしたが、画像相関法又は空間フィルタ法によりピクセル移動量を検出するようにしてもよい。   In the first and second embodiments, the pixel movement amount is detected by a so-called displacement amount search method. However, the pixel movement amount may be detected by an image correlation method or a spatial filter method.

また、上記の第1及び第2実施形態では、撮像部と路面との距離に関連する距離関連情報として、1ピクセルに対応する路面上の距離であるピクセル距離を較正するようにした。これに対し、複数ピクセルの集合である所定の画像要素の走行方向の長さ対応する路面上の距離である画像要素距離を較正するようにしてもよい。   In the first and second embodiments described above, the pixel distance, which is the distance on the road surface corresponding to one pixel, is calibrated as distance related information related to the distance between the imaging unit and the road surface. On the other hand, the image element distance which is the distance on the road surface corresponding to the length in the traveling direction of the predetermined image element which is a set of a plurality of pixels may be calibrated.

また、上記の第1及び第2実施形態では、第2出力部が走行情報として移動体速度(走行速度)を出力するようにしたが、移動体速度に代えて、又は、移動体速度に加えて、走行距離を出力するようにしてもよい。   In the first and second embodiments described above, the second output unit outputs the moving body speed (traveling speed) as the traveling information. However, instead of the moving body speed or in addition to the moving body speed. Thus, the travel distance may be output.

また、上記の第1及び第2実施形態では、今回の暫定ピクセル距離と、過去の所定数の暫定ピクセル距離との重み付け平均を算出してピクセル距離を較正するようにした。これに対し、今回の暫定ピクセル距離をそのまま、較正されたピクセル距離としてもよい。   In the first and second embodiments, the pixel distance is calibrated by calculating a weighted average of the current provisional pixel distance and a predetermined number of provisional pixel distances in the past. On the other hand, the temporary pixel distance of this time may be used as it is as the calibrated pixel distance.

また、上記の第1及び第2実施形態では、撮像部が検出装置の外部に用意されることを前提としたが、検出装置が撮像部を備えるようにしてもよい。   In the first and second embodiments described above, it is assumed that the imaging unit is prepared outside the detection device. However, the detection device may include the imaging unit.

また、上記の第1及び第2実施形態では、検出装置が移動体に搭載されるようにした。これに対し、検出装置を移動体外に設置し、車両搭載の撮像部やECUと無線通信網を介して接続するようにしてもよい。   In the first and second embodiments, the detection device is mounted on the moving body. On the other hand, the detection device may be installed outside the moving body and connected to an imaging unit or ECU mounted on the vehicle via a wireless communication network.

なお、上記の第1及び第2実施形態の検出装置を、中央処理装置(CPU:Central Processing Unit)等を備えた演算手段としてのコンピュータとして構成し、予め用意されたプログラムを当該コンピュータで実行することにより、上記の第1及び第2実施形態の検出装置の機能の一部又は全部を実行するようにしてもよい。このプログラムはハードディスク、CD−ROM、DVD等のコンピュータで読み取り可能な記録媒体に記録され、当該コンピュータによって記録媒体からロードされて実行される。また、このプログラムは、CD−ROM、DVD等の可搬型記録媒体に記録された形態で取得されるようにしてもよいし、インターネットなどのネットワークを介した配信の形態で取得されるようにしてもよい。   In addition, the detection apparatus of said 1st and 2nd embodiment is comprised as a computer as a calculation means provided with the central processing unit (CPU: Central Processing Unit) etc., and the program prepared beforehand is run with the said computer Accordingly, some or all of the functions of the detection devices of the first and second embodiments described above may be executed. This program is recorded on a computer-readable recording medium such as a hard disk, CD-ROM, or DVD, and is loaded from the recording medium and executed by the computer. The program may be acquired in a form recorded on a portable recording medium such as a CD-ROM or DVD, or may be acquired in a form distributed via a network such as the Internet. Also good.

次に、本発明の実施例を、図14〜図23を主に参照して説明する。なお、以下の説明においては、上述した実施形態を含めて、同一又は同等の要素には同一の符号を付し、重複する説明を極力省略する。   Next, an embodiment of the present invention will be described with reference mainly to FIGS. In the following description, including the above-described embodiment, the same or equivalent elements are denoted by the same reference numerals, and redundant description is omitted as much as possible.

[第1実施例]
まず、本発明の第1実施例を、図14〜図19を主に参照して説明する。
[First embodiment]
First, a first embodiment of the present invention will be described with reference mainly to FIGS.

<構成>
図14には、第1実施例に係る検出装置100Aの構成が概略的に示されている。この検出装置100Aは、上述した第1実施形態に係る検出装置300Aの一態様となっている。
<Configuration>
FIG. 14 schematically shows the configuration of the detection apparatus 100A according to the first embodiment. This detection apparatus 100A is an aspect of the detection apparatus 300A according to the first embodiment described above.

図14に示されるように、検出装置100Aは、撮像部210、ナビゲーション装置220及びECU230と接続されている。そして、検出装置100A、撮像部210、ナビゲーション装置220及びECU230は、車両CRに搭載されている。   As illustrated in FIG. 14, the detection device 100 </ b> A is connected to the imaging unit 210, the navigation device 220, and the ECU 230. The detection device 100A, the imaging unit 210, the navigation device 220, and the ECU 230 are mounted on the vehicle CR.

上記の検出装置100Aは、制御ユニット110Aを備えている。また、検出装置100Aは、記憶ユニット120を備えている。   The detection device 100A includes a control unit 110A. Further, the detection apparatus 100A includes a storage unit 120.

上記の制御ユニット110Aは、演算手段としての中央処理装置(CPU)を備えて構成される。この制御ユニット110Aは、プログラムを実行することにより、上述した第1実施形態における検出装置300Aとしての機能、すなわち、取得部310A、第1出力部320A及び第2出力部330としての機能を果たすようになっている。   The control unit 110A includes a central processing unit (CPU) as a calculation unit. The control unit 110A executes a program so as to perform the function as the detection device 300A in the first embodiment, that is, the function as the acquisition unit 310A, the first output unit 320A, and the second output unit 330. It has become.

制御ユニット110Aが実行するプログラムは、記憶ユニット120に記憶され、記録ユニットからロードされて実行される。このプログラムは、CD−ROM、DVD等の可搬型記録媒体に記録された形態で取得されるようにしてもよいし、インターネットなどのネットワークを介した配信の形態で取得されるようにしてもよい。   The program executed by the control unit 110A is stored in the storage unit 120, loaded from the recording unit, and executed. This program may be acquired in the form recorded on a portable recording medium such as a CD-ROM or DVD, or may be acquired in the form of distribution via a network such as the Internet. .

なお、制御ユニット110Aが実行する処理については、後述する。   The processing executed by the control unit 110A will be described later.

上記の記憶ユニット120には、制御ユニット110Aは利用する様々な情報データが記憶される。こうした情報データには、制御ユニット110Aが実行するプログラム、最新のピクセル移動量、最新のピクセル距離を含む較正履歴等が含まれている。この記憶ユニット120には、制御ユニット110Aがアクセスできるようになっている。   The storage unit 120 stores various information data used by the control unit 110A. Such information data includes a program executed by the control unit 110A, the latest pixel movement amount, a calibration history including the latest pixel distance, and the like. The storage unit 120 can be accessed by the control unit 110A.

<動作>
次に、上記のように構成された検出装置100Aによる検出動作について、制御ユニット110Aによる処理に着目して説明する。
<Operation>
Next, the detection operation performed by the detection apparatus 100A configured as described above will be described focusing on the processing performed by the control unit 110A.

なお、撮像部210は、既に動作を開始しており、周期時間TPで撮像した路面画像の撮像画像データを、逐次、検出装置100Aへ送っているものとする。また、ナビゲーション装置220は、既に動作を開始しており、車両CRが、走行方向に存在する交差点から所定距離以内となると、その旨を検出装置100Aへ送るようになっているものとする。また、ECU230は、既に動作を開始しており、加速度情報、操舵角情報及び傾き情報を検出装置100Aへ送っているものとする(図14参照)。   It is assumed that the imaging unit 210 has already started the operation, and sequentially sends the captured image data of the road surface image captured at the cycle time TP to the detection device 100A. Further, it is assumed that the navigation device 220 has already started to operate, and when the vehicle CR is within a predetermined distance from an intersection existing in the traveling direction, the navigation device 220 is configured to send a message to that effect to the detection device 100A. Further, it is assumed that the ECU 230 has already started operation and has sent acceleration information, steering angle information, and tilt information to the detection device 100A (see FIG. 14).

さらに、検出装置100Aでは、既に、複数回のピクセル距離の較正が行われており、記憶ユニット120には、最近の所定回数分の較正時刻、前回の撮像画像から抽出された特徴領域の特性及び画像内位置、並びに、後述する暫定ピクセル距離を含む較正履歴等が記憶されているものとする。ここで、ピクセル距離の最初の較正が行われるまでの期間においては、記憶ユニット120には、平均的なピクセル距離が記憶されるようになっている。   Furthermore, in the detection apparatus 100A, the calibration of the pixel distance is already performed a plurality of times, and the storage unit 120 stores the calibration time for the most recent predetermined number of times, the characteristics of the feature region extracted from the previous captured image, and It is assumed that a position in the image and a calibration history including a provisional pixel distance described later are stored. Here, in the period until the initial calibration of the pixel distance is performed, the average pixel distance is stored in the storage unit 120.

《ピクセル移動量の検出処理》
まず、制御ユニット110Aによるピクセル移動量の検出処理について説明する。
<< Pixel movement detection process >>
First, the pixel movement amount detection process by the control unit 110A will be described.

ピクセル移動量の検出処理に際しては、図15に示されるように、まず、ステップS11において、制御ユニット110Aが、新たな撮像画像データを受けたか否かを判定する。ステップS11における判定の結果が否定的であった場合(ステップS11:N)には、ステップS11の処理が繰り返される。   In the pixel movement amount detection process, as shown in FIG. 15, first, in step S11, the control unit 110A determines whether or not new captured image data has been received. If the result of the determination in step S11 is negative (step S11: N), the process of step S11 is repeated.

新たな撮像画像データを受け、ステップS11における判定の結果が肯定的となると(ステップS11:Y)、処理はステップS12へ進む。このステップS12では、制御ユニット110Aが、新たな撮像画像データから得られる撮像画像(今回の撮像画像)における特徴領域を抽出し、当該特徴領域の特性及び画像内位置を特定する。   When new captured image data is received and the result of determination in step S11 is affirmative (step S11: Y), the process proceeds to step S12. In step S12, the control unit 110A extracts a feature region in a captured image (current captured image) obtained from new captured image data, and specifies the characteristics of the feature region and the position in the image.

次に、ステップS13において、制御ユニット110Aが、ピクセル移動量を検出する。かかるピクセル移動量の検出に際して、制御ユニット110Aは、記憶ユニット120内の前回の撮像画像から抽出された特徴領域の特性及び画像内位置を参照して、今回の撮像画像と前回の撮像画像とにおける共通の特徴領域の画像内位置の変位量を、新たなピクセル移動量として検出する。   Next, in step S13, the control unit 110A detects the pixel movement amount. When detecting the amount of pixel movement, the control unit 110A refers to the characteristics of the feature region and the position in the image extracted from the previous captured image in the storage unit 120, and determines the current captured image and the previous captured image. A displacement amount of the position in the image of the common feature region is detected as a new pixel movement amount.

なお、共通する特徴領域が複数ある場合には、制御ユニット110Aは、複数の特徴領域のそれぞれの変位量の平均値を、ピクセル移動量として採用する。   When there are a plurality of common feature areas, the control unit 110A employs an average value of the displacement amounts of the plurality of feature areas as the pixel movement amount.

そして、制御ユニット110Aは、今回の撮像画像における特徴領域の特性及び画像内位置を、前回の撮像画像から抽出された特徴領域の特性及び画像内位置として記憶ユニット120内に登録する。また、制御ユニット110Aは、新たなピクセル移動量を、最新のピクセル移動量として記憶ユニット120内に登録する。   Then, the control unit 110A registers the characteristics of the feature region and the position in the image in the current captured image in the storage unit 120 as the characteristics of the feature region and the position in the image extracted from the previous captured image. In addition, the control unit 110A registers the new pixel movement amount in the storage unit 120 as the latest pixel movement amount.

こうしてステップS13の処理が終了すると、処理はステップS11へ戻る。以後、ステップS11〜S13が繰り返され、新たな撮像画像のデータを受けるたびに、ピクセル移動量が検出される。   When the process of step S13 is thus completed, the process returns to step S11. Thereafter, steps S11 to S13 are repeated, and each time a new captured image data is received, the pixel movement amount is detected.

《車体速度vの出力処理》
次いで、制御ユニット110Aによる車体速度vの出力処理について説明する。
<< Output processing of body speed v >>
Next, the output process of the vehicle body speed v by the control unit 110A will be described.

車体速度vの出力処理に際しては、図16に示されるように、まず、ステップS21において、制御ユニット110Aが、新たなピクセル移動量が検出されたか否かを判定する。ステップS21における判定の結果が否定的であった場合(ステップS21:N)には、ステップS21の処理が繰り返される。   In the output processing of the vehicle body speed v, as shown in FIG. 16, first, in step S21, the control unit 110A determines whether or not a new pixel movement amount has been detected. If the result of the determination in step S21 is negative (step S21: N), the process of step S21 is repeated.

新たなピクセル移動量が検出され、ステップS21における判定の結果が肯定的となると(ステップS21:Y)、処理はステップS22へ進む。このステップS22では、記憶ユニット120内に登録されている最新のピクセル移動量(PN)及び最新のピクセル距離(PL)に基づいて、上述した(7)式により、車体速度vを算出する。そして、制御ユニット110Aは、算出された車体速度vをECU230へ出力する。   When a new pixel movement amount is detected and the result of determination in step S21 is affirmative (step S21: Y), the process proceeds to step S22. In this step S22, the vehicle body speed v is calculated by the above-described equation (7) based on the latest pixel movement amount (PN) and the latest pixel distance (PL) registered in the storage unit 120. Then, control unit 110 </ b> A outputs calculated vehicle body speed v to ECU 230.

こうしてステップS22の処理が終了すると、処理はステップS21へ戻る。以後、ステップS21,S22の処理が繰り返され、新たなピクセル移動量が検出されるたびに、すなわち、新たな撮像データを受けるたびに、新たな車体速度vが算出され、算出された車体速度vがECU230へ出力される。   When the process of step S22 is thus completed, the process returns to step S21. Thereafter, the processes of steps S21 and S22 are repeated, and each time a new pixel movement amount is detected, that is, every time new imaging data is received, a new vehicle speed v is calculated, and the calculated vehicle speed v Is output to the ECU 230.

《白線領域の特定処理》
次に、制御ユニット110Aによる白線領域の特定処理について説明する。なお、当該白線領域の特定処理は、上述したピクセル移動量の検出処理及び車体速度vの出力処理と並行して実行される。
《White line area identification processing》
Next, the white line area specifying process by the control unit 110A will be described. The white line region specifying process is executed in parallel with the pixel movement amount detection process and the vehicle body speed v output process described above.

かかる白線領域の特定処理は、後述するピクセル距離の較正のために行われる。このピクセル距離の較正に際しての較正環境は、上述した図6に示される場合と同様となっている。   The white line area specifying process is performed for the pixel distance calibration described later. The calibration environment for the calibration of the pixel distance is the same as that shown in FIG.

さて、白線領域の特定処理に際しては、図17に示されるように、まず、ステップS31において、制御ユニット110Aが、新たな撮像画像データを受けたか否かを判定する。ステップS31における判定の結果が否定的であった場合(ステップS31:N)には、ステップS31の処理が繰り返される。   In the white line region specifying process, as shown in FIG. 17, first, in step S31, the control unit 110A determines whether or not new captured image data has been received. If the result of the determination in step S31 is negative (step S31: N), the process of step S31 is repeated.

新たな撮像画像データを受け、ステップS31における判定の結果が肯定的となると(ステップS31:Y)、処理はステップS32へ進む。このステップS32では、制御ユニット110Aが、新たな撮像画像データから得られる撮像画像における白線領域を、当該撮像画像における各ピクセルの明るさに基づいて特定する。   When new captured image data is received and the result of determination in step S31 is affirmative (step S31: Y), the process proceeds to step S32. In step S32, the control unit 110A specifies the white line region in the captured image obtained from the new captured image data based on the brightness of each pixel in the captured image.

次に、ステップS33において、制御ユニット110Aが、白線領域の特定結果が「前方一部白線(図7(A)参照)」であるか否かを判定する。ステップS33の判定の結果が否定的であった場合(ステップS33:N)には、処理はステップS31へ戻る。そして、ステップS33の判定の結果が肯定的となるまで、ステップS31〜S33の処理が繰り返される。   Next, in step S33, the control unit 110A determines whether or not the result of specifying the white line area is “front partial white line (see FIG. 7A)”. If the determination result of step S33 is negative (step S33: N), the process returns to step S31. And the process of step S31-S33 is repeated until the result of determination of step S33 becomes affirmative.

白線領域の特定結果が「前方一部白線」となり、ステップS33における判定の結果が肯定的となると(ステップS33:Y)、処理はステップS34へ進む。このステップS34では、制御ユニット110Aが、前方長a(図7(A)参照)を算出する。そして、処理はステップS35へ進む。   When the white line region specifying result is “front partial white line” and the result of determination in step S33 is affirmative (step S33: Y), the process proceeds to step S34. In step S34, the control unit 110A calculates the front length a (see FIG. 7A). Then, the process proceeds to step S35.

次いで、ステップS35において、制御ユニット110Aが、新たな撮像画像データを受けたか否かを判定する。ステップS35における判定の結果が否定的であった場合(ステップS35:N)には、ステップS35の処理が繰り返される。   Next, in step S35, the control unit 110A determines whether or not new captured image data has been received. If the result of the determination in step S35 is negative (step S35: N), the process of step S35 is repeated.

新たな撮像画像データを受け、ステップS35における判定の結果が肯定的となると(ステップS35:Y)、処理はステップS36へ進む。このステップS36では、制御ユニット110Aが、新たな撮像画像データから得られる撮像画像における白線領域を、当該撮像画像における各ピクセルの明るさに基づいて特定する。   When new captured image data is received and the determination result in step S35 is affirmative (step S35: Y), the process proceeds to step S36. In step S36, the control unit 110A specifies the white line region in the captured image obtained from the new captured image data based on the brightness of each pixel in the captured image.

次に、ステップS37において、制御ユニット110Aが、白線領域の特定結果が「後方一部白線(図7(B)参照)」であるか否かを判定する。ステップS37の判定の結果が否定的であった場合(ステップS37:N)には、処理はステップS35へ戻る。そして、ステップS37の判定の結果が肯定的となるまで、ステップS35〜S37の処理が繰り返される。   Next, in step S <b> 37, the control unit 110 </ b> A determines whether or not the white line region specifying result is “rear part white line (see FIG. 7B)”. If the result of the determination in step S37 is negative (step S37: N), the process returns to step S35. And the process of step S35-S37 is repeated until the result of determination of step S37 becomes affirmative.

白線領域の特定結果が「後方一部白線」となり、ステップS37における判定の結果が肯定的となると(ステップS37:Y)、処理はステップS38へ進む。このステップS38では、制御ユニット110Aが、前方長b(図7(B)参照)を算出する。そして、処理はステップS31へ戻る。   When the white line region specifying result is “backward partial white line” and the result of determination in step S37 is affirmative (step S37: Y), the process proceeds to step S38. In step S38, the control unit 110A calculates the front length b (see FIG. 7B). Then, the process returns to step S31.

以後、ステップS31〜S38が繰り返される。この結果、車両CRが白線を横切るたびに、白線領域の特定が行われる。   Thereafter, steps S31 to S38 are repeated. As a result, each time the vehicle CR crosses the white line, the white line region is specified.

《較正条件のモニタ処理》
次に、制御ユニット110Aによる較正条件のモニタ処理について説明する。なお、当該較正条件のモニタ処理は、上述したピクセル移動量の検出処理、車体速度vの出力処理及び白線領域の特定処理と並行して実行される。
<< Monitoring process for calibration conditions >>
Next, calibration condition monitoring processing by the control unit 110A will be described. The monitor process of the calibration condition is executed in parallel with the pixel movement amount detection process, the vehicle body speed v output process, and the white line area specifying process described above.

較正条件のモニタ処理に際しては、図18に示されるように、まず、ステップS41において、ECU230から送られた最新の操舵角情報に基づいて、車両CRが直進中か否かを判定する。ステップS41における判定の結果が否定的であった場合(ステップS41:N)には、処理は、後述するステップS44へ進む。   In the calibration condition monitoring process, as shown in FIG. 18, first, in step S41, it is determined based on the latest steering angle information sent from the ECU 230 whether or not the vehicle CR is traveling straight ahead. If the result of the determination in step S41 is negative (step S41: N), the process proceeds to step S44 described later.

ステップS41における判定の結果が肯定的であった場合(ステップS41:Y)には、処理はステップS42へ進む。このステップS42では、制御ユニット110Aが、ECU230から送られた最新の加速度情報に基づいて、車両CRが加速中又は減速中か否かを判定する。ステップS42における判定の結果が肯定的であった場合(ステップS42:Y)には、処理はステップS44へ進む。   If the result of the determination in step S41 is affirmative (step S41: Y), the process proceeds to step S42. In step S42, the control unit 110A determines whether the vehicle CR is accelerating or decelerating based on the latest acceleration information sent from the ECU 230. If the determination result in step S42 is affirmative (step S42: Y), the process proceeds to step S44.

ステップS42における判定の結果が否定的であった場合(ステップS42:N)には、処理はステップS43へ進む。このステップS43では、制御ユニット110Aが、ECU230から送られた最新の傾き情報に基づいて、車両CRの車体傾きが有るか否かを判定する。   If the result of the determination in step S42 is negative (step S42: N), the process proceeds to step S43. In step S43, the control unit 110A determines whether or not there is a vehicle body inclination of the vehicle CR based on the latest inclination information sent from the ECU 230.

ステップS43における判定の結果が肯定的であった場合(ステップS43:Y)には、処理はステップS44へ進む。このステップS44では、制御ユニット110Aが、較正条件フラグを「OFF」に設定する。そして、処理はステップS41へ戻る。   If the result of the determination in step S43 is affirmative (step S43: Y), the process proceeds to step S44. In step S44, the control unit 110A sets the calibration condition flag to “OFF”. Then, the process returns to step S41.

一方、ステップS43における判定の結果が否定的であった場合(ステップS43:N)には、処理はステップS45へ進む。このステップS45では、制御ユニット110Aが、較正条件フラグを「ON」に設定する。そして、処理はステップS41へ戻る。   On the other hand, when the result of the determination in step S43 is negative (step S43: N), the process proceeds to step S45. In step S45, the control unit 110A sets the calibration condition flag to “ON”. Then, the process returns to step S41.

以後、ステップS41〜S44の処理が繰り返される。この結果、車両CRが平坦な路面を等速直進走行しているという較正条件が満たされていると判断される場合には、較正条件フラグが「ON」となる。一方、当該較正条件が満たされていないと判断される場合には、較正条件フラグが「OFF」となる。   Thereafter, the processes of steps S41 to S44 are repeated. As a result, when it is determined that the calibration condition that the vehicle CR is traveling straight at a constant speed on a flat road surface is satisfied, the calibration condition flag is set to “ON”. On the other hand, when it is determined that the calibration condition is not satisfied, the calibration condition flag is “OFF”.

《ピクセル距離の較正処理》
次いで、制御ユニット110Aによるピクセル距離の較正処理について説明する。なお、当該ピクセル距離の較正処理は、上述したピクセル移動量の検出処理、車体速度vの出力処理、白線領域の特定処理及び較正条件のモニタ処理と並行して実行される。
<< Pixel distance calibration process >>
Next, a pixel distance calibration process by the control unit 110A will be described. The pixel distance calibration process is executed in parallel with the pixel movement amount detection process, the vehicle body speed v output process, the white line region specifying process, and the calibration condition monitoring process.

ピクセル距離の較正処理に際しては、図19に示されるように、まず、ステップS50において、制御ユニット110Aが、ナビゲーション装置220から走行方向に存在する交差点から所定距離以内となった旨を受けたか否かを判定することにより、交差点に接近したか否かを判定する。ステップS50における判定の結果が否定的であった場合(ステップS50:N)には、ステップS50の処理が繰り返される。   In the pixel distance calibration process, as shown in FIG. 19, first, in step S50, whether or not the control unit 110A receives from the navigation device 220 that it is within a predetermined distance from an intersection existing in the traveling direction. It is determined whether or not the intersection is approached. If the result of the determination in step S50 is negative (step S50: N), the process of step S50 is repeated.

交差点に接近し、ステップS50における判定の結果が肯定的となると(ステップS50:Y)、処理はステップS51へ進む。このステップS51では、制御ユニット110Aが、較正条件フラグが「ON」であるか否かを判定することにより、車両CRが平坦な路面を等速直進走行しているか否かを判定する。   When the vehicle approaches the intersection and the determination result in step S50 is affirmative (step S50: Y), the process proceeds to step S51. In step S51, the control unit 110A determines whether or not the vehicle CR is traveling straight at a constant speed on a flat road surface by determining whether or not the calibration condition flag is “ON”.

ステップS51における判定の結果が否定的であった場合(ステップS51:N)には、処理はステップS50へ戻る。そして、ステップS50,S51の処理が繰り返される。   If the result of the determination in step S51 is negative (step S51: N), the process returns to step S50. Then, the processes of steps S50 and S51 are repeated.

ステップS51における判定の結果が肯定的であった場合(ステップS51:Y)には、処理はステップS52へ進む。このステップS52では、制御ユニット110Aが、上述した白線領域の特定処理により「前方一部白線」となっていることが特定され、前方長aが求められたかを判定する。   If the result of the determination in step S51 is affirmative (step S51: Y), the process proceeds to step S52. In this step S52, the control unit 110A determines whether or not the “front partial white line” has been specified by the white line region specifying process described above and the front length a has been obtained.

ステップS51における判定の結果が否定的であった場合(ステップS52:N)には、処理はステップS51へ戻る。そして、ステップS51における判定の結果が否定的とならないことを条件として、ステップS51,S52の処理が繰り返される。   If the result of the determination in step S51 is negative (step S52: N), the process returns to step S51. And the process of step S51, S52 is repeated on the condition that the result of determination in step S51 is not negative.

ステップS52における判定の結果が肯定的となると(ステップS52:Y)、処理はステップS53へ進む。このステップS53では、距離パラメータLを前方長aに設定する。   If the result of the determination in step S52 is affirmative (step S52: Y), the process proceeds to step S53. In this step S53, the distance parameter L is set to the front length a.

次に、ステップS54において、制御ユニット110Aが、較正条件フラグが「ON」であるか否かを判定することにより、車両CRが平坦な路面を等速直進走行しているか否かを判定する。ステップS54における判定の結果が否定的であった場合(ステップS54:N)には、処理はステップS50へ戻る。   Next, in step S54, the control unit 110A determines whether or not the vehicle CR is traveling straight ahead at a constant speed on a flat road surface by determining whether or not the calibration condition flag is “ON”. If the result of the determination in step S54 is negative (step S54: N), the process returns to step S50.

ステップS54における判定の結果が肯定的であった場合(ステップS54:Y)には、処理はステップS55へ進む。このステップS55では、制御ユニット110Aが、上述したピクセル移動量の検出処理により新たなピクセル移動量(ΔXj)が検出されたか否かを判定する。 If the result of the determination in step S54 is affirmative (step S54: Y), the process proceeds to step S55. In step S55, the control unit 110A determines whether or not a new pixel movement amount (ΔX j ) has been detected by the pixel movement amount detection process described above.

ステップS55における判定の結果が否定的であった場合(ステップS55:N)には、処理はステップS54へ戻る。そして、ステップS54における判定の結果が否定的とならないことを条件として、ステップS54,S55の処理が繰り返される。   If the result of the determination in step S55 is negative (step S55: N), the process returns to step S54. And the process of step S54, S55 is repeated on condition that the result of determination in step S54 is not negative.

ステップS55における判定の結果が肯定的となると(ステップS55:Y)、処理はステップS56へ進む。このステップS56では、制御ユニット110Aが、それまでの距離パラメータLの値に新たなピクセル移動量(ΔXj)を加算して、距離パラメータLの値を更新する。 If the result of determination in step S55 is affirmative (step S55: Y), the process proceeds to step S56. In step S56, the control unit 110A adds the new pixel movement amount (ΔX j ) to the value of the distance parameter L so far, and updates the value of the distance parameter L.

次いで、ステップS57において、制御ユニット110Aが、上述した白線領域の特定処理により「後方一部白線」となっていることが特定され、前方長bが求められているかを判定する。ステップS57における判定の結果が否定的であった場合(ステップS57:N)には、処理はステップS54へ戻る。そして、ステップS54における判定の結果が否定的とならないことを条件として、ステップS54〜S57の処理が繰り返される。   Next, in step S57, the control unit 110A determines whether or not the “rear part white line” has been specified by the white line region specifying process described above, and the front length b is obtained. If the result of the determination in step S57 is negative (step S57: N), the process returns to step S54. And the process of step S54-S57 is repeated on condition that the result of determination in step S54 is not negative.

ステップS57における判定の結果が肯定的となると(ステップS57:Y)、処理はステップS58へ進む。このステップS58では、制御ユニット110Aが、それまでの距離パラメータLの値から前方長bを減算して、距離パラメータLの値を更新する。   If the result of determination in step S57 is affirmative (step S57: Y), the process proceeds to step S58. In this step S58, the control unit 110A updates the value of the distance parameter L by subtracting the forward length b from the value of the distance parameter L so far.

次に、ステップS59において、制御ユニット110Aが、その時点における距離パラメータLの値に基づき、次の(11)式により、暫定ピクセル距離PT[cm]を算出する。
PT=45/L …(11)
なお、(11)式は、上述した(8)式と等価な式となっている。
Next, in step S59, the control unit 110A calculates the provisional pixel distance PT [cm] by the following equation (11) based on the value of the distance parameter L at that time.
PT = 45 / L (11)
Note that equation (11) is equivalent to equation (8) described above.

引き続き、制御ユニット110Aは、算出された今回の暫定ピクセル距離と、記憶ユニット120内に記憶されている過去における所定回数の較正時に算出された暫定ピクセル距離との重み付け平均を算出して、新たに較正されたピクセル距離を算出する。この後、制御ユニット110Aは、記憶ユニット120内の最新のピクセル距離を当該新たに較正されたピクセル距離に更新するとともに、それまで記憶ユニット120内に記憶されていた暫定ピクセル距離のうちで最も古いものに代えて、今回の暫定ピクセル距離を現在時刻とともに記憶ユニット120に格納する。この結果、上述した車体速度vの出力処理に際して、制御ユニット110Aは、新たなピクセル距離を利用した車体速度vの算出を行うようになる。   Subsequently, the control unit 110A calculates a weighted average between the calculated current provisional pixel distance and the provisional pixel distance calculated during a predetermined number of calibrations stored in the storage unit 120 in the past, and newly Calculate the calibrated pixel distance. Thereafter, the control unit 110A updates the latest pixel distance in the storage unit 120 to the newly calibrated pixel distance, and the oldest provisional pixel distance stored in the storage unit 120 until then. Instead of this, the current provisional pixel distance is stored in the storage unit 120 together with the current time. As a result, in the above-described output processing of the vehicle body speed v, the control unit 110A calculates the vehicle body speed v using the new pixel distance.

こうしてステップS59の処理が終了すると、処理はステップS50へ戻る。そして、ステップS50〜S59の処理が繰り返される。この結果、車両CRが、平坦な路面を等速直進走行して、交差点の手前の停止線(白線)を横切るたびに、ピクセル距離が較正される。   When the process in step S59 ends in this way, the process returns to step S50. Then, the processes in steps S50 to S59 are repeated. As a result, each time the vehicle CR travels straight on a flat road at a constant speed and crosses a stop line (white line) before the intersection, the pixel distance is calibrated.

以上説明したように、第1実施例では、車両CRの撮像部210による撮像画像に基づいて、制御ユニット110Aが、ピクセル移動量を検出する。また、制御ユニット110Aが、撮像画像中における白線領域を特定する。そして、制御ユニット110Aが、ピクセル移動量及び撮像画像内における白線領域の特定結果に加えて、車両CRの走行方向に沿った停止線の既知の長さに基づいて、車両CRが平坦な路面を等速直進走行していると判断できる場合に、撮像部210と路面との間の距離に関連する、1ピクセルに対応する路面上の距離を較正する。   As described above, in the first embodiment, the control unit 110A detects the pixel movement amount based on the image captured by the imaging unit 210 of the vehicle CR. In addition, the control unit 110A specifies a white line region in the captured image. Then, in addition to the pixel movement amount and the result of specifying the white line area in the captured image, the control unit 110A determines that the vehicle CR has a flat road surface based on the known length of the stop line along the traveling direction of the vehicle CR. When it can be determined that the vehicle is traveling straight at a constant speed, the distance on the road surface corresponding to one pixel related to the distance between the imaging unit 210 and the road surface is calibrated.

したがって、第1実施例によれば、車両重量の変化や車輪の空気圧の変化により、路面と撮像部との距離が変化しても、1ピクセルに対応する路面上の距離を当該変化に応じて較正することができる。   Therefore, according to the first embodiment, even if the distance between the road surface and the imaging unit changes due to a change in vehicle weight or a change in wheel air pressure, the distance on the road surface corresponding to one pixel is changed according to the change. Can be calibrated.

また、第1実施例では、較正結果及びピクセル移動量に基づいて、制御ユニット110Aが、車体速度を算出する。このため、走行情報として精度の良い車体速度を出力することができる。   In the first embodiment, the control unit 110A calculates the vehicle body speed based on the calibration result and the pixel movement amount. For this reason, it is possible to output an accurate vehicle body speed as travel information.

また、第1実施例では、路面上特徴部として停止線を採用する。このため、撮像画像の各ピクセルの明るさを調べることにより、停止線領域(すなわち、白線領域)を容易に特定することができる。   In the first embodiment, a stop line is adopted as the road surface feature. For this reason, the stop line region (that is, the white line region) can be easily specified by examining the brightness of each pixel of the captured image.

また、第1実施例では、交差点に近付いた旨の情報を取得し、停止線を通過することを予め推測する。このため、効率的な較正を行うことができる。   In the first embodiment, information indicating that the vehicle is approaching the intersection is acquired, and it is estimated in advance that the vehicle will pass the stop line. For this reason, efficient calibration can be performed.

また、第1実施例では、今回の暫定ピクセル距離と、過去における所定回数の較正時に算出された暫定ピクセル距離との重み付け平均を算出して、最終的な較正結果を得る。このため、停止線の進行方向の長さの変動等のピクセル距離の較正結果への影響を抑制した較正を行うことができる。   In the first embodiment, a final calibration result is obtained by calculating a weighted average between the current provisional pixel distance and the provisional pixel distance calculated during a predetermined number of calibrations in the past. For this reason, the calibration which suppressed the influence on the calibration result of pixel distance, such as a fluctuation | variation of the length of the advancing direction of a stop line, can be performed.

また、第1実施例では、直進走行中、定速走行中、かつ、路面傾きのない状況であるときに較正を実施する。このため、精度の良いピクセル距離の較正を行うことができる。   Further, in the first embodiment, calibration is performed when the vehicle is traveling straight, traveling at a constant speed, and having no road surface inclination. For this reason, accurate pixel distance calibration can be performed.

[第2実施例]
次に、本発明の第2実施例を、図20〜図23を主に参照して説明する。
[Second Embodiment]
Next, a second embodiment of the present invention will be described with reference mainly to FIGS.

<構成>
図20には、第1実施例に係る検出装置100Bの構成が概略的に示されている。この検出装置100Bは、上述した第2実施形態に係る検出装置300Bの一態様となっている。
<Configuration>
FIG. 20 schematically shows the configuration of the detection apparatus 100B according to the first example. This detection device 100B is an aspect of the detection device 300B according to the second embodiment described above.

図20に示されるように、検出装置100Bは、撮像部210F,210R及びECU230と接続されている。そして、検出装置100B、撮像部210F,210R及びECU230は、車両CRに搭載されている。 As shown in FIG. 20, the detection device 100 </ b> B is connected to the imaging units 210 F and 210 R and the ECU 230. The detection device 100B, the imaging units 210 F and 210 R, and the ECU 230 are mounted on the vehicle CR.

上記の検出装置100Bは、制御ユニット110Bを備えている。また、検出装置100Bは、記憶ユニット120を備えている。   The detection device 100B includes a control unit 110B. In addition, the detection apparatus 100B includes a storage unit 120.

上記の制御ユニット110Bは、演算手段としての中央処理装置(CPU)を備えて構成される。この制御ユニット110Bは、プログラムを実行することにより、上述した第2実施形態における検出装置300Bとしての機能、すなわち、取得部310B、第1出力部320B及び第2出力部330としての機能を果たすようになっている。   The control unit 110B includes a central processing unit (CPU) as a calculation unit. The control unit 110B executes a function of the detection device 300B in the second embodiment described above, that is, functions as the acquisition unit 310B, the first output unit 320B, and the second output unit 330 by executing a program. It has become.

制御ユニット110Bが実行するプログラムは、記憶ユニット120に記憶され、記録ユニットからロードされて実行される。このプログラムは、CD−ROM、DVD等の可搬型記録媒体に記録された形態で取得されるようにしてもよいし、インターネットなどのネットワークを介した配信の形態で取得されるようにしてもよい。   The program executed by the control unit 110B is stored in the storage unit 120, loaded from the recording unit, and executed. This program may be acquired in the form recorded on a portable recording medium such as a CD-ROM or DVD, or may be acquired in the form of distribution via a network such as the Internet. .

なお、制御ユニット110Bが実行する処理については、後述する。   The processing executed by the control unit 110B will be described later.

上記の記憶ユニット120には、制御ユニット110Bが利用する様々な情報データが記憶される。こうした情報データには、制御ユニット110Bが実行するプログラム、最新のピクセル移動量、最新のピクセル距離を含む較正履歴等が含まれている。この記憶ユニット120には、制御ユニット110Bがアクセスできるようになっている。   The storage unit 120 stores various information data used by the control unit 110B. Such information data includes a program executed by the control unit 110B, the latest pixel movement amount, a calibration history including the latest pixel distance, and the like. The storage unit 120 can be accessed by the control unit 110B.

<動作>
次に、上記のように構成された検出装置100Bによる検出動作について、制御ユニット110Bによる処理に着目して説明する。
<Operation>
Next, the detection operation by the detection apparatus 100B configured as described above will be described focusing on the processing by the control unit 110B.

なお、撮像部210F,210Rは、既に動作を開始しており、周期時間TPで撮像した路面画像の前側撮像画像のデータ及び後側撮像画像のデータを、逐次、検出装置100Bへ送っているものとする。また、ECU230は、既に動作を開始しており、加速度情報、操舵角情報及び傾き情報を検出装置100Bへ送っているものとする(図20参照)。 Note that the imaging units 210 F and 210 R have already started operation, and sequentially transmit the data of the front side captured image and the data of the rear side captured image of the road surface image captured at the period time TP to the detection apparatus 100B. It shall be. Further, it is assumed that the ECU 230 has already started operation and has sent acceleration information, steering angle information, and tilt information to the detection apparatus 100B (see FIG. 20).

さらに、検出装置100Bでは、既に、複数回のピクセル距離の較正が行われており、記憶ユニット120には、最近の所定回数分の較正時刻、前回の撮像画像から抽出された特徴領域の特性及び画像内位置、並びに、後述する暫定ピクセル距離を含む較正履歴等が記憶されているものとする。ここで、ピクセル距離の最初の較正が行われるまでの期間においては、記憶ユニット120には、平均的なピクセル距離が記憶されるようになっている。   Further, in the detection apparatus 100B, the calibration of the pixel distance is already performed a plurality of times, and the storage unit 120 stores the calibration time for the most recent predetermined number of times, the characteristics of the feature region extracted from the previous captured image, and It is assumed that a position in the image and a calibration history including a provisional pixel distance described later are stored. Here, in the period until the initial calibration of the pixel distance is performed, the average pixel distance is stored in the storage unit 120.

《ピクセル移動量の検出処理》
まず、制御ユニット110Bによるピクセル移動量の検出処理について説明する。
<< Pixel movement detection process >>
First, the pixel movement amount detection process by the control unit 110B will be described.

ピクセル移動量の検出処理に際しては、図21に示されるように、まず、ステップS61において、制御ユニット110Bが、新たな前側撮像画像のデータ及び新たな後側撮像画像のデータを受けたか否かを判定する。ステップS61における判定の結果が否定的であった場合(ステップS61:N)には、ステップS61の処理が繰り返される。   In the pixel movement amount detection process, as shown in FIG. 21, first, in step S61, it is determined whether or not the control unit 110B has received new front-side captured image data and new rear-side captured image data. judge. If the result of the determination in step S61 is negative (step S61: N), the process of step S61 is repeated.

新たな前側撮像画像のデータを受け、ステップS61における判定の結果が肯定的となると(ステップS61:Y)、処理はステップS62へ進む。このステップS62では、制御ユニット110Bが、新たな前側撮像画像のデータから得られる前側撮像画像における特徴領域を抽出し、当該特徴領域の特性及び画像内位置を特定する。   When new front-side captured image data is received and the result of determination in step S61 is affirmative (step S61: Y), the process proceeds to step S62. In step S62, the control unit 110B extracts a feature region in the front captured image obtained from the data of the new front captured image, and specifies the characteristics of the feature region and the position in the image.

次に、ステップS63において、制御ユニット110Bが、前側ピクセル移動量を検出する。かかる前側ピクセル移動量の検出に際して、制御ユニット110Bは、記憶ユニット120内の前回の前側撮像画像から抽出された特徴領域の特性及び画像内位置を参照して、今回の前側撮像画像と前回の前側撮像画像とにおける共通の特徴領域の画像内位置の変位量を、新たな前側ピクセル移動量として検出する。   Next, in step S63, the control unit 110B detects the front pixel movement amount. When detecting the front pixel movement amount, the control unit 110B refers to the characteristics of the feature region and the position in the image extracted from the previous front side captured image in the storage unit 120, and the current front side captured image and the previous front side A displacement amount of the position in the image of the common feature region in the captured image is detected as a new front pixel movement amount.

なお、共通する特徴領域が複数ある場合には、制御ユニット110Bは、複数の特徴領域のそれぞれの変位量の平均値を、新たな前側ピクセル移動量として採用する。   When there are a plurality of common feature areas, the control unit 110B employs the average value of the displacement amounts of the plurality of feature areas as a new front pixel movement amount.

そして、制御ユニット110Bは、今回の撮像画像における特徴領域の特性及び画像内位置を、前回の撮像画像から抽出された特徴領域の特性及び画像内位置として記憶ユニット120内に登録する。また、制御ユニット110Bは、新たなピクセル移動量を、最新のピクセル移動量として記憶ユニット120内に登録する。   Then, the control unit 110B registers the characteristics of the feature region and the position in the image in the current captured image in the storage unit 120 as the characteristics of the feature region and the position in the image extracted from the previous captured image. Also, the control unit 110B registers the new pixel movement amount in the storage unit 120 as the latest pixel movement amount.

次いで、ステップS64において、制御ユニット110Bが、新たな後側撮像画像のデータから得られる後側撮像画像における特徴領域を抽出し、当該特徴領域の特性及び画像内位置を特定する。   Next, in step S64, the control unit 110B extracts the feature region in the rear captured image obtained from the data of the new rear captured image, and specifies the characteristics of the feature region and the position in the image.

次に、ステップS65において、制御ユニット110Bが、後側ピクセル移動量を検出する。かかる後側ピクセル移動量の検出に際して、制御ユニット110Bは、記憶ユニット120内の前回の後側撮像画像から抽出された特徴領域の特性及び画像内位置を参照して、今回の後側撮像画像と前回の後側撮像画像とにおける共通の特徴領域の画像内位置の変位量を、新たな後側ピクセル移動量として検出する。   Next, in step S65, the control unit 110B detects the rear pixel movement amount. When detecting the rear pixel movement amount, the control unit 110B refers to the characteristics of the feature region and the position in the image extracted from the previous rear captured image in the storage unit 120, and determines the current rear captured image and The displacement amount of the position in the image of the common feature area in the previous rear captured image is detected as a new rear pixel movement amount.

なお、共通する特徴領域が複数ある場合には、前側ピクセル移動量の検出の場合と同様に、制御ユニット110Bは、複数の特徴領域のそれぞれの変位量の平均値を、新たな後側ピクセル移動量として採用する。   Note that when there are a plurality of common feature areas, the control unit 110B determines the average value of the displacement amounts of the plurality of feature areas as a new rear pixel movement, as in the case of detecting the front pixel movement amount. Adopt as a quantity.

次に、ステップS66において、制御ユニット110Bが、新たなピクセル移動量を検出する。かかるピクセル移動量の検出に際して、制御ユニット110Bは、前側ピクセル移動量と後側ピクセル移動量との平均を算出することにより、新たなピクセル移動量を検出する。   Next, in step S66, the control unit 110B detects a new pixel movement amount. In detecting the pixel movement amount, the control unit 110B detects a new pixel movement amount by calculating an average of the front pixel movement amount and the rear pixel movement amount.

そして、制御ユニット110Bは、今回の前側撮像画像における特徴領域の特性及び画像内位置、及び、今回の後側撮像画像における特徴領域の特性及び画像内位置を、前回の前側撮像画像における特徴領域の特性及び画像内位置、及び、前回の後側撮像画像における特徴領域の特性及び画像内位置として記憶ユニット120内に登録する。また、制御ユニット110Bは、新たなピクセル移動量を、最新のピクセル移動量として記憶ユニット120内に登録する。   Then, the control unit 110B determines the characteristics of the feature region and the position in the image of the current front-side captured image, and the characteristics and characteristics of the feature region in the current rear-side captured image of the feature region in the previous front-side captured image. The characteristics and the position in the image, and the characteristics of the characteristic region and the position in the image in the previous rear side captured image are registered in the storage unit 120. Also, the control unit 110B registers the new pixel movement amount in the storage unit 120 as the latest pixel movement amount.

こうしてステップS66の処理が終了すると、処理はステップS61へ戻る。以後、ステップS61〜S66が繰り返され、新たな前側撮像画像のデータ及び新たな後側撮像画像のデータを受けるたびに、ピクセル移動量が検出される。   When the process of step S66 is thus completed, the process returns to step S61. Thereafter, steps S61 to S66 are repeated, and the pixel movement amount is detected each time new front-side captured image data and new rear-side captured image data are received.

《車体速度vの出力処理》
制御ユニット110Bによる車体速度vの出力処理は、上述した制御ユニット110Aによる車体速度vの出力処理と同様となっている(図16参照)。
<< Output processing of body speed v >>
The output process of the vehicle body speed v by the control unit 110B is the same as the output process of the vehicle body speed v by the control unit 110A described above (see FIG. 16).

《白線領域の特定処理》
次に、制御ユニット110Bによる白線領域の特定処理について説明する。なお、当該白線領域の特定処理は、上述したピクセル移動量の検出処理及び車体速度vの出力処理と並行して実行される。
《White line area identification processing》
Next, the white line area specifying process by the control unit 110B will be described. The white line region specifying process is executed in parallel with the pixel movement amount detection process and the vehicle body speed v output process described above.

かかる白線領域の特定処理は、後述するピクセル距離の較正のために行われる。このピクセル距離の較正に際しての較正環境は、上述した図11に示される場合と同様となっている。   The white line area specifying process is performed for the pixel distance calibration described later. The calibration environment for the calibration of the pixel distance is the same as that shown in FIG.

さて、白線領域の特定処理に際しては、図22に示されるように、まず、ステップS71において、制御ユニット110Bが、新たな前側撮像画像のデータを受けたか否かを判定する。ステップS71における判定の結果が否定的であった場合(ステップS71:N)には、ステップS71の処理が繰り返される。   In the white line region specifying process, as shown in FIG. 22, first, in step S71, the control unit 110B determines whether or not new front-side captured image data has been received. When the result of the determination in step S71 is negative (step S71: N), the process of step S71 is repeated.

新たな前側撮像画像データを受け、ステップS71における判定の結果が肯定的となると(ステップS71:Y)、処理はステップS72へ進む。このステップS72では、制御ユニット110Bが、新たな前側撮像画像のデータから得られる前側撮像画像における白線領域を、当該前側撮像画像における各ピクセルの明るさに基づいて特定する。   When new front-side captured image data is received and the result of determination in step S71 is affirmative (step S71: Y), the process proceeds to step S72. In step S72, the control unit 110B specifies the white line region in the front captured image obtained from the data of the new front captured image based on the brightness of each pixel in the front captured image.

次に、ステップS73において、制御ユニット110Bが、白線領域の特定結果が「第1後方一部白線(図12(A)参照)」であるか否かを判定する。ステップS73の判定の結果が否定的であった場合(ステップS73:N)には、処理はステップS71へ戻る。そして、ステップS73の判定の結果が肯定的となるまで、ステップS71〜S73の処理が繰り返される。   Next, in step S <b> 73, the control unit 110 </ b> B determines whether or not the white line region specifying result is “first rear partial white line (see FIG. 12A)”. If the result of the determination in step S73 is negative (step S73: N), the process returns to step S71. And the process of step S71-S73 is repeated until the result of determination of step S73 becomes affirmative.

前側撮像画像における白線領域の特定結果が「第1後方一部白線」となり、ステップS73における判定の結果が肯定的となると(ステップS73:Y)、処理はステップS74へ進む。このステップS74では、制御ユニット110Bが、前方長a(図12(A)参照)を求める。   If the result of specifying the white line area in the front captured image is “first rear partial white line” and the result of determination in step S73 is affirmative (step S73: Y), the process proceeds to step S74. In step S74, the control unit 110B calculates the front length a (see FIG. 12A).

なお、第2実施例では、制御ユニット110Bは、前側撮像画像において「第1後方一部白線」となるまでの白線が明確に特定できる状態が継続したことを条件として、「第1後方一部白線」を特定するようになっている。   In the second embodiment, the control unit 110B performs the “first rear part” on the condition that the white line until the “first rear part white line” can be clearly identified in the front captured image has continued. "White line" is specified.

次いで、ステップS75では、制御ユニット110Bが、新たな後側撮像画像のデータを受けたか否かを判定する。ステップS75における判定の結果が否定的であった場合(ステップS75:N)には、ステップS75の処理が繰り返される。   Next, in step S75, the control unit 110B determines whether or not new rear captured image data has been received. If the result of the determination in step S75 is negative (step S75: N), the process of step S75 is repeated.

新たな後側撮像画像のデータを受け、ステップS75における判定の結果が肯定的となると(ステップS75:Y)、処理はステップS76へ進む。このステップS76では、制御ユニット110Bが、新たな後側撮像画像のデータから得られる後側撮像画像における白線領域を、当該撮像画像における各ピクセルの明るさに基づいて特定する。   If new rear captured image data is received and the result of the determination in step S75 is affirmative (step S75: Y), the process proceeds to step S76. In step S76, the control unit 110B specifies the white line region in the rear captured image obtained from the data of the new rear captured image based on the brightness of each pixel in the captured image.

次に、ステップS77において、制御ユニット110Bが、白線領域の特定結果が「第2後方一部白線(図12(B)参照)」であるか否かを判定する。ステップS77の判定の結果が否定的であった場合(ステップS77:N)には、処理はステップS75へ戻る。そして、ステップS77の判定の結果が肯定的となるまで、ステップS75〜S77の処理が繰り返される。   Next, in step S77, the control unit 110B determines whether or not the white line region specifying result is “second rear partial white line (see FIG. 12B)”. If the result of the determination in step S77 is negative (step S77: N), the process returns to step S75. And the process of step S75-S77 is repeated until the result of determination of step S77 becomes affirmative.

後側撮像画像における白線領域の特定結果が「第2後方一部白線」となり、ステップS77における判定の結果が肯定的となると(ステップS77:Y)、処理はステップS78へ進む。このステップS78では、制御ユニット110Bが、前方長b(図12(B)参照)を求める。そして、処理はステップS71へ戻る。   If the result of specifying the white line region in the rear captured image is “second rear partial white line” and the result of determination in step S77 is affirmative (step S77: Y), the process proceeds to step S78. In step S78, the control unit 110B obtains the front length b (see FIG. 12B). Then, the process returns to step S71.

以後、ステップS71〜S78が繰り返される。この結果、車両CRが白線を横切るたびに、白線領域の特定が行われる。   Thereafter, steps S71 to S78 are repeated. As a result, each time the vehicle CR crosses the white line, the white line region is specified.

《較正条件のモニタ処理》
制御ユニット110Bによる較正条件のモニタ処理は、上述した制御ユニット110Aによる較正条件のモニタ処理と同様となっている(図18参照)。
<< Monitoring process for calibration conditions >>
The calibration condition monitoring process by the control unit 110B is similar to the calibration condition monitoring process by the control unit 110A described above (see FIG. 18).

《ピクセル距離の較正処理》
次いで、制御ユニット110Bによるピクセル距離の較正処理について説明する。なお、当該ピクセル距離の較正処理は、上述したピクセル移動量の検出処理、車体速度vの出力処理、白線領域の特定処理及び較正条件のモニタ処理と並行して実行される。
<< Pixel distance calibration process >>
Next, a pixel distance calibration process by the control unit 110B will be described. The pixel distance calibration process is executed in parallel with the pixel movement amount detection process, the vehicle body speed v output process, the white line region specifying process, and the calibration condition monitoring process.

ピクセル距離の較正処理に際しては、図23に示されるように、まず、ステップS81において、制御ユニット110Bが、較正条件フラグが「ON」であるか否かを判定することにより、車両CRが平坦な路面を等速直進走行しているか否かを判定する。ステップS81における判定の結果が否定的であった場合(ステップS81:N)には、ステップS81の処理が繰り返される。   In the calibration process of the pixel distance, as shown in FIG. 23, first, in step S81, the control unit 110B determines whether or not the calibration condition flag is “ON”, so that the vehicle CR is flat. It is determined whether or not the vehicle is traveling straight ahead at a constant speed. If the result of the determination in step S81 is negative (step S81: N), the process of step S81 is repeated.

ステップS81における判定の結果が肯定的であった場合(ステップS81:Y)には、処理はステップS82へ進む。このステップS82では、制御ユニット110Bが、上述した白線領域の特定処理により前側撮像画像が「第1後方一部白線」となっていることが特定され、前方長aが求められたかを判定する。   If the result of the determination in step S81 is affirmative (step S81: Y), the process proceeds to step S82. In step S82, the control unit 110B determines whether or not the front-side captured image is “first rear partial white line” by the white line region specifying process described above, and the front length a is obtained.

ステップS82における判定の結果が否定的であった場合(ステップS82:N)には、処理はステップS81へ戻る。そして、ステップS81,S82の処理が繰り返される。   If the result of the determination in step S82 is negative (step S82: N), the process returns to step S81. Then, the processes of steps S81 and S82 are repeated.

ステップS82における判定の結果が肯定的となると(ステップS82:Y)、処理はステップS83へ進む。このステップS83では、距離パラメータLを前方長aに設定する。   If the result of the determination in step S82 is affirmative (step S82: Y), the process proceeds to step S83. In this step S83, the distance parameter L is set to the front length a.

次に、ステップS84において、制御ユニット110Bが、較正条件フラグが「ON」であるか否かを判定することにより、車両CRが平坦な路面を等速直進走行しているか否かを判定する。ステップS84における判定の結果が否定的であった場合(ステップS84:N)には、処理はステップS81へ戻る。   Next, in step S84, the control unit 110B determines whether or not the vehicle CR is traveling straight at a constant speed on a flat road surface by determining whether or not the calibration condition flag is “ON”. If the result of the determination in step S84 is negative (step S84: N), the process returns to step S81.

ステップS84における判定の結果が肯定的であった場合(ステップS84:Y)には、処理はステップS85へ進む。このステップS85では、制御ユニット110Bが、上述したピクセル移動量の検出処理により新たなピクセル移動量(ΔXj)が検出されたか否かを判定する。 If the result of the determination in step S84 is affirmative (step S84: Y), the process proceeds to step S85. In step S85, the control unit 110B determines whether or not a new pixel movement amount (ΔX j ) has been detected by the pixel movement amount detection process described above.

ステップS85における判定の結果が否定的であった場合(ステップS85:N)には、処理はステップS84へ戻る。そして、ステップS84における判定の結果が否定的とならないことを条件として、ステップS84,S85の処理が繰り返される。   If the result of the determination in step S85 is negative (step S85: N), the process returns to step S84. And the process of step S84, S85 is repeated on the condition that the result of determination in step S84 is not negative.

ステップS85における判定の結果が肯定的となると(ステップS85:Y)、処理はステップS86へ進む。このステップS86では、制御ユニット110Bが、それまでの距離パラメータLの値に新たなピクセル移動量(ΔXj)を加算して、距離パラメータLの値を更新する。 If the result of the determination in step S85 is affirmative (step S85: Y), the process proceeds to step S86. In this step S86, the control unit 110B adds the new pixel movement amount (ΔX j ) to the value of the distance parameter L so far, and updates the value of the distance parameter L.

次いで、ステップS87において、制御ユニット110Bが、上述した白線領域の特定処理により後側撮像画像が「第2後方一部白線」となっていることが特定され、前方長bが求められているかを判定する。ステップS87における判定の結果が否定的であった場合(ステップS87:N)には、処理はステップS84へ戻る。そして、ステップS84における判定の結果が否定的とならないことを条件として、ステップS84〜S87の処理が繰り返される。   Next, in step S87, the control unit 110B determines whether the rear side captured image is “second rear partial white line” by the white line region specifying process described above, and whether the front length b is obtained. judge. If the result of the determination in step S87 is negative (step S87: N), the process returns to step S84. And the process of step S84-S87 is repeated on the condition that the result of determination in step S84 is not negative.

ステップS87における判定の結果が肯定的となると(ステップS87:Y)、処理はステップS88へ進む。このステップS88では、制御ユニット110Bが、それまでの距離パラメータLの値から前方長bを減算して、距離パラメータLの値を更新する。   If the result of the determination in step S87 is affirmative (step S87: Y), the process proceeds to step S88. In step S88, the control unit 110B updates the value of the distance parameter L by subtracting the forward length b from the value of the distance parameter L so far.

次に、ステップS89において、制御ユニット110Bが、その時点における距離パラメータLの値に基づき、次の(12)式により、暫定ピクセル距離PT[cm]を算出する。
PT=D/L …(12)
なお、(12)式は、上述した(10)式と等価な式となっている。
Next, in step S89, the control unit 110B calculates a provisional pixel distance PT [cm] by the following equation (12) based on the value of the distance parameter L at that time.
PT = D / L (12)
Note that equation (12) is equivalent to equation (10) described above.

引き続き、制御ユニット110Bは、算出された今回の暫定ピクセル距離と、記憶ユニット120内に記憶されている過去における所定回数の較正時に算出された暫定ピクセル距離との重み付け平均を算出して、新たに較正されたピクセル距離を算出する。この後、制御ユニット110Bは、記憶ユニット120内の最新のピクセル距離を当該新たに較正されたピクセル距離に更新するとともに、それまで記憶ユニット120内に記憶されていた暫定ピクセル距離のうちで最も古いものに代えて、今回の暫定ピクセル距離を現在時刻とともに記憶ユニット120に格納する。この結果、上述した車体速度vの出力処理に際して、制御ユニット110Bは、新たなピクセル距離を利用した車体速度vの算出を行うようになる。   Subsequently, the control unit 110B calculates a weighted average between the calculated current provisional pixel distance and the provisional pixel distance calculated during the predetermined number of calibrations stored in the storage unit 120 in the past. Calculate the calibrated pixel distance. Thereafter, the control unit 110B updates the latest pixel distance in the storage unit 120 to the newly calibrated pixel distance, and the oldest provisional pixel distance stored in the storage unit 120 until then. Instead of this, the current provisional pixel distance is stored in the storage unit 120 together with the current time. As a result, in the above-described output process of the vehicle body speed v, the control unit 110B calculates the vehicle body speed v using the new pixel distance.

こうしてステップS89の処理が終了すると、処理はステップS81へ戻る。そして、ステップS81〜S89の処理が繰り返される。この結果、車両CRが、平坦な路面を等速直進走行して、交差点の手前の白線を横切るたびに、ピクセル距離が較正される。   When the process in step S89 ends in this way, the process returns to step S81. And the process of step S81-S89 is repeated. As a result, each time the vehicle CR travels straight on a flat road at a constant speed and crosses the white line before the intersection, the pixel distance is calibrated.

以上説明したように、第2実施例では、車両CRの走行方向に沿って既知の距離Dで車両CRに配置された撮像部210F,210Rによる撮像画像に基づいて、制御ユニット110Bが、ピクセル移動量を検出する。また、制御ユニット110Bが、撮像画像中における白線領域を特定する。そして、制御ユニット110Bが、ピクセル移動量及び撮像画像内における白線領域の特定結果に加えて、既知の距離Dに基づいて、車両CRが平坦な路面を等速直進走行していると判断できる場合に、撮像部210F,210Rと路面との間の距離に関連する、1ピクセルに対応する路面上の距離を較正する。 As described above, in the second embodiment, the control unit 110B is based on the captured images by the imaging units 210 F and 210 R arranged in the vehicle CR at a known distance D along the traveling direction of the vehicle CR. Detect the amount of pixel movement. In addition, the control unit 110B specifies a white line region in the captured image. Then, when the control unit 110B can determine that the vehicle CR is traveling straight at a constant speed on a flat road surface based on the known distance D in addition to the pixel movement amount and the white line region identification result in the captured image. In addition, the distance on the road surface corresponding to one pixel related to the distance between the imaging units 210 F and 210 R and the road surface is calibrated.

したがって、第2実施例によれば、路面上特徴部である白線の移動体の走行方向に沿った長さが既知である未知であるか否かにかかわらず、移動体重量の変化や車輪の空気圧の変化により、路面と撮像部との距離が変化しても、1ピクセルに対応する路面上の距離を当該変化に応じて較正することができる。   Therefore, according to the second embodiment, regardless of whether or not the length along the traveling direction of the moving body of the white line that is the feature on the road surface is known and unknown, the change in the weight of the moving body and the wheel Even if the distance between the road surface and the imaging unit changes due to the change in air pressure, the distance on the road surface corresponding to one pixel can be calibrated according to the change.

また、第2実施例では、較正結果及びピクセル移動量に基づいて、制御ユニット110Bが、車体速度を出力する。このため、走行情報として精度の良い車体速度を出力することができる。   In the second embodiment, the control unit 110B outputs the vehicle speed based on the calibration result and the pixel movement amount. For this reason, it is possible to output an accurate vehicle body speed as travel information.

また、第2実施例では、路面上特徴部として白線を採用する。このため、撮像画像の各ピクセルの明るさを調べることにより、白線領域を容易に特定することができる。   In the second embodiment, a white line is used as the road surface feature. For this reason, the white line region can be easily specified by examining the brightness of each pixel of the captured image.

また、第2実施例では、第1実施例の場合と同様に、今回の暫定ピクセル距離と、過去における所定回数の較正時に算出された暫定ピクセル距離との重み付け平均を算出して、最終的な較正結果を得る。このため、白線の進行方向の長さの変動等のピクセル距離の較正結果への影響を抑制した較正を行うことができる。   In the second embodiment, as in the case of the first embodiment, a weighted average of the current provisional pixel distance and the provisional pixel distance calculated during a predetermined number of calibrations in the past is calculated to obtain a final result. Get the calibration result. For this reason, the calibration which suppressed the influence on the calibration result of pixel distance, such as the fluctuation | variation of the length of the advancing direction of a white line, can be performed.

また、第2実施例では、第1実施例の場合と同様に、直進走行中、定速走行中、かつ、路面傾きのない状況であるときに較正を実施する。このため、精度の良いピクセル距離の較正を行うことができる。   In the second embodiment, as in the first embodiment, calibration is performed when the vehicle is traveling straight, traveling at a constant speed, and having no road surface inclination. For this reason, accurate pixel distance calibration can be performed.

[実施例の変形]
本発明は、上記の第1及び第2実施例に限定されるものではなく、様々な変形が可能である。
[Modification of Example]
The present invention is not limited to the first and second embodiments described above, and various modifications are possible.

例えば、第1実施例に対しては、上述した第1実施形態に対する変形と同様の変形を行うことができる。また、第2実施例に対しては、上述した第2実施形態に対する変形と同様の変形を行うことができる。   For example, the same modification as the modification of the first embodiment described above can be performed on the first example. Further, the second example can be modified in the same manner as the modification of the second embodiment described above.

100A,100B … 検出装置
110A,110B … 制御ユニット(取得部、第1出力部、第2出力部)
300A,300B … 検出装置
310A,310B … 取得部
320A,320B … 第1出力部
321A,321B … 移動量検出部
322A,322B … 特定部
323A,323B … 較正部
330 … 第2出力部
100A, 100B ... Detection device 110A, 110B ... Control unit (acquisition unit, first output unit, second output unit)
300A, 300B ... Detection device 310A, 310B ... Acquisition unit 320A, 320B ... First output unit 321A, 321B ... Movement amount detection unit 322A, 322B ... Identification unit 323A, 323B ... Calibration unit 330 ... Second output unit

Claims (1)

移動体に搭載された撮像部により撮像された路面上特徴部の画像を取得する取得部と;
前記取得部により取得された前記路面上特徴部の画像に基づいて、前記撮像部の搭載位置と路面との間の距離に関連する距離関連情報を出力する出力部と;を備え、
前記撮像部は、前記撮像部が前記移動体に固定されている固定位置の真下の路面を撮像する、
ことを特徴とする検出装置。
An acquisition unit that acquires an image of a road surface feature imaged by an imaging unit mounted on a moving body;
An output unit that outputs distance related information related to the distance between the mounting position of the imaging unit and the road surface based on the image of the on-road feature acquired by the acquiring unit;
The imaging unit images a road surface immediately below a fixed position where the imaging unit is fixed to the moving body.
A detection device characterized by that.
JP2018055553A 2018-03-23 2018-03-23 Detection device, detection method, detection program and recording medium Pending JP2018113065A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018055553A JP2018113065A (en) 2018-03-23 2018-03-23 Detection device, detection method, detection program and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018055553A JP2018113065A (en) 2018-03-23 2018-03-23 Detection device, detection method, detection program and recording medium

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2015550267A Division JPWO2015079533A1 (en) 2013-11-28 2013-11-28 Detection device, detection method, detection program, and recording medium

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2020001175A Division JP2020074136A (en) 2020-01-08 2020-01-08 Detection device, detection method, detection program and recording medium

Publications (1)

Publication Number Publication Date
JP2018113065A true JP2018113065A (en) 2018-07-19

Family

ID=62912460

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018055553A Pending JP2018113065A (en) 2018-03-23 2018-03-23 Detection device, detection method, detection program and recording medium

Country Status (1)

Country Link
JP (1) JP2018113065A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020041988A (en) * 2018-09-13 2020-03-19 株式会社東京精密 Abnormality detection method and three-dimensional measuring machine
JP7308402B2 (en) 2018-09-13 2023-07-14 株式会社東京精密 Abnormality detection method and three-dimensional measuring machine

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007278951A (en) * 2006-04-10 2007-10-25 Alpine Electronics Inc Car body behavior measuring device
JP2009074861A (en) * 2007-09-19 2009-04-09 Toyota Central R&D Labs Inc Travel measuring device and position measuring device

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007278951A (en) * 2006-04-10 2007-10-25 Alpine Electronics Inc Car body behavior measuring device
JP2009074861A (en) * 2007-09-19 2009-04-09 Toyota Central R&D Labs Inc Travel measuring device and position measuring device

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020041988A (en) * 2018-09-13 2020-03-19 株式会社東京精密 Abnormality detection method and three-dimensional measuring machine
JP7137059B2 (en) 2018-09-13 2022-09-14 株式会社東京精密 Abnormality detection method and three-dimensional measuring machine
JP7308402B2 (en) 2018-09-13 2023-07-14 株式会社東京精密 Abnormality detection method and three-dimensional measuring machine

Similar Documents

Publication Publication Date Title
KR101735938B1 (en) System and method for determining tire wear
KR101797939B1 (en) Tire classification
US7477760B2 (en) Vehicle state sensing system and vehicle state sensing method
JP6429993B2 (en) Improved resolution of the rotational speed signal between multiple rotational speed pulses
WO2013011992A1 (en) Road surface condition estimation method, and road surface condition estimation device
CN1852814A (en) Sensor-incorporated tire and tire condition estimating method
CN104973052A (en) Speed bump detection apparatus and navigation data updating apparatus and method using the same
JP2017505429A (en) Estimating the potential adhesion by evaluating the radius of rotation
JP2018113065A (en) Detection device, detection method, detection program and recording medium
WO2018173907A1 (en) Vehicle control device
KR20240046903A (en) Method and apparatus for determining and characterizing roadway unevenness
JP6790960B2 (en) Automatic operation control device
WO2019003576A1 (en) Road surface state estimating method and road surface state estimating device
KR102537872B1 (en) Lane Departure Detection method and Vehicular Driving Control System Using The Method
KR101417770B1 (en) Method And Device for Detecting Incline of Vehicle
CN110782486A (en) High-resolution virtual wheel speed sensor
WO2015079533A1 (en) Detection device, detection method, detection program, and recording medium
JP6776717B2 (en) Road marking device
JP2008007026A (en) Air pressure reduction detection device, air pressure reduction detection program and air pressure reduction detection method
JP2020074136A (en) Detection device, detection method, detection program and recording medium
JP2023123625A (en) Detection device, detection method, detection program and recording medium
JP2022033130A (en) Detection device, detection method, detection program and recording medium
KR102003574B1 (en) Method and apparatus for determining current vehicle-specific orientation data for a vehicle
JP2016217065A (en) Measurement device for road surface roughness
JP2006138764A (en) Apparatus and method for monitoring wheel condition

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180323

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190307

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190320

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20191009