JP2023123625A - Detection device, detection method, detection program and recording medium - Google Patents

Detection device, detection method, detection program and recording medium Download PDF

Info

Publication number
JP2023123625A
JP2023123625A JP2023101511A JP2023101511A JP2023123625A JP 2023123625 A JP2023123625 A JP 2023123625A JP 2023101511 A JP2023101511 A JP 2023101511A JP 2023101511 A JP2023101511 A JP 2023101511A JP 2023123625 A JP2023123625 A JP 2023123625A
Authority
JP
Japan
Prior art keywords
pixel
unit
white line
captured image
calibration
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023101511A
Other languages
Japanese (ja)
Inventor
正浩 加藤
Masahiro Kato
和俊 北野
Kazutoshi Kitano
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pioneer Corp
Original Assignee
Pioneer Electronic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2021195884A external-priority patent/JP2022033130A/en
Application filed by Pioneer Electronic Corp filed Critical Pioneer Electronic Corp
Priority to JP2023101511A priority Critical patent/JP2023123625A/en
Publication of JP2023123625A publication Critical patent/JP2023123625A/en
Pending legal-status Critical Current

Links

Landscapes

  • Traffic Control Systems (AREA)

Abstract

To perform calibration corresponding to a change even if a distance between an imaging part and a road face is changed due to a change in the weight of a moving body and a change in the pneumatic pressure of wheels.SOLUTION: A moving amount detection part 321a detects a pixel moving amount on the basis of a captured imaged image which is captured by an imaging part 210 with respect to a stop line being a feature part on a road face having a well-known length along a traveling direction of a moving body MV. A specification part 322A specifies a white line region in the captured image. Then, when it is determined that the moving body MV linearly travels on the flat road face at a constant velocity, the calibration part 323A calibrates a distance on the road face corresponding to one pixel related to a distance between the imaging part 210 and the road face, on the basis of the well-known length along the traveling direction of the moving body MV on the stop line, in addition to the pixel moving amount and a specified result of the white line region in the captured image.SELECTED DRAWING: Figure 4

Description

本発明は、検出装置、検出方法及び検出プログラム、並びに、当該検出プログラムが記録された記録媒体に関する。 The present invention relates to a detection device, a detection method, a detection program, and a recording medium on which the detection program is recorded.

車両等の移動体の車輪速度と移動体速度との差を正規化したスリップ率λと、車輪と路面間とのグリップ力を正規化した摩擦係数μは、図1及び図2に示されるような関係(以下、「μ―λ特性」という)となっている。ここで、図1には駆動時のμ―λ特性が示され、図2には制動時のμ―λ特性との関係が示されている。 The slip ratio λ, which is the normalized difference between the wheel speed of a moving body such as a vehicle and the moving body speed, and the friction coefficient μ, which is the normalized grip force between the wheel and the road surface, are shown in FIGS. relationship (hereinafter referred to as “μ-λ characteristic”). Here, FIG. 1 shows the .mu.-.lambda. characteristic during driving, and FIG. 2 shows the relationship with the .mu.-.lambda. characteristic during braking.

なお、図1及び図2においては、乾燥路面におけるμ―λ特性が実線にて示され、湿潤路面におけるμ―λ特性が一点鎖線にて示されるとともに、凍結路面におけるμ―λ特性が二点鎖線にて示されている。 In FIGS. 1 and 2, the μ-λ characteristic on a dry road surface is indicated by a solid line, the μ-λ characteristic on a wet road surface is indicated by a dashed line, and the μ-λ characteristic on a frozen road surface is indicated by two points. indicated by dashed lines.

図1に示される駆動時のスリップ率λの増加に伴う摩擦係数μの変化において、摩擦係数μが最大となるスリップ率よりも小さな状態が、移動体が安定して走行できる安定領域となっている。一方、摩擦係数μが最大となるスリップ率よりも大きな状態では、グリップ力が低下して最悪な場合は空転やロック現象が生じる不安定領域となっている。 In the change in the friction coefficient μ accompanying the increase in the slip ratio λ during driving shown in FIG. 1, the state where the friction coefficient μ is smaller than the maximum slip ratio is the stable region in which the moving body can travel stably. there is On the other hand, when the coefficient of friction μ is greater than the maximum slip ratio, the gripping force is reduced, and in the worst case, an unstable region occurs, in which slipping or locking occurs.

図2に示される制動時のスリップ率λの増加に伴う摩擦係数μの変化において、摩擦係数μが最小となるスリップ率よりも大きな状態が、安定領域となっている。一方、摩擦係数μが最小となるスリップ率よりも小さな状態では、不安定領域となっている。 In the change in the friction coefficient μ accompanying the increase in the slip ratio λ during braking shown in FIG. 2, the state where the friction coefficient μ is greater than the minimum slip ratio is the stable region. On the other hand, when the friction coefficient μ is smaller than the minimum slip ratio, the unstable region is established.

そして、摩擦係数μの絶対値が最大値となるスリップ率の絶対値以下の範囲にスリップ率λを制御すれば、移動体は安定走行を維持することができる。一方、不安定状態が継続してタイヤの空転やロックが生じると、車両の駆動・制動・操舵のコントロールが不能になる。 By controlling the slip ratio λ within a range below the absolute value of the slip ratio at which the absolute value of the friction coefficient μ becomes the maximum value, the moving body can maintain stable running. On the other hand, if the unstable state continues and the tires spin or lock, it becomes impossible to control the driving, braking, and steering of the vehicle.

このため、事故の危険を回避するため、内燃機関自動車では主にブレーキ油圧制御とエンジン制御とを用いたABS(Antilock Brake System)等が採用されている。こうしたABS等では、スリップ状態を判断し、エンジンの駆動トルクとブレーキ油圧の制動トルクとを制御して、安定領域に近づける制御を行う。また、電気自動車においても、スリップ率λを推定して、モータのトルクを適切に制御することで、安定領域内に維持するようなアンチスリップ制御が提案されている。このように、スリップ率λを検知することは、走行状態を把握する上で非常に重要となっている。 Therefore, in order to avoid the danger of accidents, an ABS (Antilock Brake System) or the like, which mainly uses brake oil pressure control and engine control, is adopted in internal combustion engine automobiles. In such an ABS or the like, a slip state is determined, and the driving torque of the engine and the braking torque of the brake hydraulic pressure are controlled so as to approach a stable region. Also, for electric vehicles, an anti-slip control has been proposed in which the slip rate λ is estimated and the torque of the motor is appropriately controlled to maintain it within a stable region. Thus, detecting the slip ratio λ is very important in grasping the running state.

さて、スリップ率λは次の(1)式により算出するため、車輪半径rと、回転角速度ωと、移動体速度vとが必要となる。
λ=(r・ω-v)/Max(r・ω,v) …(1)
Now, since the slip ratio λ is calculated by the following equation (1), the wheel radius r, the rotational angular velocity ω, and the moving object velocity v are required.
λ=(r·ω−v)/Max(r·ω, v) (1)

ここで、Max(r・ω,v)は、(r・ω)とvとの数値の大きな方を示す。駆動時には、(r・ω)がvよりも大きいため、Max(r・ω,v)=r・ωである。一方、制動時には、vが(r・ω)よりも大きいため、Max(r・ω,v)=vである。 Here, Max(r·ω, v) indicates the larger value of (r·ω) and v. Since (r·ω) is greater than v during driving, Max(r·ω, v)=r·ω. On the other hand, during braking, v is greater than (r·ω), so Max(r·ω, v)=v.

なお、例えば、移動体が自動車の場合には、車輪の空気圧が十分であれば車輪半径rは一定と考えられる。また、回転角速度ωは車輪に搭載したエンコーダのパルス出力や、電気自動車であればモータに接続してあるレゾルバの信号出力から検出が可能である。 For example, when the moving object is an automobile, the wheel radius r can be considered constant if the air pressure in the wheels is sufficient. Also, the rotational angular velocity ω can be detected from the pulse output of an encoder mounted on a wheel, or from the signal output of a resolver connected to a motor in the case of an electric vehicle.

一方,移動体速度vを検知する方法としては、以下の(a)~(c)が一般的に挙げられる。
(a)非駆動輪の回転速度から算出
(b)加速度センサにより検出された加速度値を積分して算出
(c)光学的なセンサによる検出結果に基づく算出
On the other hand, the following (a) to (c) are generally cited as methods for detecting the moving body speed v.
(a) Calculated from the rotational speed of the non-driven wheels (b) Calculated by integrating the acceleration value detected by the acceleration sensor (c) Calculated based on the detection result of the optical sensor

ここで、(a)の方法は、ブレーキは全ての車輪にかかるので、制動時の移動体速度vを検知することができない。また、4輪駆動の場合には、非駆動輪が存在しないので、移動体速度vを検知することができない。 Here, in the method (a), the brakes are applied to all the wheels, so the speed v of the moving body during braking cannot be detected. Also, in the case of four-wheel drive, since there are no non-driving wheels, the moving body speed v cannot be detected.

また、(b)の方法では、加速度センサの出力を積分するため、加速度センサの出力に存在するオフセットが蓄積されてしまう。この結果、移動体速度vを正確に検知することができない。 In addition, since the method (b) integrates the output of the acceleration sensor, the offset existing in the output of the acceleration sensor is accumulated. As a result, the moving body speed v cannot be detected accurately.

これらの(a)及び(b)の方法の欠点が原理的に存在しない(c)の方法が期待されている。かかる(c)の方法を採用した技術として、特許文献1に記載の技術が提案されている(以下、「従来例」と呼ぶ)。この従来例の技術では、自車両の近傍の光景を撮像した画像信号から、車両の走行状態または停止状態を判定する。また、画像における道路標示の寸法と、道路上における道路標示の寸法に基づいて、自車両の車体速度(すなわち、移動体速度)を検出するようになっている。なお、従来例の技術では、道路標示が画像内に存在する場合のみ車体速度の検知を行い、道路標示が画像内にない場合は走行/停止の判定のみを行うようになっている。 The method (c) is expected, which in principle does not have the drawbacks of the methods (a) and (b). As a technique employing the method (c), a technique described in Patent Document 1 has been proposed (hereinafter referred to as "conventional example"). In this prior art technique, the running state or stopped state of the vehicle is determined from an image signal obtained by picking up a scene in the vicinity of the own vehicle. Also, the body speed of the own vehicle (that is, moving body speed) is detected based on the dimensions of the road markings in the image and the dimensions of the road markings on the road. In the conventional technology, the vehicle speed is detected only when the road marking is present in the image, and only the running/stop judgment is performed when the road marking is not in the image.

特開2009-205642号公報JP 2009-205642 A

上述した従来例の技術では、撮像画像内に道路標示が存在しない場合には、車体速度を検出しない。この結果、撮像画像内に道路標示が存在しない状態の継続中に車体速度が変化しても、最後に撮像画像内に道路標示が存在していた時点に検出された車体速度をそのまま現時点の車体速度と推定することになる。このため、各時点における車体速度を精度良く検知できるとはいい難かった。 The above-described conventional technique does not detect the vehicle body speed when there is no road marking in the captured image. As a result, even if the vehicle speed changes while the road marking does not exist in the captured image, the vehicle speed detected at the time when the road marking was present in the captured image is maintained as it is. Velocity will be estimated. For this reason, it is difficult to say that the vehicle speed at each point in time can be accurately detected.

また、従来例の技術では、撮像装置を車体に装着するため、乗車人数や積載荷物の違い、また、車輪の空気圧の違いによって,撮像装置と路面との間の距離が変わる。この結果、撮像倍率が変化するため、撮像画像中における道路標示のサイズが変化することになる。 Further, in the conventional technology, since the image pickup device is mounted on the vehicle body, the distance between the image pickup device and the road surface varies depending on the number of passengers, the amount of luggage, and the air pressure of the wheels. As a result, the imaging magnification changes, so the size of the road marking in the captured image changes.

例えば、図3(A)に示されるように、撮像部210が、結像レンズ系211(焦点距離:f)と、正方形の撮像面212(一辺の長さ:D)とを備え、結像レンズ系211から撮像面212までの距離を「d」とする。この場合、直下の路面LDを撮像する場合、結像レンズ系211から路面LDまでの距離(以下、「撮像部210から路面LDまでの距離」ともいう)を「h」とすると、撮像部210による撮像の光学倍率mは、次の(2)式で表される。
m=1/((h/f)-1) …(2)
なお、撮像面212におけるピクセル構成は、NU個×NU個(例えば、30個×30個)となっている。
For example, as shown in FIG. 3A, an imaging unit 210 includes an imaging lens system 211 (focal length: f) and a square imaging surface 212 (side length: D). Let “d” be the distance from the lens system 211 to the imaging surface 212 . In this case, when the road surface LD directly below is imaged, the distance from the imaging lens system 211 to the road surface LD (hereinafter also referred to as “the distance from the imaging unit 210 to the road surface LD”) is “h”. The optical magnification m of imaging by is represented by the following equation (2).
m=1/((h/f)−1) (2)
The pixel configuration on the imaging surface 212 is NU×NU (for example, 30×30).

この結果、路面LD上において撮像対象となる正方形領域の一辺の長さHは、次の(3)式の通りとなる。
H=D/m=D・((h/f)-1) …(3)
As a result, the length H of one side of the square area to be imaged on the road surface LD is given by the following equation (3).
H=D/m=D·((h/f)−1) (3)

例えば、f=8[mm]、D=1.7[mm]、h=495[mm]とすると、H=103.5[mm]となる。 For example, if f=8 [mm], D=1.7 [mm], and h=495 [mm], then H=103.5 [mm].

さて、図3(B)に示されるように、図3(A)の状態から、車重が重くなり、距離hが短くなって距離h*となると、撮像部210による撮像の光学倍率が、図3(A)の状態における「m」から、次の(4)式で表される「m*」に変化する。
*=1/((h*/f)-1) …(4)
Now, as shown in FIG. 3B, when the vehicle weight increases from the state of FIG . It changes from "m" in the state of FIG. 3A to "m * " represented by the following equation (4).
m * =1/((h * /f)-1) (4)

この結果、撮像対象となる正方形領域の一辺の長さが、図3(A)の状態における「H」から、次の(5)式で表される「H*」に変化する。
*=D/m*=D・((h*/f)-1) …(5)
As a result, the length of one side of the square area to be imaged changes from "H" in the state of FIG. 3A to "H * " expressed by the following equation (5).
H * =D/m * =D.((h * /f)-1) (5)

例えば、h*=445[mm]となると、H*=92.9[mm]となり、上述した図3(A)の状態におけるH=103.5[mm]から10%程度変化する。この結果、1ピクセルの大きさに対応する路面上の領域の大きさも、上述した図3(A)の状態から10%程度変化することになる。 For example, when h * =445 [mm], H * =92.9 [mm], which is about 10% change from H=103.5 [mm] in the state of FIG. 3A. As a result, the size of the area on the road surface corresponding to the size of one pixel also changes by about 10% from the state shown in FIG. 3A.

ところで、単位時間ごとの撮像画像間の相関によって画像の移動距離を求め、前後方向及び横方向の車体速度を算出するようにした場合、撮像画像における1ピクセルの大きさに対応する路面上の領域の大きさが変化すると、算出される車体速度も変化する。すなわち、1ピクセルの大きさに対応する路面上の領域の大きさが10%程度変化すると、速度算出値も10%程度変化して、誤差が生じることになる。 By the way, when the movement distance of the image is obtained by the correlation between the captured images for each unit time, and the vehicle body speed in the longitudinal direction and the lateral direction is calculated, the area on the road surface corresponding to the size of 1 pixel in the captured image When the magnitude of changes, the calculated vehicle body speed also changes. That is, if the size of the area on the road surface corresponding to the size of one pixel changes by about 10%, the calculated speed value will also change by about 10%, resulting in an error.

路面変動に対する動的な誤差は、平均化処理によって誤差による影響を少なくできる。しかしながら、車両重量の変化や車輪の空気圧の変化はオフセットとなるため、平均化処理では誤差の影響を抑制することができない。 Dynamic errors due to road surface fluctuations can be less affected by errors through averaging. However, since changes in vehicle weight and changes in wheel air pressure are offset, the averaging process cannot suppress the effects of errors.

このため、車両重量の変化や車輪の空気圧の変化が生じても、車体速度を精度良く検出することができる技術が待望されている。かかる要請に応えることが、本発明が解決すべき課題の一つとして挙げられる。 Therefore, there is a need for a technology capable of accurately detecting the vehicle body speed even when the vehicle weight changes or the air pressure of the wheels changes. Meeting such demands is one of the problems to be solved by the present invention.

本発明は、上記を鑑みてなされたものであり、車両重量の変化や車輪の空気圧の変化により、路面と撮像部との距離が変化しても、当該変化に応じた較正を行うことができる検出装置及び検出方法を提供することを目的とする。 The present invention has been made in view of the above, and can perform calibration according to the change even if the distance between the road surface and the imaging unit changes due to changes in vehicle weight or wheel air pressure. An object of the present invention is to provide a detection device and a detection method.

請求項1に記載の発明は、移動体に搭載された撮像部により所定時間隔てて進行方向に沿って撮像された、既知の長さを有する路面上特徴部を含む複数の画像を取得する取得部と;前記取得部により取得された複数の画像に基づいて、前記既知の長さに対応する、所定幅の画像領域の数を算出し、当該算出された数と前記既知の長さとに基づいて前記所定幅に対応する前記路面上の距離に関連する距離情報を出力する出力部と;を備えることを特徴とする検出装置である。
請求項4に記載の発明は、移動体に搭載された撮像部により所定時間隔てて進行方向に沿って撮像された路面上特徴部を含む複数の画像を取得する取得部と;前記取得部により取得された複数の画像に基づいて得られた前記画像における所定画像領域の幅に対応する路面上の距離を示す情報を、過去に出力された距離情報に基づいて較正し、較正結果を新たな距離情報として出力する第1出力部と;前記新たな距離情報を利用して、前記移動体の速度を出力する第2出力部と;を備えることを特徴とする検出装置である。
The invention according to claim 1 acquires a plurality of images including characteristic portions on the road surface having a known length, which are captured along the traveling direction at predetermined time intervals by an imaging unit mounted on a moving object. and; calculating the number of image regions of a predetermined width corresponding to the known length based on the plurality of images acquired by the acquisition unit, and based on the calculated number and the known length and an output unit for outputting distance information related to the distance on the road surface corresponding to the predetermined width.
The invention according to claim 4 is an acquisition unit that acquires a plurality of images including characteristic parts on the road surface that are captured along a traveling direction at predetermined time intervals by an imaging unit mounted on a moving body; Information indicating the distance on the road surface corresponding to the width of a predetermined image area in the images obtained based on the plurality of acquired images is calibrated based on the distance information output in the past, and the calibration result is newly updated. A detection device comprising: a first output unit for outputting as distance information; and a second output unit for outputting the speed of the moving body using the new distance information.

請求項5に記載の発明は、取得部と、出力部とを備える検出装置において使用される検出方法であって、前記取得部が、移動体に搭載された撮像部により所定時間隔てて進行方向に沿って撮像された、既知の長さを有する路面上特徴部を含む複数の画像を取得する取得工程と;前記出力部が、前記取得工程において取得された複数の画像に基づいて、前記既知の長さに対応する、所定幅の画像領域の数を算出し、当該算出された数と前記既知の長さとに基づいて前記所定幅に対応する前記路面上の距離に関連する距離情報を出力する距離情報出力工程と;を備えることを特徴とする検出方法である。 The invention according to claim 5 is a detection method used in a detection device comprising an acquisition unit and an output unit, wherein the acquisition unit is separated by a predetermined time from an imaging unit mounted on a moving object and is detected in the traveling direction. an acquiring step of acquiring a plurality of images including a road surface feature having a known length, imaged along a road surface; calculating the number of image regions of a predetermined width corresponding to the length of the road, and outputting distance information related to the distance on the road surface corresponding to the predetermined width based on the calculated number and the known length a distance information output step; and;

請求項6に記載の発明は、検出装置が有するコンピュータに、請求項5に記載の検出方法を実行させる、ことを特徴とする検出プログラムである。 According to a sixth aspect of the present invention, there is provided a detection program that causes a computer of a detection device to execute the detection method according to the fifth aspect.

請求項7に記載の発明は、検出装置が有するコンピュータにより読み取り可能に、請求項6に記載の検出プログラムが記録されている、ことを特徴とする記録媒体である。 The invention according to claim 7 is a recording medium characterized in that the detection program according to claim 6 is recorded so as to be readable by a computer of the detection device.

駆動時のスリップ率と摩擦係数との関係を示す図である。FIG. 5 is a diagram showing the relationship between the slip ratio and the coefficient of friction during driving; 制動時のスリップ率と摩擦係数との関係を示す図である。FIG. 5 is a diagram showing the relationship between slip ratio and friction coefficient during braking; 車両重量などの変化による速度算出値の変化を説明するための図である。FIG. 4 is a diagram for explaining changes in speed calculation values due to changes in vehicle weight and the like; 本発明の第1実施形態に係る検出装置の構成を示す図である。It is a figure showing composition of a detection device concerning a 1st embodiment of the present invention. 図4の移動量検出部の動作を説明するための図である。FIG. 5 is a diagram for explaining the operation of the movement amount detection unit in FIG. 4; 第1実施形態における較正環境を説明するための図である。FIG. 4 is a diagram for explaining a calibration environment in the first embodiment; FIG. 図4の特定部の動作を説明するための図である。5A and 5B are diagrams for explaining the operation of the specifying unit in FIG. 4; FIG. 図4の較正部による較正動作を説明するための図である。5A and 5B are diagrams for explaining a calibration operation by the calibration unit of FIG. 4; FIG. 本発明の第2実施形態に係る検出装置の構成を示す図である。It is a figure which shows the structure of the detection apparatus which concerns on 2nd Embodiment of this invention. 図9の2個の撮像部の配置位置の関係を説明するための図である。FIG. 10 is a diagram for explaining the positional relationship between the two imaging units in FIG. 9; FIG. 第2実施形態における較正環境を説明するための図である。FIG. 12 is a diagram for explaining a calibration environment in the second embodiment; FIG. 図9の特定部の動作を説明するための図である。FIG. 10 is a diagram for explaining the operation of the specifying unit in FIG. 9; FIG. 図9の較正部による較正動作を説明するための図である。10A and 10B are diagrams for explaining a calibration operation by the calibration unit of FIG. 9; FIG. 本発明の第1実施例に係る検出装置の構成を示す図である。It is a figure which shows the structure of the detection apparatus based on 1st Example of this invention. 図14の制御ユニットにより実行されるピクセル移動量の検出処理を説明するためのフローチャートである。FIG. 15 is a flowchart for explaining a pixel movement amount detection process executed by the control unit of FIG. 14; FIG. 図14の制御ユニットにより実行される車体速度の出力処理を説明するためのフローチャートである。FIG. 15 is a flowchart for explaining vehicle body speed output processing executed by the control unit of FIG. 14; FIG. 図14の制御ユニットにより実行される白線領域の特定処理を説明するためのフローチャートである。FIG. 15 is a flowchart for explaining a white line area identification process executed by the control unit of FIG. 14; FIG. 図14の制御ユニットにより実行される較正条件のモニタ処理を説明するためのフローチャートである。FIG. 15 is a flowchart for explaining calibration condition monitoring processing executed by the control unit of FIG. 14; FIG. 図14の制御ユニットにより実行されるピクセル距離の較正処理を説明するためのフローチャートである。FIG. 15 is a flowchart for explaining a pixel distance calibration process performed by the control unit of FIG. 14; FIG. 本発明の第2実施例に係る検出装置の構成を示す図である。FIG. 4 is a diagram showing the configuration of a detection device according to a second embodiment of the present invention; 図20の制御ユニットにより実行されるピクセル移動量の検出処理を説明するためのフローチャートである。FIG. 21 is a flowchart for explaining a pixel movement amount detection process executed by the control unit of FIG. 20; FIG. 図20の制御ユニットにより実行される白線領域の特定処理を説明するためのフローチャートである。FIG. 21 is a flow chart for explaining white line area identification processing executed by the control unit of FIG. 20; FIG. 図20の制御ユニットにより実行されるピクセル距離の較正処理を説明するためのフローチャートである。21 is a flowchart for explaining a pixel distance calibration process performed by the control unit of FIG. 20;

以下、本発明の実施形態を、図4~図13を参照して説明する。なお、以下の説明及び図面においては、同一又は同等の要素には同一の符号を付し、重複する説明を省略する。 Embodiments of the present invention will now be described with reference to FIGS. 4 to 13. FIG. In the following description and drawings, the same or equivalent elements are denoted by the same reference numerals, and overlapping descriptions are omitted.

[第1実施形態]
まず、本発明の第1実施形態を、図4~図8を参照して説明する。
[First embodiment]
First, a first embodiment of the invention will be described with reference to FIGS. 4 to 8. FIG.

<構成>
図4には、第1実施形態に係る検出装置300Aの構成が、ブロック図にて示されている。図4に示されるように、検出装置300Aは、撮像部210、ナビゲーション装置220及びECU(Electronic Control Unit)230と接続されている。そして、検出装置300A、撮像部210、ナビゲーション装置220及びECU230は、移動体MVに搭載されている。
<Configuration>
FIG. 4 shows a block diagram of the configuration of the detection device 300A according to the first embodiment. As shown in FIG. 4, the detection device 300A is connected to an imaging unit 210, a navigation device 220 and an ECU (Electronic Control Unit) 230. As shown in FIG. The detection device 300A, the imaging unit 210, the navigation device 220 and the ECU 230 are mounted on the mobile object MV.

上記の撮像部210は、移動体MVの固定的な位置に搭載され、上述の図3を参照して説明したように、固定位置の直下の路面を撮像する。この撮像部210は、周期時間TPで路面の撮像を周期的に行う。こうして撮像された画像のデータ(以下、「撮像画像データ」という)は、検出装置300Aへ送られる。 The imaging unit 210 described above is mounted at a fixed position on the moving body MV, and as described above with reference to FIG. 3, images the road surface immediately below the fixed position. The image capturing unit 210 periodically captures images of the road surface at a cycle time TP. Data of the image captured in this manner (hereinafter referred to as “captured image data”) is sent to the detection device 300A.

なお、「周期時間TP」は、移動体MVが高速で走行していても、周期時間TPを隔てて撮像された2つの画像には共通の路面上領域が含まれるようにするとの観点から、実験、シミュレーション等に基づいて、予め定められる。 It should be noted that the "periodic time TP" is such that even if the moving object MV is traveling at high speed, the two images captured with the periodal time TP separated from each other include a common road surface area. It is determined in advance based on experiments, simulations, or the like.

上記のナビゲーション装置220は、地図情報と現在位置情報とに基づいて、利用者に対して、移動体MVの走行操作支援を行う。このナビゲーション装置220は、移動体MVが、走行方向に存在する交差点から所定距離以内となると、その旨を検出装置300Aへ送る。 The navigation device 220 described above assists the user in driving the mobile object MV based on the map information and the current position information. This navigation device 220 notifies the detection device 300A when the mobile object MV is within a predetermined distance from an intersection in the traveling direction.

なお、「所定距離」は、第1実施形態において路面上特徴部として採用する交差点手前の停止線に関する走行方向に沿った始めから終わりまでの撮像のための適切な事前通知の観点から、実験、シミュレーション、経験等に基づいて、予め定められる。 It should be noted that the "predetermined distance" is determined by experiments, experiments, It is determined in advance based on simulation, experience, or the like.

上記のECU230は、車輪の回転速度センサ、加速度センサ、操舵角センサ、傾きセンサ等の各種センサから取得したセンサ検出情報に基づいて、移動体MVの走行を制御したり、利用者に走行情報を提供したりする。このECU230は、加速度情報、操舵角情報及び傾き情報を検出装置300Aへ送る。 The ECU 230 described above controls the running of the mobile object MV and provides running information to the user based on sensor detection information acquired from various sensors such as a wheel rotation speed sensor, an acceleration sensor, a steering angle sensor, and an inclination sensor. provide. The ECU 230 sends acceleration information, steering angle information and tilt information to the detection device 300A.

なお、ECU230は、検出装置300Aから送られた移動体速度(走行速度情報)を更に取得し、取得された移動体速度を移動体MVの走行制御に役立てるようになっている。 The ECU 230 further acquires the moving body speed (running speed information) sent from the detection device 300A, and utilizes the acquired moving body speed for running control of the moving body MV.

上記の検出装置300Aは、図4に示されるように、取得部310Aと、第1出力部320Aとを備えている。また、検出装置300Aは、第2出力部330を備えている。 The detection device 300A, as shown in FIG. 4, includes an acquisition section 310A and a first output section 320A. The detection device 300A also includes a second output section 330 .

上記の取得部310Aは、撮像部210から送られた撮像画像データを受ける。そして、取得部310Aは、当該撮像画像データを第1出力部320Aへ送る。 The acquisition unit 310A described above receives captured image data sent from the imaging unit 210 . Then, the acquisition section 310A sends the captured image data to the first output section 320A.

上記の第1出力部320Aは、取得部310Aから送られた撮像画像データを受ける。そして、第1出力部320Aは、周期時間TPを隔てて撮像された2つの画像間における同一の路面位置のピクセルの移動量の個数(以下、「ピクセル移動量」という)を検出するとともに、後述する較正条件を満たした場合には、1ピクセルに対応する路面上の距離(以下、「ピクセル距離」という)を較正する。検出されたピクセル移動量及び較正されたピクセル距離は、第2出力部330へ出力される。かかる機能を有する第1出力部320Aの構成の詳細については、後述する。 320 A of said 1st output parts receive the captured image data sent from 310 A of acquisition parts. Then, the first output unit 320A detects the number of pixel movement amounts (hereinafter referred to as "pixel movement amounts") at the same road surface position between the two images captured with the period time TP between, and If the calibration condition is satisfied, the distance on the road corresponding to one pixel (hereinafter referred to as "pixel distance") is calibrated. The detected pixel movement and calibrated pixel distance are output to the second output 330 . The details of the configuration of the first output section 320A having such functions will be described later.

上記の第2出力部330は、第1出力部320Aから送られたピクセル移動量を受けるたびに、最新の較正されたピクセル距離及び周期時間TPに基づいて、移動体MVの走行情報として移動体速度を算出する。そして、第2出力部330は、算出された移動体速度をECU230へ出力する。 Each time the second output unit 330 receives the pixel movement amount sent from the first output unit 320A, based on the latest calibrated pixel distance and period time TP, the moving object MV as traveling information Calculate speed. Second output unit 330 then outputs the calculated moving body speed to ECU 230 .

《第1出力部320Aの構成》
次に、上述した第1出力部320Aの構成について説明する。
<<Configuration of the first output unit 320A>>
Next, the configuration of the above-described first output section 320A will be described.

第1出力部320Aは、図4に示されるように、移動量検出部321Aと、特定部322Aとを備えている。また、第1出力部320Aは、較正部323Aを備えている。 320 A of 1st output parts are provided with 321 A of movement amount detection parts, and 322 A of specific|specification parts, as FIG. 4 shows. The first output section 320A also includes a calibration section 323A.

上記の移動量検出部321Aは、取得部310Aから送られた撮像画像データを受ける。そして、移動量検出部321Aは、当該撮像画像データに基づいて、いわゆる変位量探索法によりピクセル移動量を検出する。こうして検出されたピクセル移動量は、較正部323A及び第2出力部330へ送られる。 321 A of said movement amount|distance detection parts receive the captured image data sent from 310 A of acquisition parts. Then, the movement amount detection unit 321A detects the pixel movement amount by a so-called displacement amount search method based on the captured image data. The pixel displacement thus detected is sent to the calibration section 323A and the second output section 330. FIG.

なお、移動量検出部321Aの動作の詳細については、後述する。 Details of the operation of the movement amount detection unit 321A will be described later.

上記の特定部322Aは、取得部310Aから送られた撮像画像データを受ける。そして、特定部322Aは、撮像画像データから得られる画像中における白線領域を特定する。こうして特定された白線領域の情報(以下、「白線領域情報」という)は、較正部323Aへ送られる。 322 A of said specific|specification parts receive the captured image data sent from 310 A of acquisition parts. Then, the identifying unit 322A identifies the white line area in the image obtained from the captured image data. Information on the white line area specified in this way (hereinafter referred to as "white line area information") is sent to the calibration unit 323A.

なお、特定部322Aの動作の詳細については、後述する。 Details of the operation of the identification unit 322A will be described later.

上記の較正部323Aは、移動量検出部321Aから送られたピクセル移動量、及び、特定部322Aから送られた白線領域情報を受ける。そして、較正部323Aは、ECU230から送られた加速度情報、操舵角情報及び傾き情報により、移動体MVが平坦な路面を等速直進走行していると判断できる場合に、当該ピクセル移動量及び当該白線領域情報に加えて、路上に描かれた停止線の進行方向の長さがほぼ45[cm]であることに基づいて、ピクセル距離を較正する。こうして較正されたピクセル距離は、第2出力部330へ送られる。 The calibration unit 323A described above receives the pixel movement amount sent from the movement amount detection unit 321A and the white line area information sent from the identification unit 322A. Then, if the calibration unit 323A can determine that the moving object MV is traveling straight ahead on a flat road surface at a constant speed based on the acceleration information, the steering angle information, and the tilt information sent from the ECU 230, the calibration unit 323A In addition to the white line area information, the pixel distance is calibrated based on the fact that the length of the stop line drawn on the road in the traveling direction is approximately 45 [cm]. The pixel distances thus calibrated are sent to the second output 330 .

なお、較正部323Aの動作の詳細については、後述する。 Details of the operation of the calibration unit 323A will be described later.

<動作>
次に、上記のように較正された検出装置300Aの動作について、検出装置300Aの各要素で行われる処理に着目して説明する。
<Action>
Next, the operation of the detection device 300A calibrated as described above will be described, focusing on the processing performed by each element of the detection device 300A.

なお、撮像部210は、既に動作を開始しており、周期時間TPで撮像した路面画像の撮像画像データを、逐次、検出装置300Aへ送っているものとする。また、ナビゲーション装置220は、既に動作を開始しており、移動体MVが、走行方向に存在する交差点から所定距離以内となると、その旨を検出装置300Aへ送るようになっているものとする。また、ECU230は、既に動作を開始しており、加速度情報、操舵角情報及び傾き情報を検出装置300Aへ送っているものとする(図4参照)。 It is assumed that the imaging unit 210 has already started its operation and is sequentially sending the captured image data of the road surface image captured at the cycle time TP to the detection device 300A. It is also assumed that the navigation device 220 has already started operation, and when the mobile object MV is within a predetermined distance from an intersection in the traveling direction, it sends a notification to the detection device 300A. It is also assumed that the ECU 230 has already started operating and has sent acceleration information, steering angle information, and tilt information to the detection device 300A (see FIG. 4).

さらに、検出装置300Aでは、既に、複数回のピクセル距離の較正が行われており、較正部323Aには、最近の所定回数分の較正時刻及び後述する暫定ピクセル距離を含む較正履歴が保持されているものとする。また、第2出力部330には、最新に較正されたピクセル距離が保持されているものとする。ここで、ピクセル距離の最初の較正が行われるまでの期間においては、第2出力部330には、平均的なピクセル距離が保持されるようになっている。 Furthermore, in the detection device 300A, the pixel distance has already been calibrated a plurality of times, and the calibrating unit 323A holds a calibration history including the calibration times for the latest predetermined number of times and the provisional pixel distance described later. It is assumed that there is It is also assumed that the second output unit 330 holds the latest calibrated pixel distance. Here, the average pixel distance is held in the second output section 330 until the first calibration of the pixel distance is performed.

なお、「所定回数」は、停止線の進行方向の長さの変動等のピクセル距離の較正結果への影響を抑制するための平均化処理を行うとの観点から、実験、シミュレーション、経験等に基づいて予め定められる。また、「平均的なピクセル距離」は、実験、シミュレーション、経験等に基づいて、移動体MVに対応して予め定められる。 Note that the "predetermined number of times" is based on experiments, simulations, experience, etc., from the viewpoint of performing averaging processing to suppress the influence of changes in the length of the stop line in the direction of travel, etc., on the calibration results of the pixel distance. pre-determined based on Also, the "average pixel distance" is determined in advance for the mobile object MV based on experiments, simulations, experience, and the like.

《画像データの取得処理》
検出装置300Aでは、取得部310Aが、撮像部210から送られた撮像画像データを受ける。そして、取得部310Aは、当該撮像画像データを、第1出力部320Aの移動量検出部321A及び特定部322Aへ送る(図4参照)。
<<Acquisition processing of image data>>
In the detection device 300A, the acquisition unit 310A receives the captured image data sent from the imaging unit 210. FIG. Then, the acquisition unit 310A sends the captured image data to the movement amount detection unit 321A and the identification unit 322A of the first output unit 320A (see FIG. 4).

《ピクセル移動量の検出処理》
次に、移動量検出部321Aによるピクセル移動量の検出処理について説明する。
<<Processing to detect the amount of pixel movement>>
Next, detection processing of the pixel movement amount by the movement amount detection unit 321A will be described.

取得部310Aから送られた撮像画像データを受けると、移動量検出部321Aは、今回の撮像画像データから得られる今回画像と前回の撮像画像データから得られる前回画像とにおける共通の特徴領域の位置の変位量を、ピクセル移動量として検出する。そして、移動量検出部321Aは、検出されたピクセル移動量を較正部323A及び第2出力部330へ送る(図4参照)。 Upon receiving the captured image data sent from the acquisition unit 310A, the movement amount detection unit 321A detects the position of the common characteristic region in the current image obtained from the current captured image data and the previous image obtained from the previous captured image data. is detected as the pixel movement amount. Then, the movement amount detection section 321A sends the detected pixel movement amount to the calibration section 323A and the second output section 330 (see FIG. 4).

なお、共通する特徴領域が複数ある場合には、移動量検出部321Aは、複数の特徴領域のそれぞれの変位量の平均値を、ピクセル移動量として採用する。 Note that when there are a plurality of common characteristic regions, the movement amount detection unit 321A adopts the average value of the respective displacement amounts of the plurality of characteristic areas as the pixel movement amount.

図5には、移動量検出部321Aによる移動量検出の例が示されている。この図5の例は、移動体MVがX方向に沿って直進しており、時刻TjにおけるX方向位置がXjであり、時刻Tj+1(=Tj+TP)おけるX方向位置がXj+1である場合の例となっている。また、図5の例は、時刻Tjにおける撮像画像と時刻Tj+1における撮像画像とにおける共通の特徴領域が、特徴領域Aと特徴領域Bの2種類である例が示されている。この図5の例では、特徴領域Aの変位量が「ΔXjA」であり、特徴領域Bの変位量が「ΔXjB」であるので、ピクセル移動量ΔXjは、次の(6)式により算出される。
ΔXj=(ΔXjA+ΔXjB)/2 …(6)
FIG. 5 shows an example of movement amount detection by the movement amount detection unit 321A. In the example of FIG. 5, the moving object MV is traveling straight along the X direction, the X direction position at time T j is X j , and the X direction position at time T j+1 (=T j +TP) is This is an example in the case of X j+1 . Further, the example of FIG. 5 shows an example in which there are two types of characteristic regions, characteristic region A and characteristic region B, that are common to the captured image at time T j and the captured image at time T j+1 . In the example of FIG. 5, the amount of displacement of characteristic region A is "ΔX jA ", and the amount of displacement of characteristic area B is "ΔX jB " . Calculated.
ΔX j =(ΔX jA +ΔX jB )/2 (6)

《移動体速度vの出力処理》
次いで、第2出力部330による移動体速度vの出力処理について説明する。
<<Output processing of moving body velocity v>>
Next, the process of outputting the moving object velocity v by the second output unit 330 will be described.

移動量検出部321Aから送られたピクセル移動量を受けると、第2出力部330は、ピクセル移動量、保持しているピクセル距離(すなわち、最新に較正されたピクセル距離)及び周期時間TPに基づいて移動体速度vを算出する。そして、第2出力部330は、算出された移動体速度vをECU230へ出力する。 Upon receiving the pixel displacement sent from the displacement detection unit 321A, the second output unit 330 generates a to calculate the moving body velocity v. Then, the second output unit 330 outputs the calculated moving body speed v to the ECU 230 .

ここで、第2出力部330は、ピクセル移動量を「PN」とし、ピクセル距離を「PD」とした場合に、移動体速度vを、次の(7)式により算出する。
v=PN・PD/TP …(7)
Here, the second output unit 330 calculates the moving object velocity v by the following equation (7), where "PN" is the pixel movement amount and "PD" is the pixel distance.
v=PN.PD/TP (7)

《白線領域の特定処理》
次に、特定部322Aによる白線領域の特定処理について説明する。
<Processing to specify the white line area>
Next, the identification processing of the white line area by the identification unit 322A will be described.

かかる白線領域の特定処理は、後述する較正部323Aによるピクセル距離の較正のために行われる。かかるピクセル距離の較正に際しての環境(以下、「較正環境」という)が、図6に示されている。この図6に示されるように、ピクセル距離の較正は、移動体MVが、平坦な路面の等速直線走行で、進行方向の長さW(≒45[cm])の路面上の白線である停止線SPLを、停止線SPLの長手方向に対して直角に横切る際に行われる。 Such white line region identification processing is performed for pixel distance calibration by the calibration unit 323A, which will be described later. The environment for calibrating such pixel distances (hereinafter referred to as "calibration environment") is shown in FIG. As shown in FIG. 6, the pixel distance is calibrated when the moving body MV is running at a constant speed straight on a flat road surface and is a white line on the road surface with a length W (≈45 [cm]) in the traveling direction. It is performed when crossing the stop line SPL at a right angle to the longitudinal direction of the stop line SPL.

なお、以下の説明においては、新たなピクセル距離の較正に利用される停止線SPLは、走行方向位置(すなわち、X方向位置)XRから走行方向位置XPまでが白線領域になっているものとする。 In the following description, it is assumed that the stop line SPL used to calibrate the new pixel distance is a white line area from the running direction position (that is, the X direction position) XR to the running direction position XP. .

さて、取得部310Aから送られた撮像画像データを受けると、特定部322Aは、撮像画像データから得られる画像における白線領域を、当該画像における各ピクセルの明るさに基づいて特定し、特定結果を、白線領域情報として、較正部323Aへ送る(図4参照)。かかる白線領域の特定結果には、図7(A)に示される前方一部白線、及び、図7(B)に示される後方一部白線の2種類が含まれている。 Now, upon receiving the captured image data sent from the acquisition unit 310A, the specifying unit 322A specifies the white line region in the image obtained from the captured image data based on the brightness of each pixel in the image, and obtains the specified result. , to the calibration unit 323A as white line area information (see FIG. 4). The identification result of the white line area includes two types of white line, the front partial white line shown in FIG. 7(A) and the rear partial white line shown in FIG. 7(B).

なお、特定部322Aは、特定結果が前方一部白線の場合には、画像中の白線領域のX方向の長さのピクセル数a(以下、「前方長a」ともいう)を特定する。また、特定部322Aは、特定結果が後方一部白線の場合には、画像中の非白線領域のX方向の長さのピクセル数b(以下、「前方長b」ともいう)を特定する。 If the identification result is a partial white line in the front, the identification unit 322A identifies the number of pixels a in the length of the white line region in the image in the X direction (hereinafter also referred to as "front length a"). Further, when the identification result is the rear partial white line, the identification unit 322A identifies the number of pixels b in the X-direction length of the non-white line region in the image (hereinafter also referred to as “front length b”).

そして、特定部322Aは、前方一部白線の場合には、図7(A)に示される白線領域情報[白線フラグ:ON,前方長:a]を較正部323Aへ送る(図4参照)。また、特定部322Aは、後方一部白線の場合には、図7(B)に示される白線領域情報[白線フラグ:ON,前方長:b]を較正部323Aへ送る(図4参照)。 Then, in the case of a partial front white line, the specifying unit 322A sends the white line area information [white line flag: ON, front length: a] shown in FIG. 7A to the calibration unit 323A (see FIG. 4). In addition, in the case of a partial rear white line, the identification unit 322A sends the white line area information [white line flag: ON, front length: b] shown in FIG. 7B to the calibration unit 323A (see FIG. 4).

《ピクセル距離の較正処理》
次いで、較正部323Aによる較正処理について説明する。
<<Calibration process of pixel distance>>
Next, calibration processing by the calibration section 323A will be described.

較正処理に際しては、較正部323Aは、ナビゲーション装置220から、移動体MVが走行方向に存在する交差点から所定距離以内となった旨を受けたか否かの交差点判定を行う。この交差点判定の結果が肯定的となると、較正部323Aは、ECU230から送られた加速度情報、操舵角情報及び傾き情報により、移動体MVが平坦な路面を等速直進走行していると判断できるか否の等速直進判定を行う。 In the calibration process, the calibration unit 323A determines whether or not it has received from the navigation device 220 that the moving object MV is within a predetermined distance from the intersection in the traveling direction. If the result of this intersection determination is affirmative, the calibration unit 323A can determine that the moving object MV is traveling straight ahead at a constant speed on a flat road surface, based on the acceleration information, steering angle information, and tilt information sent from the ECU 230. It is determined whether or not the vehicle is traveling straight at a constant speed.

等速直進判定の結果が肯定的である場合には、較正部323Aは、特定部322Aから送られた白線領域情報が「前方一部白線」となったか否かの白線開始判定を行う。この白線開始判定の結果が肯定的となると、等速直進判定の結果が肯定的である状態が維持されることを条件として、較正部323Aは、特定部322Aから送られた白線領域情報が「後方一部白線」となった否かの白線終了判定の結果が肯定的となるまで、移動量検出部321Aから送られたピクセル移動量を収集する。 When the result of the constant speed straight running determination is affirmative, the calibration unit 323A determines whether or not the white line area information sent from the specifying unit 322A is "partial front white line". If the result of this white line start determination is affirmative, the calibration unit 323A determines that the white line area information sent from the identification unit 322A is " The pixel movement amounts sent from the movement amount detection unit 321A are collected until the result of the white line end determination of whether or not the "rear part of the white line" is affirmative.

そして、白線終了判定の結果が肯定的となると、較正部323Aは、「前方一部白線」となった時点における白線領域情報に含まれる前方長a、収集されたピクセル移動量ΔX1,…,ΔXM、及び、「後方一部白線」となった時点における白線領域情報に含まれる前方長bに基づいて、暫定ピクセル距離PT[cm]を、次の(8)式により算出する。
PT=45/(a+ΔX1+…+ΔXM-b) …(8)
Then, when the result of the white line end determination is affirmative, the calibration unit 323A calculates the front length a included in the white line area information at the time when the "front partial white line" was obtained, the collected pixel movement amount ΔX 1 , . Based on ΔX M and the front length b included in the white line area information at the time when the "rear partial white line" is reached, the provisional pixel distance PT [cm] is calculated by the following equation (8).
PT=45/(a+ ΔX1 +...+ ΔXM -b)...(8)

次に、較正部323Aは、算出された今回の暫定ピクセル距離と、内部に保持している過去における所定回数の較正時に算出された暫定ピクセル距離との重み付け平均を算出して、今回較正されたピクセル距離を算出する。この後、較正部323Aは、それまで内部に保持していた暫定ピクセル距離のうちで最も古いものに代えて、今回の暫定ピクセル距離を内部に保持する。 Next, the calibration unit 323A calculates a weighted average of the current provisional pixel distance calculated and the provisional pixel distances calculated during the predetermined number of past calibrations held therein, and calculates the weighted average Compute the pixel distance. After that, the calibration unit 323A internally stores the current temporary pixel distance instead of the oldest one among the temporary pixel distances that have been internally stored.

なお、重み付け平均では、現在までの経過時間が長いものほど重みが少なくするようになっている。 In weighted averaging, the longer the elapsed time up to the present, the lower the weight.

較正部323Aは、算出されたピクセル距離を第2出力部330へ送る。この結果、第2出力部330は、新たなピクセル距離を利用した移動体速度vの算出を行うようになる。 Calibrator 323 A sends the calculated pixel distances to second output 330 . As a result, the second output unit 330 calculates the moving body velocity v using the new pixel distance.

なお、図8には、時刻T1で前方一部白線の撮像画像が得られ、時刻T5で後方一部白線の撮像画像が得られた場合の例が示されている。この図8の例では、次の(9)式により、暫定ピクセル距離PT[cm]が算出される。
PT=45/(a+ΔX1+ΔX2+ΔX3+ΔX4-b) …(9)
Note that FIG. 8 shows an example in which a captured image of a front partial white line is obtained at time T1 and a captured image of a rear partial white line is obtained at time T5 . In the example of FIG. 8, the provisional pixel distance PT [cm] is calculated by the following equation (9).
PT=45/(a+ ΔX1 + ΔX2 + ΔX3 + ΔX4 -b) (9)

以上説明したように、第1実施形態では、移動体MVの走行方向に沿って既知の長さを有する路面上特徴部である停止線に関する撮像部210による撮像画像に基づいて、移動量検出部321Aが、ピクセル移動量を検出する。また、特定部322Aが、撮像画像中における白線領域を特定する。そして、較正部323Aが、ピクセル移動量及び撮像画像内における白線領域の特定結果に加えて、移動体MVの走行方向に沿った停止線の既知の長さに基づいて、移動体MVが平坦な路面を等速直進走行していると判断できる場合に、撮像部210と路面との間の距離に関連する、1ピクセルに対応する路面上の距離を較正する。 As described above, in the first embodiment, based on the image captured by the imaging unit 210 regarding the stop line, which is a characteristic portion on the road surface having a known length along the running direction of the moving body MV, the movement amount detection unit 321A detects the amount of pixel movement. Further, the identifying unit 322A identifies the white line area in the captured image. Then, the calibration unit 323A determines whether the mobile object MV is flat based on the known length of the stop line along the traveling direction of the mobile object MV, in addition to the pixel movement amount and the identification result of the white line region in the captured image. When it can be determined that the vehicle is traveling straight on the road at a constant speed, the distance on the road corresponding to one pixel, which is related to the distance between the imaging unit 210 and the road, is calibrated.

したがって、第1実施形態によれば、移動体重量の変化や車輪の空気圧の変化により、路面と撮像部210との距離が変化しても、1ピクセルに対応する路面上の距離を当該変化に応じて較正することができる。 Therefore, according to the first embodiment, even if the distance between the road surface and the imaging unit 210 changes due to a change in the weight of the moving object or a change in the air pressure of the wheels, the distance on the road surface corresponding to one pixel can be adjusted according to the change. can be calibrated accordingly.

また、第1実施形態では、較正結果及びピクセル移動量に基づいて、第2出力部330が、移動体速度を算出する。このため、走行情報として精度の良い移動体速度を出力することができる。 Also, in the first embodiment, the second output unit 330 calculates the velocity of the moving object based on the calibration result and the pixel movement amount. Therefore, it is possible to output the moving body speed with high accuracy as the traveling information.

また、第1実施形態では、路面上特徴部として停止線を採用する。このため、撮像画像の各ピクセルの明るさを調べることにより、停止線領域(すなわち、白線領域)を容易に特定することができる。 In addition, in the first embodiment, a stop line is adopted as a feature on the road surface. Therefore, by checking the brightness of each pixel in the captured image, it is possible to easily identify the stop line area (that is, the white line area).

また、第1実施形態では、交差点に近付いた旨の情報を取得し、停止線を通過することを予め推測する。このため、効率的な較正を行うことができる。 Further, in the first embodiment, information indicating that the vehicle is approaching an intersection is acquired, and it is presumed that the vehicle will pass through the stop line. Therefore, efficient calibration can be performed.

また、第1実施形態では、今回の暫定ピクセル距離と、過去における所定回数の較正時に算出された暫定ピクセル距離との重み付け平均を算出して、最終的な較正結果を得る。
これは、停止線が欠けていたり、塗装がはみ出ていたりして、想定長が45[cm]からずれている場合もあるためである。このため、停止線の進行方向の長さの変動等のピクセル距離の較正結果への影響を抑制した較正を行うことができる。
Further, in the first embodiment, a final calibration result is obtained by calculating a weighted average of the current temporary pixel distance and the temporary pixel distances calculated during a predetermined number of past calibrations.
This is because the estimated length may deviate from 45 [cm] due to missing stop lines or protruding paint. For this reason, it is possible to perform calibration that suppresses the influence of changes in the length of the stop line in the direction of travel, etc., on the calibration result of the pixel distance.

また、第1実施形態では、直進走行中、定速走行中、かつ、路面傾きのない状況であるときに較正を実施する。これは、横方向の移動があると停止線の通過が斜めになり、45[cm]以上の長さに基づいて較正を行ってしまうこと、及び、加速度や減速度が大きいときや路面傾きがある場合は、サスペンション等の伸縮が生じるため、撮像時の光学倍率が変化している最中であることによる。このため、精度の良いピクセル距離の較正を行うことができる。 Further, in the first embodiment, calibration is performed when the vehicle is traveling straight ahead, traveling at a constant speed, and the road surface is not inclined. This is because when there is lateral movement, the passage of the stop line becomes oblique, and calibration is performed based on the length of 45 [cm] or more. In some cases, the expansion and contraction of the suspension or the like occurs, and this is due to the fact that the optical magnification is changing during imaging. Therefore, accurate pixel distance calibration can be performed.

[第2実施形態]
次に、本発明の第2実施形態を、図9~図13を主に参照して説明する。
[Second embodiment]
Next, a second embodiment of the present invention will be described mainly with reference to FIGS. 9 to 13. FIG.

<構成>
図9には、第2実施形態に係る検出装置300Bの構成が、ブロック図にて示されている。図9に示されるように、検出装置300Bは、撮像部210F,210R及びECU230と接続されている。そして、検出装置300B、撮像部210F,210R及びECU230は、移動体MVに搭載されている。
<Configuration>
FIG. 9 shows a block diagram of the configuration of a detection device 300B according to the second embodiment. As shown in FIG. 9, the detection device 300B is connected to the imaging units 210 F and 210 R and the ECU 230 . The detection device 300B, the imaging units 210 F and 210 R , and the ECU 230 are mounted on the mobile object MV.

上記の撮像部210F,210Rのそれぞれは、上述した撮像部210と同様に構成される。そして、撮像部210Fは、移動体MVの前側に配置され、撮像部210Rは、撮像部210Fから距離Dを隔てた移動体MVの後側に配置される(図10参照)。なお、撮像部210F,210Rは、同一タイミングで撮像を行うようになっている。 Each of the imaging units 210 F and 210 R described above is configured in the same manner as the imaging unit 210 described above. The imaging unit 210 F is arranged on the front side of the mobile object MV, and the imaging unit 210 R is arranged on the rear side of the mobile object MV at a distance D from the imaging unit 210 F (see FIG. 10). Note that the imaging units 210 F and 210 R perform imaging at the same timing.

撮像部210Fにより撮像された画像(以下、「前側撮像画像」という)のデータは、検出装置300Bへ送られる。また、撮像部210Rにより撮像された画像(以下、「後側撮像画像」という)のデータも検出装置300Bへ送られる。 The data of the image captured by the imaging unit 210F (hereinafter referred to as "front side captured image") is sent to the detection device 300B. Data of an image captured by the imaging unit 210 R (hereinafter referred to as a “rear side captured image”) is also sent to the detection device 300B.

なお、ECU230からは、上述した第1実施形態の場合と同様に、加速度情報、操舵角情報及び傾き情報を検出装置300Bへ送られる。また、ECU230は、検出装置300Bから送られた移動体速度を更に取得し、取得された移動体速度を移動体MVの走行制御に役立てるようになっている。 Acceleration information, steering angle information, and tilt information are sent from the ECU 230 to the detection device 300B in the same manner as in the first embodiment described above. In addition, the ECU 230 further acquires the moving body speed sent from the detection device 300B, and utilizes the acquired moving body speed for running control of the moving body MV.

上記の検出装置300Bは、図9に示されるように、取得部310Bと、第1出力部320Bとを備えている。また、検出装置300Bは、第2出力部330を備えている。 As shown in FIG. 9, the detection device 300B described above includes an acquisition section 310B and a first output section 320B. The detection device 300B also includes a second output section 330 .

上記の取得部310Bは、撮像部210Fから送られた前側撮像画像のデータ、及び、撮像部210Rから送られた後側撮像画像のデータを受ける。そして、取得部310Bは、前側撮像画像のデータ及び後側撮像画像のデータを第1出力部320Bへ送る。 The acquisition unit 310B described above receives the data of the front-side captured image sent from the imaging unit 210F and the data of the rear-side captured image sent from the imaging unit 210R . Then, the acquisition unit 310B sends the data of the front-side captured image and the data of the rear-side captured image to the first output unit 320B.

上記の第1出力部320Bは、取得部310Bから送られた前側撮像画像のデータ及び後側撮像画像のデータを受ける。そして、第1出力部320Bは、ピクセル移動量を検出するとともに、上述した第1実施形態の場合と同様の較正条件を満たした場合には、ピクセル距離を較正する。検出されたピクセル移動量及び較正されたピクセル距離は、第2出力部330へ出力する。かかる機能を有する第1出力部320Bの構成の詳細については、後述する。 The first output unit 320B described above receives the data of the front side captured image and the data of the rear side captured image sent from the acquisition unit 310B. Then, the first output unit 320B detects the pixel movement amount and calibrates the pixel distance when the same calibration conditions as in the first embodiment described above are satisfied. The detected pixel displacement and calibrated pixel distance are output to the second output 330 . The details of the configuration of the first output section 320B having such functions will be described later.

なお、上記の第2出力部330は、第1出力部320Bから送られたピクセル移動量を受けるたびに、上述した第1実施形態の場合と同様に、最新の較正されたピクセル距離及び周期時間TPに基づいて、移動体MVの走行情報として移動体速度を算出する。そして、第2出力部330は、算出された移動体MVの移動体速度をECU230へ出力する。 It should be noted that the second output section 330 described above outputs the latest calibrated pixel distance and cycle time, as in the first embodiment, each time it receives the pixel shift amount sent from the first output section 320B. Based on the TP, the moving body speed is calculated as the traveling information of the moving body MV. Then, the second output unit 330 outputs the calculated moving body speed of the moving body MV to the ECU 230 .

《第1出力部320Bの構成》
次に、上述した第1出力部320Bの構成について説明する。
<<Configuration of First Output Unit 320B>>
Next, the configuration of the first output section 320B described above will be described.

第1出力部320Bは、図9に示されるように、移動量検出部321Bと、特定部322Bとを備えている。また、第1出力部320Bは、較正部323Bを備えている。 The first output section 320B, as shown in FIG. 9, includes a movement amount detection section 321B and a specification section 322B. The first output section 320B also includes a calibration section 323B.

上記の移動量検出部321Bは、取得部310Bから送られた前側撮像画像のデータ及び後側撮像画像のデータを受ける。そして、移動量検出部321Bは、前側撮像画像のデータ及び後側撮像画像のデータに基づいて、いわゆる変位量探索法によりピクセル移動量を検出する。こうして検出されたピクセル移動量は、較正部323B及び第2出力部330へ送られる。 The movement amount detection unit 321B described above receives the data of the front side captured image and the data of the rear side captured image sent from the acquisition unit 310B. Then, the movement amount detection unit 321B detects the pixel movement amount by a so-called displacement amount search method based on the data of the front side captured image and the data of the rear side captured image. The pixel shift amount thus detected is sent to the calibration section 323B and the second output section 330. FIG.

なお、移動量検出部321Bの動作の詳細については、後述する。 Details of the operation of the movement amount detection unit 321B will be described later.

上記の特定部322Bは、取得部310Bから送られた前側撮像画像のデータ及び後側撮像画像のデータを受ける。そして、特定部322Bは、前側撮像画像のデータ及び後側撮像画像のデータから得られる画像中における白線領域を特定する。こうして特定された白線領域の情報(以下、「白線領域情報」という)は、較正部323Bへ送られる。 The specifying unit 322B described above receives the data of the front side captured image and the data of the rear side captured image sent from the acquisition unit 310B. Then, the specifying unit 322B specifies the white line region in the image obtained from the data of the front side captured image and the data of the rear side captured image. Information on the white line area specified in this way (hereinafter referred to as "white line area information") is sent to the calibration unit 323B.

なお、特定部322Bの動作の詳細については、後述する。 Details of the operation of the identification unit 322B will be described later.

上記の較正部323Bは、移動量検出部321Bから送られたピクセル移動量、及び、特定部322Bから送られた白線領域情報を受ける。そして、較正部323Bは、ECU230から送られた加速度情報、操舵角情報及び傾き情報により、移動体MVが平坦な路面を等速直進走行していると判断できる場合に、当該ピクセル移動量及び当該白線領域情報に加えて、上述した撮像部210Fと撮像部210Rとの間の距離Dに基づいて、ピクセル距離を較正する。こうして較正されたピクセル距離は、第2出力部330へ送られる。 The calibration unit 323B described above receives the pixel movement amount sent from the movement amount detection unit 321B and the white line area information sent from the identification unit 322B. Then, if the calibration unit 323B can determine that the moving object MV is traveling straight ahead at a constant speed on a flat road surface based on the acceleration information, the steering angle information, and the tilt information sent from the ECU 230, the calibration unit 323B In addition to the white line area information, the pixel distance is calibrated based on the distance D between the imaging units 210 F and 210 R described above. The pixel distances thus calibrated are sent to the second output 330 .

なお、較正部323Bの動作の詳細については、後述する。 Details of the operation of the calibration unit 323B will be described later.

<動作>
次に、上記のように較正された検出装置300Bの動作について、検出装置300Bの各要素で行われる処理に着目して説明する。
<Action>
Next, the operation of the detection device 300B calibrated as described above will be described, focusing on the processing performed by each element of the detection device 300B.

なお、撮像部210F,210Rは、既に動作を開始しており、周期時間TPで撮像した路面画像の前側撮像画像のデータ及び後側撮像画像のデータを、逐次、検出装置300Bへ送っているものとする。また、ECU230は、既に動作を開始しており、加速度情報、操舵角情報及び傾き情報を検出装置300Bへ送っているものとする(図9参照)。 Note that the imaging units 210 F and 210 R have already started operating, and sequentially send the data of the front side captured image and the data of the rear side captured image of the road surface image captured at the cycle time TP to the detection device 300B. It is assumed that there is It is also assumed that the ECU 230 has already started operating and has sent acceleration information, steering angle information, and tilt information to the detection device 300B (see FIG. 9).

さらに、検出装置300Bでは、既に、複数回のピクセル距離の較正が行われており、較正部323Bには、最近の所定回数分の較正時刻及び後述する暫定ピクセル距離を含む較正履歴が保持されているとともに、第2出力部330には、最新に較正されたピクセル距離が保持されているのものとする。ここで、ピクセル距離の最初の較正が行われるまでの期間においては、上述した第1実施形態の場合と同様に、第2出力部330には、平均的なピクセル距離が保持されるようになっている。 Furthermore, in the detection device 300B, the pixel distance has already been calibrated a plurality of times, and the calibrating unit 323B holds a calibration history including the calibration times for a predetermined number of times and a provisional pixel distance described later. and the second output 330 holds the latest calibrated pixel distance. Here, until the pixel distance is calibrated for the first time, the average pixel distance is held in the second output unit 330 as in the first embodiment described above. ing.

《画像データの取得処理》
検出装置300Bでは、取得部310Bが、撮像部210F,210Rから送られた前側撮像画像のデータ及び後側撮像画像のデータを受ける。そして、取得部310Bは、前側撮像画像のデータ及び後側撮像画像のデータを、第1出力部320Bの移動量検出部321B及び特定部322Bへ送る(図9参照)。
<<Acquisition processing of image data>>
In the detection device 300B, the acquisition unit 310B receives the data of the front side captured image and the data of the rear side captured image sent from the imaging units 210F and 210R . Then, the acquisition unit 310B sends the data of the front-side captured image and the data of the rear-side captured image to the movement amount detection unit 321B and the identification unit 322B of the first output unit 320B (see FIG. 9).

《ピクセル移動量の検出処理》
次に、移動量検出部321Bによるピクセル移動量の検出処理について説明する。
<<Processing to detect the amount of pixel movement>>
Next, detection processing of the pixel movement amount by the movement amount detection unit 321B will be described.

取得部310Bから送られた前側撮像画像のデータを受けると、移動量検出部321Bは、上述した第1実施形態のピクセル移動量の検出と同様にして、今回の前側撮像画像のデータから得られる今回前側撮像画像と前回の前側撮像画像のデータから得られる前回前側撮像画像とにおける共通の特徴領域の位置の変位量を、前側ピクセル移動量として検出する。また、取得部310Bから送られた後側撮像画像のデータを受けると、移動量検出部321Bは、第1実施形態のピクセル移動量の検出と同様にして、今回の後側撮像画像のデータから得られる今回後側撮像画像と前回の後側撮像画像のデータから得られる前回後側撮像画像とにおける共通の特徴領域の位置の変位量を、後側ピクセル移動量として検出する。 When receiving the data of the front side captured image sent from the acquisition unit 310B, the movement amount detection unit 321B obtains from the data of the current front side captured image in the same manner as the detection of the pixel movement amount in the first embodiment described above. The amount of displacement of the position of the common characteristic region in the previous front side captured image obtained from the data of the current front side captured image and the previous front side captured image is detected as the front side pixel shift amount. Further, when receiving the data of the rear-side captured image sent from the acquisition unit 310B, the movement amount detection unit 321B detects the pixel movement amount from the data of the current rear-side captured image in the same manner as in the detection of the pixel movement amount in the first embodiment. The amount of displacement of the position of the common characteristic region in the currently obtained rear side captured image and the previous rear side captured image obtained from the data of the previous rear side captured image is detected as the rear side pixel shift amount.

なお、今回前側撮像画像と前回前側撮像画像とに共通する特徴領域が複数ある場合には、移動量検出部321Bは、複数の特徴領域のそれぞれの変位量の平均値を、前側ピクセル移動量として採用する。また、今回後側撮像画像と前回後側撮像画像とに共通する特徴領域が複数ある場合には、移動量検出部321Bは、複数の特徴領域のそれぞれの変位量の平均値を、後側ピクセル移動量として採用する。 Note that when there are a plurality of characteristic regions common to the current front-side captured image and the previous front-side captured image, the movement amount detection unit 321B calculates the average value of the displacement amounts of the plurality of characteristic areas as the front-side pixel movement amount. adopt. In addition, when there are a plurality of characteristic regions common to the current rear-side captured image and the previous rear-side captured image, the movement amount detection unit 321B calculates the average value of the displacement amount of each of the plurality of characteristic regions as a rear-side pixel. Adopted as the amount of movement.

引き続き、移動量検出部321Bは、前側ピクセル移動量と後側ピクセル移動量との平均を、ピクセル移動量として算出する。そして、移動量検出部321Bは、算出されたピクセル移動量を較正部323B及び第2出力部330へ送る(図9参照)。 Subsequently, the movement amount detection unit 321B calculates the average of the front side pixel movement amount and the rear side pixel movement amount as the pixel movement amount. Then, the movement amount detection section 321B sends the calculated pixel movement amount to the calibration section 323B and the second output section 330 (see FIG. 9).

《移動体速度vの出力処理》
次いで、第2出力部330による移動体速度vの出力処理について説明する。
<<Output processing of moving body speed v>>
Next, the process of outputting the moving object velocity v by the second output unit 330 will be described.

移動量検出部321Bから送られたピクセル移動量を受けると、第2出力部330は、第1実施形態の場合と同様にして、ピクセル移動量、保持しているピクセル距離(すなわち、最新に較正されたピクセル距離)及び周期時間TPに基づいて移動体速度vを算出する。そして、第2出力部330は、算出された移動体速度vをECU230へ出力する。 Upon receiving the pixel movement amount sent from the movement amount detection unit 321B, the second output unit 330 outputs the pixel movement amount, the retained pixel distance (that is, the latest calibrated The moving body velocity v is calculated based on the calculated pixel distance) and the period time TP. Then, the second output unit 330 outputs the calculated moving body speed v to the ECU 230 .

《白線領域の特定処理》
次に、特定部322Bによる白線領域の特定処理について説明する。
<Processing to specify the white line area>
Next, the process of specifying the white line area by the specifying unit 322B will be described.

かかる白線領域の特定処理は、後述する較正部323Bによるピクセル距離の較正のために行われる。かかるピクセル距離の較正環境が、図11に示されている。この図11に示されるように、ピクセル距離の較正は、移動体MVが、平坦な路面にある例えば横断歩道標示のような白線領域LCPを等速直線走行で横切る際に行われる。 Such white line area identification processing is performed for pixel distance calibration by the calibration unit 323B, which will be described later. Such a pixel distance calibration environment is shown in FIG. As shown in FIG. 11, pixel distance calibration is performed when the moving body MV crosses a white line area LCP, such as a pedestrian crossing sign, on a flat road surface at a constant speed straight line.

なお、以下の説明においては、新たなピクセル距離の較正に利用される白線領域LCPは、走行方向位置(すなわち、X方向位置)XRから走行方向位置XPまでが白線領域になっているものとする。 In the following description, it is assumed that the white line area LCP used for calibrating the new pixel distance is the white line area from the running direction position (that is, the X direction position) XR to the running direction position XP. .

さて、取得部310Bから送られた前側撮像画像のデータ及び後側撮像画像のデータを受けると、特定部322Bは、前側撮像画像及び後側撮像画像における白線領域を、当該画像における各ピクセルの明るさに基づいて特定し、特定結果を、白線領域情報として、較正部323Bへ送る(図9参照)。かかる白線領域の特定結果には、図12(A)に示される「第1後方一部白線」、及び、図12(B)に示される「第2後方一部白線」の2種類が含まれる。ここで、「第1後方一部白線」は、前側設置の撮像部210Fによる撮像で得られた前側撮像画像における後方一部白線の状態である。また、「第2後方一部白線」は、後側設置の撮像部210Rによる撮像で得られた後側撮像画像における後方一部白線の状態である。 Upon receiving the data of the front-side captured image and the data of the rear-side captured image sent from the acquisition unit 310B, the specifying unit 322B determines the white line region in the front-side captured image and the rear-side captured image by the brightness of each pixel in the image. Then, the identification result is sent to the calibrating section 323B as white line area information (see FIG. 9). The identification result of the white line area includes two types of "first rear partial white line" shown in FIG. 12(A) and "second rear partial white line" shown in FIG. 12(B). . Here, the "first rear partial white line" is the state of the rear partial white line in the front-side captured image obtained by the imaging unit 210F installed on the front side. Further, the “second rear partial white line” is the state of the rear partial white line in the rear side captured image obtained by imaging with the imaging unit 210 R installed on the rear side.

なお、第2実施形態では、特定部322Bは、前側撮像画像において、白線を通過する際に「第1後方一部白線」となるまでの白線が明確に特定できる状態が継続したことを条件として、白線領域情報を生成するようになっている。このため、タイヤ痕等により白線が明確に特定できなかった場合には、特定部322Bは、白線領域情報を生成しない。すなわち、第2実施形態では、タイヤ痕等により白線が明確に特定できなかった場合には、ピクセル距離の較正を行わない。 Note that, in the second embodiment, the identification unit 322B continues to clearly identify the white line until it becomes the "first rear partial white line" when passing the white line in the front captured image. , to generate white line area information. Therefore, when the white line cannot be clearly specified due to tire marks or the like, the specifying unit 322B does not generate the white line area information. That is, in the second embodiment, when the white line cannot be clearly specified due to tire marks or the like, the pixel distance is not calibrated.

また、第2実施形態において前側撮像画像における第1後方一部白線及び後側撮像画像における第2後方一部白線に着目して白線領域の特定を行うのは、細い白線の場合は撮像画像内に複数の白線が入っていると計測に間違いを生じやすいことにもよる。かかる工夫を行うことにより、無駄な較正を行わずに済むので、無駄をなくせる。 In the second embodiment, the white line region is specified by focusing on the first rear partial white line in the front side captured image and the second rear partial white line in the rear side captured image. This is also due to the fact that errors in measurement are likely to occur if there are multiple white lines on the line. By taking such measures, it is possible to avoid wasteful calibration, thereby eliminating wastefulness.

なお、特定部322Bは、特定結果が前側撮像画像における第1後方一部白線の場合には、画像中の非白線領域のX方向の長さa(以下、「前方長a」ともいう)を特定する。また、特定部322Bは、特定結果が後側撮像画像における第2後方一部白線の場合には、画像中の非白線領域のX方向の長さb(以下、「前方長b」ともいう)を特定する。 Note that when the identification result is the first rear partial white line in the front side captured image, the identification unit 322B determines the length a in the X direction of the non-white line region in the image (hereinafter also referred to as “front length a”). Identify. Further, when the identification result is the second rear partial white line in the rear side captured image, the identification unit 322B determines the length b in the X direction of the non-white line region in the image (hereinafter also referred to as “front length b”). identify.

そして、特定部322Bは、前側撮像画像における第1後方一部白線の場合には、図12(A)に示される白線領域情報[第1後方一部白線フラグ:ON,前方長:a]を較正部323Bへ送る(図9参照)。また、特定部322Bは、第2後方一部白線の場合には、図12(B)に示される白線領域情報[第2後方一部白線フラグ:ON,前方長:b]を較正部323Bへ送る(図9参照)。 Then, in the case of the first rear partial white line in the front side captured image, the specifying unit 322B sets the white line area information [first rear partial white line flag: ON, front length: a] shown in FIG. Send to calibration unit 323B (see FIG. 9). In the case of the second rear partial white line, the specifying unit 322B transmits the white line area information [second rear partial white line flag: ON, front length: b] shown in FIG. 12B to the calibration unit 323B. send (see Figure 9).

《ピクセル距離の較正処理》
次いで、較正部323Bによる較正処理について説明する。
<<Calibration process of pixel distance>>
Next, the calibration processing by the calibration section 323B will be described.

較正処理に際しては、較正部323Bは、ECU230から送られた加速度情報、操舵角情報及び傾き情報により、移動体MVが平坦な路面での等速直進走行をしていると判断できるか否の等速直進判定を行う。 In the calibration process, the calibration unit 323B determines whether or not the moving object MV is traveling straight ahead at a constant speed on a flat road surface based on the acceleration information, the steering angle information, and the inclination information sent from the ECU 230. Fast straight ahead judgment is performed.

等速直進判定の結果が肯定的である場合には、較正部323Bは、特定部322Bから送られた前側撮像画像における白線領域情報が「第1後方一部白線」となったか否かの前側白線終了判定を行う。この前側白線終了判定の結果が肯定的となると、平坦な路面での等速直進判定の結果が肯定的である状態が維持されることを条件として、較正部323Bは、特定部322Bから送られた後側撮像画像における白線領域情報が「第2後方一部白線」となった否かの後側白線終了判定の結果が肯定的となるまで、移動量検出部321Bから送られたピクセル移動量ΔX1,…,ΔXNを収集する(図13参照)。 If the result of the constant-velocity straight running determination is affirmative, the calibration unit 323B determines whether or not the white line area information in the front side captured image sent from the specifying unit 322B is the "first rear partial white line". Judge the end of the white line. When the result of the front side white line end determination is affirmative, the calibrating unit 323B is sent from the specifying unit 322B on condition that the result of the constant speed straight driving determination on a flat road surface is maintained affirmative. The pixel movement amount sent from the movement amount detection unit 321B is continued until the result of the rear-side white line end determination indicating whether or not the white line area information in the rear-side captured image is the "second rear partial white line" becomes affirmative. Collect ΔX 1 , . . . , ΔX N (see FIG. 13).

そして、後側白線終了判定の結果が肯定的となると、較正部323Bは、前側撮像画像における白線領域情報が「第1後方一部白線」となった時点における白線領域情報に含まれる前方長a、収集されたピクセル移動量ΔX1,…,ΔXN、及び、後側撮像画像における白線領域情報が「第2後方一部白線」となった時点における白線領域情報に含まれる前方長b、並びに、撮像部210Fと撮像部210Rとの間の距離Dに基づいて、暫定ピクセル距離PT[cm]を、次の(10)式により算出する。
PT=D/(a+ΔX1+…+ΔXN-b) …(10)
Then, when the result of the rear side white line end determination is affirmative, the calibration unit 323B calculates the front length a , the collected pixel movement amounts ΔX 1 , . , based on the distance D between the imaging unit 210 F and the imaging unit 210 R , the provisional pixel distance PT [cm] is calculated by the following equation (10).
PT=D/(a+ ΔX1 +...+ ΔXN -b)...(10)

次に、較正部323Bは、算出された今回の暫定ピクセル距離と、内部に保持している過去における所定回数の較正時に算出された暫定ピクセル距離との重み付け平均を算出して、今回較正されたピクセル距離を算出する。この後、較正部323Bは、それまで内部に保持していた暫定ピクセル距離のうちで最も古いものに代えて、今回の暫定ピクセル距離を内部に保持する。 Next, the calibrating unit 323B calculates a weighted average of the current temporary pixel distance calculated and the temporary pixel distances calculated during a predetermined number of past calibrations held internally, and calculates the current calibrated Compute the pixel distance. After that, the calibrating unit 323B internally stores the current temporary pixel distance instead of the oldest one among the temporary pixel distances that have been internally stored.

なお、重み付け平均では、第1実施形態の場合と同様に、現在までの経過時間が長いものほど重みが少なくするようになっている。 In the weighted averaging, as in the case of the first embodiment, the longer the elapsed time up to the present, the smaller the weight.

較正部323Bは、算出されたピクセル距離を第2出力部330へ送る。この結果、第2出力部330は、新たなピクセル距離を利用した移動体速度vの算出を行うようになる。 Calibrator 323 B sends the calculated pixel distances to second output 330 . As a result, the second output unit 330 calculates the moving body velocity v using the new pixel distance.

以上説明したように、第2実施形態では、移動体MVの走行方向に沿って既知の距離Dで移動体MVに配置された撮像部210F,210Rによる路面上特徴部である白線の撮像画像に基づいて、移動量検出部321Bが、ピクセル移動量を検出する。また、特定部322Bが、撮像画像中における白線領域を特定する。そして、較正部323Bが、ピクセル移動量及び撮像画像内における白線領域の特定結果に加えて、既知の距離Dに基づいて、移動体MVが平坦な路面を等速直進走行していると判断できる場合に、撮像部210F,210Rと路面との間の距離に関連する、1ピクセルに対応する路面上の距離を較正する。 As described above, in the second embodiment, the image pickup units 210 F and 210 R arranged on the moving body MV at a known distance D along the running direction of the moving body MV capture images of the white line, which is a feature on the road surface. Based on the image, the movement amount detection unit 321B detects the pixel movement amount. Further, the identifying unit 322B identifies the white line area in the captured image. Then, the calibration unit 323B can determine that the mobile object MV is traveling straight ahead at a constant speed on a flat road surface based on the known distance D in addition to the pixel movement amount and the result of specifying the white line area in the captured image. In this case, calibrate the distance on the road surface corresponding to one pixel, which is related to the distance between the imaging units 210 F and 210 R and the road surface.

したがって、第2実施形態によれば、路面上特徴部である白線が移動体の走行方向に沿った長さが既知であるか未知であるかにかかわらず、移動体重量の変化や車輪の空気圧の変化により、路面と撮像部との距離が変化しても、1ピクセルに対応する路面上の距離を当該変化に応じて較正することができる。 Therefore, according to the second embodiment, regardless of whether the length of the white line, which is a feature on the road surface, along the traveling direction of the mobile body is known or unknown, the change in the weight of the mobile body and the air pressure of the wheels Even if the distance between the road surface and the imaging unit changes due to a change in , the distance on the road surface corresponding to one pixel can be calibrated according to the change.

また、第2実施形態では、較正結果及びピクセル移動量に基づいて、第2出力部が、移動体速度を算出する。このため、走行情報として精度の良い移動体速度を出力することができる。 Also, in the second embodiment, the second output unit calculates the velocity of the moving body based on the calibration result and the pixel movement amount. Therefore, it is possible to output the moving body speed with high accuracy as the traveling information.

また、第2実施形態では、路面上特徴部として白線を採用する。このため、撮像画像の各ピクセルの明るさを調べることにより、白線領域を容易に特定することができる。 In addition, in the second embodiment, a white line is adopted as a feature on the road surface. Therefore, it is possible to easily identify the white line area by checking the brightness of each pixel in the captured image.

また、第2実施形態では、第1実施形態の場合と同様に、今回の暫定ピクセル距離と、過去における最近における所定回数の較正時に算出された暫定ピクセル距離との重み付け平均を算出して、最終的な較正結果を得る。このため、白線の進行方向の長さの変動等のピクセル距離の較正結果への影響を抑制した較正を行うことができる。 Further, in the second embodiment, as in the first embodiment, a weighted average of the current provisional pixel distance and the provisional pixel distances calculated during a predetermined number of recent calibrations in the past is calculated, and the final to obtain accurate calibration results. For this reason, it is possible to perform calibration that suppresses the influence of changes in the length of the white line in the traveling direction, etc., on the calibration result of the pixel distance.

また、第2実施形態では、第1実施形態の場合と同様に、直進走行中、定速走行中、かつ、路面傾きのない状況であるときに較正を実施する。このため、精度の良いピクセル距離の較正を行うことができる。 Further, in the second embodiment, as in the case of the first embodiment, calibration is performed when the vehicle is traveling straight ahead, traveling at a constant speed, and the road surface is not inclined. Therefore, accurate pixel distance calibration can be performed.

[実施形態の変形]
本発明は、上記の第1及び第2実施形態に限定されるものではなく、様々な変形が可能である。
[Modification of Embodiment]
The present invention is not limited to the first and second embodiments described above, and various modifications are possible.

例えば、上記の第1実施形態では、路面上特徴部として交差点の手前の停止線を採用するようにしたが、移動体の走行方向に沿って既知の長さを有する道路標示であれば、他の種類の道路標示を路面上特徴部として採用してもよい。 For example, in the above-described first embodiment, the stop line in front of the intersection is used as the characteristic portion on the road surface. types of road markings may be employed as road surface features.

また、上記の第2実施形態では、路面上特徴部として横断歩道等の白線を採用するようにしたが、白線以外の道路標示を路面上特徴部として採用してもよい。 In addition, in the above-described second embodiment, white lines such as pedestrian crossings are used as characteristic portions on the road surface, but road markings other than white lines may be used as characteristic portions on the road surface.

また、上記の第2実施形態では、前側画像の時間変化から得られる前側ピクセル移動量と、後側画像の時間変化から得られる後側ピクセル移動量との平均をピクセル移動量として検出するようにした。これに対し、前側ピクセル移動量及び後側ピクセル移動量のいずれか一方をピクセル移動量として検出するようにしてもよい。 Further, in the above-described second embodiment, the average of the front side pixel movement amount obtained from the time change of the front side image and the rear side pixel movement amount obtained from the time change of the rear side image is detected as the pixel movement amount. did. On the other hand, either one of the front side pixel movement amount and the rear side pixel movement amount may be detected as the pixel movement amount.

また、上記の第2実施形態では、前側撮像画像が第1後方一部白線となった時点から後側撮像画像が第2後方一部白線となった時点までの撮像画像の変化に基づいて、ピクセル距離を較正するようにした。これに対し、前側撮像画像が第1前方一部白線となった時点から後側撮像画像が第2前方一部白線となった時点までの撮像画像の変化に基づいて、ピクセル距離を較正するようにしてもよい。 Further, in the above-described second embodiment, based on the change in the captured image from the time when the front side captured image becomes the first rear partial white line to the time when the rear side captured image becomes the second rear partial white line, Now calibrate the pixel distance. On the other hand, the pixel distance is calibrated based on the change in the captured image from the time when the front side captured image becomes the first front partial white line to the time when the rear side captured image becomes the second front partial white line. can be

また、上記の第1及び第2実施形態では、いわゆる変位量探索法によりピクセル移動量を検出するようにしたが、画像相関法又は空間フィルタ法によりピクセル移動量を検出するようにしてもよい。 Further, in the first and second embodiments described above, the pixel movement amount is detected by the so-called displacement amount search method, but the pixel movement amount may be detected by the image correlation method or the spatial filter method.

また、上記の第1及び第2実施形態では、撮像部と路面との距離に関連する距離関連情報として、1ピクセルに対応する路面上の距離であるピクセル距離を較正するようにした。これに対し、複数ピクセルの集合である所定の画像要素の走行方向の長さ対応する路面上の距離である画像要素距離を較正するようにしてもよい。 In the first and second embodiments described above, the pixel distance, which is the distance on the road surface corresponding to one pixel, is calibrated as the distance-related information related to the distance between the imaging unit and the road surface. On the other hand, it is also possible to calibrate the image element distance, which is the distance on the road surface corresponding to the length in the running direction of a predetermined image element, which is a set of a plurality of pixels.

また、上記の第1及び第2実施形態では、第2出力部が走行情報として移動体速度(走行速度)を出力するようにしたが、移動体速度に代えて、又は、移動体速度に加えて、走行距離を出力するようにしてもよい。 Further, in the first and second embodiments described above, the second output unit outputs the moving body speed (running speed) as the running information. may be used to output the traveled distance.

また、上記の第1及び第2実施形態では、今回の暫定ピクセル距離と、過去の所定数の暫定ピクセル距離との重み付け平均を算出してピクセル距離を較正するようにした。これに対し、今回の暫定ピクセル距離をそのまま、較正されたピクセル距離としてもよい。 In the first and second embodiments described above, the pixel distance is calibrated by calculating the weighted average of the current temporary pixel distance and a predetermined number of previous temporary pixel distances. Alternatively, the current temporary pixel distance may be used as the calibrated pixel distance.

また、上記の第1及び第2実施形態では、撮像部が検出装置の外部に用意されることを前提としたが、検出装置が撮像部を備えるようにしてもよい。 Further, in the above-described first and second embodiments, it is assumed that the imaging unit is provided outside the detecting device, but the detecting device may be provided with the imaging unit.

また、上記の第1及び第2実施形態では、検出装置が移動体に搭載されるようにした。これに対し、検出装置を移動体外に設置し、車両搭載の撮像部やECUと無線通信網を介して接続するようにしてもよい。 Further, in the above-described first and second embodiments, the detection device is mounted on the moving body. On the other hand, the detection device may be installed outside the moving body and connected to the vehicle-mounted imaging unit or ECU via a wireless communication network.

なお、上記の第1及び第2実施形態の検出装置を、中央処理装置(CPU:Central Processing Unit)等を備えた演算手段としてのコンピュータとして構成し、予め用意されたプログラムを当該コンピュータで実行することにより、上記の第1及び第2実施形態の検出装置の機能の一部又は全部を実行するようにしてもよい。このプログラムはハードディスク、CD-ROM、DVD等のコンピュータで読み取り可能な記録媒体に記録され、当該コンピュータによって記録媒体からロードされて実行される。また、このプログラムは、CD-ROM、DVD等の可搬型記録媒体に記録された形態で取得されるようにしてもよいし、インターネットなどのネットワークを介した配信の形態で取得されるようにしてもよい。 In addition, the detection device of the first and second embodiments is configured as a computer as a calculation means including a central processing unit (CPU: Central Processing Unit), etc., and a program prepared in advance is executed on the computer. Accordingly, part or all of the functions of the detection devices of the first and second embodiments may be executed. This program is recorded in a computer-readable recording medium such as a hard disk, CD-ROM, or DVD, and is loaded from the recording medium and executed by the computer. In addition, this program may be acquired in the form of being recorded on a portable recording medium such as a CD-ROM or DVD, or may be acquired in the form of distribution via a network such as the Internet. good too.

次に、本発明の実施例を、図14~図23を主に参照して説明する。なお、以下の説明においては、上述した実施形態を含めて、同一又は同等の要素には同一の符号を付し、重複する説明を極力省略する。 Next, embodiments of the present invention will be described mainly with reference to FIGS. 14 to 23. FIG. In addition, in the following description, including the embodiment described above, the same or equivalent elements are denoted by the same reference numerals, and overlapping descriptions are omitted as much as possible.

[第1実施例]
まず、本発明の第1実施例を、図14~図19を主に参照して説明する。
[First embodiment]
First, a first embodiment of the present invention will be described mainly with reference to FIGS. 14 to 19. FIG.

<構成>
図14には、第1実施例に係る検出装置100Aの構成が概略的に示されている。この検出装置100Aは、上述した第1実施形態に係る検出装置300Aの一態様となっている。
<Configuration>
FIG. 14 schematically shows the configuration of the detection device 100A according to the first embodiment. This detection device 100A is one aspect of the detection device 300A according to the first embodiment described above.

図14に示されるように、検出装置100Aは、撮像部210、ナビゲーション装置220及びECU230と接続されている。そして、検出装置100A、撮像部210、ナビゲーション装置220及びECU230は、車両CRに搭載されている。 As shown in FIG. 14, the detection device 100A is connected to an imaging section 210, a navigation device 220 and an ECU 230. As shown in FIG. The detection device 100A, the imaging unit 210, the navigation device 220 and the ECU 230 are mounted on the vehicle CR.

上記の検出装置100Aは、制御ユニット110Aを備えている。また、検出装置100Aは、記憶ユニット120を備えている。 The detection device 100A described above comprises a control unit 110A. The detection device 100A also includes a storage unit 120 .

上記の制御ユニット110Aは、演算手段としての中央処理装置(CPU)を備えて構成される。この制御ユニット110Aは、プログラムを実行することにより、上述した第1実施形態における検出装置300Aとしての機能、すなわち、取得部310A、第1出力部320A及び第2出力部330としての機能を果たすようになっている。 The above control unit 110A is configured with a central processing unit (CPU) as a computing means. By executing a program, the control unit 110A functions as the detection device 300A in the above-described first embodiment, that is, functions as the acquisition unit 310A, the first output unit 320A, and the second output unit 330. It has become.

制御ユニット110Aが実行するプログラムは、記憶ユニット120に記憶され、記録ユニットからロードされて実行される。このプログラムは、CD-ROM、DVD等の可搬型記録媒体に記録された形態で取得されるようにしてもよいし、インターネットなどのネットワークを介した配信の形態で取得されるようにしてもよい。 A program executed by the control unit 110A is stored in the storage unit 120, loaded from the recording unit and executed. This program may be obtained in a form recorded on a portable recording medium such as a CD-ROM or DVD, or may be obtained in a form of distribution via a network such as the Internet. .

なお、制御ユニット110Aが実行する処理については、後述する。 Processing executed by the control unit 110A will be described later.

上記の記憶ユニット120には、制御ユニット110Aは利用する様々な情報データが記憶される。こうした情報データには、制御ユニット110Aが実行するプログラム、最新のピクセル移動量、最新のピクセル距離を含む較正履歴等が含まれている。この記憶ユニット120には、制御ユニット110Aがアクセスできるようになっている。 Various information data used by the control unit 110A are stored in the storage unit 120 described above. Such information data includes programs executed by the control unit 110A, calibration history including the most recent pixel displacements, most recent pixel distances, and the like. The storage unit 120 is accessible by the control unit 110A.

<動作>
次に、上記のように構成された検出装置100Aによる検出動作について、制御ユニット110Aによる処理に着目して説明する。
<Action>
Next, the detection operation by the detection device 100A configured as described above will be described, focusing on the processing by the control unit 110A.

なお、撮像部210は、既に動作を開始しており、周期時間TPで撮像した路面画像の撮像画像データを、逐次、検出装置100Aへ送っているものとする。また、ナビゲーション装置220は、既に動作を開始しており、車両CRが、走行方向に存在する交差点から所定距離以内となると、その旨を検出装置100Aへ送るようになっているものとする。また、ECU230は、既に動作を開始しており、加速度情報、操舵角情報及び傾き情報を検出装置100Aへ送っているものとする(図14参照)。 It is assumed that the imaging unit 210 has already started operating and is sequentially sending the captured image data of the road surface image captured at the cycle time TP to the detection device 100A. It is also assumed that the navigation device 220 has already started its operation, and when the vehicle CR is within a predetermined distance from an intersection in the traveling direction, it sends a notification to the detection device 100A. It is also assumed that the ECU 230 has already started operating and has sent acceleration information, steering angle information, and tilt information to the detection device 100A (see FIG. 14).

さらに、検出装置100Aでは、既に、複数回のピクセル距離の較正が行われており、記憶ユニット120には、最近の所定回数分の較正時刻、前回の撮像画像から抽出された特徴領域の特性及び画像内位置、並びに、後述する暫定ピクセル距離を含む較正履歴等が記憶されているものとする。ここで、ピクセル距離の最初の較正が行われるまでの期間においては、記憶ユニット120には、平均的なピクセル距離が記憶されるようになっている。 Further, in the detection device 100A, the pixel distance has already been calibrated a plurality of times, and the storage unit 120 stores a predetermined number of recent calibration times, characteristics of the feature region extracted from the previous captured image, and It is assumed that the position in the image and the calibration history including the provisional pixel distance, which will be described later, are stored. Here, the average pixel distance is stored in the storage unit 120 until the pixel distance is calibrated for the first time.

《ピクセル移動量の検出処理》
まず、制御ユニット110Aによるピクセル移動量の検出処理について説明する。
<<Processing to detect the amount of pixel movement>>
First, the pixel movement amount detection processing by the control unit 110A will be described.

ピクセル移動量の検出処理に際しては、図15に示されるように、まず、ステップS11において、制御ユニット110Aが、新たな撮像画像データを受けたか否かを判定する。ステップS11における判定の結果が否定的であった場合(ステップS11:N)には、ステップS11の処理が繰り返される。 As shown in FIG. 15, the control unit 110A first determines whether or not the control unit 110A has received new captured image data in step S11 during the process of detecting the pixel movement amount. If the result of determination in step S11 is negative (step S11: N), the process of step S11 is repeated.

新たな撮像画像データを受け、ステップS11における判定の結果が肯定的となると(ステップS11:Y)、処理はステップS12へ進む。このステップS12では、制御ユニット110Aが、新たな撮像画像データから得られる撮像画像(今回の撮像画像)における特徴領域を抽出し、当該特徴領域の特性及び画像内位置を特定する。 When new captured image data is received and the result of determination in step S11 becomes affirmative (step S11: Y), the process proceeds to step S12. In this step S12, the control unit 110A extracts the characteristic region in the captured image (currently captured image) obtained from the new captured image data, and specifies the characteristics and the position in the image of the characteristic region.

次に、ステップS13において、制御ユニット110Aが、ピクセル移動量を検出する。かかるピクセル移動量の検出に際して、制御ユニット110Aは、記憶ユニット120内の前回の撮像画像から抽出された特徴領域の特性及び画像内位置を参照して、今回の撮像画像と前回の撮像画像とにおける共通の特徴領域の画像内位置の変位量を、新たなピクセル移動量として検出する。 Next, in step S13, the control unit 110A detects the amount of pixel movement. When detecting such a pixel movement amount, the control unit 110A refers to the characteristic region and the position in the image extracted from the previous captured image in the storage unit 120, and compares the current captured image and the previous captured image. A displacement amount of the position of the common feature region in the image is detected as a new pixel displacement amount.

なお、共通する特徴領域が複数ある場合には、制御ユニット110Aは、複数の特徴領域のそれぞれの変位量の平均値を、ピクセル移動量として採用する。 Note that when there are a plurality of common characteristic regions, the control unit 110A adopts the average value of the respective displacement amounts of the plurality of characteristic regions as the pixel movement amount.

そして、制御ユニット110Aは、今回の撮像画像における特徴領域の特性及び画像内位置を、前回の撮像画像から抽出された特徴領域の特性及び画像内位置として記憶ユニット120内に登録する。また、制御ユニット110Aは、新たなピクセル移動量を、最新のピクセル移動量として記憶ユニット120内に登録する。 Then, the control unit 110A registers, in the storage unit 120, the characteristics and the in-image position of the characteristic region in the current captured image as the characteristics and the in-image position of the characteristic region extracted from the previous captured image. Control unit 110A also registers the new pixel shift amount in storage unit 120 as the latest pixel shift amount.

こうしてステップS13の処理が終了すると、処理はステップS11へ戻る。以後、ステップS11~S13が繰り返され、新たな撮像画像のデータを受けるたびに、ピクセル移動量が検出される。 When the process of step S13 ends in this way, the process returns to step S11. Thereafter, steps S11 to S13 are repeated, and the pixel shift amount is detected each time data of a new captured image is received.

《車体速度vの出力処理》
次いで、制御ユニット110Aによる車体速度vの出力処理について説明する。
<<Output processing of vehicle speed v>>
Next, the output processing of the vehicle body speed v by the control unit 110A will be described.

車体速度vの出力処理に際しては、図16に示されるように、まず、ステップS21において、制御ユニット110Aが、新たなピクセル移動量が検出されたか否かを判定する。ステップS21における判定の結果が否定的であった場合(ステップS21:N)には、ステップS21の処理が繰り返される。 When outputting the vehicle body speed v, as shown in FIG. 16, first, in step S21, the control unit 110A determines whether or not a new pixel movement amount has been detected. If the result of determination in step S21 is negative (step S21: N), the process of step S21 is repeated.

新たなピクセル移動量が検出され、ステップS21における判定の結果が肯定的となると(ステップS21:Y)、処理はステップS22へ進む。このステップS22では、記憶ユニット120内に登録されている最新のピクセル移動量(PN)及び最新のピクセル距離(PL)に基づいて、上述した(7)式により、車体速度vを算出する。そして、制御ユニット110Aは、算出された車体速度vをECU230へ出力する。 When a new pixel shift amount is detected and the result of determination in step S21 is affirmative (step S21: Y), the process proceeds to step S22. In this step S22, based on the latest pixel movement amount (PN) and the latest pixel distance (PL) registered in the storage unit 120, the vehicle body speed v is calculated by the above equation (7). Then, control unit 110A outputs the calculated vehicle body speed v to ECU 230 .

こうしてステップS22の処理が終了すると、処理はステップS21へ戻る。以後、ステップS21,S22の処理が繰り返され、新たなピクセル移動量が検出されるたびに、すなわち、新たな撮像データを受けるたびに、新たな車体速度vが算出され、算出された車体速度vがECU230へ出力される。 When the process of step S22 ends in this way, the process returns to step S21. After that, the processing of steps S21 and S22 is repeated, and each time a new pixel movement amount is detected, that is, each time new imaging data is received, a new vehicle body speed v is calculated, and the calculated vehicle body speed v is output to the ECU 230 .

《白線領域の特定処理》
次に、制御ユニット110Aによる白線領域の特定処理について説明する。なお、当該白線領域の特定処理は、上述したピクセル移動量の検出処理及び車体速度vの出力処理と並行して実行される。
<Processing to specify the white line area>
Next, the process of identifying the white line area by the control unit 110A will be described. Note that the process of specifying the white line area is executed in parallel with the process of detecting the amount of pixel movement and the process of outputting the vehicle speed v described above.

かかる白線領域の特定処理は、後述するピクセル距離の較正のために行われる。このピクセル距離の較正に際しての較正環境は、上述した図6に示される場合と同様となっている。 Such white line region identification processing is performed for pixel distance calibration, which will be described later. The calibration environment for this pixel distance calibration is the same as the case shown in FIG. 6 described above.

さて、白線領域の特定処理に際しては、図17に示されるように、まず、ステップS31において、制御ユニット110Aが、新たな撮像画像データを受けたか否かを判定する。ステップS31における判定の結果が否定的であった場合(ステップS31:N)には、ステップS31の処理が繰り返される。 As shown in FIG. 17, in the process of specifying the white line area, first, in step S31, the control unit 110A determines whether or not new captured image data has been received. If the result of determination in step S31 is negative (step S31: N), the process of step S31 is repeated.

新たな撮像画像データを受け、ステップS31における判定の結果が肯定的となると(ステップS31:Y)、処理はステップS32へ進む。このステップS32では、制御ユニット110Aが、新たな撮像画像データから得られる撮像画像における白線領域を、当該撮像画像における各ピクセルの明るさに基づいて特定する。 When new captured image data is received and the result of determination in step S31 becomes affirmative (step S31: Y), the process proceeds to step S32. In this step S32, the control unit 110A identifies the white line area in the captured image obtained from the new captured image data based on the brightness of each pixel in the captured image.

次に、ステップS33において、制御ユニット110Aが、白線領域の特定結果が「前方一部白線(図7(A)参照)」であるか否かを判定する。ステップS33の判定の結果が否定的であった場合(ステップS33:N)には、処理はステップS31へ戻る。そして、ステップS33の判定の結果が肯定的となるまで、ステップS31~S33の処理が繰り返される。 Next, in step S33, the control unit 110A determines whether or not the specified result of the white line area is "partial front white line (see FIG. 7A)". If the result of determination in step S33 is negative (step S33: N), the process returns to step S31. Then, the processing of steps S31 to S33 is repeated until the determination result of step S33 becomes affirmative.

白線領域の特定結果が「前方一部白線」となり、ステップS33における判定の結果が肯定的となると(ステップS33:Y)、処理はステップS34へ進む。このステップS34では、制御ユニット110Aが、前方長a(図7(A)参照)を算出する。そして、処理はステップS35へ進む。 When the specified result of the white line area is "partial white line in front" and the result of determination in step S33 is affirmative (step S33: Y), the process proceeds to step S34. In this step S34, the control unit 110A calculates the front length a (see FIG. 7A). Then, the process proceeds to step S35.

次いで、ステップS35において、制御ユニット110Aが、新たな撮像画像データを受けたか否かを判定する。ステップS35における判定の結果が否定的であった場合(ステップS35:N)には、ステップS35の処理が繰り返される。 Next, in step S35, the control unit 110A determines whether or not new captured image data has been received. If the result of determination in step S35 is negative (step S35: N), the process of step S35 is repeated.

新たな撮像画像データを受け、ステップS35における判定の結果が肯定的となると(ステップS35:Y)、処理はステップS36へ進む。このステップS36では、制御ユニット110Aが、新たな撮像画像データから得られる撮像画像における白線領域を、当該撮像画像における各ピクセルの明るさに基づいて特定する。 When new captured image data is received and the result of determination in step S35 becomes affirmative (step S35: Y), the process proceeds to step S36. In this step S36, the control unit 110A identifies the white line area in the captured image obtained from the new captured image data based on the brightness of each pixel in the captured image.

次に、ステップS37において、制御ユニット110Aが、白線領域の特定結果が「後方一部白線(図7(B)参照)」であるか否かを判定する。ステップS37の判定の結果が否定的であった場合(ステップS37:N)には、処理はステップS35へ戻る。そして、ステップS37の判定の結果が肯定的となるまで、ステップS35~S37の処理が繰り返される。 Next, in step S37, the control unit 110A determines whether or not the specified result of the white line area is "rear partial white line (see FIG. 7B)". If the result of determination in step S37 is negative (step S37: N), the process returns to step S35. Then, the processing of steps S35 to S37 is repeated until the determination result of step S37 becomes affirmative.

白線領域の特定結果が「後方一部白線」となり、ステップS37における判定の結果が肯定的となると(ステップS37:Y)、処理はステップS38へ進む。このステップS38では、制御ユニット110Aが、前方長b(図7(B)参照)を算出する。そして、処理はステップS31へ戻る。 When the specified result of the white line area is "rear partial white line" and the result of determination in step S37 is affirmative (step S37: Y), the process proceeds to step S38. In this step S38, the control unit 110A calculates the front length b (see FIG. 7B). Then, the process returns to step S31.

以後、ステップS31~S38が繰り返される。この結果、車両CRが白線を横切るたびに、白線領域の特定が行われる。 After that, steps S31 to S38 are repeated. As a result, the white line area is specified each time the vehicle CR crosses the white line.

《較正条件のモニタ処理》
次に、制御ユニット110Aによる較正条件のモニタ処理について説明する。なお、当該較正条件のモニタ処理は、上述したピクセル移動量の検出処理、車体速度vの出力処理及び白線領域の特定処理と並行して実行される。
<<Monitoring of calibration conditions>>
Next, the calibration condition monitoring process by the control unit 110A will be described. The calibration condition monitoring process is executed in parallel with the above-described pixel movement amount detection process, vehicle body speed v output process, and white line area specification process.

較正条件のモニタ処理に際しては、図18に示されるように、まず、ステップS41において、ECU230から送られた最新の操舵角情報に基づいて、車両CRが直進中か否かを判定する。ステップS41における判定の結果が否定的であった場合(ステップS41:N)には、処理は、後述するステップS44へ進む。 As shown in FIG. 18, in the calibration condition monitoring process, first, in step S41, it is determined whether or not the vehicle CR is traveling straight based on the latest steering angle information sent from the ECU 230 . If the result of determination in step S41 is negative (step S41: N), the process proceeds to step S44, which will be described later.

ステップS41における判定の結果が肯定的であった場合(ステップS41:Y)には、処理はステップS42へ進む。このステップS42では、制御ユニット110Aが、ECU230から送られた最新の加速度情報に基づいて、車両CRが加速中又は減速中か否かを判定する。ステップS42における判定の結果が肯定的であった場合(ステップS42:Y)には、処理はステップS44へ進む。 If the result of determination in step S41 is affirmative (step S41: Y), the process proceeds to step S42. In step S42, the control unit 110A determines whether the vehicle CR is accelerating or decelerating based on the latest acceleration information sent from the ECU 230. If the result of determination in step S42 is affirmative (step S42: Y), the process proceeds to step S44.

ステップS42における判定の結果が否定的であった場合(ステップS42:N)には、処理はステップS43へ進む。このステップS43では、制御ユニット110Aが、ECU230から送られた最新の傾き情報に基づいて、車両CRの車体傾きが有るか否かを判定する。 If the result of determination in step S42 is negative (step S42: N), the process proceeds to step S43. In this step S43, the control unit 110A determines whether or not there is a body tilt of the vehicle CR based on the latest tilt information sent from the ECU 230. FIG.

ステップS43における判定の結果が肯定的であった場合(ステップS43:Y)には、処理はステップS44へ進む。このステップS44では、制御ユニット110Aが、較正条件フラグを「OFF」に設定する。そして、処理はステップS41へ戻る。 If the result of determination in step S43 is affirmative (step S43: Y), the process proceeds to step S44. In this step S44, the control unit 110A sets the calibration condition flag to "OFF". Then, the process returns to step S41.

一方、ステップS43における判定の結果が否定的であった場合(ステップS43:N)には、処理はステップS45へ進む。このステップS45では、制御ユニット110Aが、較正条件フラグを「ON」に設定する。そして、処理はステップS41へ戻る。 On the other hand, if the result of determination in step S43 is negative (step S43: N), the process proceeds to step S45. In this step S45, the control unit 110A sets the calibration condition flag to "ON". Then, the process returns to step S41.

以後、ステップS41~S44の処理が繰り返される。この結果、車両CRが平坦な路面を等速直進走行しているという較正条件が満たされていると判断される場合には、較正条件フラグが「ON」となる。一方、当該較正条件が満たされていないと判断される場合には、較正条件フラグが「OFF」となる。 After that, the processing of steps S41 to S44 is repeated. As a result, when it is determined that the calibration condition that the vehicle CR is traveling straight ahead at a constant speed on a flat road surface is satisfied, the calibration condition flag is turned "ON". On the other hand, when it is determined that the calibration condition is not satisfied, the calibration condition flag is set to "OFF".

《ピクセル距離の較正処理》
次いで、制御ユニット110Aによるピクセル距離の較正処理について説明する。なお、当該ピクセル距離の較正処理は、上述したピクセル移動量の検出処理、車体速度vの出力処理、白線領域の特定処理及び較正条件のモニタ処理と並行して実行される。
<<Calibration process of pixel distance>>
Next, the pixel distance calibration process by the control unit 110A will be described. The pixel distance calibration process is executed in parallel with the above-described pixel movement amount detection process, vehicle body speed v output process, white line area specification process, and calibration condition monitor process.

ピクセル距離の較正処理に際しては、図19に示されるように、まず、ステップS50において、制御ユニット110Aが、ナビゲーション装置220から走行方向に存在する交差点から所定距離以内となった旨を受けたか否かを判定することにより、交差点に接近したか否かを判定する。ステップS50における判定の結果が否定的であった場合(ステップS50:N)には、ステップS50の処理が繰り返される。 In the pixel distance calibration process, as shown in FIG. 19, first, in step S50, whether or not the control unit 110A receives from the navigation device 220 an indication that an intersection existing in the traveling direction is within a predetermined distance. By determining , it is determined whether or not an intersection is approached. If the result of determination in step S50 is negative (step S50: N), the process of step S50 is repeated.

交差点に接近し、ステップS50における判定の結果が肯定的となると(ステップS50:Y)、処理はステップS51へ進む。このステップS51では、制御ユニット110Aが、較正条件フラグが「ON」であるか否かを判定することにより、車両CRが平坦な路面を等速直進走行しているか否かを判定する。 When the vehicle approaches the intersection and the result of determination in step S50 becomes affirmative (step S50: Y), the process proceeds to step S51. In this step S51, the control unit 110A determines whether or not the calibration condition flag is "ON", thereby determining whether or not the vehicle CR is traveling straight ahead at a constant speed on a flat road surface.

ステップS51における判定の結果が否定的であった場合(ステップS51:N)には、処理はステップS50へ戻る。そして、ステップS50,S51の処理が繰り返される。 If the result of determination in step S51 is negative (step S51: N), the process returns to step S50. Then, the processing of steps S50 and S51 is repeated.

ステップS51における判定の結果が肯定的であった場合(ステップS51:Y)には、処理はステップS52へ進む。このステップS52では、制御ユニット110Aが、上述した白線領域の特定処理により「前方一部白線」となっていることが特定され、前方長aが求められたかを判定する。 If the result of determination in step S51 is affirmative (step S51: Y), the process proceeds to step S52. In this step S52, the control unit 110A determines whether or not the above-described white line area identifying process has identified that the "front part of the white line" has been identified, and whether or not the front length a has been obtained.

ステップS51における判定の結果が否定的であった場合(ステップS52:N)には、処理はステップS51へ戻る。そして、ステップS51における判定の結果が否定的とならないことを条件として、ステップS51,S52の処理が繰り返される。 If the result of determination in step S51 is negative (step S52: N), the process returns to step S51. Then, the processes of steps S51 and S52 are repeated on condition that the result of determination in step S51 is not negative.

ステップS52における判定の結果が肯定的となると(ステップS52:Y)、処理はステップS53へ進む。このステップS53では、距離パラメータLを前方長aに設定する。 If the result of determination in step S52 is affirmative (step S52: Y), the process proceeds to step S53. In this step S53, the distance parameter L is set to the forward length a.

次に、ステップS54において、制御ユニット110Aが、較正条件フラグが「ON」であるか否かを判定することにより、車両CRが平坦な路面を等速直進走行しているか否かを判定する。ステップS54における判定の結果が否定的であった場合(ステップS54:N)には、処理はステップS50へ戻る。 Next, in step S54, the control unit 110A determines whether or not the calibration condition flag is "ON", thereby determining whether or not the vehicle CR is traveling straight ahead at a constant speed on a flat road surface. If the result of determination in step S54 is negative (step S54: N), the process returns to step S50.

ステップS54における判定の結果が肯定的であった場合(ステップS54:Y)には、処理はステップS55へ進む。このステップS55では、制御ユニット110Aが、上述したピクセル移動量の検出処理により新たなピクセル移動量(ΔXj)が検出されたか否かを判定する。 If the result of determination in step S54 is affirmative (step S54: Y), the process proceeds to step S55. In this step S55, the control unit 110A determines whether or not a new pixel movement amount (ΔX j ) has been detected by the pixel movement amount detection process described above.

ステップS55における判定の結果が否定的であった場合(ステップS55:N)には、処理はステップS54へ戻る。そして、ステップS54における判定の結果が否定的とならないことを条件として、ステップS54,S55の処理が繰り返される。 If the result of determination in step S55 is negative (step S55: N), the process returns to step S54. Then, the processes of steps S54 and S55 are repeated on condition that the result of determination in step S54 is not negative.

ステップS55における判定の結果が肯定的となると(ステップS55:Y)、処理はステップS56へ進む。このステップS56では、制御ユニット110Aが、それまでの距離パラメータLの値に新たなピクセル移動量(ΔXj)を加算して、距離パラメータLの値を更新する。 If the result of determination in step S55 is affirmative (step S55: Y), the process proceeds to step S56. In this step S56, the control unit 110A updates the value of the distance parameter L by adding the new pixel movement amount (ΔX j ) to the value of the distance parameter L up to that point.

次いで、ステップS57において、制御ユニット110Aが、上述した白線領域の特定処理により「後方一部白線」となっていることが特定され、前方長bが求められているかを判定する。ステップS57における判定の結果が否定的であった場合(ステップS57:N)には、処理はステップS54へ戻る。そして、ステップS54における判定の結果が否定的とならないことを条件として、ステップS54~S57の処理が繰り返される。 Next, in step S57, the control unit 110A determines whether or not the "rear part of the white line" is specified by the white line area specifying process described above, and the front length b is obtained. If the result of determination in step S57 is negative (step S57: N), the process returns to step S54. Then, on condition that the result of determination in step S54 is not negative, the processing of steps S54 to S57 is repeated.

ステップS57における判定の結果が肯定的となると(ステップS57:Y)、処理はステップS58へ進む。このステップS58では、制御ユニット110Aが、それまでの距離パラメータLの値から前方長bを減算して、距離パラメータLの値を更新する。 If the result of determination in step S57 is affirmative (step S57: Y), the process proceeds to step S58. In this step S58, the control unit 110A updates the value of the distance parameter L by subtracting the forward length b from the value of the distance parameter L up to that point.

次に、ステップS59において、制御ユニット110Aが、その時点における距離パラメータLの値に基づき、次の(11)式により、暫定ピクセル距離PT[cm]を算出する。
PT=45/L …(11)
なお、(11)式は、上述した(8)式と等価な式となっている。
Next, in step S59, the control unit 110A calculates the provisional pixel distance PT [cm] by the following equation (11) based on the value of the distance parameter L at that time.
PT=45/L (11)
Note that the formula (11) is equivalent to the formula (8) described above.

引き続き、制御ユニット110Aは、算出された今回の暫定ピクセル距離と、記憶ユニット120内に記憶されている過去における所定回数の較正時に算出された暫定ピクセル距離との重み付け平均を算出して、新たに較正されたピクセル距離を算出する。この後、制御ユニット110Aは、記憶ユニット120内の最新のピクセル距離を当該新たに較正されたピクセル距離に更新するとともに、それまで記憶ユニット120内に記憶されていた暫定ピクセル距離のうちで最も古いものに代えて、今回の暫定ピクセル距離を現在時刻とともに記憶ユニット120に格納する。この結果、上述した車体速度vの出力処理に際して、制御ユニット110Aは、新たなピクセル距離を利用した車体速度vの算出を行うようになる。 Subsequently, the control unit 110A calculates a weighted average of the current calculated interim pixel distance and the interim pixel distances calculated during the predetermined number of past calibrations stored in the storage unit 120, and newly Calculate the calibrated pixel distance. After this, control unit 110A updates the latest pixel distance in storage unit 120 to the newly calibrated pixel distance and the oldest interim pixel distance previously stored in storage unit 120. Instead, the current temporary pixel distance is stored in the storage unit 120 together with the current time. As a result, the control unit 110A will calculate the vehicle body speed v using the new pixel distance in the process of outputting the vehicle body speed v described above.

こうしてステップS59の処理が終了すると、処理はステップS50へ戻る。そして、ステップS50~S59の処理が繰り返される。この結果、車両CRが、平坦な路面を等速直進走行して、交差点の手前の停止線(白線)を横切るたびに、ピクセル距離が較正される。 When the process of step S59 ends in this way, the process returns to step S50. Then, the processing of steps S50 to S59 is repeated. As a result, the pixel distance is calibrated each time the vehicle CR runs straight on a flat road surface at a constant speed and crosses the stop line (white line) before the intersection.

以上説明したように、第1実施例では、車両CRの撮像部210による撮像画像に基づいて、制御ユニット110Aが、ピクセル移動量を検出する。また、制御ユニット110Aが、撮像画像中における白線領域を特定する。そして、制御ユニット110Aが、ピクセル移動量及び撮像画像内における白線領域の特定結果に加えて、車両CRの走行方向に沿った停止線の既知の長さに基づいて、車両CRが平坦な路面を等速直進走行していると判断できる場合に、撮像部210と路面との間の距離に関連する、1ピクセルに対応する路面上の距離を較正する。 As described above, in the first embodiment, the control unit 110A detects the pixel movement amount based on the image captured by the imaging unit 210 of the vehicle CR. Also, the control unit 110A identifies the white line area in the captured image. Then, the control unit 110A determines whether the vehicle CR is traveling on a flat road surface based on the known length of the stop line along the running direction of the vehicle CR, in addition to the pixel movement amount and the result of specifying the white line area in the captured image. When it can be determined that the vehicle is traveling straight at a constant speed, the distance on the road surface corresponding to one pixel, which is related to the distance between the imaging unit 210 and the road surface, is calibrated.

したがって、第1実施例によれば、車両重量の変化や車輪の空気圧の変化により、路面と撮像部との距離が変化しても、1ピクセルに対応する路面上の距離を当該変化に応じて較正することができる。 Therefore, according to the first embodiment, even if the distance between the road surface and the imaging unit changes due to changes in the vehicle weight or the air pressure of the wheels, the distance on the road surface corresponding to one pixel can be adjusted according to the change. can be calibrated.

また、第1実施例では、較正結果及びピクセル移動量に基づいて、制御ユニット110Aが、車体速度を算出する。このため、走行情報として精度の良い車体速度を出力することができる。 Also, in the first embodiment, the control unit 110A calculates the vehicle body speed based on the calibration result and the pixel movement amount. Therefore, it is possible to output the accurate vehicle body speed as the traveling information.

また、第1実施例では、路面上特徴部として停止線を採用する。このため、撮像画像の各ピクセルの明るさを調べることにより、停止線領域(すなわち、白線領域)を容易に特定することができる。 In addition, in the first embodiment, the stop line is adopted as the feature on the road surface. Therefore, by checking the brightness of each pixel in the captured image, it is possible to easily identify the stop line area (that is, the white line area).

また、第1実施例では、交差点に近付いた旨の情報を取得し、停止線を通過することを予め推測する。このため、効率的な較正を行うことができる。 Further, in the first embodiment, information indicating that the vehicle is approaching an intersection is acquired, and it is presumed that the vehicle will pass through the stop line. Therefore, efficient calibration can be performed.

また、第1実施例では、今回の暫定ピクセル距離と、過去における所定回数の較正時に算出された暫定ピクセル距離との重み付け平均を算出して、最終的な較正結果を得る。このため、停止線の進行方向の長さの変動等のピクセル距離の較正結果への影響を抑制した較正を行うことができる。 In addition, in the first embodiment, a final calibration result is obtained by calculating a weighted average of the current temporary pixel distance and the temporary pixel distances calculated during a predetermined number of past calibrations. For this reason, it is possible to perform calibration that suppresses the influence of changes in the length of the stop line in the direction of travel, etc., on the calibration result of the pixel distance.

また、第1実施例では、直進走行中、定速走行中、かつ、路面傾きのない状況であるときに較正を実施する。このため、精度の良いピクセル距離の較正を行うことができる。 Further, in the first embodiment, the calibration is performed when the vehicle is traveling straight ahead, traveling at a constant speed, and the road surface is not inclined. Therefore, accurate pixel distance calibration can be performed.

[第2実施例]
次に、本発明の第2実施例を、図20~図23を主に参照して説明する。
[Second embodiment]
Next, a second embodiment of the present invention will be described mainly with reference to FIGS. 20-23.

<構成>
図20には、第1実施例に係る検出装置100Bの構成が概略的に示されている。この検出装置100Bは、上述した第2実施形態に係る検出装置300Bの一態様となっている。
<Configuration>
FIG. 20 schematically shows the configuration of the detection device 100B according to the first example. This detection device 100B is one aspect of the detection device 300B according to the second embodiment described above.

図20に示されるように、検出装置100Bは、撮像部210F,210R及びECU230と接続されている。そして、検出装置100B、撮像部210F,210R及びECU230は、車両CRに搭載されている。 As shown in FIG. 20, the detection device 100B is connected to imaging units 210 F and 210 R and the ECU 230 . The detection device 100B, the imaging units 210F and 210R , and the ECU 230 are mounted on the vehicle CR.

上記の検出装置100Bは、制御ユニット110Bを備えている。また、検出装置100Bは、記憶ユニット120を備えている。 The detection device 100B described above comprises a control unit 110B. The detection device 100B also includes a storage unit 120 .

上記の制御ユニット110Bは、演算手段としての中央処理装置(CPU)を備えて構成される。この制御ユニット110Bは、プログラムを実行することにより、上述した第2実施形態における検出装置300Bとしての機能、すなわち、取得部310B、第1出力部320B及び第2出力部330としての機能を果たすようになっている。 The above control unit 110B is configured with a central processing unit (CPU) as a calculation means. By executing a program, the control unit 110B functions as the detection device 300B in the above-described second embodiment, that is, functions as the acquisition unit 310B, the first output unit 320B, and the second output unit 330. It has become.

制御ユニット110Bが実行するプログラムは、記憶ユニット120に記憶され、記録ユニットからロードされて実行される。このプログラムは、CD-ROM、DVD等の可搬型記録媒体に記録された形態で取得されるようにしてもよいし、インターネットなどのネットワークを介した配信の形態で取得されるようにしてもよい。 A program executed by the control unit 110B is stored in the storage unit 120, loaded from the recording unit and executed. This program may be obtained in a form recorded on a portable recording medium such as a CD-ROM or DVD, or may be obtained in a form of distribution via a network such as the Internet. .

なお、制御ユニット110Bが実行する処理については、後述する。 Processing executed by the control unit 110B will be described later.

上記の記憶ユニット120には、制御ユニット110Bが利用する様々な情報データが記憶される。こうした情報データには、制御ユニット110Bが実行するプログラム、最新のピクセル移動量、最新のピクセル距離を含む較正履歴等が含まれている。この記憶ユニット120には、制御ユニット110Bがアクセスできるようになっている。 Various information data used by the control unit 110B are stored in the storage unit 120 described above. Such information data includes the program executed by control unit 110B, the most recent pixel displacement, calibration history including the most recent pixel distance, and the like. The storage unit 120 is accessible by the control unit 110B.

<動作>
次に、上記のように構成された検出装置100Bによる検出動作について、制御ユニット110Bによる処理に着目して説明する。
<Action>
Next, the detection operation by the detection device 100B configured as described above will be described, focusing on the processing by the control unit 110B.

なお、撮像部210F,210Rは、既に動作を開始しており、周期時間TPで撮像した路面画像の前側撮像画像のデータ及び後側撮像画像のデータを、逐次、検出装置100Bへ送っているものとする。また、ECU230は、既に動作を開始しており、加速度情報、操舵角情報及び傾き情報を検出装置100Bへ送っているものとする(図20参照)。 Note that the imaging units 210 F and 210 R have already started operating, and sequentially send the data of the front side captured image and the data of the rear side captured image of the road surface image captured at the cycle time TP to the detection device 100B. It is assumed that there is It is also assumed that the ECU 230 has already started operating and has sent acceleration information, steering angle information, and tilt information to the detection device 100B (see FIG. 20).

さらに、検出装置100Bでは、既に、複数回のピクセル距離の較正が行われており、記憶ユニット120には、最近の所定回数分の較正時刻、前回の撮像画像から抽出された特徴領域の特性及び画像内位置、並びに、後述する暫定ピクセル距離を含む較正履歴等が記憶されているものとする。ここで、ピクセル距離の最初の較正が行われるまでの期間においては、記憶ユニット120には、平均的なピクセル距離が記憶されるようになっている。 Furthermore, in the detection device 100B, the pixel distance has already been calibrated a plurality of times, and the storage unit 120 stores a predetermined number of recent calibration times, characteristics of the feature region extracted from the previous captured image, and It is assumed that the position in the image and the calibration history including the provisional pixel distance, which will be described later, are stored. Here, the average pixel distance is stored in the storage unit 120 until the pixel distance is calibrated for the first time.

《ピクセル移動量の検出処理》
まず、制御ユニット110Bによるピクセル移動量の検出処理について説明する。
<<Processing to detect the amount of pixel movement>>
First, the pixel movement amount detection processing by the control unit 110B will be described.

ピクセル移動量の検出処理に際しては、図21に示されるように、まず、ステップS61において、制御ユニット110Bが、新たな前側撮像画像のデータ及び新たな後側撮像画像のデータを受けたか否かを判定する。ステップS61における判定の結果が否定的であった場合(ステップS61:N)には、ステップS61の処理が繰り返される。 As shown in FIG. 21, in the process of detecting the amount of pixel movement, first, in step S61, the control unit 110B determines whether or not new front-side captured image data and new rear-side captured image data have been received. judge. If the result of determination in step S61 is negative (step S61: N), the process of step S61 is repeated.

新たな前側撮像画像のデータを受け、ステップS61における判定の結果が肯定的となると(ステップS61:Y)、処理はステップS62へ進む。このステップS62では、制御ユニット110Bが、新たな前側撮像画像のデータから得られる前側撮像画像における特徴領域を抽出し、当該特徴領域の特性及び画像内位置を特定する。 When the data of the new front side captured image is received and the result of determination in step S61 becomes affirmative (step S61: Y), the process proceeds to step S62. In this step S62, the control unit 110B extracts a characteristic region in the front-side captured image obtained from the data of the new front-side captured image, and specifies the characteristic and the position in the image of the characteristic region.

次に、ステップS63において、制御ユニット110Bが、前側ピクセル移動量を検出する。かかる前側ピクセル移動量の検出に際して、制御ユニット110Bは、記憶ユニット120内の前回の前側撮像画像から抽出された特徴領域の特性及び画像内位置を参照して、今回の前側撮像画像と前回の前側撮像画像とにおける共通の特徴領域の画像内位置の変位量を、新たな前側ピクセル移動量として検出する。 Next, in step S63, the control unit 110B detects the front side pixel movement amount. When detecting the front side pixel movement amount, the control unit 110B refers to the characteristic region and the position in the image extracted from the previous front side captured image in the storage unit 120, and compares the current front side captured image and the previous front side image. The amount of displacement of the in-image position of the characteristic region common to the captured image is detected as a new amount of front-side pixel movement.

なお、共通する特徴領域が複数ある場合には、制御ユニット110Bは、複数の特徴領域のそれぞれの変位量の平均値を、新たな前側ピクセル移動量として採用する。 Note that when there are a plurality of common characteristic regions, the control unit 110B adopts the average value of the respective displacement amounts of the plurality of characteristic regions as the new front side pixel movement amount.

そして、制御ユニット110Bは、今回の撮像画像における特徴領域の特性及び画像内位置を、前回の撮像画像から抽出された特徴領域の特性及び画像内位置として記憶ユニット120内に登録する。また、制御ユニット110Bは、新たなピクセル移動量を、最新のピクセル移動量として記憶ユニット120内に登録する。 Then, the control unit 110B registers, in the storage unit 120, the characteristics and the intra-image position of the characteristic region in the current captured image as the characteristics and the intra-image position of the characteristic region extracted from the previous captured image. Control unit 110B also registers the new pixel shift amount in storage unit 120 as the latest pixel shift amount.

次いで、ステップS64において、制御ユニット110Bが、新たな後側撮像画像のデータから得られる後側撮像画像における特徴領域を抽出し、当該特徴領域の特性及び画像内位置を特定する。 Next, in step S64, the control unit 110B extracts a characteristic region in the rear-side captured image obtained from the data of the new rear-side captured image, and specifies the characteristic and the position in the image of the characteristic region.

次に、ステップS65において、制御ユニット110Bが、後側ピクセル移動量を検出する。かかる後側ピクセル移動量の検出に際して、制御ユニット110Bは、記憶ユニット120内の前回の後側撮像画像から抽出された特徴領域の特性及び画像内位置を参照して、今回の後側撮像画像と前回の後側撮像画像とにおける共通の特徴領域の画像内位置の変位量を、新たな後側ピクセル移動量として検出する。 Next, in step S65, the control unit 110B detects the rear pixel movement amount. When detecting the rear-side pixel movement amount, the control unit 110B refers to the characteristic region and the position in the image extracted from the previous rear-side captured image in the storage unit 120, and compares it with the current rear-side captured image. The amount of displacement of the in-image position of the feature region common to the previous captured image of the rear side is detected as a new amount of movement of pixels on the rear side.

なお、共通する特徴領域が複数ある場合には、前側ピクセル移動量の検出の場合と同様に、制御ユニット110Bは、複数の特徴領域のそれぞれの変位量の平均値を、新たな後側ピクセル移動量として採用する。 Note that if there are a plurality of common feature regions, the control unit 110B calculates the average value of the respective displacement amounts of the plurality of feature regions as a new rear pixel shift, as in the case of detecting the front pixel shift amount. adopted as quantity.

次に、ステップS66において、制御ユニット110Bが、新たなピクセル移動量を検出する。かかるピクセル移動量の検出に際して、制御ユニット110Bは、前側ピクセル移動量と後側ピクセル移動量との平均を算出することにより、新たなピクセル移動量を検出する。 Next, in step S66, control unit 110B detects a new pixel shift amount. In detecting such pixel movement amount, the control unit 110B detects a new pixel movement amount by calculating the average of the front side pixel movement amount and the rear side pixel movement amount.

そして、制御ユニット110Bは、今回の前側撮像画像における特徴領域の特性及び画像内位置、及び、今回の後側撮像画像における特徴領域の特性及び画像内位置を、前回の前側撮像画像における特徴領域の特性及び画像内位置、及び、前回の後側撮像画像における特徴領域の特性及び画像内位置として記憶ユニット120内に登録する。また、制御ユニット110Bは、新たなピクセル移動量を、最新のピクセル移動量として記憶ユニット120内に登録する。 Then, the control unit 110B converts the characteristics and in-image positions of the characteristic regions in the current front-side captured image and the characteristics and in-image positions of the characteristic regions in the current rear-side captured image into the characteristics and in-image positions of the characteristic regions in the previous front-side captured image. They are registered in the storage unit 120 as the characteristics and the intra-image position, and the characteristics and the intra-image position of the characteristic region in the previous rear-side captured image. Control unit 110B also registers the new pixel shift amount in storage unit 120 as the latest pixel shift amount.

こうしてステップS66の処理が終了すると、処理はステップS61へ戻る。以後、ステップS61~S66が繰り返され、新たな前側撮像画像のデータ及び新たな後側撮像画像のデータを受けるたびに、ピクセル移動量が検出される。 When the process of step S66 is completed in this way, the process returns to step S61. After that, steps S61 to S66 are repeated, and the pixel movement amount is detected each time new front-side captured image data and new rear-side captured image data are received.

《車体速度vの出力処理》
制御ユニット110Bによる車体速度vの出力処理は、上述した制御ユニット110Aによる車体速度vの出力処理と同様となっている(図16参照)。
<<Output processing of vehicle speed v>>
The output processing of the vehicle body speed v by the control unit 110B is the same as the above-described output processing of the vehicle body speed v by the control unit 110A (see FIG. 16).

《白線領域の特定処理》
次に、制御ユニット110Bによる白線領域の特定処理について説明する。なお、当該白線領域の特定処理は、上述したピクセル移動量の検出処理及び車体速度vの出力処理と並行して実行される。
<Processing to specify the white line area>
Next, the processing for specifying the white line area by the control unit 110B will be described. Note that the process of specifying the white line area is executed in parallel with the process of detecting the amount of pixel movement and the process of outputting the vehicle speed v described above.

かかる白線領域の特定処理は、後述するピクセル距離の較正のために行われる。このピクセル距離の較正に際しての較正環境は、上述した図11に示される場合と同様となっている。 Such white line region identification processing is performed for pixel distance calibration, which will be described later. The calibration environment for this pixel distance calibration is the same as the case shown in FIG. 11 described above.

さて、白線領域の特定処理に際しては、図22に示されるように、まず、ステップS71において、制御ユニット110Bが、新たな前側撮像画像のデータを受けたか否かを判定する。ステップS71における判定の結果が否定的であった場合(ステップS71:N)には、ステップS71の処理が繰り返される。 As shown in FIG. 22, in the process of identifying the white line area, first, in step S71, the control unit 110B determines whether or not new front-side captured image data has been received. If the result of determination in step S71 is negative (step S71: N), the process of step S71 is repeated.

新たな前側撮像画像データを受け、ステップS71における判定の結果が肯定的となると(ステップS71:Y)、処理はステップS72へ進む。このステップS72では、制御ユニット110Bが、新たな前側撮像画像のデータから得られる前側撮像画像における白線領域を、当該前側撮像画像における各ピクセルの明るさに基づいて特定する。 When new front side captured image data is received and the result of determination in step S71 becomes affirmative (step S71: Y), the process proceeds to step S72. In this step S72, the control unit 110B identifies the white line region in the front side captured image obtained from the data of the new front side captured image based on the brightness of each pixel in the front side captured image.

次に、ステップS73において、制御ユニット110Bが、白線領域の特定結果が「第1後方一部白線(図12(A)参照)」であるか否かを判定する。ステップS73の判定の結果が否定的であった場合(ステップS73:N)には、処理はステップS71へ戻る。そして、ステップS73の判定の結果が肯定的となるまで、ステップS71~S73の処理が繰り返される。 Next, in step S73, the control unit 110B determines whether or not the specified result of the white line area is the "first rear partial white line (see FIG. 12A)". If the result of determination in step S73 is negative (step S73: N), the process returns to step S71. Then, the processing of steps S71 to S73 is repeated until the determination result of step S73 becomes affirmative.

前側撮像画像における白線領域の特定結果が「第1後方一部白線」となり、ステップS73における判定の結果が肯定的となると(ステップS73:Y)、処理はステップS74へ進む。このステップS74では、制御ユニット110Bが、前方長a(図12(A)参照)を求める。 If the white line region specified in the front side captured image is "first rear partial white line" and the determination result in step S73 is affirmative (step S73: Y), the process proceeds to step S74. In this step S74, the control unit 110B obtains the front length a (see FIG. 12A).

なお、第2実施例では、制御ユニット110Bは、前側撮像画像において「第1後方一部白線」となるまでの白線が明確に特定できる状態が継続したことを条件として、「第1後方一部白線」を特定するようになっている。 Note that, in the second embodiment, the control unit 110B performs the “first rear partial white line” on the condition that the white line continues to be clearly identified until it becomes the “first rear partial white line” in the front side captured image. It is designed to identify the "white line".

次いで、ステップS75では、制御ユニット110Bが、新たな後側撮像画像のデータを受けたか否かを判定する。ステップS75における判定の結果が否定的であった場合(ステップS75:N)には、ステップS75の処理が繰り返される。 Next, in step S75, the control unit 110B determines whether or not new rear-side captured image data has been received. If the result of determination in step S75 is negative (step S75: N), the process of step S75 is repeated.

新たな後側撮像画像のデータを受け、ステップS75における判定の結果が肯定的となると(ステップS75:Y)、処理はステップS76へ進む。このステップS76では、制御ユニット110Bが、新たな後側撮像画像のデータから得られる後側撮像画像における白線領域を、当該撮像画像における各ピクセルの明るさに基づいて特定する。 When the new rear side captured image data is received and the determination result in step S75 is affirmative (step S75: Y), the process proceeds to step S76. In this step S76, the control unit 110B identifies the white line region in the rear side captured image obtained from the data of the new rear side captured image based on the brightness of each pixel in the captured image.

次に、ステップS77において、制御ユニット110Bが、白線領域の特定結果が「第2後方一部白線(図12(B)参照)」であるか否かを判定する。ステップS77の判定の結果が否定的であった場合(ステップS77:N)には、処理はステップS75へ戻る。そして、ステップS77の判定の結果が肯定的となるまで、ステップS75~S77の処理が繰り返される。 Next, in step S77, the control unit 110B determines whether or not the specified result of the white line area is the "second rear partial white line (see FIG. 12B)". If the result of determination in step S77 is negative (step S77: N), the process returns to step S75. Then, the processing of steps S75 to S77 is repeated until the determination result of step S77 becomes affirmative.

後側撮像画像における白線領域の特定結果が「第2後方一部白線」となり、ステップS77における判定の結果が肯定的となると(ステップS77:Y)、処理はステップS78へ進む。このステップS78では、制御ユニット110Bが、前方長b(図12(B)参照)を求める。そして、処理はステップS71へ戻る。 When the specified result of the white line area in the rear side captured image is "second rear partial white line" and the result of determination in step S77 is affirmative (step S77: Y), the process proceeds to step S78. In this step S78, the control unit 110B obtains the front length b (see FIG. 12B). Then, the process returns to step S71.

以後、ステップS71~S78が繰り返される。この結果、車両CRが白線を横切るたびに、白線領域の特定が行われる。 After that, steps S71 to S78 are repeated. As a result, the white line area is specified each time the vehicle CR crosses the white line.

《較正条件のモニタ処理》
制御ユニット110Bによる較正条件のモニタ処理は、上述した制御ユニット110Aによる較正条件のモニタ処理と同様となっている(図18参照)。
<<Monitoring of calibration conditions>>
The calibration condition monitoring process by the control unit 110B is the same as the calibration condition monitoring process by the control unit 110A described above (see FIG. 18).

《ピクセル距離の較正処理》
次いで、制御ユニット110Bによるピクセル距離の較正処理について説明する。なお、当該ピクセル距離の較正処理は、上述したピクセル移動量の検出処理、車体速度vの出力処理、白線領域の特定処理及び較正条件のモニタ処理と並行して実行される。
<<Calibration process of pixel distance>>
Next, the pixel distance calibration process by control unit 110B will be described. The pixel distance calibration process is executed in parallel with the above-described pixel movement amount detection process, vehicle body speed v output process, white line area specification process, and calibration condition monitor process.

ピクセル距離の較正処理に際しては、図23に示されるように、まず、ステップS81において、制御ユニット110Bが、較正条件フラグが「ON」であるか否かを判定することにより、車両CRが平坦な路面を等速直進走行しているか否かを判定する。ステップS81における判定の結果が否定的であった場合(ステップS81:N)には、ステップS81の処理が繰り返される。 During the pixel distance calibration process, as shown in FIG. 23, first, in step S81, the control unit 110B determines whether or not the calibration condition flag is "ON" to ensure that the vehicle CR is flat. It is determined whether or not the vehicle is traveling straight on the road at a constant speed. If the result of determination in step S81 is negative (step S81: N), the process of step S81 is repeated.

ステップS81における判定の結果が肯定的であった場合(ステップS81:Y)には、処理はステップS82へ進む。このステップS82では、制御ユニット110Bが、上述した白線領域の特定処理により前側撮像画像が「第1後方一部白線」となっていることが特定され、前方長aが求められたかを判定する。 If the result of determination in step S81 is affirmative (step S81: Y), the process proceeds to step S82. In this step S82, the control unit 110B determines whether or not the front side captured image has been identified as the "first rear partial white line" by the white line region identification processing described above, and the front length a has been obtained.

ステップS82における判定の結果が否定的であった場合(ステップS82:N)には、処理はステップS81へ戻る。そして、ステップS81,S82の処理が繰り返される。 If the result of determination in step S82 is negative (step S82: N), the process returns to step S81. Then, the processes of steps S81 and S82 are repeated.

ステップS82における判定の結果が肯定的となると(ステップS82:Y)、処理はステップS83へ進む。このステップS83では、距離パラメータLを前方長aに設定する。 If the result of determination in step S82 is affirmative (step S82: Y), the process proceeds to step S83. In this step S83, the distance parameter L is set to the forward length a.

次に、ステップS84において、制御ユニット110Bが、較正条件フラグが「ON」であるか否かを判定することにより、車両CRが平坦な路面を等速直進走行しているか否かを判定する。ステップS84における判定の結果が否定的であった場合(ステップS84:N)には、処理はステップS81へ戻る。 Next, in step S84, the control unit 110B determines whether or not the calibration condition flag is "ON", thereby determining whether or not the vehicle CR is traveling straight ahead at a constant speed on a flat road surface. If the result of determination in step S84 is negative (step S84: N), the process returns to step S81.

ステップS84における判定の結果が肯定的であった場合(ステップS84:Y)には、処理はステップS85へ進む。このステップS85では、制御ユニット110Bが、上述したピクセル移動量の検出処理により新たなピクセル移動量(ΔXj)が検出されたか否かを判定する。 If the result of determination in step S84 is affirmative (step S84: Y), the process proceeds to step S85. In this step S85, the control unit 110B determines whether or not a new pixel movement amount (ΔX j ) has been detected by the pixel movement amount detection processing described above.

ステップS85における判定の結果が否定的であった場合(ステップS85:N)には、処理はステップS84へ戻る。そして、ステップS84における判定の結果が否定的とならないことを条件として、ステップS84,S85の処理が繰り返される。 If the result of determination in step S85 is negative (step S85: N), the process returns to step S84. Then, the processes of steps S84 and S85 are repeated on condition that the result of determination in step S84 is not negative.

ステップS85における判定の結果が肯定的となると(ステップS85:Y)、処理はステップS86へ進む。このステップS86では、制御ユニット110Bが、それまでの距離パラメータLの値に新たなピクセル移動量(ΔXj)を加算して、距離パラメータLの値を更新する。 If the result of determination in step S85 is affirmative (step S85: Y), the process proceeds to step S86. In this step S86, the control unit 110B updates the value of the distance parameter L by adding the new pixel movement amount (ΔX j ) to the value of the distance parameter L up to that point.

次いで、ステップS87において、制御ユニット110Bが、上述した白線領域の特定処理により後側撮像画像が「第2後方一部白線」となっていることが特定され、前方長bが求められているかを判定する。ステップS87における判定の結果が否定的であった場合(ステップS87:N)には、処理はステップS84へ戻る。そして、ステップS84における判定の結果が否定的とならないことを条件として、ステップS84~S87の処理が繰り返される。 Next, in step S87, the control unit 110B determines whether the above-described white line area specifying process has specified that the rear captured image is the "second rear partial white line" and whether the front length b has been obtained. judge. If the result of determination in step S87 is negative (step S87: N), the process returns to step S84. Then, on condition that the result of determination in step S84 is not negative, the processing of steps S84 to S87 is repeated.

ステップS87における判定の結果が肯定的となると(ステップS87:Y)、処理はステップS88へ進む。このステップS88では、制御ユニット110Bが、それまでの距離パラメータLの値から前方長bを減算して、距離パラメータLの値を更新する。 If the result of determination in step S87 is affirmative (step S87: Y), the process proceeds to step S88. In this step S88, the control unit 110B updates the value of the distance parameter L by subtracting the forward length b from the value of the distance parameter L up to that point.

次に、ステップS89において、制御ユニット110Bが、その時点における距離パラメータLの値に基づき、次の(12)式により、暫定ピクセル距離PT[cm]を算出する。
PT=D/L …(12)
なお、(12)式は、上述した(10)式と等価な式となっている。
Next, in step S89, the control unit 110B calculates the provisional pixel distance PT [cm] by the following equation (12) based on the value of the distance parameter L at that time.
PT=D/L (12)
Note that the expression (12) is equivalent to the expression (10) described above.

引き続き、制御ユニット110Bは、算出された今回の暫定ピクセル距離と、記憶ユニット120内に記憶されている過去における所定回数の較正時に算出された暫定ピクセル距離との重み付け平均を算出して、新たに較正されたピクセル距離を算出する。この後、制御ユニット110Bは、記憶ユニット120内の最新のピクセル距離を当該新たに較正されたピクセル距離に更新するとともに、それまで記憶ユニット120内に記憶されていた暫定ピクセル距離のうちで最も古いものに代えて、今回の暫定ピクセル距離を現在時刻とともに記憶ユニット120に格納する。この結果、上述した車体速度vの出力処理に際して、制御ユニット110Bは、新たなピクセル距離を利用した車体速度vの算出を行うようになる。 Subsequently, the control unit 110B calculates a weighted average of the current calculated interim pixel distance and the interim pixel distances calculated during the predetermined number of past calibrations stored in the storage unit 120, and newly Calculate the calibrated pixel distance. After this, control unit 110B updates the latest pixel distance in storage unit 120 to the newly calibrated pixel distance and the oldest interim pixel distance previously stored in storage unit 120. Instead, the current temporary pixel distance is stored in the storage unit 120 together with the current time. As a result, the control unit 110B will calculate the vehicle body speed v using the new pixel distance in the process of outputting the vehicle body speed v described above.

こうしてステップS89の処理が終了すると、処理はステップS81へ戻る。そして、ステップS81~S89の処理が繰り返される。この結果、車両CRが、平坦な路面を等速直進走行して、交差点の手前の白線を横切るたびに、ピクセル距離が較正される。 When the process of step S89 is completed in this way, the process returns to step S81. Then, the processing of steps S81 to S89 is repeated. As a result, the pixel distance is calibrated each time the vehicle CR runs straight on a flat road surface at a constant speed and crosses the white line before the intersection.

以上説明したように、第2実施例では、車両CRの走行方向に沿って既知の距離Dで車両CRに配置された撮像部210F,210Rによる撮像画像に基づいて、制御ユニット110Bが、ピクセル移動量を検出する。また、制御ユニット110Bが、撮像画像中における白線領域を特定する。そして、制御ユニット110Bが、ピクセル移動量及び撮像画像内における白線領域の特定結果に加えて、既知の距離Dに基づいて、車両CRが平坦な路面を等速直進走行していると判断できる場合に、撮像部210F,210Rと路面との間の距離に関連する、1ピクセルに対応する路面上の距離を較正する。 As described above, in the second embodiment, the control unit 110B performs the Detect pixel movement. Also, the control unit 110B identifies the white line area in the captured image. Then, when the control unit 110B can determine that the vehicle CR is traveling straight ahead on a flat road surface at a constant speed based on the known distance D in addition to the pixel movement amount and the result of specifying the white line area in the captured image. First, calibrate the distance on the road surface corresponding to one pixel, which is related to the distance between the imaging units 210 F and 210 R and the road surface.

したがって、第2実施例によれば、路面上特徴部である白線の移動体の走行方向に沿った長さが既知である未知であるか否かにかかわらず、移動体重量の変化や車輪の空気圧の変化により、路面と撮像部との距離が変化しても、1ピクセルに対応する路面上の距離を当該変化に応じて較正することができる。 Therefore, according to the second embodiment, regardless of whether the length of the white line along the traveling direction of the moving body, which is a feature on the road surface, is known or unknown, the change in the weight of the moving body and the movement of the wheels Even if the distance between the road surface and the imaging unit changes due to changes in air pressure, the distance on the road surface corresponding to one pixel can be calibrated according to the change.

また、第2実施例では、較正結果及びピクセル移動量に基づいて、制御ユニット110Bが、車体速度を出力する。このため、走行情報として精度の良い車体速度を出力することができる。 Also, in the second embodiment, the control unit 110B outputs the vehicle body speed based on the calibration result and the pixel movement amount. Therefore, it is possible to output the accurate vehicle body speed as the traveling information.

また、第2実施例では、路面上特徴部として白線を採用する。このため、撮像画像の各ピクセルの明るさを調べることにより、白線領域を容易に特定することができる。 In addition, in the second embodiment, a white line is adopted as a feature on the road surface. Therefore, it is possible to easily identify the white line area by checking the brightness of each pixel in the captured image.

また、第2実施例では、第1実施例の場合と同様に、今回の暫定ピクセル距離と、過去における所定回数の較正時に算出された暫定ピクセル距離との重み付け平均を算出して、最終的な較正結果を得る。このため、白線の進行方向の長さの変動等のピクセル距離の較正結果への影響を抑制した較正を行うことができる。 In addition, in the second embodiment, as in the first embodiment, a weighted average of the current temporary pixel distance and the temporary pixel distances calculated during calibration a predetermined number of times in the past is calculated, and the final Get calibration results. For this reason, it is possible to perform calibration that suppresses the influence of changes in the length of the white line in the traveling direction, etc., on the calibration result of the pixel distance.

また、第2実施例では、第1実施例の場合と同様に、直進走行中、定速走行中、かつ、路面傾きのない状況であるときに較正を実施する。このため、精度の良いピクセル距離の較正を行うことができる。 Further, in the second embodiment, as in the case of the first embodiment, calibration is performed when the vehicle is traveling straight ahead, traveling at a constant speed, and the road surface is not inclined. Therefore, accurate pixel distance calibration can be performed.

[実施例の変形]
本発明は、上記の第1及び第2実施例に限定されるものではなく、様々な変形が可能である。
[Modification of Embodiment]
The present invention is not limited to the first and second embodiments described above, and various modifications are possible.

例えば、第1実施例に対しては、上述した第1実施形態に対する変形と同様の変形を行うことができる。また、第2実施例に対しては、上述した第2実施形態に対する変形と同様の変形を行うことができる。 For example, the first embodiment can be modified in the same manner as the first embodiment described above. Also, the second example can be modified in the same manner as the above-described modification of the second embodiment.

100A,100B … 検出装置
110A,110B … 制御ユニット(取得部、第1出力部、第2出力部)
300A,300B … 検出装置
310A,310B … 取得部
320A,320B … 第1出力部
321A,321B … 移動量検出部
322A,322B … 特定部
323A,323B … 較正部
330 … 第2出力部
100A, 100B ... detection device 110A, 110B ... control unit (acquisition unit, first output unit, second output unit)
300A, 300B... Detector 310A, 310B... Acquisition unit 320A, 320B... First output unit 321A, 321B... Movement amount detection unit 322A, 322B... Identification unit 323A, 323B... Calibration unit 330... Second output unit

Claims (1)

移動体に搭載された撮像部により撮像された路面上特徴部の画像を取得する取得部と;
前記取得部により取得された前記路面上特徴部の画像に基づいて、前記撮像部の搭載位置と路面との間の距離に関連する距離関連情報を出力する出力部と;を備え、
前記撮像部は、前記撮像部が前記移動体に固定されている固定位置の真下の路面を撮像する、
ことを特徴とする検出装置。
an acquisition unit that acquires an image of the characteristic part on the road surface captured by the imaging unit mounted on the moving body;
an output unit that outputs distance-related information related to the distance between the mounting position of the imaging unit and the road surface based on the image of the characteristic part on the road surface acquired by the acquisition unit;
The image capturing unit captures an image of the road surface immediately below a fixed position where the image capturing unit is fixed to the moving body.
A detection device characterized by:
JP2023101511A 2021-12-02 2023-06-21 Detection device, detection method, detection program and recording medium Pending JP2023123625A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023101511A JP2023123625A (en) 2021-12-02 2023-06-21 Detection device, detection method, detection program and recording medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021195884A JP2022033130A (en) 2020-01-08 2021-12-02 Detection device, detection method, detection program and recording medium
JP2023101511A JP2023123625A (en) 2021-12-02 2023-06-21 Detection device, detection method, detection program and recording medium

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2021195884A Division JP2022033130A (en) 2020-01-08 2021-12-02 Detection device, detection method, detection program and recording medium

Publications (1)

Publication Number Publication Date
JP2023123625A true JP2023123625A (en) 2023-09-05

Family

ID=80352098

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023101511A Pending JP2023123625A (en) 2021-12-02 2023-06-21 Detection device, detection method, detection program and recording medium

Country Status (1)

Country Link
JP (1) JP2023123625A (en)

Similar Documents

Publication Publication Date Title
JP6221607B2 (en) Object detection device
US10267640B2 (en) Vehicle position estimation device, vehicle position estimation method
US7477760B2 (en) Vehicle state sensing system and vehicle state sensing method
JP2011017989A (en) Device, method and program for evaluating reliability
CN111923914B (en) Identification of road shoulder travel of motor vehicle
US10703365B1 (en) Lane tracking method and lane tracking system for an autonomous vehicle
JP2003508732A (en) Measuring device and sensor for non-contact measurement of tire force
CN106232446A (en) For the method determining the error of inertial sensor
CN113744538B (en) Highway dynamic overload control method, computer equipment and readable storage medium
US11203349B2 (en) Velocity calculation apparatus, control method, program and storage medium
KR20240046903A (en) Method and apparatus for determining and characterizing roadway unevenness
JP2018113065A (en) Detection device, detection method, detection program and recording medium
WO2018173907A1 (en) Vehicle control device
CN110550041A (en) Road adhesion coefficient estimation method based on cloud data sharing
JP5103722B2 (en) Stop vehicle discrimination device
WO2015079533A1 (en) Detection device, detection method, detection program, and recording medium
JP2023123625A (en) Detection device, detection method, detection program and recording medium
JP2020074136A (en) Detection device, detection method, detection program and recording medium
JP2008007026A (en) Air pressure reduction detection device, air pressure reduction detection program and air pressure reduction detection method
JP2022033130A (en) Detection device, detection method, detection program and recording medium
KR102003574B1 (en) Method and apparatus for determining current vehicle-specific orientation data for a vehicle
JP6617578B2 (en) Road gradient acquisition system and road gradient acquisition program
JP2006138764A (en) Apparatus and method for monitoring wheel condition
CN112537300A (en) Lane keeping method and device for ramp driving and traffic vehicle
JP2006142895A (en) Vehicular motion control device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230621

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240306