JP2007218705A - White line model measurement system, measuring truck, and white line model measuring device - Google Patents

White line model measurement system, measuring truck, and white line model measuring device Download PDF

Info

Publication number
JP2007218705A
JP2007218705A JP2006038689A JP2006038689A JP2007218705A JP 2007218705 A JP2007218705 A JP 2007218705A JP 2006038689 A JP2006038689 A JP 2006038689A JP 2006038689 A JP2006038689 A JP 2006038689A JP 2007218705 A JP2007218705 A JP 2007218705A
Authority
JP
Japan
Prior art keywords
white line
road surface
unit
data
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006038689A
Other languages
Japanese (ja)
Other versions
JP4619962B2 (en
JP2007218705A5 (en
Inventor
Yoshihiro Shima
嘉宏 島
Junichi Takiguchi
純一 瀧口
Naoyuki Kajiwara
尚幸 梶原
Ryujiro Kurosaki
隆二郎 黒崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2006038689A priority Critical patent/JP4619962B2/en
Publication of JP2007218705A publication Critical patent/JP2007218705A/en
Publication of JP2007218705A5 publication Critical patent/JP2007218705A5/ja
Application granted granted Critical
Publication of JP4619962B2 publication Critical patent/JP4619962B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

<P>PROBLEM TO BE SOLVED: To acquire a more precise white line position even for a non-flat road. <P>SOLUTION: The position posture of the measuring truck 102 is measured by a gyro 210 and a GPS 220 mounted on the measuring truck 102. A camera 230 outputs photographed image data, and a laser radar 240 calculates orientation and distance data toward a road surface from the camera 230. A road surface shape model generation section 150 generates a road surface shape model, based on the position posture and the orientation and distance data of the laser radar 240. A camera LOS calculation section 140 calculates a depth angle to a white line viewed from the camera 230, based on the position posture of the camera 230 and the recognition result of the white line being recognized on the image. A road surface model corresponding point search section 170 measures the position of the white line, based on the depth angle of the white line and the road surface shape model, and can improve the precision of the measurement result by measuring the position of the white line while considering the shape of the road surface. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、例えば、道路の白線位置検知を行う白線モデル計測システム、計測台車および白線モデル計測装置に関するものである。   The present invention relates to, for example, a white line model measurement system, a measurement carriage, and a white line model measurement device that detect the position of a white line on a road.

高精度GIS(Geographical Information System)作成においては、路面シンボルや白線について認識した存在情報だけでなく、その高精度な位置情報(絶対座標)をGISに登録する必要がある。従来、白線の位置情報の取得には複数カメラを用いたステレオ視や、カメラパラメータと車両との関係に基づくカメラの設置位置から白線の位置情報を推定する手法が用いられていた。
DorotaA.Grejner−Brzezinska and Charles Toth、「High Accuracy Dynamic Highway Mapping Using a GPS/INS/CCD System with On−The−Fly GPS Ambiguity Resolution」、Center for Mapping Department of Civil and Environmental Engineering and Geodetic Science The Ohio State University、Ohio Department of Transportation,District1、September 2004 H.Gontran,J,Skaloud,P.−Y.Gilliron、「A MOBILE MAPPING SYSTEM FOR ROAD DATA CAPTURE VIA A SINGLE CAMERA」、[online]、[平成18年2月14日検索]、インターネット<URL:http://topo.epfl.ch/personnes/jsk/Papers/3dopt_hg.pdf G.Manzoni,R.G.Rizzo,C.Robiglio、「MOBLE MAPPING SYSTEMS IN CULTURAL HERITAGES SURVEY」、CIPA 2005 XX International Symposium、26 September−01 October,2005、Torino,Italy
In creating a high-precision GIS (Geographical Information System), it is necessary to register not only presence information recognized for road surface symbols and white lines but also high-precision position information (absolute coordinates) in the GIS. Conventionally, for obtaining white line position information, a method of estimating position information of a white line from a stereo view using a plurality of cameras or a camera installation position based on a relationship between a camera parameter and a vehicle has been used.
DorotaA. Grejner-Brzezinska and Charles Toth, "High Accuracy Dynamic Highway Mapping Using a GPS / INS / CCD System with On-The-Fly GPS Ambiguity Resolution", Center for Mapping Department of Civil and Environmental Engineering and Geodetic Science The Ohio State University, Ohio Department of Transportation, District 1, September 2004 H. Gontran, J, Skaloud, P.M. -Y. Gilliron, “A MOBILE MAPPING SYSTEM FOR ROAD DATA CAPTURE VIA A SINGLE CAMERA” [online], [February 14, 2006 search], Internet <URL: http: // top. epfl. ch / personsnes / jsk / Papers / 3dot_hg. pdf G. Manzoni, R.A. G. Rizzo, C.I. Robiglio, “MOVE MAPPING SYSTEMS IN CULTURE HERITAGES SURVEY”, CIPA 2005 XX International Symposium, 26 September-01 Octover, 2005, Torino, Italy

これらの手法には以下のような特徴がある。
a)ステレオ視による白線位置検知
(1)2台のカメラで白線位置の取得が可能。
(2)切れ目のない白線の場合、対応点探索の自動化が困難なため、手動による対応点探索が必要。
(3)有効視野角が狭い。
(4)絶対精度が低い。
b)カメラパラメータによる白線位置推定
(1)カメラから道路までの設定距離を一定として計算するため精度が悪い。
(2)精度が車両動揺に左右される。
(3)平坦でない道路では著しく精度が悪化する。
(4)1台のカメラで白線位置の取得が可能。
These methods have the following characteristics.
a) White line position detection by stereo vision (1) The white line position can be acquired by two cameras.
(2) In the case of an unbroken white line, it is difficult to automate the search for corresponding points, so it is necessary to manually search for corresponding points.
(3) The effective viewing angle is narrow.
(4) The absolute accuracy is low.
b) White line position estimation based on camera parameters (1) Since the setting distance from the camera to the road is constant, the accuracy is poor.
(2) The accuracy depends on the vehicle shaking.
(3) The accuracy is significantly degraded on uneven roads.
(4) The white line position can be acquired with a single camera.

本発明は、例えば、平坦でない道路でもより高精度な白線位置の取得を行うことを目的とする。   An object of the present invention is to acquire a white line position with higher accuracy even on a road that is not flat, for example.

本発明の白線モデル計測システムは、路面の画像データを撮影する撮像部と、レーザスキャナにより路面に対する距離方位データを取得する光走査部と、前記撮像部と前記光走査部とを固定する基台と、前記基台の位置を計測する測位部と、前記基台の動揺姿勢角を計測する姿勢検出部とを有した計測台車と、路面の画像データから白線画像を検出する画像処理部と、前記画像処理部で取得された白線画像と前記姿勢検出部で計測された動揺姿勢と前記測位部で得られた基台位置と前記光走査部で取得された路面に対する距離データとに基づいて白線の輪郭を表す白線モデルを演算する計算機とを備え、前記計算機は、前記姿勢検出部で計測された動揺姿勢に基づいて前記撮像部が撮影する視線中心方向を求め、前記撮像部で撮影された白線の輪郭データを抽出し、抽出した輪郭データに基づいて画像上における白線位置を求め、求めた視線中心方向と画像上における白線位置とに基づいて前記撮像部に対する白線方向を求め、前記姿勢検出部で計測された動揺姿勢と前記光走査部で取得された路面に対する距離方位データとに基づいて路面の形状データを生成し、生成された路面の形状データと白線方向と前記測位部で得られた基台位置とに基づいて路面の形状データにおける白線方向の対応点を求め、求めた対応点から白線の輪郭を表す白線モデルを演算し、前記画像処理部は前記計測台車と前記計算機との少なくともいずれかに備えられることを特徴とする。   The white line model measurement system of the present invention includes an imaging unit that captures image data of a road surface, an optical scanning unit that acquires distance and orientation data with respect to the road surface by a laser scanner, and a base that fixes the imaging unit and the optical scanning unit. A measurement unit having a positioning unit that measures the position of the base, a posture detection unit that measures a swinging posture angle of the base, an image processing unit that detects a white line image from image data of the road surface, A white line based on the white line image acquired by the image processing unit, the swinging posture measured by the posture detection unit, the base position obtained by the positioning unit, and the distance data with respect to the road surface acquired by the optical scanning unit. A calculator that calculates a white line model that represents the outline of the image, and the calculator obtains a gaze center direction imaged by the imaging unit based on a swinging posture measured by the attitude detection unit, and was imaged by the imaging unit white line Contour data is extracted, a white line position on the image is obtained based on the extracted contour data, a white line direction with respect to the imaging unit is obtained based on the obtained gaze center direction and a white line position on the image, and the posture detection unit Road surface shape data is generated based on the measured swing posture and the distance and orientation data with respect to the road surface acquired by the optical scanning unit, and the generated road surface shape data, white line direction, and the base unit obtained by the positioning unit are generated. The corresponding point in the white line direction in the road surface shape data is obtained based on the position of the platform, and a white line model representing the outline of the white line is calculated from the obtained corresponding point, and the image processing unit is at least one of the measurement carriage and the computer It is provided with the above.

本発明によれば、例えば、道路形状を考慮して白線位置の検知を行うことにより、平坦でない道路でもより高精度な白線位置の取得を行うことができる。   According to the present invention, for example, by detecting the position of the white line in consideration of the road shape, it is possible to acquire the white line position with higher accuracy even on an uneven road.

実施の形態1.
図1は、実施の形態1における白線モデル計測システム101のシステム構成および白線モデル計測装置100の機能構成を示す図である。
実施の形態1における白線モデル計測システム101はオドメトリ装置200、3台のジャイロ210(測位部、姿勢検出部、GPSジャイロの一部)、3台のGPS220(Global Positioning System)(測位部、姿勢検出部、GPSジャイロの一部)、カメラ230(撮像部)、レーザレーダ240(光走査部、レーザスキャナ)および白線モデル計測装置100(計算機)を備える。
Embodiment 1 FIG.
FIG. 1 is a diagram illustrating a system configuration of the white line model measurement system 101 and a functional configuration of the white line model measurement apparatus 100 according to the first embodiment.
The white line model measurement system 101 according to the first embodiment includes an odometry device 200, three gyros 210 (positioning unit, posture detection unit, part of a GPS gyro), and three GPS 220 (Global Positioning System) (positioning unit, posture detection). Unit, a part of a GPS gyro), a camera 230 (imaging unit), a laser radar 240 (light scanning unit, laser scanner), and a white line model measuring apparatus 100 (computer).

オドメトリ装置200、3台のジャイロ210、3台のGPS220、カメラ230、レーザレーダ240は計測台車102(以下、車両とする)の天板103(基台)(図4、図5参照)に搭載される。
オドメトリ装置200はオドメトリ手法を実行し車両の走行距離を示す距離データを算出する。
3台のジャイロ210は車両の3軸方向の傾き(ピッチ角、ロール角、ヨー角)を示す角速度データを算出する。
3台のGPS220は車両の走行位置(座標)を示す測位データを算出する。
ジャイロ210とGPS220とはデッドレコニングにより車両の位置、姿勢を測定する。
カメラ230は撮影を行い画像データを出力する。
レーザレーダ240はカメラ230位置から路面までの距離を各方位について示す方位・距離データを算出する。
The odometry apparatus 200, the three gyros 210, the three GPS 220, the camera 230, and the laser radar 240 are mounted on the top plate 103 (base) (see FIGS. 4 and 5) of the measurement carriage 102 (hereinafter referred to as a vehicle). Is done.
The odometry apparatus 200 executes an odometry method and calculates distance data indicating the travel distance of the vehicle.
The three gyros 210 calculate angular velocity data indicating the inclination (pitch angle, roll angle, yaw angle) of the vehicle in three axial directions.
The three GPSs 220 calculate positioning data indicating the travel position (coordinates) of the vehicle.
The gyro 210 and the GPS 220 measure the position and posture of the vehicle by dead reckoning.
The camera 230 takes a picture and outputs image data.
The laser radar 240 calculates azimuth / distance data indicating the distance from the camera 230 position to the road surface for each azimuth.

白線モデル計測装置100は距離データ、角速度データ、測位データ、画像データ、方位・距離データに基づいて白線位置(絶対座標)を算出する。
白線モデル演算処理100は車両位置姿勢(3軸)演算部110、白線認識処理部120(画像処理部)、カメラ位置姿勢演算部130、カメラLOS演算部140、路面形状モデル生成部150、レーザレーダ位置姿勢演算部160、路面モデル対応点探索部170を備える。
車両位置姿勢(3軸)演算部110は距離データ、角速度データ、測位データに基づいて車両の位置と姿勢(車両位置姿勢)を算出する。
白線認識処理部120は画像データに基づいて白線を認識し認識結果を出力する。
カメラ位置姿勢演算部130は車両位置姿勢とカメラ取付オフセットとに基づいてカメラ230の位置と姿勢(カメラ位置姿勢)を算出する。カメラ取付オフセットは車両軸(極座標)に対するカメラ230の取り付け軸のズレの量を示す。カメラ取付オフセットは図4、図5および図7のカメラ230と天板103との関係に対応する値である。
カメラLOS演算部140は認識結果とカメラ位置姿勢とに基づいてカメラから白線に向けた視線方向(LOS:Line Of Sight)の角度(白線見込み角)を算出する。
レーザレーダ位置姿勢演算部160は車両位置姿勢とレーザレーダ取付オフセットとに基づいてレーザレーダ240の位置と姿勢(レーザレーダ位置姿勢)を算出する。レーザレーダ取付オフセットは車両軸(極座標)に対するレーザレーダ240の取り付け軸のズレの量を示す。レーザレーダ取付オフセットは図4、図5および図6のレーザレーダ240と天板103との関係に対応する値である。
路面形状モデル生成部150は方位・距離データとレーザレーダ位置姿勢とに基づいて車両が走行した平坦でない路面の形状(曲面、傾斜、凹凸など)を示す路面形状モデル(三次元点群モデル)を生成する。
路面モデル対応点探索部170は白線見込み角と路面形状モデルとに基づいて白線位置の絶対座標を算出する。路面モデル対応点探索部170は路面の曲面、傾斜、凹凸などを考慮して白線位置を計測することにより高い精度で白線位置の絶対座標を算出することができる。
距離データ、角速度データ、測位データ、画像データ、方位・距離データを観測データとする。
The white line model measuring apparatus 100 calculates a white line position (absolute coordinates) based on distance data, angular velocity data, positioning data, image data, and azimuth / distance data.
The white line model calculation processing 100 includes a vehicle position / posture (three axes) calculation unit 110, a white line recognition processing unit 120 (image processing unit), a camera position / posture calculation unit 130, a camera LOS calculation unit 140, a road surface shape model generation unit 150, and a laser radar. A position and orientation calculation unit 160 and a road surface model corresponding point search unit 170 are provided.
The vehicle position / orientation (3-axis) calculation unit 110 calculates the position and orientation of the vehicle (vehicle position / orientation) based on the distance data, the angular velocity data, and the positioning data.
The white line recognition processing unit 120 recognizes a white line based on the image data and outputs a recognition result.
The camera position and orientation calculation unit 130 calculates the position and orientation (camera position and orientation) of the camera 230 based on the vehicle position and orientation and the camera mounting offset. The camera mounting offset indicates the amount of deviation of the mounting axis of the camera 230 with respect to the vehicle axis (polar coordinates). The camera mounting offset is a value corresponding to the relationship between the camera 230 and the top plate 103 in FIGS. 4, 5, and 7.
Based on the recognition result and the camera position and orientation, the camera LOS calculation unit 140 calculates an angle (white line expected angle) of the line-of-sight direction (LOS: Line Of Light) from the camera toward the white line.
The laser radar position and orientation calculation unit 160 calculates the position and orientation (laser radar position and orientation) of the laser radar 240 based on the vehicle position and orientation and the laser radar attachment offset. The laser radar mounting offset indicates the amount of deviation of the mounting axis of the laser radar 240 with respect to the vehicle axis (polar coordinates). The laser radar mounting offset is a value corresponding to the relationship between the laser radar 240 and the top plate 103 in FIGS. 4, 5, and 6.
The road surface shape model generation unit 150 generates a road surface shape model (three-dimensional point cloud model) that indicates the shape (curved surface, slope, unevenness, etc.) of an uneven road surface on which the vehicle has traveled based on the azimuth / distance data and the laser radar position and orientation. Generate.
The road surface model corresponding point search unit 170 calculates the absolute coordinates of the white line position based on the white line prospective angle and the road surface shape model. The road surface model corresponding point search unit 170 can calculate the absolute coordinates of the white line position with high accuracy by measuring the white line position in consideration of the curved surface, inclination, unevenness and the like of the road surface.
Distance data, angular velocity data, positioning data, image data, and azimuth / distance data are used as observation data.

図2は、実施の形態1における白線モデル計測装置100のハードウェア資源の一例を示す図である。
図2において、白線モデル計測装置100は、プログラムを実行するCPU911(Central・Processing・Unit、中央処理装置、処理装置、演算装置、マイクロプロセッサ、マイクロコンピュータ、プロセッサともいう)を備えている。CPU911は、バス912を介してROM913、RAM914、通信ボード915、表示装置901、キーボード902、マウス903、FDD904(Flexible・Disk・Drive)、CDD905(コンパクトディスク装置)、プリンタ装置906、スキャナ装置907、マイク908、スピーカー909、磁気ディスク装置920と接続され、これらのハードウェアデバイスを制御する。磁気ディスク装置920の代わりに、光ディスク装置、メモリカード読み書き装置などの記憶装置でもよい。
RAM914は、揮発性メモリの一例である。ROM913、FDD904、CDD905、磁気ディスク装置920の記憶媒体は、不揮発性メモリの一例である。これらは、記憶機器、記憶装置あるいは記憶部の一例である。
通信ボード915、キーボード902、スキャナ装置907、FDD904などは、入力機器、入力装置あるいは入力部の一例である。
また、通信ボード915、表示装置901、プリンタ装置906などは、出力機器、出力装置あるいは出力部の一例である。
FIG. 2 is a diagram illustrating an example of hardware resources of the white line model measurement apparatus 100 according to the first embodiment.
In FIG. 2, the white line model measurement apparatus 100 includes a CPU 911 (also referred to as a central processing unit, a central processing unit, a processing unit, a processing unit, a microprocessor, a microcomputer, and a processor) that executes a program. The CPU 911 includes a ROM 913, a RAM 914, a communication board 915, a display device 901, a keyboard 902, a mouse 903, an FDD 904 (Flexible Disk Drive), a CDD 905 (compact disc device), a printer device 906, a scanner device 907, via a bus 912. It is connected to a microphone 908, a speaker 909, and a magnetic disk device 920, and controls these hardware devices. Instead of the magnetic disk device 920, a storage device such as an optical disk device or a memory card read / write device may be used.
The RAM 914 is an example of a volatile memory. The storage media of the ROM 913, the FDD 904, the CDD 905, and the magnetic disk device 920 are an example of a nonvolatile memory. These are examples of a storage device, a storage device, or a storage unit.
The communication board 915, the keyboard 902, the scanner device 907, the FDD 904, and the like are examples of an input device, an input device, or an input unit.
The communication board 915, the display device 901, the printer device 906, and the like are examples of output devices, output devices, or output units.

通信ボード915は、有線または無線で、LAN(Local Area Network)、インターネット、ISDN等のWAN(ワイドエリアネットワーク)、電話回線などの通信網に接続されている。
磁気ディスク装置920には、OS921(オペレーティングシステム)、ウィンドウシステム922、プログラム群923、ファイル群924が記憶されている。プログラム群923のプログラムは、CPU911、OS921、ウィンドウシステム922により実行される。
The communication board 915 is wired or wirelessly connected to a communication network such as a LAN (Local Area Network), the Internet, a WAN (Wide Area Network) such as ISDN, and a telephone line.
The magnetic disk device 920 stores an OS 921 (operating system), a window system 922, a program group 923, and a file group 924. The programs in the program group 923 are executed by the CPU 911, the OS 921, and the window system 922.

上記プログラム群923には、実施の形態の説明において「〜部」、「〜手段」として説明する機能を実行するプログラムが記憶されている。プログラムは、CPU911により読み出され実行される。
ファイル群924には、実施の形態の説明において、「〜部」や「〜手段」の機能を実行した際の「〜の判定結果」、「〜の計算結果」、「〜の処理結果」などの結果データ、「〜部」や「〜手段」の機能を実行するプログラム間で受け渡しするデータ、その他の情報やデータや信号値や変数値やパラメータが、「〜ファイル」や「〜データベース」の各項目として記憶されている。「〜ファイル」や「〜データベース」は、ディスクやメモリなどの記録媒体に記憶される。ディスクやメモリなどの記憶媒体に記憶された情報やデータや信号値や変数値やパラメータは、読み書き回路を介してCPU911によりメインメモリやキャッシュメモリに読み出され、抽出・検索・参照・比較・演算・計算・処理・出力・印刷・表示などのCPUの動作に用いられる。抽出・検索・参照・比較・演算・計算・処理・出力・印刷・表示・抽出のCPUの動作の間、情報やデータや信号値や変数値やパラメータは、メインメモリやキャッシュメモリやバッファメモリに一時的に記憶される。
また、実施の形態の説明において説明するフローチャートの矢印の部分は主としてデータや信号の入出力を示し、データや信号値は、RAM914のメモリ、FDD904のフレキシブルディスク、CDD905のコンパクトディスク、磁気ディスク装置920の磁気ディスク、その他光ディスク、ミニディスク、DVD(Digital・Versatile・Disc)等の記録媒体に記録される。また、データや信号値は、バス912や信号線やケーブルその他の伝送媒体によりオンライン伝送される。
The program group 923 stores programs for executing functions described as “˜unit” and “˜means” in the description of the embodiment. The program is read and executed by the CPU 911.
In the file group 924, in the description of the embodiment, “determination result”, “calculation result”, “processing result of”, etc. when the functions of “˜part” and “˜means” are executed, etc. Result data, data passed between programs that execute the functions of "~ part" and "~ means", other information, data, signal values, variable values, and parameters are "~ file" and "~ database" It is stored as each item. The “˜file” and “˜database” are stored in a recording medium such as a disk or a memory. Information, data, signal values, variable values, and parameters stored in a storage medium such as a disk or memory are read out to the main memory or cache memory by the CPU 911 via a read / write circuit, and extracted, searched, referenced, compared, and calculated. Used for CPU operations such as calculation, processing, output, printing, and display. Information, data, signal values, variable values, and parameters are stored in the main memory, cache memory, and buffer memory during the CPU operations of extraction, search, reference, comparison, operation, calculation, processing, output, printing, display, and extraction. Temporarily stored.
In addition, arrows in the flowcharts described in the description of the embodiments mainly indicate input / output of data and signals. The data and signal values are the RAM 914 memory, the FDD 904 flexible disk, the CDD 905 compact disk, and the magnetic disk device 920. Recording media such as magnetic discs, other optical discs, mini discs, DVDs (Digital Versatile Disc) and the like. Data and signal values are transmitted online via a bus 912, signal lines, cables, or other transmission media.

また、実施の形態の説明において「〜部」、「〜手段」として説明するものは、「〜回路」、「〜装置」、「〜機器」、「手段」であってもよく、また、「〜ステップ」、「〜手順」、「〜処理」であってもよい。すなわち、「〜部」、「〜手段」として説明するものは、ROM913に記憶されたファームウェアで実現されていても構わない。或いは、ソフトウェアのみ、或いは、素子・デバイス・基板・配線などのハードウェアのみ、或いは、ソフトウェアとハードウェアとの組み合わせ、さらには、ファームウェアとの組み合わせで実施されても構わない。ファームウェアとソフトウェアは、プログラムとして、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ミニディスク、DVD等の記録媒体に記憶される。プログラムはCPU911により読み出され、CPU911により実行される。すなわち、プログラムは、「〜部」、「〜手段」としてコンピュータを機能させるものである。あるいは、「〜部」、「〜手段」の手順や方法をコンピュータに実行させるものである。   In the description of the embodiments, what is described as “to part” and “to means” may be “to circuit”, “to apparatus”, “to apparatus”, and “to means”. -Step "," -procedure "," -process "may be used. That is, what is described as “˜unit” and “˜means” may be realized by firmware stored in the ROM 913. Alternatively, it may be implemented only by software, or only by hardware such as elements, devices, substrates, and wirings, by a combination of software and hardware, or by a combination of firmware. Firmware and software are stored as programs in a recording medium such as a magnetic disk, a flexible disk, an optical disk, a compact disk, a mini disk, and a DVD. The program is read by the CPU 911 and executed by the CPU 911. That is, the program causes the computer to function as “˜unit” and “˜means”. Alternatively, the procedure or method of “˜unit” and “˜means” is executed by a computer.

図3は、実施の形態1における白線モデル計測装置100の白線位置検知のアルゴリズムフローを示す。
白線モデル計測装置100は図3に示す方法により白線位置を測定する。
FIG. 3 shows an algorithm flow of white line position detection of the white line model measuring apparatus 100 according to the first embodiment.
The white line model measuring apparatus 100 measures the white line position by the method shown in FIG.

<S101:車両位置姿勢(3軸)演算処理>
まず、車両位置姿勢(3軸)演算部110が距離データと角速度データと測位データとを入力して車両位置姿勢を算出する。
<S102:カメラ位置姿勢演算処理>
次に、カメラ位置姿勢演算部130が車両位置姿勢とカメラ取付オフセットとを入力しカメラ位置姿勢を算出する。
<S103、S104:白線抽出処理、白線認識処理>
また、白線認識処理部120が画像データを入力し画像データから白線を抽出し(S103)、抽出した白線の画像位置を認識結果として算出する(S104)。
<S105:カメラLOS演算処理>
次に、カメラLOS演算部140がカメラ位置姿勢と認識結果とを入力し白線見込み角を算出する。
<S106:路面形状モデル生成処理>
また、路面形状モデル生成部150が方位・距離データとレーザレーダ位置姿勢を入力し路面形状モデル(三次元点群モデル)を算出する。
このとき、レーザレーダ位置姿勢演算部160は車両位置姿勢とレーザレーダ取付オフセットとに基づいてレーザレーダ240の位置と姿勢(レーザレーダ位置姿勢)を算出する。
<S107、S108、S109:投影変換処理、路面モデル対応点探索処理、路面モデル対応面算出処理>
次に、路面モデル対応点探索部170が路面形状モデルを入力し路面形状モデルをカメラ230の画像平面に投影変換し(S107)、路面モデルから白線位置における路面の形状を示す3点を抽出し(S108)、抽出した3点が示す路面の形状を算出する(S109)。
<S110:白線位置計測処理>
そして、路面モデル対応点探索部170が白線見込み角を入力し路面の形状に対応した高精度な白線位置の絶対座標を算出する。
<S101: Vehicle Position / Attitude (3-Axis) Calculation Processing>
First, the vehicle position / orientation (three-axis) calculation unit 110 inputs distance data, angular velocity data, and positioning data to calculate the vehicle position / orientation.
<S102: Camera Position / Attitude Calculation Processing>
Next, the camera position / orientation calculation unit 130 inputs the vehicle position / orientation and the camera mounting offset, and calculates the camera position / orientation.
<S103, S104: White Line Extraction Processing, White Line Recognition Processing>
Further, the white line recognition processing unit 120 inputs image data, extracts a white line from the image data (S103), and calculates the image position of the extracted white line as a recognition result (S104).
<S105: Camera LOS Calculation Processing>
Next, the camera LOS calculation unit 140 inputs the camera position and orientation and the recognition result, and calculates the white line prospective angle.
<S106: Road surface shape model generation process>
Further, the road surface shape model generation unit 150 inputs the azimuth / distance data and the laser radar position and orientation, and calculates a road surface shape model (three-dimensional point cloud model).
At this time, the laser radar position and orientation calculation unit 160 calculates the position and orientation (laser radar position and orientation) of the laser radar 240 based on the vehicle position and orientation and the laser radar attachment offset.
<S107, S108, S109: Projection Conversion Processing, Road Surface Model Corresponding Point Search Processing, Road Surface Model Corresponding Surface Calculation Processing>
Next, the road surface model corresponding point searching unit 170 inputs the road surface shape model, projects the road surface shape model onto the image plane of the camera 230 (S107), and extracts three points indicating the shape of the road surface at the white line position from the road surface model. (S108) The shape of the road surface indicated by the extracted three points is calculated (S109).
<S110: White Line Position Measurement Processing>
Then, the road surface model corresponding point searching unit 170 inputs the white line prospective angle and calculates the absolute coordinates of the white line position with high accuracy corresponding to the shape of the road surface.

次に、路面形状モデル生成部150が実行する路面形状モデル生成処理(S106)について説明する。
路面形状モデル生成部150は以下のように三次元点群モデルを復元する。
白線認識においては、準備段階として、道路形状の三次元点群モデルを復元しておく。LRF(レーザーレンジファインダ)から得られるデータ(方位・距離データ)は二次元であり、これらをレーザレーダ240の設置位置角度(レーザレーダ取付オフセット)と車両位置姿勢とから三次元に復元する必要がある。
LRFから得られた二次元データの座標を(x,y)とおくと二次元データは以下の式1、式2によって車両位置に対する三次元位置(x,y,z)へ変換される。また、車両位置とLRF、白線認識用カメラ230の位置関係を図4、図5、図6、図7および図8に示す。
Next, the road surface shape model generation process (S106) executed by the road surface shape model generation unit 150 will be described.
The road surface shape model generation unit 150 restores the three-dimensional point cloud model as follows.
In white line recognition, as a preparation stage, a three-dimensional point cloud model of a road shape is restored. Data (azimuth / distance data) obtained from an LRF (laser range finder) is two-dimensional, and it is necessary to restore these three-dimensionally from the installation position angle (laser radar installation offset) of the laser radar 240 and the vehicle position and orientation. is there.
Assuming that the coordinates of the two-dimensional data obtained from the LRF are (x 0 , y 0 ), the two-dimensional data is converted into a three-dimensional position (x 2 , y 2 , z 2 ) with respect to the vehicle position by the following equations 1 and 2 . Converted. The positional relationship between the vehicle position, the LRF, and the white line recognition camera 230 is shown in FIGS. 4, 5, 6, 7, and 8.

は、レーザレーダ240のレーザスキャン面の高さであり、ここでは図7のようにレーザレーダ240の基準をスキャン面にとっているために0である。
つぎに車両位置姿勢を考慮し、式3、式4により変換を行い道路形状の三次元モデル化を行う。ここで、三次元モデル上の点を(Nlrf,Ulrf,Elrf)とする。
z 0 is the height of the laser scanning surface of the laser radar 240, and is 0 because the reference of the laser radar 240 is set to the scanning surface as shown in FIG.
Next, taking into account the vehicle position and orientation, transformation is performed by Equations 3 and 4 to create a three-dimensional model of the road shape. Here, a point on the three-dimensional model is set to (N lrf , U lrf , E lrf ).

これらに基づいて作成した道路点群モデルについて図9、図10および図11に示す。
例えば、図10では三次元点群データ(路肩)において左側に位置する歩道(段差の有る路肩)と右側の道路との境目が見て取れる。
また、図12に示す光学画像を三次元点群データで表わした図11では道路に沿った斜面の形状(道路断面形状)が見て取れる。
The road point cloud model created based on these is shown in FIG. 9, FIG. 10, and FIG.
For example, in FIG. 10, in the three-dimensional point cloud data (road shoulder), the boundary between the left sidewalk (step shoulder with a step) and the right road can be seen.
Further, in FIG. 11 in which the optical image shown in FIG. 12 is represented by three-dimensional point cloud data, the shape of the slope along the road (road cross-sectional shape) can be seen.

次に、路面モデル対応点探索部170が実行する投影変換処理(S107)について説明する。
路面モデル対応点探索部170は三次元点群データをカメラの画像平面に対し投影変換する。
カメラ座標系に対する点群データの位置(xcam,ycam,zcam)は以下の式5、式6で表わされる。
Next, the projection conversion process (S107) executed by the road surface model corresponding point searching unit 170 will be described.
The road surface model corresponding point searching unit 170 projects and converts the three-dimensional point cloud data onto the image plane of the camera.
The position (x cam , y cam , z cam ) of the point cloud data with respect to the camera coordinate system is expressed by the following expressions 5 and 6.

次に、これらの点とカメラ中心(xcam0,ycam0,zcam0)のなす直線は以下の式7、式8、式9および式10で表わされる。 Next, straight lines formed by these points and the camera center (x cam0 , y cam0 , z cam0 ) are expressed by the following formulas 7, 8, 9 and 10.

またこのとき、画像仮想平面はカメラ230を理想的なピンホールカメラと仮定すると焦点距離fであるから以下の式11となる。
z=f ・・・(式11)
At this time, since the image virtual plane is the focal length f assuming that the camera 230 is an ideal pinhole camera, the following equation 11 is obtained.
z = f (Formula 11)

この画像平面と直線の交点が三次元点データをカメラ画像へ投影した点である。
投影変換を行った画像を図13に示す。図からもわかるように投影変換された点と画像のマッチングがしっかりと取れていることがわかる。つまり、投影変換した点が示す段差と画像が示す路面の段差とが一致していることが分かる。
The intersection of the image plane and the straight line is a point obtained by projecting the three-dimensional point data onto the camera image.
FIG. 13 shows an image subjected to the projection conversion. As can be seen from the figure, it can be seen that the projection-transformed point and the image are well matched. That is, it can be seen that the step indicated by the projected point matches the step on the road surface indicated by the image.

次に、路面モデル対応点探索部170が実行する路面モデル対応点探索処理(S108)、路面モデル対応面算出処理(S109)、白線位置計測処理(S110)について説明する。
路面モデル対応点探索部170は、図14に示すように認識した白線の画像上の位置とカメラの視線中心がなす直線LOSとその直線を内部に含むような3点(路面モデル対応点)がなす面(路面モデル対応面)との交点を白線の位置とする。
3点(路面モデル対応点)、P1(xp1、yp1、zp1)、P1(xp2、yp2、zp2)、P3(xp3、yp3、zp3)がなす3次元空間の面(路面モデル対応面)の方程式は以下の式12で表される。
Next, a road surface model corresponding point search process (S108), a road surface model corresponding surface calculation process (S109), and a white line position measurement process (S110) executed by the road surface model corresponding point search unit 170 will be described.
The road surface model corresponding point search unit 170 has a straight line LOS formed by the position of the recognized white line on the image and the line of sight of the camera and three points (road surface model corresponding points) that include the straight line as shown in FIG. The intersection with the surface to be formed (surface corresponding to the road surface model) is the position of the white line.
3 points (road surface model corresponding points), P1 ( xp1 , yp1 , zp1 ), P1 ( xp2 , yp2 , zp2 ), P3 ( xp3 , yp3 , zp3 ) The equation of the surface (surface corresponding to the road surface model) is expressed by Equation 12 below.

従って、式7と式12とにより、路面モデルの各点データのカメラ画像面上での対応点(xcam,ycam,zcam)が求められる。
ここで、この点(xcam,ycam,zcam)と白線位置(U,V)を式13、式14および式15を用いてNEU座標に変換した(N,U,E)との距離を計算し、(U,V)に最も近い3点を選ぶことでP1、P2、P3が求められる。
Therefore, the corresponding points (x cam , y cam , z cam ) on the camera image plane of each point data of the road surface model are obtained by Expression 7 and Expression 12.
Here, the point (x cam , y cam , z cam ) and the white line position (U L , V L ) are converted into NEU coordinates using Equation 13, Equation 14, and Equation 15 (N L , UL , E L ) is calculated, and P1, P2, and P3 are obtained by selecting the three points closest to (U L , V L ).

ここで、U_SIZEはカメラの水平CCD(Charge Coupled Devices)画素サイズで、例えば、NTSC(National Television Standards Committee)カメラでは640[pixel]、V_SIZEは垂直CCD画素サイズで同様に480[pixel]、(U,V)は画像面上の白線の位置、Pixel_SIZEは画素の大きさで正方形のCCD素子を例にとると数十[μm]である。
以上により、路面モデルの対応点P1、P2、P3が求められたため、この3点のなす面と白線のLOSとの交点を求めればよい。
まず、LOSを求める。画像上の白線位置(U、V)はENU座標系(N、U、E)では式13、式14および式15で求められる。
従って、この(N,U,E)とカメラ中心を通るLOSは以下の式16、式17、式18および式19で表される。
Here, U_SIZE is the horizontal CCD (Charge Coupled Devices) pixel size of the camera, for example, NTSC (National Television Standards Committee) camera is 640 [pixel], and V_SIZE is the vertical CCD pixel size, similarly, 480 [Pixel] L , V L ) is the position of the white line on the image plane, and Pixel_SIZE is the size of a pixel, which is several tens [μm] when a square CCD element is taken as an example.
As described above, the corresponding points P1, P2, and P3 of the road surface model are obtained. Therefore, the intersection of the surface formed by the three points and the LOS of the white line may be obtained.
First, LOS is obtained. The white line position (U L , V L ) on the image is obtained by Expression 13, 14 and 15 in the ENU coordinate system (N L , U L , E L ).
Therefore, the (N L , U L , E L ) and the LOS passing through the camera center are expressed by the following Expression 16, Expression 17, Expression 18, and Expression 19.

よって白線の位置(x,y,z)は上記式16、式17、式18と路面モデルの対応点P1、P2、P3からなる式12の交点を求めればよい。   Therefore, the position (x, y, z) of the white line may be obtained by calculating the intersection of the above Expression 16, Expression 17, and Expression 18 and Expression 12 consisting of the corresponding points P1, P2, and P3 of the road surface model.

以下に、上記で説明した白線モデル計測システム101および白線モデル計測装置100を用いた白線位置の計測例を示す。
上記で説明した本手法による計測結果の精度検証のため、トータルステーション(測量機器)を用いて実際の白線の位置を計測し、それを真値とし、本手法による計測結果との比較を行った。
図15に実験環境を示す。実験では図15に示す車両走行箇所を上記で説明した計測台車102で走行し、車両走行箇所の全域でデータ(距離データ、角速度データ、測位データ、画像データ、方位・距離データ)を取得した。また、白線計測箇所においてトータルステーションを用いて数箇所の白線の位置情報を取得した。図16にトータルステーションで計測した真値と本手法による計測結果との比較に使用した路面の白線を示す。図16において白線の4隅を示すa〜dの4点について計測結果を比較した。実験場所は橋になっており道が図16に示すように山形になっているのが特徴である。このような場所においては、従来の手法は路面を平面として扱っているためカメラパラメータから高精度な白線位置を推定することは非常に困難である。
実験では図17、図18および図19に示すように車両の走行中に連続して(例えば、1秒間に30回)データを取得した。
Hereinafter, a measurement example of the white line position using the white line model measurement system 101 and the white line model measurement apparatus 100 described above will be shown.
In order to verify the accuracy of the measurement results obtained by the method described above, the actual position of the white line was measured using a total station (surveying equipment), and the result was compared with the measurement results obtained by the method.
FIG. 15 shows the experimental environment. In the experiment, the vehicle travel location shown in FIG. 15 was traveled by the measurement carriage 102 described above, and data (distance data, angular velocity data, positioning data, image data, azimuth / distance data) was acquired throughout the vehicle travel location. Moreover, the position information of several white lines was acquired using the total station at the white line measurement points. FIG. 16 shows a white line on the road surface used for comparison between the true value measured by the total station and the measurement result obtained by the present method. In FIG. 16, the measurement results were compared for four points a to d indicating the four corners of the white line. The experimental place is a bridge, and the road has a mountain shape as shown in FIG. In such a place, since the conventional method treats the road surface as a plane, it is very difficult to estimate the position of the white line with high accuracy from the camera parameters.
In the experiment, as shown in FIGS. 17, 18, and 19, data was acquired continuously while the vehicle was running (for example, 30 times per second).

図20にトータルステーションによる白線の計測結果を示す。図20においてトータルステーションで計測した白線位置と計測台車102(車両)の走行位置とを示している。また、図20中のa〜dはトータルステーションで計測した白線の4隅を示す。
図21に本手法による白線位置計測結果を示す。図21においてa〜dは白線4隅の複数の計測結果を示し、a(average)〜d(average)は白線4隅の計測結果の平均値を示し、vehicle positionは車両の走行位置を示し、abcd(traditional)は従来手法による白線4隅の計測結果を示す。
また、図21のa、bの部分を拡大した結果を図22に示し、図21のc、dの部分を拡大した結果を図23に示す。図22、図23においてTrue point(total station)はトータルステーションで計測した白線位置の真値を示す。
FIG. 20 shows the measurement result of the white line by the total station. In FIG. 20, the white line position measured at the total station and the travel position of the measurement carriage 102 (vehicle) are shown. Further, a to d in FIG. 20 indicate the four corners of the white line measured at the total station.
FIG. 21 shows the white line position measurement result by this method. In FIG. 21, a to d indicate a plurality of measurement results at the four corners of the white line, a (average) to d (average) indicate an average value of the measurement results at the four corners of the white line, and vehicle position indicates the travel position of the vehicle. abcd (traditional) indicates the measurement result of the four corners of the white line by the conventional method.
FIG. 22 shows the result of enlarging the parts a and b in FIG. 21, and FIG. 23 shows the result of enlarging the parts c and d in FIG. 22 and 23, True point (total station) indicates the true value of the white line position measured by the total station.

本試験では、図21〜図23に示すように、複数枚の画像から白線位置を計測し(a〜d)、その平均値(a(average)〜d(average))を計測値とした。トータルステーションの計測結果との比較結果としては、車両の進行方向に対しオフセットが現れたが、白線の形状(幅、長さ、傾き)がしっかりと出ていることがわかる。
また、計測された白線の幅および長さを図24に示す。図24において「image1」〜「image6」は各画像に基づいて測定した値を示し「平均値」は「image1」〜「image6」の測定値を平均した値を示す。また、「真値」はトータルステーションで計測した比較対象となる値を示す。図24に示す表からもわかるように、「平均値」は白線の幅(a−b間距離、c−d間距離)、長さ(a−d間距離、b−c間距離)ともに「真値」に近い値であり高精度に計測できていることがわかる。
In this test, as shown in FIGS. 21 to 23, white line positions were measured from a plurality of images (a to d), and the average values (a (average) to d (average)) were used as measured values. As a result of comparison with the measurement result of the total station, an offset appears in the traveling direction of the vehicle, but it can be seen that the shape (width, length, inclination) of the white line is solid.
FIG. 24 shows the measured white line width and length. In FIG. 24, “image1” to “image6” indicate values measured based on the respective images, and “average value” indicates a value obtained by averaging the measured values of “image1” to “image6”. The “true value” indicates a value to be compared measured by the total station. As can be seen from the table shown in FIG. 24, the “average value” is “white line width (a-b distance, cd distance)” and length (a-d distance, bc distance). It can be seen that the value is close to "true value" and can be measured with high accuracy.

また、本手法による計測結果は図21、図22および図23に示すように白線の検出位置が白線の幅方向よりも車両の進行方向に分散する傾向にあることがわかる。
白線の検出位置が車両の進行方向に分散する傾向にある理由は車両のピッチ角方向の変位に対して補正しきれていない結果であると考えられる。この傾向は、例えば、精度が高いジャイロ210を用いることで改善すると考えられる。
In addition, as shown in FIGS. 21, 22, and 23, the measurement results obtained by this method show that the white line detection positions tend to be dispersed in the vehicle traveling direction rather than the white line width direction.
The reason why the detection positions of the white lines tend to be dispersed in the traveling direction of the vehicle is considered to be a result of not being completely corrected for the displacement in the pitch angle direction of the vehicle. This tendency is considered to be improved by using, for example, the gyro 210 having high accuracy.

また、白線の端点が画像の端にあるときに計算した結果よりも、白線の端点が画像中心に近い画像を用いて白線位置を検出したほうが精度は高い。これらはカメラ230のレンズによる収差の影響が補正しきれていない結果であると考えられる。
この傾向に対しては、例えば、カメラ230の中心付近で白線を撮影するようにしたり、収差の小さいレンズを用いれば改善すると考えられる。
Further, it is more accurate to detect the position of the white line using an image in which the end point of the white line is close to the image center than the result calculated when the end point of the white line is at the end of the image. These are considered to be the result that the influence of the aberration by the lens of the camera 230 is not completely corrected.
This tendency can be improved by, for example, photographing a white line near the center of the camera 230 or using a lens having a small aberration.

また、計測台車102の走行速度を上げると進行方向の路面モデルの点の間隔が広がり、路面モデル対応点探索処理(S108)でのカメラ画像での白線位置に最も近いカメラ画像上での路面モデル投影点を3点選ぶ方式では精度劣化することもあるが、幾何学や統計学での既知の方式にて容易に対処可能である。もちろん、レーザレーダ240のスキャン速度を上げることでも解消できる。   Further, when the traveling speed of the measuring carriage 102 is increased, the distance between the points of the road surface model in the traveling direction increases, and the road surface model on the camera image closest to the white line position in the camera image in the road surface model corresponding point search process (S108). The method of selecting three projection points may deteriorate the accuracy, but can be easily handled by a known method in geometry and statistics. Of course, it can also be solved by increasing the scanning speed of the laser radar 240.

また実験環境によっては道路混雑のため路面形状が取れないことがあるが、この課題は路面形状を取得する時間帯を考慮することで解決できる。   Also, depending on the experimental environment, the road surface shape may not be obtained due to road congestion, but this problem can be solved by considering the time zone for acquiring the road surface shape.

上記の計測結果では、相対精度(白線の形状)では数cmクラス、また絶対精度(絶対座標)においても20[cm]以下の精度であった。以上より本手法の有効性を確認した。   In the above measurement results, the relative accuracy (white line shape) was several cm class, and the absolute accuracy (absolute coordinates) was 20 [cm] or less. From the above, the effectiveness of this method was confirmed.

実施の形態1では以下の特徴を持つ白線モデル計測システム101および白線モデル計測装置100について説明した。
(1)計測台車102で走行した経路のLRFの点群を位置姿勢に基づき復元する。
(2)復元結果をカメラ座標系に投影する。
(3)カメラ230の視線上での白線の位置から近い三点(路面モデル対応点)を探索し、その三点から構成される面(路面モデル対応面)と、LOSの交点を白線の位置として計測する。
(4)白線位置計測に際しては複数枚の画像で位置計測を行いその平均値をとった。
In the first embodiment, the white line model measurement system 101 and the white line model measurement apparatus 100 having the following characteristics have been described.
(1) The LRF point cloud of the route traveled by the measurement carriage 102 is restored based on the position and orientation.
(2) Project the restoration result onto the camera coordinate system.
(3) Three points (road surface model corresponding points) that are close to the position of the white line on the line of sight of the camera 230 are searched, and the intersection of the surface (road surface model corresponding surface) composed of the three points and the LOS is the position of the white line Measure as
(4) When measuring the position of the white line, the position was measured with a plurality of images and the average value was taken.

図1に基づいて説明した実施の形態1における白線モデル計測システム101と白線モデル計測装置100が道路形状を考慮せずに白線位置を測定する場合、例えば、図25や図26に示す構成になる。
図25はカメラ230を真下向き(路面方向)に向けた場合の構成を示し、図26はカメラ230を前向き(車両の進行方向)に向けた場合の構成を示す。
図25、図26において白線位置演算部180は路面形状モデルを使用せずに、つまり、道路形状を考慮せずに白線位置を測定する。
When the white line model measurement system 101 and the white line model measurement device 100 according to Embodiment 1 described based on FIG. 1 measure the position of the white line without considering the road shape, for example, the configuration shown in FIG. 25 or FIG. .
FIG. 25 shows a configuration when the camera 230 is directed downward (road surface direction), and FIG. 26 shows a configuration when the camera 230 is directed forward (vehicle traveling direction).
25 and FIG. 26, the white line position calculation unit 180 measures the white line position without using the road surface shape model, that is, without considering the road shape.

図1に示す白線モデル計測システム101および白線モデル計測装置100は図25または図26に示す白線モデル計測システム101および白線モデル計測装置100に対して以下のような特徴を持つ。
ハードウェアの差異として図1の構成ではGPS220とジャイロ210とレーザレーダ240とを備える。図1の構成ではジャイロ210を備えることによりロール角、ピッチ角、ヨー角を測定できる。これにより、図25の構成と比較して車体動揺に対する補正が行え高精度に白線位置を測定できるという長所を持つ。また、図1の構成ではレーザレーダ240を備えることにより路面形状を取得することができる。これにより、図26の構成と比較して路面形状が平坦でなく車両姿勢計測により路面の傾斜を正しく計測できていなくても高精度に白線位置を測定できるという長所を持つ。
The white line model measurement system 101 and the white line model measurement apparatus 100 shown in FIG. 1 have the following characteristics with respect to the white line model measurement system 101 and the white line model measurement apparatus 100 shown in FIG.
As a hardware difference, the configuration of FIG. 1 includes a GPS 220, a gyro 210, and a laser radar 240. In the configuration of FIG. 1, the roll angle, pitch angle, and yaw angle can be measured by providing the gyro 210. This has the advantage that the position of the white line can be measured with high accuracy by correcting the vehicle body shaking as compared with the configuration of FIG. In the configuration of FIG. 1, the road surface shape can be acquired by providing the laser radar 240. This has the advantage that the position of the white line can be measured with high accuracy even if the road surface shape is not flat and the inclination of the road surface cannot be correctly measured by the vehicle attitude measurement as compared with the configuration of FIG.

上記実施の形態1において、例えば、以下の白線モデル計測システム、計測台車および白線モデル計測装置について説明した。   In the first embodiment, for example, the following white line model measurement system, measurement truck, and white line model measurement device have been described.

路面の画像データを撮影する撮像部(カメラ230)と、レーザスキャナ(レーザレーダ240)により路面に対する距離方位データ(方位・距離データ)を取得する光走査部と、前記撮像部と前記光走査部とを固定する基台(天板103)と、前記基台の位置を計測する測位部(ジャイロ210、GPS220)と、前記基台の動揺姿勢角を計測する姿勢検出部(ジャイロ210、GPS220)とを有した計測台車102と、路面の画像データから白線画像を検出する画像処理部(白線認識処理部120)と、前記画像処理部で取得された白線画像(認識結果)と前記姿勢検出部で計測された動揺姿勢(車両位置姿勢)と前記測位部で得られた基台位置と前記光走査部で取得された路面に対する距離データとに基づいて白線の輪郭(白線の4隅)を表す白線モデル(路面形状モデル)を演算する計算機(白線モデル計測装置100)とを備え、前記計算機は、前記姿勢検出部で計測された動揺姿勢に基づいて前記撮像部が撮影する視線中心方向(LOS)を求め、前記撮像部で撮影された白線の輪郭データを抽出し、抽出した輪郭データに基づいて画像上における白線位置を求め、求めた視線中心方向と画像上における白線位置とに基づいて前記撮像部に対する白線方向を求め、前記姿勢検出部で計測された動揺姿勢と前記光走査部で取得された路面に対する距離方位データとに基づいて路面の形状データ(三次元点群データ)を生成し、生成された路面の形状データと白線方向と前記測位部で得られた基台位置とに基づいて路面の形状データにおける白線方向の対応点(路面モデル対応点)を求め、求めた対応点から白線の輪郭を表す白線モデルを演算し、前記画像処理部は前記計測台車と前記計算機との少なくともいずれかに備えられることを特徴とする白線モデル計測システム101。   An imaging unit (camera 230) that captures image data of a road surface, an optical scanning unit that acquires distance direction data (azimuth / distance data) with respect to the road surface by a laser scanner (laser radar 240), the imaging unit, and the optical scanning unit A base (top plate 103) for fixing the base, a positioning unit (gyro 210, GPS 220) for measuring the position of the base, and a posture detection unit (gyro 210, GPS 220) for measuring the swinging posture angle of the base. A measurement carriage 102 including: an image processing unit (white line recognition processing unit 120) for detecting a white line image from road surface image data; a white line image (recognition result) acquired by the image processing unit; and the posture detection unit. The contour of the white line (white line) based on the swinging posture (vehicle position and posture) measured in step 1, the base position obtained by the positioning unit, and the distance data with respect to the road surface obtained by the optical scanning unit And a computer (white line model measuring device 100) that calculates white line models (road surface shape models) representing four corners), and the imaging unit captures the computer based on the swinging posture measured by the posture detecting unit. The line-of-sight center direction (LOS) is obtained, the outline data of the white line photographed by the imaging unit is extracted, the position of the white line on the image is obtained based on the extracted outline data, and the obtained line-of-sight center direction and the position of the white line on the image The white line direction with respect to the imaging unit is obtained based on the above, and the road surface shape data (three-dimensional point cloud) is obtained based on the swing posture measured by the posture detection unit and the distance direction data with respect to the road surface obtained by the optical scanning unit. Data), and the corresponding point (road surface) in the white line direction in the road surface shape data based on the generated road surface shape data, the white line direction, and the base position obtained by the positioning unit A white line model representing the outline of the white line from the obtained corresponding point, and the image processing unit is provided in at least one of the measurement carriage and the computer. System 101.

路面の画像データを撮影する撮像部と、レーザスキャナにより路面に対する距離方位データを取得する光走査部と、前記撮像部と前記光走査部とを固定する基台と、前記基台の位置を計測する測位部と、前記基台の動揺姿勢角を計測する姿勢検出部とを備えたことを特徴とする計測台車102。   An imaging unit that captures image data of a road surface, an optical scanning unit that acquires distance and orientation data with respect to the road surface by a laser scanner, a base that fixes the imaging unit and the optical scanning unit, and a position of the base is measured A measuring carriage 102, comprising: a positioning unit that performs measurement; and a posture detection unit that measures a swinging posture angle of the base.

路面の画像データを撮影する撮像部と、レーザスキャナにより路面に対する距離方位データを取得する光走査部と、前記撮像部と前記光走査部とを固定する基台と、前記基台の位置を計測する測位部と、前記基台の動揺姿勢角を計測する姿勢検出部とを有した計測台車で取得されたデータを用いて白線の輪郭を表す白線モデルを演算する白線モデル計測装置であって、路面の画像データから白線画像を検出する画像処理部と、前記画像処理部で取得された白線画像と前記姿勢検出部で計測された動揺姿勢と前記測位部で得られた基台位置と前記光走査部で取得された路面に対する距離データとに基づいて白線の輪郭を表す白線モデルを演算する計算機とを備え、前記計算機は、前記姿勢検出部で計測された動揺姿勢角と前記光走査部で取得された路面に対する距離方位データとに基づいて前記撮像部が撮影する視線中心方向を求め、前記撮像部で撮影された白線の輪郭データを抽出し、抽出した輪郭データに基づいて画像上における白線位置を求め、求めた視線中心方向と画像上における白線位置とに基づいて前記撮像部に対する白線方向を求め、前記姿勢検出部で計測された動揺姿勢に基づいて路面の形状データを生成し、生成された路面の形状データと白線方向と前記測位部で得られた基台位置とに基づいて路面の形状データにおける白線方向の対応点を求め、求めた対応点から白線の輪郭を表す白線モデルを演算し、前記画像処理部は前記計測台車と前記計算機との少なくともいずれかに備えられることを特徴とする白線モデル測定装置。   An imaging unit that captures image data of a road surface, an optical scanning unit that acquires distance and orientation data with respect to the road surface by a laser scanner, a base that fixes the imaging unit and the optical scanning unit, and a position of the base is measured A white line model measuring device that calculates a white line model representing an outline of a white line using data acquired by a measurement carriage having a positioning unit and a posture detection unit that measures a swinging posture angle of the base, An image processing unit that detects a white line image from image data of a road surface, a white line image acquired by the image processing unit, a swinging posture measured by the posture detection unit, a base position obtained by the positioning unit, and the light A calculator that calculates a white line model that represents the outline of the white line based on the distance data with respect to the road surface acquired by the scanning unit, and the calculator includes the swing posture angle measured by the posture detection unit and the optical scanning unit. Acquired The direction of the line of sight captured by the image capturing unit is obtained based on the distance direction data with respect to the road surface, the outline data of the white line captured by the image capturing unit is extracted, and the position of the white line on the image is determined based on the extracted contour data. The white line direction with respect to the imaging unit is obtained based on the obtained line-of-sight center direction and the white line position on the image, and road surface shape data is generated based on the shaking posture measured by the posture detection unit. Based on the road surface shape data, the white line direction, and the base position obtained by the positioning unit, a corresponding point in the white line direction in the road surface shape data is obtained, and a white line model representing the outline of the white line is calculated from the obtained corresponding points. The white line model measuring apparatus, wherein the image processing unit is provided in at least one of the measuring carriage and the computer.

前記姿勢検出部で計測された動揺姿勢に基づいて得られる座標変換行列を用いた演算処理により路面の形状データを生成し、前記姿勢検出部で計測された動揺姿勢に基づいて得られる座標変換行列を用いた演算処理により前記撮像部が撮影する視線中心方向を求めることを特徴とする白線モデル計測システム。   A coordinate transformation matrix obtained by generating road shape data by calculation processing using a coordinate transformation matrix obtained based on the swing posture measured by the posture detection unit and obtained based on the swing posture measured by the posture detection unit A white line model measurement system characterized in that a line-of-sight center direction photographed by the image pickup unit is obtained by a calculation process using.

前記姿勢検出部は少なくとも2つのGPSアンテナの出力信号を用いて姿勢を検出することを特徴とする白線モデル計測システム。   The white line model measurement system, wherein the posture detection unit detects a posture using output signals of at least two GPS antennas.

路面の画像データを撮影する撮像部と、レーザスキャナにより路面に対する距離方位データを取得する光走査部と、前記撮像部と前記光走査部とを固定する基台と、前記基台の位置を計測する測位部と、前記基台の動揺姿勢角を計測する姿勢検出部とを有した計測台車と、路面の画像データから白線画像を検出する画像処理部と、前記画像処理部で取得された白線画像と前記姿勢検出部で計測された動揺姿勢と前記測位部で得られた基台位置と前記光走査部で取得された路面に対する距離データとに基づいて白線の輪郭を表す白線モデルを演算する計算機とを備え、前記計算機は、前記撮像部で撮影された白線の輪郭データを抽出し、抽出した輪郭データに基づいて画像上における白線位置を求め、前記姿勢検出部で計測された動揺姿勢と前記光走査部で取得された路面に対する距離方位データとに基づいて路面の形状データを生成し、画面上における白線位置と路面の形状データとに基づいて白線の輪郭を表す白線モデルを演算し、前記画像処理部は前記計測台車と前記計算機との少なくともいずれかに備えられることを特徴とする白線モデル計測システム。   An imaging unit that captures image data of a road surface, an optical scanning unit that acquires distance and orientation data with respect to the road surface by a laser scanner, a base that fixes the imaging unit and the optical scanning unit, and a position of the base is measured A positioning carriage, a measurement carriage having a posture detection section for measuring a swinging posture angle of the base, an image processing section for detecting a white line image from road surface image data, and a white line acquired by the image processing section A white line model representing the outline of the white line is calculated based on the image, the swinging posture measured by the posture detection unit, the base position obtained by the positioning unit, and the distance data with respect to the road surface obtained by the optical scanning unit. A calculator, wherein the calculator extracts outline data of a white line photographed by the imaging unit, obtains a position of a white line on the image based on the extracted outline data, and a shaking posture measured by the posture detector in front Generates road surface shape data based on the distance and orientation data for the road surface acquired by the optical scanning unit, calculates a white line model representing the outline of the white line based on the white line position on the screen and the road surface shape data, The white line model measurement system, wherein the image processing unit is provided in at least one of the measurement carriage and the computer.

上記実施の形態1における計測台車102の天板103は計測台車102のボディなどを流用しても構わない。
また、上記実施の形態1における白線モデル計測システム101および白線モデル計測装置100は白線以外を計測対象としても構わない。例えば、路面に記された交通標示でも構わないし黄線でも構わない。
また、白線モデル計測装置100は計測台車102に搭載されてもよいし、搭載されなくてもよい。そして、白線モデル計測装置100は計測台車102の走行中に即時処理により白線位置を計測してもよい。また、後処理にて計測してもよい。即時処理では白線位置を計測後に測位データなどの観測データが不要になるためデータ量を減らすことができる。
The top plate 103 of the measurement carriage 102 in the first embodiment may use the body of the measurement carriage 102 or the like.
In addition, the white line model measurement system 101 and the white line model measurement apparatus 100 according to the first embodiment may measure other than white lines. For example, a traffic sign written on the road surface or a yellow line may be used.
Moreover, the white line model measuring apparatus 100 may be mounted on the measuring carriage 102 or may not be mounted. The white line model measuring apparatus 100 may measure the white line position by immediate processing while the measurement carriage 102 is traveling. Moreover, you may measure by post-processing. Immediate processing can reduce the amount of data because observation data such as positioning data is not required after measuring the position of the white line.

実施の形態1における白線モデル計測システム101のシステム構成および白線モデル計測装置100の機能構成を示す図。2 is a diagram illustrating a system configuration of a white line model measurement system 101 and a functional configuration of a white line model measurement apparatus 100 according to Embodiment 1. FIG. 実施の形態1における白線モデル計測装置100のハードウェア資源の一例を示す図。FIG. 3 is a diagram illustrating an example of hardware resources of the white line model measurement apparatus 100 according to the first embodiment. 実施の形態1における白線モデル計測装置100の白線位置検知のアルゴリズムフロー。7 is an algorithm flow of white line position detection of the white line model measuring apparatus 100 according to the first embodiment. 実施の形態1における車両位置とLRF、白線認識用カメラ230の位置関係図。FIG. 4 is a positional relationship diagram of the vehicle position, LRF, and white line recognition camera 230 in the first embodiment. 実施の形態1における車両位置とLRF、白線認識用カメラ230の位置関係図。FIG. 4 is a positional relationship diagram of the vehicle position, LRF, and white line recognition camera 230 in the first embodiment. 実施の形態1における車両位置とLRF、白線認識用カメラ230の位置関係図。FIG. 4 is a positional relationship diagram of the vehicle position, LRF, and white line recognition camera 230 in the first embodiment. 実施の形態1における車両位置とLRF、白線認識用カメラ230の位置関係図。FIG. 4 is a positional relationship diagram of the vehicle position, LRF, and white line recognition camera 230 in the first embodiment. 実施の形態1における車両位置とLRF、白線認識用カメラ230の位置関係図。FIG. 4 is a positional relationship diagram of the vehicle position, LRF, and white line recognition camera 230 in the first embodiment. 実施の形態1における道路点群モデルを示す図。FIG. 3 shows a road point cloud model in the first embodiment. 実施の形態1における道路点群モデルを示す図。FIG. 3 shows a road point cloud model in the first embodiment. 実施の形態1における道路点群モデルを示す図。FIG. 3 shows a road point cloud model in the first embodiment. 図11に対応する光学画像。The optical image corresponding to FIG. 実施の形態1における投影変換を行った画像。The image which performed projection conversion in Embodiment 1. FIG. 実施の形態1における白線の画像上の位置とLOSと3点(路面モデル対応点)がなす面(路面モデル対応面)との関係を示す図。The figure which shows the relationship between the position on the image of the white line in Embodiment 1, LOS, and the surface (road surface model corresponding surface) which three points (road surface model corresponding point) make. 実施の形態1における実験環境を示す。The experimental environment in Embodiment 1 is shown. 実施の形態1における計測結果を比較した白線の4隅を示す図。FIG. 4 is a diagram illustrating four corners of a white line comparing measurement results in the first embodiment. 実施の形態1における走行する車両と路面との位置関係を示す図。FIG. 3 is a diagram illustrating a positional relationship between a traveling vehicle and a road surface in the first embodiment. 実施の形態1における走行する車両と路面との位置関係を示す図。FIG. 3 is a diagram illustrating a positional relationship between a traveling vehicle and a road surface in the first embodiment. 実施の形態1における走行する車両と路面との位置関係を示す図。FIG. 3 is a diagram illustrating a positional relationship between a traveling vehicle and a road surface in the first embodiment. トータルステーションによる白線の計測結果を示す図。The figure which shows the measurement result of the white line by a total station. 実施の形態1における白線位置計測結果を示す図。FIG. 6 shows a white line position measurement result in the first embodiment. 図21のa、b部分拡大図。The a and b partial enlarged view of FIG. 図21のc、d部分拡大図。The c and d partial enlarged view of FIG. 実施の形態1における計測した白線の幅および長さを示す表。The table | surface which shows the width | variety and length of the white line which were measured in Embodiment 1. FIG. 白線モデル計測システム101および白線モデル計測装置100の別構成を示す図。The figure which shows another structure of the white line model measurement system 101 and the white line model measurement apparatus 100. FIG. 白線モデル計測システム101および白線モデル計測装置100の別構成を示す図。The figure which shows another structure of the white line model measurement system 101 and the white line model measurement apparatus 100. FIG.

符号の説明Explanation of symbols

100 白線モデル計測装置、101 白線モデル計測システム、102 計測台車、103 天板、110 車両位置姿勢(3軸)演算部、120 白線認識処理部、130 カメラ位置姿勢演算部、140 カメラLOS演算部、150 路面形状モデル生成部、160 レーザレーダ位置姿勢演算部、170 路面モデル対応点探索部、180 白線位置演算部、200 オドメトリ装置、210 ジャイロ、220 GPS、230 カメラ、240 レーザレーダ、901 表示装置、902 キーボード、903 マウス、904 FDD、905 CDD、906 プリンタ装置、907 スキャナ装置、908 マイク、909 スピーカー、911 CPU、912 バス、913 ROM、914 RAM、915 通信ボード、920 磁気ディスク装置、921 OS、922 ウィンドウシステム、923 プログラム群、924 ファイル群。   DESCRIPTION OF SYMBOLS 100 White line model measuring device, 101 White line model measuring system, 102 Measuring cart, 103 Top plate, 110 Vehicle position and orientation (3-axis) calculating part, 120 White line recognition processing part, 130 Camera position and posture calculating part, 140 Camera LOS calculating part, 150 road surface model generation unit, 160 laser radar position and orientation calculation unit, 170 road surface model corresponding point search unit, 180 white line position calculation unit, 200 odometry device, 210 gyro, 220 GPS, 230 camera, 240 laser radar, 901 display device, 902 Keyboard, 903 mouse, 904 FDD, 905 CDD, 906 Printer device, 907 Scanner device, 908 Microphone, 909 Speaker, 911 CPU, 912 bus, 913 ROM, 914 RAM, 915 Communication board, 920 Magnetic Disk device, 921 OS, 922 window system, 923 program group, 924 file group.

Claims (6)

路面の画像データを撮影する撮像部と、
レーザスキャナにより路面に対する距離方位データを取得する光走査部と、
前記撮像部と前記光走査部とを固定する基台と、
前記基台の位置を計測する測位部と、
前記基台の動揺姿勢角を計測する姿勢検出部と
を有した計測台車と、
路面の画像データから白線画像を検出する画像処理部と、
前記画像処理部で取得された白線画像と前記姿勢検出部で計測された動揺姿勢と前記測位部で得られた基台位置と前記光走査部で取得された路面に対する距離データとに基づいて白線の輪郭を表す白線モデルを演算する計算機と
を備え、
前記計算機は、
前記姿勢検出部で計測された動揺姿勢に基づいて前記撮像部が撮影する視線中心方向を求め、前記撮像部で撮影された白線の輪郭データを抽出し、抽出した輪郭データに基づいて画像上における白線位置を求め、求めた視線中心方向と画像上における白線位置とに基づいて前記撮像部に対する白線方向を求め、前記姿勢検出部で計測された動揺姿勢と前記光走査部で取得された路面に対する距離方位データとに基づいて路面の形状データを生成し、生成された路面の形状データと白線方向と前記測位部で得られた基台位置とに基づいて路面の形状データにおける白線方向の対応点を求め、求めた対応点から白線の輪郭を表す白線モデルを演算し、
前記画像処理部は前記計測台車と前記計算機との少なくともいずれかに備えられる
ことを特徴とする白線モデル計測システム。
An imaging unit that captures image data of the road surface;
An optical scanning unit for acquiring distance direction data with respect to a road surface by a laser scanner;
A base for fixing the imaging unit and the optical scanning unit;
A positioning unit for measuring the position of the base;
A measurement carriage having an attitude detection unit for measuring the shaking attitude angle of the base;
An image processing unit for detecting a white line image from road surface image data;
A white line based on the white line image acquired by the image processing unit, the swinging posture measured by the posture detection unit, the base position obtained by the positioning unit, and the distance data with respect to the road surface acquired by the optical scanning unit. A computer that calculates a white line model representing the outline of
The calculator is
Based on the shaking posture measured by the posture detection unit, the center direction of the line of sight captured by the imaging unit is obtained, the contour data of the white line captured by the imaging unit is extracted, and the image on the image based on the extracted contour data A white line position is obtained, a white line direction with respect to the imaging unit is obtained based on the obtained line-of-sight center direction and a white line position on the image, and the swing posture measured by the posture detection unit and the road surface obtained by the optical scanning unit are obtained. The road surface shape data is generated based on the distance and azimuth data, and the corresponding points in the white line direction in the road surface shape data based on the generated road surface shape data, the white line direction, and the base position obtained by the positioning unit. And calculate a white line model representing the outline of the white line from the corresponding points obtained,
The white line model measurement system, wherein the image processing unit is provided in at least one of the measurement carriage and the computer.
路面の画像データを撮影する撮像部と、
レーザスキャナにより路面に対する距離方位データを取得する光走査部と、
前記撮像部と前記光走査部とを固定する基台と、
前記基台の位置を計測する測位部と、
前記基台の動揺姿勢角を計測する姿勢検出部と
を備えたことを特徴とする計測台車。
An imaging unit that captures image data of the road surface;
An optical scanning unit for acquiring distance direction data with respect to a road surface by a laser scanner;
A base for fixing the imaging unit and the optical scanning unit;
A positioning unit for measuring the position of the base;
A measuring carriage, comprising: a posture detecting unit that measures a swinging posture angle of the base.
路面の画像データを撮影する撮像部と、
レーザスキャナにより路面に対する距離方位データを取得する光走査部と、
前記撮像部と前記光走査部とを固定する基台と、
前記基台の位置を計測する測位部と、
前記基台の動揺姿勢角を計測する姿勢検出部と
を有した計測台車で取得されたデータを用いて白線の輪郭を表す白線モデルを演算する白線モデル計測装置であって、
路面の画像データから白線画像を検出する画像処理部と、
前記画像処理部で取得された白線画像と前記姿勢検出部で計測された動揺姿勢と前記測位部で得られた基台位置と前記光走査部で取得された路面に対する距離データとに基づいて白線の輪郭を表す白線モデルを演算する計算機と
を備え、
前記計算機は、
前記姿勢検出部で計測された動揺姿勢角に基づいて前記撮像部が撮影する視線中心方向を求め、前記撮像部で撮影された白線の輪郭データを抽出し、抽出した輪郭データに基づいて画像上における白線位置を求め、求めた視線中心方向と画像上における白線位置とに基づいて前記撮像部に対する白線方向を求め、前記姿勢検出部で計測された動揺姿勢と前記光走査部で取得された路面に対する距離方位データとに基づいて路面の形状データを生成し、生成された路面の形状データと白線方向と前記測位部で得られた基台位置とに基づいて路面の形状データにおける白線方向の対応点を求め、求めた対応点から白線の輪郭を表す白線モデルを演算し、
前記画像処理部は前記計測台車と前記計算機との少なくともいずれかに備えられる
ことを特徴とする白線モデル計測装置。
An imaging unit that captures image data of the road surface;
An optical scanning unit for acquiring distance direction data with respect to a road surface by a laser scanner;
A base for fixing the imaging unit and the optical scanning unit;
A positioning unit for measuring the position of the base;
A white line model measurement device that calculates a white line model representing a white line outline using data acquired by a measurement carriage having a posture detection unit that measures a swing posture angle of the base,
An image processing unit for detecting a white line image from road surface image data;
A white line based on the white line image acquired by the image processing unit, the swinging posture measured by the posture detection unit, the base position obtained by the positioning unit, and the distance data with respect to the road surface acquired by the optical scanning unit. A computer that calculates a white line model representing the outline of
The calculator is
Based on the shaking posture angle measured by the posture detection unit, the center direction of the line of sight photographed by the imaging unit is obtained, the outline data of the white line photographed by the imaging unit is extracted, and on the image based on the extracted contour data The white line position is obtained, the white line direction with respect to the imaging unit is obtained based on the obtained line-of-sight center direction and the white line position on the image, and the rocking posture measured by the posture detection unit and the road surface obtained by the optical scanning unit The road surface shape data is generated on the basis of the distance and azimuth data, and the correspondence of the white line direction in the road surface shape data based on the generated road surface shape data, the white line direction, and the base position obtained by the positioning unit. Calculate the white line model that represents the outline of the white line from the corresponding points obtained,
The white line model measuring apparatus, wherein the image processing unit is provided in at least one of the measuring carriage and the computer.
前記姿勢検出部で計測された動揺姿勢に基づいて得られる座標変換行列を用いた演算処理により路面の形状データを生成し、前記姿勢検出部で計測された動揺姿勢に基づいて得られる座標変換行列を用いた演算処理により前記撮像部が撮影する視線中心方向を求めることを特徴とする請求項1記載の白線モデル計測システム。   A coordinate transformation matrix obtained by generating road shape data by calculation processing using a coordinate transformation matrix obtained based on the swing posture measured by the posture detection unit and obtained based on the swing posture measured by the posture detection unit The white line model measurement system according to claim 1, wherein a line-of-sight center direction taken by the image pickup unit is obtained by a calculation process using a white line. 前記姿勢検出部は少なくとも2つのGPS(Global Positioning System)アンテナの出力信号を用いて姿勢を検出する
ことを特徴とする請求項1記載の白線モデル計測システム。
The white line model measurement system according to claim 1, wherein the attitude detection unit detects an attitude using output signals of at least two GPS (Global Positioning System) antennas.
路面の画像データを撮影する撮像部と、
レーザスキャナにより路面に対する距離方位データを取得する光走査部と、
前記撮像部と前記光走査部とを固定する基台と、
前記基台の位置を計測する測位部と、
前記基台の動揺姿勢角を計測する姿勢検出部と
を有した計測台車と、
路面の画像データから白線画像を検出する画像処理部と、
前記画像処理部で取得された白線画像と前記姿勢検出部で計測された動揺姿勢と前記測位部で得られた基台位置と前記光走査部で取得された路面に対する距離データとに基づいて白線の輪郭を表す白線モデルを演算する計算機と
を備え、
前記計算機は、
前記撮像部で撮影された白線の輪郭データを抽出し、抽出した輪郭データに基づいて画像上における白線位置を求め、前記姿勢検出部で計測された動揺姿勢と前記光走査部で取得された路面に対する距離方位データとに基づいて路面の形状データを生成し、画面上における白線位置と路面の形状データとに基づいて白線の輪郭を表す白線モデルを演算し、
前記画像処理部は前記計測台車と前記計算機との少なくともいずれかに備えられる
ことを特徴とする白線モデル計測システム。
An imaging unit that captures image data of the road surface;
An optical scanning unit for acquiring distance direction data with respect to a road surface by a laser scanner;
A base for fixing the imaging unit and the optical scanning unit;
A positioning unit for measuring the position of the base;
A measurement carriage having an attitude detection unit for measuring the shaking attitude angle of the base;
An image processing unit for detecting a white line image from road surface image data;
A white line based on the white line image acquired by the image processing unit, the swinging posture measured by the posture detection unit, the base position obtained by the positioning unit, and the distance data with respect to the road surface acquired by the optical scanning unit. A computer that calculates a white line model representing the outline of
The calculator is
The contour data of the white line photographed by the imaging unit is extracted, the position of the white line on the image is obtained based on the extracted contour data, and the rocking posture measured by the posture detection unit and the road surface acquired by the optical scanning unit The road surface shape data is generated based on the distance and azimuth data, and the white line model representing the outline of the white line is calculated based on the white line position on the screen and the road surface shape data.
The white line model measurement system, wherein the image processing unit is provided in at least one of the measurement carriage and the computer.
JP2006038689A 2006-02-15 2006-02-15 Road marking measurement system, white line model measurement system, and white line model measurement device Active JP4619962B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006038689A JP4619962B2 (en) 2006-02-15 2006-02-15 Road marking measurement system, white line model measurement system, and white line model measurement device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006038689A JP4619962B2 (en) 2006-02-15 2006-02-15 Road marking measurement system, white line model measurement system, and white line model measurement device

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2010223474A Division JP2011059121A (en) 2010-10-01 2010-10-01 Measurement truck and base

Publications (3)

Publication Number Publication Date
JP2007218705A true JP2007218705A (en) 2007-08-30
JP2007218705A5 JP2007218705A5 (en) 2008-10-30
JP4619962B2 JP4619962B2 (en) 2011-01-26

Family

ID=38496177

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006038689A Active JP4619962B2 (en) 2006-02-15 2006-02-15 Road marking measurement system, white line model measurement system, and white line model measurement device

Country Status (1)

Country Link
JP (1) JP4619962B2 (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009139410A1 (en) 2008-05-15 2009-11-19 三菱電機株式会社 Antenna device
WO2010024212A1 (en) 2008-08-29 2010-03-04 三菱電機株式会社 Bird's-eye image forming device, bird's-eye image forming method, and bird's-eye image forming program
JP2012517055A (en) * 2009-02-06 2012-07-26 アーデーツエー・オートモテイブ・デイスタンス・コントロール・システムズ・ゲゼルシヤフト・ミツト・ベシユレンクテル・ハフツング Method and apparatus for operating a vehicle driver assistance system based on video
JP2015086590A (en) * 2013-10-31 2015-05-07 三菱電機株式会社 Road surface sign painting device
CN105741635A (en) * 2016-03-01 2016-07-06 武汉理工大学 Multifunctional road experiment vehicle platform
JP2017207814A (en) * 2016-05-16 2017-11-24 株式会社デンソー Verification device and verification method
CN107764183A (en) * 2017-11-07 2018-03-06 浙江大学 Local laser image co-registration measuring system and its measuring method for underwater object dimensional measurement
JP2018055715A (en) * 2017-12-06 2018-04-05 株式会社Jvcケンウッド Lane recognition apparatus, lane recognition method
CN108846328A (en) * 2018-05-29 2018-11-20 上海交通大学 Lane detection method based on geometry regularization constraint
US11270131B2 (en) 2017-06-09 2022-03-08 Denso Corporation Map points-of-change detection device
CN116379953A (en) * 2023-05-30 2023-07-04 武汉中岩科技股份有限公司 Shooting control method of remote binocular three-dimensional deformation measurement system

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104197851B (en) * 2014-08-18 2017-11-07 重庆交通大学 Vehicle-mounted bridge floor morphosis safety detecting system and method

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1021411A (en) * 1996-07-05 1998-01-23 Nissan Motor Co Ltd Traveling course recognizing device
JPH10187930A (en) * 1996-12-19 1998-07-21 Hitachi Ltd Running environment recognizing device
JP2000030198A (en) * 1998-07-14 2000-01-28 Mitsubishi Motors Corp Device for recognizing road shape for vehicle
JP2000161919A (en) * 1998-11-25 2000-06-16 Hakusado:Kk Method and system for restoring two-dimensional position data of local coordinates from overhead view picture, and computer-readable recording medium with program for the method recorded therein
JP2001331787A (en) * 2000-05-19 2001-11-30 Toyota Central Res & Dev Lab Inc Road shape estimating device
JP2002081941A (en) * 2000-09-11 2002-03-22 Zenrin Co Ltd System and method of measuring three-dimensional shape of road
JP2002328022A (en) * 2001-05-02 2002-11-15 Komatsu Ltd System for measuring topographical form and guidance system

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1021411A (en) * 1996-07-05 1998-01-23 Nissan Motor Co Ltd Traveling course recognizing device
JPH10187930A (en) * 1996-12-19 1998-07-21 Hitachi Ltd Running environment recognizing device
JP2000030198A (en) * 1998-07-14 2000-01-28 Mitsubishi Motors Corp Device for recognizing road shape for vehicle
JP2000161919A (en) * 1998-11-25 2000-06-16 Hakusado:Kk Method and system for restoring two-dimensional position data of local coordinates from overhead view picture, and computer-readable recording medium with program for the method recorded therein
JP2001331787A (en) * 2000-05-19 2001-11-30 Toyota Central Res & Dev Lab Inc Road shape estimating device
JP2002081941A (en) * 2000-09-11 2002-03-22 Zenrin Co Ltd System and method of measuring three-dimensional shape of road
JP2002328022A (en) * 2001-05-02 2002-11-15 Komatsu Ltd System for measuring topographical form and guidance system

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009139410A1 (en) 2008-05-15 2009-11-19 三菱電機株式会社 Antenna device
EP2278658A1 (en) * 2008-05-15 2011-01-26 Mitsubishi Electric Corporation Antenna device
US8558744B2 (en) 2008-05-15 2013-10-15 Mitsubishi Electric Corporation Antenna device
EP2278658A4 (en) * 2008-05-15 2014-03-19 Mitsubishi Electric Corp Antenna device
WO2010024212A1 (en) 2008-08-29 2010-03-04 三菱電機株式会社 Bird's-eye image forming device, bird's-eye image forming method, and bird's-eye image forming program
US8665263B2 (en) 2008-08-29 2014-03-04 Mitsubishi Electric Corporation Aerial image generating apparatus, aerial image generating method, and storage medium having aerial image generating program stored therein
JP2012517055A (en) * 2009-02-06 2012-07-26 アーデーツエー・オートモテイブ・デイスタンス・コントロール・システムズ・ゲゼルシヤフト・ミツト・ベシユレンクテル・ハフツング Method and apparatus for operating a vehicle driver assistance system based on video
JP2015086590A (en) * 2013-10-31 2015-05-07 三菱電機株式会社 Road surface sign painting device
CN105741635A (en) * 2016-03-01 2016-07-06 武汉理工大学 Multifunctional road experiment vehicle platform
JP2017207814A (en) * 2016-05-16 2017-11-24 株式会社デンソー Verification device and verification method
US11270131B2 (en) 2017-06-09 2022-03-08 Denso Corporation Map points-of-change detection device
CN107764183A (en) * 2017-11-07 2018-03-06 浙江大学 Local laser image co-registration measuring system and its measuring method for underwater object dimensional measurement
JP2018055715A (en) * 2017-12-06 2018-04-05 株式会社Jvcケンウッド Lane recognition apparatus, lane recognition method
CN108846328A (en) * 2018-05-29 2018-11-20 上海交通大学 Lane detection method based on geometry regularization constraint
CN108846328B (en) * 2018-05-29 2020-10-16 上海交通大学 Lane detection method based on geometric regularization constraint
CN116379953A (en) * 2023-05-30 2023-07-04 武汉中岩科技股份有限公司 Shooting control method of remote binocular three-dimensional deformation measurement system
CN116379953B (en) * 2023-05-30 2023-09-05 武汉中岩科技股份有限公司 Shooting control method of remote binocular three-dimensional deformation measurement system

Also Published As

Publication number Publication date
JP4619962B2 (en) 2011-01-26

Similar Documents

Publication Publication Date Title
JP4619962B2 (en) Road marking measurement system, white line model measurement system, and white line model measurement device
US8571265B2 (en) Measurement apparatus, measurement method, and feature identification apparatus
JP5047515B2 (en) Road image creation system, road image creation method, and road image composition apparatus
US8847982B2 (en) Method and apparatus for generating an orthorectified tile
JP5832341B2 (en) Movie processing apparatus, movie processing method, and movie processing program
JP5389964B2 (en) Map information generator
JP5844454B2 (en) Camera calibration method, camera calibration program, and camera calibration apparatus
WO2018133727A1 (en) Method and apparatus for generating orthophoto map
JP5762131B2 (en) CALIBRATION DEVICE, CALIBRATION DEVICE CALIBRATION METHOD, AND CALIBRATION PROGRAM
JP4986883B2 (en) Orientation device, orientation method and orientation program
JP6135972B2 (en) Orientation method, orientation program, and orientation device
JP5814620B2 (en) POSITION CORRECTION DATA GENERATION DEVICE, POSITION LOCATION DEVICE, POSITION CORRECTION DATA GENERATION DEVICE POSITION CORRECTION DATA GENERATION METHOD, POSITION POSITION DEVICE POSITION POSITIONING METHOD, POSITION CORRECTION DATA GENERATION PROGRAM, AND POSITION POSITION PROGRAM
JP5396585B2 (en) Feature identification method
JP5214355B2 (en) Vehicle traveling locus observation system, vehicle traveling locus observation method, and program thereof
JP5256464B2 (en) Image top feature measurement method, display method, and measurement apparatus
CN110986888A (en) Aerial photography integrated method
JP2013015429A (en) Movement reference point photogrammetry apparatus and method
CN109631841B (en) Method and device for measuring cross section of expressway based on laser projection
JP6305501B2 (en) Calibration method, program, and computer
JP5251460B2 (en) Approaching object detection device, approaching object detection program, approaching object detection method
JP2011059121A (en) Measurement truck and base
JP7293931B2 (en) Position measurement data generation device, position measurement data generation method, and position measurement data generation program
JP2020173211A (en) Angle measuring device, distance measuring device, speed measuring device, altitude measuring device, coordinate measuring device, angle measuring method, and program
JP6062020B2 (en) Designated point projection method, program and computer
JP2004030440A (en) Image processing method, image processing program, and computer readable recording medium with the program recorded thereon

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080912

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080912

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100727

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100803

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101001

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20101026

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20101027

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131105

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4619962

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250