WO2019116686A1 - 道路地図生成システム及び道路地図生成方法 - Google Patents

道路地図生成システム及び道路地図生成方法 Download PDF

Info

Publication number
WO2019116686A1
WO2019116686A1 PCT/JP2018/037041 JP2018037041W WO2019116686A1 WO 2019116686 A1 WO2019116686 A1 WO 2019116686A1 JP 2018037041 W JP2018037041 W JP 2018037041W WO 2019116686 A1 WO2019116686 A1 WO 2019116686A1
Authority
WO
WIPO (PCT)
Prior art keywords
road
marking
image
image processing
image data
Prior art date
Application number
PCT/JP2018/037041
Other languages
English (en)
French (fr)
Inventor
俊男 野村
Original Assignee
株式会社デンソー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社デンソー filed Critical 株式会社デンソー
Priority to CN201880080542.0A priority Critical patent/CN111480182B/zh
Publication of WO2019116686A1 publication Critical patent/WO2019116686A1/ja
Priority to US16/899,094 priority patent/US11475679B2/en

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B29/00Maps; Plans; Charts; Diagrams, e.g. route diagram
    • G09B29/10Map spot or coordinate position indicators; Map reading aids
    • G09B29/106Map spot or coordinate position indicators; Map reading aids using electronic means
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • G01C21/30Map- or contour-matching
    • G01C21/32Structuring or formatting of map data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3602Input other than that of destination using image analysis, e.g. detection of road signs, lanes, buildings, real preceding vehicles using a camera
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B29/00Maps; Plans; Charts; Diagrams, e.g. route diagram
    • G09B29/003Maps

Definitions

  • the present disclosure collects, from a plurality of vehicles equipped with in-vehicle cameras, camera image data obtained by capturing the road conditions of the running vehicles, and generates road map data based on the camera image data.
  • the present invention relates to a system and a road map generation method.
  • a road surface photographing system mounted on a vehicle photographs a road surface while traveling on a road, and a system for generating a road map including road markings from the image is considered (see, for example, Patent Document 1).
  • the photographed image by the camera is converted into an orthographic image seen from directly above including the road marking, and further, the plurality of orthographic images constituting the periphery are in a proper positional relation of the road marking. Combine to obtain a connected image. It is also disclosed that a process of correcting an erroneous recognition of a road marking is also performed.
  • the present disclosure is to generate road map data based on collecting camera image data of a vehicle-mounted camera, and to enable generation of accurate road map data that faithfully reflects actual road conditions. It is an object of the present invention to provide a road map generation system and a road map generation method that can be performed.
  • the road map generation system collects camera image data obtained by photographing the road conditions of the running vehicles from a plurality of vehicles equipped with on-vehicle cameras, A system for generating road map data based on the image data processed by the camera image data collected and converted into an orthographic image from directly above, and connecting a plurality of orthographic images to generate a connected image Image processing apparatus, an extraction apparatus for extracting a defective part of a road marking on a road from the connected image, and whether the defective part of the road marking is due to noise at the time of image processing of the image processing apparatus When the defective portion of the road marking is due to noise at the time of image processing, based on a determination device that determines whether a problem occurs and a determination result by the determination device And a correction unit that performs correction processing of the road marking.
  • the image processing device processes the collected camera image data and corrects the image from right above It is converted to a projection image.
  • a plurality of orthographic images are connected to generate a connected image.
  • the judging device determines whether the defective portion of the road marking is due to noise during image processing of the image processing device or It is determined whether a failure has occurred in the Then, based on the determination result by the determination device, when the defective portion of the road marking is due to noise at the time of image processing, the correction device performs the correction processing of the road marking.
  • the defective device of the road marking is corrected by the correction device only when the defective device of the road marking is determined by the noise at the time of image processing of the image processing device by the determination device. Be If it is determined by the determination device that a defect actually occurs, the correction is not performed. As a result, it is possible to generate road map data based on collecting camera image data of a car-mounted camera, and to enable generation of accurate road map data faithfully reflecting the actual road conditions. It plays an excellent effect.
  • FIG. 1 is a view schematically showing an entire configuration of a system, showing an embodiment.
  • FIG. 2 is a block diagram schematically showing the configuration of the in-vehicle apparatus;
  • FIG. 3 is a block diagram schematically showing the main configuration of the data center,
  • FIG. 4 is a flow chart schematically showing the procedure of processing of map data generation executed by the processing control device,
  • FIG. 5 is a flow chart schematically showing a procedure of processing of accumulation and change of road markings executed by the processing control device,
  • FIG. 6A is a diagram (part 1) for explaining the process of image processing;
  • FIG. 1 is a view schematically showing an entire configuration of a system, showing an embodiment.
  • FIG. 2 is a block diagram schematically showing the configuration of the in-vehicle apparatus;
  • FIG. 3 is a block diagram schematically showing the main configuration of the data center,
  • FIG. 4 is a flow chart schematically showing the procedure of processing of map data generation executed by the processing control device,
  • FIG. 5 is
  • FIG. 6B is a diagram (part 2) for explaining the process of image processing
  • FIG. 7A is a diagram showing an example (part 1) of a change pattern of a road marking
  • FIG. 7B is a diagram showing an example (part 2) of a change pattern of a road marking
  • FIG. 7C is a diagram showing an example (part 3) of a change pattern of a road marking.
  • FIG. 1 schematically shows the overall configuration of a road map generation system 1 according to the present embodiment.
  • the road map generation system 1 includes a data center 2 that collects and analyzes camera image data and generates road map data, and a plurality of vehicle groups A traveling on the road.
  • the vehicle group A includes all general vehicles such as passenger cars and trucks.
  • the on-vehicle device 3 includes an on-vehicle camera 4, a position detection unit 5, various on-vehicle sensors 6, a map database 7, a communication unit 8, an image data storage unit 9, an operation unit 10, and a control unit 11.
  • the on-vehicle camera 4 is provided, for example, at the front of the vehicle A and configured to capture at least a road condition ahead of the traveling direction.
  • the position detection unit 5 detects the position of the vehicle based on the reception data etc. of a known GPS receiver.
  • the various on-vehicle sensors 6 detect speed information of the vehicle, information on the traveling direction (direction), and the like.
  • the on-vehicle camera 4 can be provided on the front, rear, left and right of the vehicle A. Moreover, as a kind of in-vehicle camera 4, it is desirable to employ
  • the map database 7 stores, for example, road map information of the whole country.
  • the communication unit 8 communicates with the data center 2 via a mobile communication network or using road-vehicle communication or the like.
  • the image data storage unit 9 stores camera image data captured by the on-vehicle camera 4 with data such as the vehicle position, traveling speed, traveling direction, and shooting date and time at that time.
  • the operation unit 10 has a switch and a display unit (not shown), and a user (driver) of the vehicle A can perform a necessary operation.
  • the control unit 11 includes a computer and controls the entire in-vehicle apparatus 3. In this case, while the vehicle A is traveling, the control unit 11 always images the road condition ahead by the on-vehicle camera 4 and stores the camera image data in the image data storage unit 9 together with the vehicle position data and the like. . Then, periodically, for example, once a day, the communication unit 8 transmits camera image data stored in the image data storage unit 9 to the data center 2.
  • the data center 2 has a communication unit 12, an input operation unit 13, a processing control device 14, a camera image database 15, an orthographic image database 16, a linked image database 17, a road map database 18, A change information database 19 is provided.
  • the communication unit 12 receives the camera image data by communication with the communication unit 8 of each vehicle A.
  • the input operation unit 13 is for performing an input operation required by the operator.
  • the process control unit 14 is mainly configured of a computer and controls the entire data center 2. At the same time, as described in detail later, the processing control device 14 executes processing such as processing for generating road map data and processing for accumulation and storage of changes in road markings.
  • the camera image data transmitted from each vehicle A is collected and stored in the camera image database 15. At this time, for example, a large amount of camera image data is collected from a general vehicle A traveling in Japan.
  • the data of the orthographic image is stored in the orthographic image database 16, and the data of the linked image is stored in the linked image database 17. Ru. Furthermore, the road map database 18 stores the generated high precision road map data. Then, in the present embodiment, in the processing of accumulating and storing the change of the road marking executed by the processing control device 14, the latest (current) change information of the road marking is accumulated and stored in the change information database 19.
  • the processing control device 14 of the data center 2 sequentially executes the following processing when performing processing for generating road map data. That is, first, the processing control device 14 performs image processing on camera image data stored in the camera image database 15, and converts it into an orthographic image from directly above. At the same time, processing (image processing step) of connecting and arranging a plurality of orthographic images to generate a connected image is performed.
  • the process control device 14 executes a process (extraction process) of extracting a defective portion of the road marking on the road from the connected image.
  • the process control device 14 executes a process (determination step) of determining whether the extracted defective portion of the road marking is due to noise in the image processing step or a defect actually occurs.
  • the processing control device 14 executes the correction processing (correction step) of the road marking when the defective part of the road marking is due to noise at the time of the image processing based on the judgment result.
  • the processing control device 14 may delete the distortion portion or distortion of the marking line painted on the road as the road marking. Extract the part as a defective part.
  • the processing control device 14 smoothly connects the missing part or the distorted part of the marking line when the defective part of the road marking is due to noise at the time of image processing.
  • the "marking line” mentioned here means various lines such as a lane line such as a road center line, a lane boundary line, a road outside line, a vehicle passage zone, a stop line, a pedestrian or bicycle crossing zone, etc. Includes mainly white paint on roads.
  • the process control device 14 executes the process of accumulating and storing road sign changes in parallel.
  • the processing control device 14 detects that there is a temporal change of the road marking at the same place from the camera image data stored in the camera image database 15 Execute (detection step). Then, when a change in the road marking is detected, a process (storage step) of accumulating and storing the change information in the change information database 19 is executed.
  • the processing control device 14 detects the next change pattern of the road marking in the process of detecting that there is a temporal change of the road marking at the same place from the camera image data. That is, as a pattern of change, tire slip marks, resurfacing, partial depressions or bumps, cracks, and / or occurrences of disaster anomalies are detected on the road.
  • the processing control device 14 stores and stores the change information in the change information database 19 when detecting a change in the road marking that corresponds to any of the change patterns.
  • the change information database 19 stores, as change information, data such as the position of a road, a change pattern, a date and time, and a corresponding camera image (see FIGS. 7A to 7C).
  • the process control device 14 determines whether the extracted defective part of the road marking in the process of generating the road map data is due to noise in the image processing process or a defect actually occurs. I do. At this time, the process control device 14 makes the determination with reference to the change information accumulated and stored in the change information database 19. That is, if no change information exists in the change information database 19 at a point where a defect of a road marking (sign line) is extracted, the defect of the road marking at the corresponding road location is due to noise in image processing. It is judged. When change information exists in the change information database 19, it is determined that a defect actually occurs.
  • the latest high precision road map data is generated based on the connected image, and is stored in the road map database 18.
  • the data center 2 is configured to be able to provide the generated latest road map data and the like to the outside.
  • traffic information is provided from the data center 2 to the dynamic information center, and high accuracy road map data for automatic driving is provided to a map supplier, a car maker, and the like.
  • the flowchart of FIG. 4 shows a procedure of road map data generation processing that is mainly executed by the processing control device 14 of the data center 2.
  • the flowchart of FIG. 5 has shown the process sequence of the accumulation memory
  • step S11 the camera image database 15 is accessed to read camera image data.
  • step S12 processing is performed to detect temporal changes in road markings from camera image data (detection step).
  • the road marking in the initial state, such as when paving the road or when repainting the road marking, the road marking is normally performed, and if a defect occurs in the road marking, the road marking after the initial state is It is considered to be due to some change over time.
  • tire slip marks, resurfacing, partial depressions or bumps, cracks, and / or abnormal occurrences due to disasters are detected as road marking change patterns.
  • the process which writes the change information in the change information database 19 is performed in step S13 (memory
  • change information is accumulated and stored in the change information database 19.
  • FIGS. 7A to 7C show examples of patterns of images when there is a change in road markings.
  • FIG. 7A shows how a partial asperity (concave and convex) occurs due to backfilling after road construction, for example, and the marking line (lane line) is distorted.
  • FIG. 7B shows the lane markings disappearing halfway due to tire slip marks on the road.
  • FIG. 7C shows that a disaster (falling slope) causes sediment to be deposited and a part of the road including the marking line is buried. By pre-patterning these changes, it is possible to easily detect them from the camera image.
  • step S1 in the on-vehicle apparatus 3 of each vehicle A, the on-vehicle camera 4 captures a road condition while traveling.
  • step S 2 data of camera images captured in each vehicle A is collected by the data center 2 and written in the camera image database 15.
  • FIG. 6A An example of a camera image at this time is shown in FIG. 6A.
  • the process of step S1 is performed under the control of the control unit 10 in each vehicle A.
  • step S2 camera image data is transmitted from the vehicle A to the data center 2 by the communication unit 8, and in the data center 2, camera image data received via the communication unit 12 is controlled by the processing control device 14 It is written in the image database 15.
  • the latest camera image data of roads in the country will be collected from a large number of general vehicles A traveling on roads in the country.
  • Steps S3 to S6 are steps of image processing executed by the processing control device 14.
  • step S3 a camera image is read from the camera image database 15, and each frame image is converted to a state seen from directly above, and the orthographic A process of generating an image is performed.
  • step S4 the generated orthographic image is written to the orthographic image database 16.
  • step S5 a process of generating a connected image is executed by arranging and connecting (combining) a plurality of generated orthographic images along the traveling locus of the vehicle A when traveling.
  • step S6 the generated connected image is written to the connected image database 17. An example of the connected image is shown in FIG. 6B.
  • step S7 the road marking on a road is recognized from the produced
  • the determination step is executed.
  • the determination is performed with reference to the change information stored in the change information database 19.
  • the change information of the road portion corresponding to the change information database 19 exists at the portion where the failure of the road marking is extracted, it can be estimated that the failure actually occurred. In this case, the correction of the road marking is not performed.
  • step S8 road map data is generated from the combined image after the correction processing, and is written in the road map database 18.
  • the road map data is generated based on collecting camera image data of the on-vehicle camera 4, and when the defective portion of the road marking on the road is extracted from the connected image.
  • the correction is performed only when it is determined that the defective portion of the road marking is due to noise at the time of image processing. If it is determined in the determination process that a defect actually occurs, no correction is performed.
  • the map data is generated based on collecting camera image data by the on-vehicle cameras 4 of a large number of vehicles A traveling on roads in the whole country. it can. Therefore, it is possible to obtain an advantage that high-precision map data can be generated at low cost, unlike the case where a dedicated vehicle is run to obtain data.
  • the change information database 19 Change information is stored and stored. Then, in the process of determining whether the defect of the road marking is due to the noise in the image processing, the determination may be performed with reference to the change information stored in the change information database 19. Therefore, the process of determination can be performed easily and reliably.
  • tire slip marks, resurfacing, partial depressions or bumps, cracks, and / or anomalies due to disasters occur on real roads, that is, roads in reality It causes defects and distortions in markings.
  • at least one of tire slip marks on the road, resurfacing, partial depressions or bumps, cracks, and anomalies due to disasters as a pattern of change in road markings from camera image data. It was configured to detect the occurrence. By pre-patterning those changes, it is possible to easily detect changes in road markings from camera images.
  • the marking line when a missing portion or a distorted portion of a marking line painted on a road is extracted as a bad marking as a road marking, and the bad marking of the road marking is due to noise during image processing, the marking line The missing part or the distorted part of is corrected so as to connect smoothly. In this way, it is possible to correctly correct the missing portion or the distorted portion of the marking line due to noise during image processing, and it is possible to generate map data with high accuracy.
  • the processing control unit 14 including a computer automatically performs various processing (steps) in the data center 2, but the processing is performed in a so-called semiautomatic manner including an input instruction from the operator. It is good also as composition. According to this, for example, when making a determination as to whether or not a road marking defect actually occurs, camera image data can be displayed on the display device, and the operator can make the determination with reference to the camera image data. Therefore, the actual image can be easily confirmed and the determination can be made accurately.
  • camera image data is collected from the vehicle A by wireless communication.
  • camera image data may be collected via a storage medium such as an SD card, for example.
  • various changes can be made to the hardware configuration of the vehicle (vehicle-mounted device) and the data center.

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Multimedia (AREA)
  • Business, Economics & Management (AREA)
  • Educational Technology (AREA)
  • Educational Administration (AREA)
  • Mathematical Physics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Traffic Control Systems (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Instructional Devices (AREA)
  • Navigation (AREA)

Abstract

道路地図生成システム(1)は、車載カメラ(4)が搭載された複数台の車両(A)から、それら車両(A)の走行中の道路状況を撮影したカメラ画像データを収集し、それらカメラ画像データに基づいて道路地図データを生成するものであって、収集されたカメラ画像データを画像処理し、真上からの正射画像に変換すると共に、複数の正射画像を連結して連結画像を生成する画像処理装置(14)と、連結画像から道路上の道路標示の不良箇所を抽出する抽出装置(14)と、道路標示の不良箇所が、画像処理装置の画像処理時のノイズによるものか或いは現実に不良が発生しているのかを判定する判定装置(14)と、判定装置(14)による判定結果に基づいて、道路標示の不良箇所が画像処理時のノイズによるものである場合に当該道路標示の補正処理を行う補正装置(14)とを備えている。

Description

道路地図生成システム及び道路地図生成方法 関連出願の相互参照
 本出願は、2017年12月15日に出願された日本出願番号2017-240642号に基づくもので、ここにその記載内容を援用する。
 本開示は、車載カメラが搭載された複数台の車両から、それら車両の走行中の道路状況を撮影したカメラ画像データを収集し、それらカメラ画像データに基づいて道路地図データを生成する道路地図生成システム及び道路地図生成方法に関する。
 車両に搭載された道路面撮影システムにより、道路を走行しながら路面を撮影し、その画像から、路面標示を含む道路地図を生成するシステムが考えられている(例えば特許文献1参照)。このシステムでは、カメラによる撮影画像を、路面標示を含む真上から見た正射画像に変換し、更に、周辺を構成する複数の正射画像を、路面標示が適正な位置関係となるように組み合わせて連結画像を得る。尚、路面標示の誤認識を修正する処理を併せて行うことも開示されている。
特開2009-223221号公報
 近年、自動車の自動運転技術に対する実現の気運が高まっており、そのための高精度の道路地図データを整備したい要望がある。上記特許文献1の技術では、例えば道路の中央線や車線境界線のペイントが歪んでいる場合に、それを真っ直ぐに補正するといった処理が行われる。しかし、実際に道路状況が悪くてペイントに歪みが生じている場合も考えられる。そのため、単純に路面標示の修正を行ってしまうと、現実に即した正確な道路地図データが得られないケースが生ずる。この場合、ペイントが実際に消えているといった、道路状況が良くない道路については、自動運転を解除することが安全・安心につながるため、現実に即した正確な道路地図データを得ることが望ましいのである。
 本開示は、車載カメラのカメラ画像データを収集することに基づいて道路地図データを生成するものにあって、実際の道路状況を忠実に反映した正確な道路地図データの生成を可能とすることができる道路地図生成システム及び道路地図生成方法を提供することを目的とする。
 本開示の第1の態様において、道路地図生成システムは、車載カメラが搭載された複数台の車両から、それら車両の走行中の道路状況を撮影したカメラ画像データを収集し、それらカメラ画像データに基づいて道路地図データを生成するシステムであって、前記収集されたカメラ画像データを画像処理し、真上からの正射画像に変換すると共に、複数の正射画像を連結して連結画像を生成する画像処理装置と、前記連結画像から道路上の道路標示の不良箇所を抽出する抽出装置と、前記道路標示の不良箇所が、前記画像処理装置の画像処理時のノイズによるものか或いは現実に不良が発生しているのかを判定する判定装置と、前記判定装置による判定結果に基づいて、前記道路標示の不良箇所が画像処理時のノイズによるものである場合に当該道路標示の補正処理を行う補正装置とを備えている。
 これによれば、車両の走行中の道路状況を撮影したカメラ画像データが複数台の車両から収集されると、画像処理装置により、収集されたカメラ画像データが画像処理され、真上からの正射画像に変換される。これと共に、複数の正射画像が連結されて連結画像が生成される。次いで、抽出装置により、その連結画像から道路上の道路標示の不良箇所が抽出されると、判定装置により、その道路標示の不良箇所が、画像処理装置の画像処理時のノイズによるものか或いは現実に不良が発生しているのかが判定される。そして、判定装置による判定結果に基づいて、道路標示の不良箇所が画像処理時のノイズによるものである場合に、補正装置により、当該道路標示の補正処理が行われる。
 このとき、補正装置により道路標示の不良箇所の補正がなされるのは、判定装置により、道路標示の不良箇所が、画像処理装置の画像処理時のノイズによるものであると判定された場合に限られる。判定装置により現実に不良が発生していると判定された場合には、補正は行われない。この結果、車載カメラのカメラ画像データを収集することに基づいて道路地図データを生成するものにあって、実際の道路状況を忠実に反映した正確な道路地図データの生成を可能とすることができるという優れた効果を奏する。
 本開示についての上記目的およびその他の目的、特徴や利点は、添付の図面を参照しながら下記の詳細な記述により、より明確になる。その図面は、
図1は、一実施形態を示すもので、システムの全体構成を模式的に示す図であり、 図2は、車載装置の構成を概略的に示すブロック図であり、 図3は、データセンタの要部構成を概略的に示すブロック図であり、 図4は、処理制御装置が実行する地図データの生成の処理の手順を概略的に示すフローチャートであり、 図5は、処理制御装置が実行する道路標示の変化の蓄積記憶の処理の手順を概略的に示すフローチャートであり、 図6Aは、画像処理の過程を説明するための図(その1)であり、 図6Bは、画像処理の過程を説明するための図(その2)であり、 図7Aは、道路標示の変化パターンの例(その1)を示す図であり、 図7Bは、道路標示の変化パターンの例(その2)を示す図であり、 図7Cは、道路標示の変化パターンの例(その3)を示す図である。
 以下、本開示を具体化した一実施形態について、図面を参照しながら説明する。図1は、本実施形態に係る道路地図生成システム1の全体構成を概略的に示している。ここで、道路地図生成システム1は、カメラ画像データを収集、分析し、道路地図データを生成するデータセンタ2と、道路上を走行する複数台の車両A群とから構成される。具体的には、前記車両A群は、乗用車やトラック等、一般の自動車全体を含んでいる。
 前記各車両Aには、道路地図生成システム1を実現するための車載装置3が搭載されている。図2に示すように、車載装置3は、車載カメラ4、位置検出部5、各種車載センサ6、地図データベース7、通信部8、画像データ記憶部9、操作部10、制御部11を備えている。そのうち車載カメラ4は、例えば車両Aの前部に設けられ少なくとも走行方向前方の道路状況を撮影するように構成されている。前記位置検出部5は、周知のGPS受信機の受信データ等に基づいて、自車位置を検出する。前記各種車載センサ6は、自車の速度情報や走行方向(向き)の情報等を検出する。尚、前記車載カメラ4は、車両Aの前後及び左右に設けることができる。また、車載カメラ4の種類としては、広角カメラを採用することができ、特に前方カメラについては2眼式以上のカメラを採用することが望ましい。
 前記地図データベース7は、例えば全国の道路地図情報を記憶している。前記通信部8は、移動体通信網を介して或いは路車間通信等を用いて、前記データセンタ2との間での通信を行うものである。前記画像データ記憶部9には、前記車載カメラ4が撮影したカメラ画像データが、その時の自車位置や走行速度、走行方向、撮影日時等のデータを付されて記憶される。前記操作部10は、図示しないスイッチや表示部を有し、車両Aのユーザ(ドライバ)により必要な操作がなされる。
 前記制御部11は、コンピュータを含んで構成され、車載装置3全体を制御する。この場合、制御部11は、車両Aの走行中に、前記車載カメラ4により、常時前方の道路状況を撮影し、そのカメラ画像データを自車位置データ等と共に前記画像データ記憶部9に記憶させる。そして、定期的に、例えば1日1回、前記通信部8により、前記データセンタ2に対して、画像データ記憶部9に記憶されているカメラ画像データを送信させる。
 一方、前記データセンタ2は、図3に示すように、通信部12、入力操作部13、処理制御装置14、カメラ画像データベース15、正射画像データベース16、連結画像データベース17、道路地図データベース18、変化情報データベース19を備えている。そのうち前記通信部12は、各車両Aの通信部8との間の通信により、前記カメラ画像データを受信する。前記入力操作部13は、オペレータが必要な入力操作を行うためのものである。
 前記処理制御装置14は、コンピュータを主体として構成され、データセンタ2全体の制御を行う。これと共に、後に詳述するように、処理制御装置14は、道路地図データの生成処理、道路標示の変化の蓄積記憶の処理等の処理を実行する。前記カメラ画像データベース15には、各車両Aから送信されたカメラ画像データが収集され、記憶される。このとき、例えば日本全国を走行する一般の車両Aから、膨大なカメラ画像データが収集されるようになる。
 また、前記処理制御装置14の実行する道路地図データの生成処理において、前記正射画像データベース16には、正射画像のデータが記憶され、連結画像データベース17には、連結画像のデータが記憶される。更に、道路地図データベース18には、生成された高精度の道路地図データが記憶される。そして、本実施形態では、前記処理制御装置14の実行する道路標示の変化の蓄積記憶の処理において、前記変化情報データベース19には、道路標示の最新(現在)の変化情報が蓄積記憶される。
 さて、後の作用説明(フローチャート説明)でも述べるように、本実施形態では、前記データセンタ2の処理制御装置14は、道路地図データの生成処理を行うにあたって、次の処理を順に実行する。即ち、まず、処理制御装置14は、前記カメラ画像データベース15に記憶されているカメラ画像データを画像処理し、真上からの正射画像に変換する。これと共に、複数の正射画像を連結配置して連結画像を生成する処理(画像処理工程)を実行する。
 次に、処理制御装置14は、上記連結画像から道路上の道路標示の不良箇所を抽出する処理(抽出工程)を実行する。次いで、処理制御装置14は、抽出された道路標示の不良箇所が、画像処理工程におけるノイズによるものか或いは現実に不良が発生しているのかを判定する処理(判定工程)を実行する。そして、処理制御装置14は、その判定結果に基づいて、前記道路標示の不良箇所が画像処理時のノイズによるものである場合に当該道路標示の補正処理(補正工程)を実行する。
 このとき、本実施形態では、連結画像から道路上の道路標示の不良箇所を抽出する処理にあっては、処理制御装置14は、道路標示として道路上にペイントされた標示線の欠損部分又は歪み部分を不良箇所として抽出する。また、道路標示の補正処理を行うにあたっては、処理制御装置14は、道路標示の不良箇所が画像処理時のノイズによるものである場合に、標示線の欠損部分又は歪み部分を、滑らかにつなぐように補正する。尚、ここでいう「標示線」とは、車道中央線、車線境界線、車道外側線、車両通行帯等の車線区画線や、停止線、歩行者や自転車の横断帯等の各種の線を含み、主として道路上に白色でペイントされるものをいう。
 これと共に、処理制御装置14は、道路標示の変化の蓄積記憶の処理を並行して実行する。この道路標示の変化の蓄積記憶の処理では、処理制御装置14は、カメラ画像データベース15に記憶されているカメラ画像データから、同一箇所において道路標示の時間的な変化があったことを検出する処理(検出工程)を実行する。そして、道路標示の変化が検出された場合には、その変化情報を前記変化情報データベース19に蓄積記憶する処理(記憶工程)を実行する。
 このとき、処理制御装置14は、カメラ画像データから、同一箇所において道路標示の時間的な変化があったことを検出する処理においては、次の道路標示の変化のパターンを検出する。即ち、変化のパターンとして、道路上におけるタイヤスリップ痕、再舗装、部分的な陥没又は隆起、ひび割れ、災害による異状の少なくともいずれかの発生を検出する。処理制御装置14は、いずれかの変化パターンに該当する道路標示の変化を検出した場合に、その変化情報を変化情報データベース19に蓄積記憶する。変化情報データベース19には、変化情報として、道路の位置、変化パターン、日時、該当するカメラ画像(図7A~図7C参照)等のデータが記憶される。
 そして、処理制御装置14は、道路地図データの生成処理のうち、抽出された道路標示の不良箇所が、画像処理工程におけるノイズによるものか、或いは現実に不良が発生しているのかを判定する処理を行う。このとき、処理制御装置14は、変化情報データベース19に蓄積記憶されている変化情報を参照して判定を行う。つまり、道路標示(標示線)の不良が抽出された箇所において、変化情報データベース19に変化情報が存在しない場合には、該当する道路箇所における道路標示の不良は、画像処理上のノイズによるものと判定される。変化情報データベース19に変化情報が存在する場合には、現実に不良が発生したものと判定される。
 これにて、連結画像に対する必要な補正が行われた上で、その連結画像に基づいて最新の高精度の道路地図データが生成され、道路地図データベース18に記憶される。尚、図示はしないが、本実施形態の道路地図生成システム1においては、データセンタ2は、生成した最新の道路地図データ等の外部に提供することが可能に構成されている。例えば、データセンタ2から動的情報センタに交通情報を提供したり、地図サプライヤやカーメーカ等に、自動運転用の高精度の道路地図データを提供したりするようになっている。
 次に、上記構成の道路地図生成システム1の作用について、図4から図7Cも参照して述べる。図4のフローチャートは、主としてデータセンタ2の処理制御装置14が実行する、道路地図データの生成処理の手順を示している。また、図5のフローチャートは、処理制御装置14が実行する、道路標示の変化の蓄積記憶の処理手順を示している。まず、図5のフローチャートにおいて、ステップS11にて、カメラ画像データベース15にアクセスしてカメラ画像データが読込まれる。次のステップS12では、カメラ画像データから道路標示の時間的な変化を検出する処理がなされる(検出工程)。
 ここで、例えば道路の舗装時や道路標示のペイントの塗り替え時等の初期状態においては、道路標示は正常になされており、道路標示に不良が発生したとすると、初期状態から後の道路標示の時間経過に伴う何らかの変化によるものと考えられる。本実施形態では、上記したように、道路標示の変化のパターンとして、道路上におけるタイヤスリップ痕、再舗装、部分的な陥没又は隆起、ひび割れ、災害による異状の少なくともいずれかの発生を検出する。そして、道路標示の変化を検出した場合に、ステップS13にて、その変化情報を変化情報データベース19に書込む処理が行われる(記憶工程)。このようにして変化情報データベース19に変化情報が蓄積記憶される。
 ここで、図7A~図7Cは、道路標示の変化があった場合の画像のパターンの例を示している。図7Aは、例えば道路工事後の埋戻しによって部分的な隆起(凹凸)が発生し、標示線(車線区画線)が歪んでいる様子を示す。図7Bは、道路上のタイヤのスリップ痕によって車線区画線が途中で消えている様子を示す。図7Cは、災害(斜面の崩落)により土砂が堆積し標示線を含む道路の一部が埋められる異状が生じた様子を示している。これらの変化が予めパターン化されていることにより、カメラ画像から容易に検出することが可能となる。
 次に、道路地図データの生成処理の手順を示す図4のフローチャートにおいて、まずステップS1では、各車両Aの車載装置3において、車載カメラ4により走行中の道路状況が撮影される。次のステップS2にて、各車両Aにおいて撮影されたカメラ画像のデータがデータセンタ2に収集されてカメラ画像データベース15に書込まれる。このときのカメラ画像の例を図6Aに示す。この場合、前記ステップS1の処理は、各車両Aにおいて制御部10の制御により実行される。
 ステップS2の処理では、各車両Aから通信部8によりカメラ画像データがデータセンタ2に送信され、データセンタ2において、通信部12を介して受信したカメラ画像データが処理制御装置14の制御によりカメラ画像データベース15に書込まれる。この場合、全国の道路を走行している多数台の一般の車両Aから、全国の道路の最新のカメラ画像データが収集されるようになる。
 ステップS3~S6は、処理制御装置14の実行する画像処理の工程であり、ステップS3では、カメラ画像データベース15からカメラ画像が読込まれ、各フレーム画像を真上から見た状態に変換し正射画像を生成する処理が実行される。ステップS4にて、生成された正射画像が正射画像データベース16に書込まれる。次のステップS5では、生成された正射画像を車両Aの走行時の走行軌跡に沿って複数配置して連結(合せ込み)することにより、連結画像を生成する処理が実行される。ステップS6では、生成された連結画像が連結画像データベース17に書込まれる。連結画像の一例を図6Bに示す。
 そして、ステップS7では、生成された連結画像から、道路上の道路標示を認識し、必要に応じて道路標示の補正を行う処理が実行される。より具体的には、連結画像から道路上の道路標示の不良箇所を抽出する抽出処理(抽出工程)が実行される。次いで、その道路標示の不良箇所が上記画像処理の工程における画像処理時のノイズによるものか或いは現実に不良が発生しているのかを判定する判定処理(判定工程)が実行される。更に、その判定結果に基づいて、道路標示の不良箇所が画像処理時のノイズによるものである場合に当該道路標示を補正する処理(補正工程)が実行される。
 ここで、図6Bに例示しているように、道路標示の不良としては、図に符号B1で示すような、例えば本来直線であるべき停止線が途中でずれるように歪んでいるケースがある。また、符号B2で示すような、例えば本来直線であるべき車線境界線がジグザグ状に設けられていたりするケースがある。道路標示の不良箇所が抽出されると、判定工程が実行されるのであるが、本実施形態では、上記変化情報データベース19に記憶されている変化情報を参照して判定が行われる。このとき、道路標示の不良が抽出された箇所において、変化情報データベース19に該当する道路箇所の変化情報が存在するときには、現実に不良が発生したものと推定することができる。この場合には、道路標示の補正は行われない。
 これに対し、変化情報データベース19に該当する道路箇所における変化情報が存在しないときには、その道路標示の不良は、画像処理上のノイズによるものと推定できる。この場合には、道路標示の不良部分の補正が行われる。道路上にペイントされた標示線(道路区画線等)の欠損部分又は歪み部分が生じた場合には、その標示線の欠損部分又は歪み部分を滑らかにつなぐように補正が行われる。この後、ステップS8では、補正処理後の連結画像から道路地図データが生成され、道路地図データベース18に書込まれる。以上の処理により、最新かつ高精度の道路地図データが生成されるようになる。
 以上のように、本実施形態の道路地図生成システム1によれば、次のような優れた効果を得ることができる。即ち、本実施形態においては、車載カメラ4のカメラ画像データを収集することに基づいて道路地図データを生成するものにあって、連結画像から道路上の道路標示の不良箇所が抽出されたときに、当該道路標示の不良箇所が画像処理時のノイズによるものであると判定された場合に限って補正を行うようにした。そして、判定の工程において、現実に不良が発生していると判定された場合には、補正は行われない。
 この結果、実際の道路状況を忠実に反映した正確な道路地図データの生成を可能とすることができる。ひいては、自動車の自動運転用の高精度の道路地図データの整備に大いに寄与することができる。また、本実施形態の道路地図生成システム1においては、全国の道路を走行する一般の多数台の車両Aの車載カメラ4によるカメラ画像データを収集することに基づいて、地図データを生成することができる。従って、専用の車両を走行させてデータを得るものと異なり、安価なコストで高精度の地図データを生成できるといった利点も得ることができる。
 このとき、本実施形態では、道路標示の変化の蓄積記憶の処理において、カメラ画像データから、同一箇所において道路標示の時間的な変化があったことが検出されると、変化情報データベース19にその変化情報が蓄積記憶されるようになる。そして、道路標示の不良が画像処理上のノイズによるものかどうかを判定する工程において、変化情報データベース19に記憶されている変化情報を参照して判定を行えば良い。従って、判断の処理を容易且つ確実に行うことができる。
 また、現実の道路上におけるタイヤスリップ痕、再舗装、部分的な陥没又は隆起、ひび割れ、災害による異状の少なくともいずれかが発生することが、道路標示の不良と判断される要因、つまり現実に道路標示に欠損や歪みが発生する原因となる。本実施形態では、検出の工程において、カメラ画像データから、道路標示の変化のパターンとして、道路上におけるタイヤスリップ痕、再舗装、部分的な陥没又は隆起、ひび割れ、災害による異状の少なくともいずれかの発生を検出するように構成した。それらの変化が予めパターン化されていることにより、カメラ画像から道路標示の変化を容易に検出することが可能となる。
 特に本実施形態では、道路標示として道路上にペイントされた標示線の欠損部分又は歪み部分を不良箇所として抽出し、道路標示の不良箇所が画像処理時のノイズによるものである場合に、標示線の欠損部分又は歪み部分を、滑らかにつなぐように補正する。これにより、画像処理時のノイズによる標示線の欠損部分又は歪み部分を正しく補正でき、高精度の地図データを生成することができる。
 尚、上記実施形態では、データセンタ2における各種処理(工程)を、コンピュータからなる処理制御装置14が自動で行う構成としたが、オペレータからの入力指示を含めて、いわゆる半自動で処理を実行する構成としても良い。これによれば、例えば現実に道路標示の不良が発生しているかの判定を行うにあたって、カメラ画像データを表示装置に表示させ、オペレータがそのカメラ画像データを参照して判定を行うことができる。従って、実際の画像を容易に確認して、正確に判定を行うことができる。
 また、上記実施形態では、車両Aから無線通信によりカメラ画像データを収集するようにしたが、例えばSDカード等の記憶媒体を介してカメラ画像データを収集する構成とすることもできる。その他、車両(車載装置)やデータセンタのハードウエア構成等についても様々な変更が可能である。
 本開示は、実施例に準拠して記述されたが、本開示は当該実施例や構造に限定されるものではないと理解される。本開示は、様々な変形例や均等範囲内の変形をも包含する。加えて、様々な組み合わせや形態、さらには、それらに一要素のみ、それ以上、あるいはそれ以下、を含む他の組み合わせや形態をも、本開示の範疇や思想範囲に入るものである。

Claims (10)

  1.  車載カメラ(4)が搭載された複数台の車両(A)から、それら車両(A)の走行中の道路状況を撮影したカメラ画像データを収集し、それらカメラ画像データに基づいて道路地図データを生成する道路地図生成システム(1)であって、
     前記収集されたカメラ画像データを画像処理し、真上からの正射画像に変換すると共に、複数の正射画像を連結して連結画像を生成する画像処理装置(14)と、
     前記連結画像から道路上の道路標示の不良箇所を抽出する抽出装置(14)と、
     前記道路標示の不良箇所が、前記画像処理装置の画像処理時のノイズによるものか或いは現実に不良が発生しているのかを判定する判定装置(14)と、
     前記判定装置(14)による判定結果に基づいて、前記道路標示の不良箇所が画像処理時のノイズによるものである場合に当該道路標示の補正処理を行う補正装置(14)とを備える道路地図生成システム。
  2.  前記判定装置(14)は、前記道路標示の不良箇所の前記カメラ画像データを参照して、判定を行う請求項1記載の道路地図生成システム。
  3.  前記カメラ画像データから、同一箇所において道路標示の時間的な変化があったことを検出する検出装置(14)と、
     前記検出装置により道路標示の変化が検出された場合に、その変化情報を蓄積記憶する変化情報記憶装置(19)とを備え、
     前記判定装置(14)は、前記変化情報記憶装置(19)に記憶されている変化情報を参照して判定を行う請求項1又は2記載の道路地図生成システム。
  4.  前記検出装置(14)は、前記カメラ画像データから、前記道路標示の変化のパターンとして、道路上におけるタイヤスリップ痕、再舗装、部分的な陥没又は隆起、ひび割れ、災害による異状の少なくともいずれかの発生を検出する請求項3記載の道路地図生成システム。
  5.  前記抽出装置(14)は、前記連結画像から、前記道路標示として道路上にペイントされた標示線の欠損部分又は歪み部分を不良箇所として抽出し、
     前記補正装置(14)は、前記道路標示の不良箇所が画像処理時のノイズによるものである場合に、前記標示線の欠損部分又は歪み部分を、滑らかにつなぐように補正する請求項1から4のいずれか一項に記載の道路地図生成システム。
  6.  車載カメラ(4)が搭載された複数台の車両(A)から、それら車両(A)の走行中の道路状況を撮影したカメラ画像データを収集し、それらカメラ画像データに基づいて道路地図データを生成する道路地図生成方法であって、
     前記収集されたカメラ画像データを画像処理し、真上からの正射画像に変換すると共に、複数の正射画像を連結して連結画像を生成する画像処理工程と、
     前記連結画像から道路上の道路標示の不良箇所を抽出する抽出工程と、
     前記道路標示の不良箇所が、前記画像処理工程の画像処理時のノイズによるものか或いは現実に不良が発生しているのかを判定する判定工程と、
     前記判定工程における判定結果に基づいて、前記道路標示の不良箇所が画像処理時のノイズによるものである場合に当該道路標示の補正処理を行う補正工程とを含む道路地図生成方法。
  7.  前記判定工程は、前記道路標示の不良箇所の前記カメラ画像データを参照して、判定を行う請求項6記載の道路地図生成方法。
  8.  前記カメラ画像データから、同一箇所において道路標示の時間的な変化があったことを検出する検出工程と、
     前記検出工程において道路標示の変化が検出された場合に、その変化情報を変化情報記憶装置(19)に蓄積記憶する記憶工程とを備え、
     前記判定工程においては、前記変化情報記憶装置(19)に記憶されている変化情報を参照して判定を行う請求項6又は7記載の道路地図生成方法。
  9.  前記検出工程は、前記カメラ画像データから、前記道路標示の変化のパターンとして、道路上におけるタイヤスリップ痕、再舗装、部分的な陥没又は隆起、ひび割れ、災害による異状の少なくともいずれかの発生を検出する請求項8記載の道路地図生成方法。
  10.  前記抽出工程は、前記連結画像から、前記道路標示として道路上にペイントされた標示線の欠損部分又は歪み部分を不良箇所として抽出し、
     前記補正工程は、前記道路標示の不良箇所が画像処理時のノイズによるものである場合に、前記標示線の欠損部分又は歪み部分を、滑らかにつなぐように補正する請求項6から9のいずれか一項に記載の道路地図生成方法。
PCT/JP2018/037041 2017-12-15 2018-10-03 道路地図生成システム及び道路地図生成方法 WO2019116686A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201880080542.0A CN111480182B (zh) 2017-12-15 2018-10-03 道路地图生成系统以及道路地图生成方法
US16/899,094 US11475679B2 (en) 2017-12-15 2020-06-11 Road map generation system and road map generation method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017-240642 2017-12-15
JP2017240642A JP6760251B2 (ja) 2017-12-15 2017-12-15 道路地図生成システム及び道路地図生成方法

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US16/899,094 Continuation US11475679B2 (en) 2017-12-15 2020-06-11 Road map generation system and road map generation method

Publications (1)

Publication Number Publication Date
WO2019116686A1 true WO2019116686A1 (ja) 2019-06-20

Family

ID=66820784

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/037041 WO2019116686A1 (ja) 2017-12-15 2018-10-03 道路地図生成システム及び道路地図生成方法

Country Status (4)

Country Link
US (1) US11475679B2 (ja)
JP (1) JP6760251B2 (ja)
CN (1) CN111480182B (ja)
WO (1) WO2019116686A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7183729B2 (ja) * 2018-11-26 2022-12-06 トヨタ自動車株式会社 撮影異常診断装置
KR102485315B1 (ko) * 2020-06-01 2023-01-06 네이버랩스 주식회사 도로 영상에서의 노면 기호 방향 판단 방법, 장치, 시스템 및 컴퓨터 프로그램
JP7406480B2 (ja) 2020-12-18 2023-12-27 株式会社豊田中央研究所 地図生成装置、地図生成方法、およびコンピュータプログラム
CN114705180B (zh) * 2022-06-06 2023-03-24 中汽创智科技有限公司 高精地图的数据修正方法、装置、设备及存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007249103A (ja) * 2006-03-20 2007-09-27 Zenrin Co Ltd 道路画像作成システム及び道路画像作成方法,及び道路画像合成装置
JP2009237901A (ja) * 2008-03-27 2009-10-15 Zenrin Co Ltd 路面標示地図生成方法
JP2016118906A (ja) * 2014-12-19 2016-06-30 株式会社デンソー 異常検出装置

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1876411A4 (en) * 2005-04-25 2011-06-29 Geo Technical Lab Co Ltd METHOD FOR ANALYZING THE PICTURE POSITION
JP2008309529A (ja) * 2007-06-12 2008-12-25 Panasonic Corp ナビゲーション装置、ナビゲーション方法、及びナビゲーション用プログラム
JP5363752B2 (ja) * 2008-03-18 2013-12-11 株式会社ゼンリン 路面標示地図生成方法
JP5285311B2 (ja) 2008-03-18 2013-09-11 株式会社ゼンリン 路面標示地図生成方法
CN102741900B (zh) * 2010-03-03 2014-12-10 松下电器产业株式会社 道路状况管理系统及道路状况管理方法
JP6325806B2 (ja) * 2013-12-06 2018-05-16 日立オートモティブシステムズ株式会社 車両位置推定システム
US10620638B2 (en) * 2017-08-18 2020-04-14 Wipro Limited Method, system, and device for guiding autonomous vehicles based on dynamic extraction of road region

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007249103A (ja) * 2006-03-20 2007-09-27 Zenrin Co Ltd 道路画像作成システム及び道路画像作成方法,及び道路画像合成装置
JP2009237901A (ja) * 2008-03-27 2009-10-15 Zenrin Co Ltd 路面標示地図生成方法
JP2016118906A (ja) * 2014-12-19 2016-06-30 株式会社デンソー 異常検出装置

Also Published As

Publication number Publication date
US11475679B2 (en) 2022-10-18
US20200302191A1 (en) 2020-09-24
JP2019109592A (ja) 2019-07-04
CN111480182B (zh) 2023-10-20
JP6760251B2 (ja) 2020-09-23
CN111480182A (zh) 2020-07-31

Similar Documents

Publication Publication Date Title
WO2019116686A1 (ja) 道路地図生成システム及び道路地図生成方法
KR102022388B1 (ko) 실세계 물체 정보를 이용한 카메라 공차 보정 시스템 및 방법
CN105989724B (zh) 道路标志判断装置
CN111344765B (zh) 道路地图生成系统以及道路地图生成方法
JP6971020B2 (ja) 異常検出装置および異常検出方法
TWI534764B (zh) 車輛定位裝置與方法
JP6398501B2 (ja) 車載カメラ診断装置
JP2018018461A (ja) 情報処理装置、表示装置、情報処理方法、及びプログラム
US9500495B2 (en) Vehicular navigation system
CN111727437A (zh) 提供碰撞前预警的多光谱系统
CN104798368A (zh) 车载图像处理装置
WO2016051447A1 (ja) 情報表示制御システムおよび情報表示制御方法
JP2015102898A (ja) 道路標識判断装置
DE102007021576A1 (de) Verfahren und Vorrichtung zum Bestimmen der Position eines Verkehrszeichens
JP2014074626A (ja) 車両用ナビゲーションシステム
CN114841188A (zh) 一种基于二维码的车辆融合定位方法及装置
CN105799592B (zh) 用于确定车辆特征的位置的方法和相应装置
DE102006051539A1 (de) Verfahren und Vorrichtung zur luftbildgestützten Umgebungserfassung bei Kraftfahrzeugen
JP2008082925A (ja) ナビゲーション装置、その制御方法及び制御プログラム
JP2018136739A (ja) キャリブレーション装置
JP2017116321A (ja) 車載ステレオカメラ用のキャリブレーション装置
CN115235526A (zh) 用于传感器的自动校准的方法和系统
JP6855254B2 (ja) 画像処理装置、画像処理システム、及び、画像処理方法
JP2020086956A (ja) 撮影異常診断装置
JP6234620B2 (ja) 車両のアシスタント・システムのオペレーティングのための方法、並びに、アシスタント・システム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18887745

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18887745

Country of ref document: EP

Kind code of ref document: A1