JP2012155660A - Map data generation device and travel support device - Google Patents

Map data generation device and travel support device Download PDF

Info

Publication number
JP2012155660A
JP2012155660A JP2011016472A JP2011016472A JP2012155660A JP 2012155660 A JP2012155660 A JP 2012155660A JP 2011016472 A JP2011016472 A JP 2011016472A JP 2011016472 A JP2011016472 A JP 2011016472A JP 2012155660 A JP2012155660 A JP 2012155660A
Authority
JP
Japan
Prior art keywords
data
map data
probe
vehicle
photographing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011016472A
Other languages
Japanese (ja)
Other versions
JP5472142B2 (en
Inventor
Tadashi Kamata
忠 鎌田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2011016472A priority Critical patent/JP5472142B2/en
Publication of JP2012155660A publication Critical patent/JP2012155660A/en
Application granted granted Critical
Publication of JP5472142B2 publication Critical patent/JP5472142B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To enable a three-dimensional map data to be generated without including a moving body.SOLUTION: A storage medium of a map data generation device 10 accumulates and stores probe data including image data, ranging data and positioning data collected along with a travel of a probe vehicle 2. Then the device: extracts a plurality of the probe data, including a photographic image photographing a same subject point from a same camera position, from the storage medium; specifies the photographic image without including a moving body based on a dispersion value of pixel data on a specific pixel (X, Y) in the photographic image photographing the same subject point; and generates a three-dimensional map data without including the moving body based on the probe data including the photographic image without including the moving body (S202).

Description

本発明は、地図データ生成装置および走行支援装置に関するものである。   The present invention relates to a map data generation device and a driving support device.

従来、ステレオカメラやレーザーレーダ等の計測装置を車両に搭載し、車両の走行に伴って計測装置を用いて収集した画像情報および距離情報に基づいて3次元地図データを生成する地図データ生成装置が知られている。   2. Description of the Related Art Conventionally, there is a map data generation device that mounts a measurement device such as a stereo camera or a laser radar on a vehicle and generates three-dimensional map data based on image information and distance information collected using the measurement device as the vehicle travels. Are known.

また、2次元地図データから建造物の外郭形状を取得し、2次元地図データ内に含まれる建造物が撮像された写真を利用して高さを求めるようにして、無線通信システムの基地局周辺の3次元地図データを生成する地図データ生成システムもある(例えば、特許文献1参照)。   In addition, the outer shape of the building is acquired from the two-dimensional map data, and the height is obtained using a photograph of the building included in the two-dimensional map data, so that the surrounding area of the base station of the wireless communication system There is also a map data generation system that generates the three-dimensional map data (see, for example, Patent Document 1).

再公表特許2008−062819Republished Patent 2008-062819

しかしながら、上記した各装置のように、カメラを用いて撮影した画像を利用して3次元地図データを生成する構成では、カメラの撮影画像に、例えば、歩行者や路肩に駐車した駐車車両等、移動することが可能な移動物体が含まれていると、これらの移動物体を含む地図データが生成されてしまう。   However, in the configuration in which the 3D map data is generated using the image captured using the camera as in each of the above-described devices, the captured image of the camera, for example, a pedestrian or a parked vehicle parked on the shoulder, If moving objects that can move are included, map data including these moving objects is generated.

このような移動物体を含むような地図データは、地物図としての精度が低くなり好ましくないといった問題がある。   Such map data including a moving object has a problem that accuracy as a feature map is lowered, which is not preferable.

本発明は上記問題に鑑みたもので、移動物体を含まない3次元地図データを生成できるようにすることを第1の目的とする。   The present invention has been made in view of the above problems, and a first object thereof is to enable generation of 3D map data that does not include a moving object.

また、本発明は、移動物体を含まない3次元地図データを用いて移動物体を回避するように搭載車両の走行支援を行うことを第2の目的とする。   In addition, a second object of the present invention is to provide driving support for an on-board vehicle so as to avoid a moving object using 3D map data that does not include the moving object.

上記第1の目的を達成するため、請求項1に記載の発明は、データ収集装置を搭載した複数の車両からデータ収集装置により収集された情報を取得し、当該取得した情報を用いて地図データを生成する地図データ生成装置であって、データ収集装置は、搭載車両の周辺を撮影した撮影画像を表す画像データと、当該撮影画像の被写体の各部との距離を特定するための測距データと、搭載車両の位置および向きを特定するための測位データとを関連付けしたプローブデータを収集するようになっており、データ収集装置により収集されたプローブデータを受信すると、当該受信したプローブデータを記憶媒体に蓄積記憶させる記憶処理手段と、記憶媒体に蓄積記憶させたプローブデータから、同一地点より同一の場所を撮影した撮影画像を含む複数のプローブデータを抽出し、当該同一の場所を撮影した撮影画像の特定画素の画素データの分散値に基づいて、移動することが可能な移動物体を含まない撮影画像を特定し、当該移動物体を含まない撮影画像を含むプローブデータを地図データ生成用データとして登録する地図データ生成用データ登録手段と、地図データ生成用データに登録されたプローブデータに基づいて撮影画像に含まれる被写体の各領域の絶対位置を算出して移動物体を含まない3次元の地物図データを生成する地物図データ生成手段と、を備えたことを特徴としている。   In order to achieve the first object, according to the first aspect of the present invention, information collected by a data collection device is obtained from a plurality of vehicles equipped with the data collection device, and map data is obtained using the obtained information. The data collection device generates image data representing a photographed image obtained by photographing the periphery of the mounted vehicle, and distance measurement data for specifying the distance between each part of the subject of the photographed image, The probe data associated with the positioning data for specifying the position and orientation of the mounted vehicle is collected, and when the probe data collected by the data collection device is received, the received probe data is stored in the storage medium. Including a captured image obtained by photographing the same place from the same point from the storage processing means for storing and storing the probe data and the probe data stored and stored in the storage medium. A plurality of probe data is extracted, a captured image that does not include a movable object that can be moved is identified based on a variance value of pixel data of specific pixels of the captured image that is captured at the same location, and the moving object Map data generation data registration means for registering probe data including a captured image not including the image data as map data generation data, and each area of the subject included in the captured image based on the probe data registered in the map data generation data And a feature map data generating means for generating three-dimensional feature map data that does not include a moving object by calculating the absolute position.

このような構成によれば、記憶媒体に蓄積記憶させたプローブデータから、同一地点より同一の場所を撮影した撮影画像を含む複数のプローブデータを抽出し、当該同一の場所を撮影した撮影画像の特定画素の画素データの分散値に基づいて、移動することが可能な移動物体を含まない撮影画像を特定し、当該移動物体を含まない撮影画像を含むプローブデータを地図データ生成用データとして登録し、地図データ生成用データに登録されたプローブデータに基づいて撮影画像に含まれる被写体の各領域の絶対位置を算出して移動物体を含まない3次元の地物図データが生成される。すなわち、移動物体を含まない3次元地図データを生成することができる。   According to such a configuration, a plurality of probe data including a photographed image obtained by photographing the same place from the same spot is extracted from the probe data accumulated and stored in the storage medium, and the photographed image obtained by photographing the same place is extracted. Based on the dispersion value of the pixel data of the specific pixel, a captured image that does not include a movable object that can move is specified, and probe data that includes the captured image that does not include the moving object is registered as map data generation data. Then, based on the probe data registered in the map data generation data, the absolute position of each region of the subject included in the captured image is calculated, and three-dimensional feature map data not including a moving object is generated. That is, it is possible to generate 3D map data that does not include a moving object.

また、請求項2に記載の発明は、地図データ生成用データ登録手段は、記憶媒体に蓄積記憶させたプローブデータに含まれる撮影画像の視点移動を行って同一地点より同一の場所を撮影した複数の撮影画像を含むプローブデータを抽出することを特徴としている。   The map data generation data registration means may be configured to perform a plurality of photographic images included in the probe data stored and stored in the storage medium and photograph the same location from the same location. It is characterized by extracting probe data including the photographed images.

このような構成によれば、記憶媒体に蓄積記憶させたプローブデータに含まれる撮影画像の視点移動を行って同一地点より同一の場所を撮影した複数の撮影画像を含むプローブデータが抽出されるので、撮影した位置に多少ずれがあっても、同一地点より同一の場所を撮影した撮影画像を含むプローブデータとして抽出することができる。   According to such a configuration, probe data including a plurality of photographed images obtained by photographing the same place from the same spot by moving the viewpoint of the photographed image contained in the probe data accumulated and stored in the storage medium is extracted. Even if the photographed position is slightly deviated, it can be extracted as probe data including a photographed image obtained by photographing the same place from the same spot.

また、請求項3に記載の発明のように、画素データは、色データと輝度データの少なくとも一方とすることができる。   Further, as in the invention described in claim 3, the pixel data can be at least one of color data and luminance data.

また、上記第2の目的を達成するため、請求項4に記載の発明は、車両周辺を撮影する撮影手段と、請求項1に記載された地図データ生成装置により生成された3次元の地物図データを記憶した記憶媒体から撮影手段により撮影された撮影画像と同じ場所の地物図データを取得する地物図データ取得手段と、撮影手段により撮影された撮影画像と地物図データ取得手段により取得された地物図データに基づく地物図の特定画素の画素データの分散値に基づいて、移動することが可能な移動物体を検出する移動物体検出手段と、移動物体検出手段により検出された移動物体を回避するように搭載車両の走行支援を行う走行支援手段と、を備えたことを特徴としている。   In order to achieve the second object, the invention described in claim 4 is a three-dimensional feature generated by a photographing means for photographing the periphery of the vehicle and the map data generating device described in claim 1. Feature map data acquisition means for acquiring feature map data at the same place as the photographed image taken by the photographing means from the storage medium storing the figure data, and photographed image and feature map data acquisition means obtained by the photography means The moving object detecting means for detecting a moving object capable of moving based on the variance value of the pixel data of the specific pixel of the feature map based on the feature map data acquired by the And travel support means for supporting travel of the mounted vehicle so as to avoid the moving object.

このような構成によれば、請求項1に記載された地図データ生成装置により生成された3次元の地物図データを記憶した記憶媒体から撮影手段により撮影された撮影画像と同じ場所の地物図データを取得し、撮影手段により撮影された撮影画像と、地物図データに基づく地物図の特定画素の画素データの分散値に基づいて、移動することが可能な移動物体を検出し、検出した移動物体を回避するように搭載車両の走行支援が行われる。すなわち、移動物体を含まない3次元地図データを用いて移動物体を回避するように搭載車両の走行支援を行うことができる。   According to such a configuration, the feature in the same place as the photographed image photographed by the photographing means from the storage medium storing the three-dimensional feature map data generated by the map data generating device according to claim 1 Obtaining the figure data, detecting a moving object that can move based on the captured image taken by the photographing means and the dispersion value of the pixel data of the specific pixel of the feature map based on the feature map data, Driving assistance of the mounted vehicle is performed so as to avoid the detected moving object. That is, it is possible to perform the travel assistance of the mounted vehicle so as to avoid the moving object using the three-dimensional map data not including the moving object.

また、請求項5に記載の発明は、搭載車両の現在位置を特定する現在位置特定手段と、現在位置特定手段により特定された搭載車両の現在位置に基づいて搭載車両の周辺の3次元の地物図データを取得し、当該3次元の地物図データにより特定される搭載車両周辺の地物図と撮影手段により撮影された撮影画像との誤差量が閾値未満となるように撮影手段により撮影された撮影画像の視点を移動させる視点移動手段と、視点移動手段により移動された視点の位置を現在位置とするように搭載車両の現在位置を補正する現在位置補正手段と、を備えたことを特徴としている。   According to a fifth aspect of the present invention, there is provided a current position specifying means for specifying the current position of the mounted vehicle, and a three-dimensional ground around the mounted vehicle based on the current position of the mounted vehicle specified by the current position specifying means. Object map data is acquired and photographed by the photographing means so that the error amount between the feature map around the mounted vehicle specified by the three-dimensional feature map data and the photographed image photographed by the photographing means is less than a threshold value. Viewpoint moving means for moving the viewpoint of the captured image, and current position correcting means for correcting the current position of the mounted vehicle so that the position of the viewpoint moved by the viewpoint moving means is the current position. It is a feature.

このように、3次元の地物図データにより特定される搭載車両周辺の地物図と撮影手段により撮影された撮影画像との誤差量が閾値未満となるように撮影手段により撮影された撮影画像の視点を移動させ、この視点の位置を現在位置とするように現在位置特定手段により特定された搭載車両の現在位置を補正することにより、搭載車両の現在位置を精度良く特定することができる。   As described above, the photographed image photographed by the photographing means so that the error amount between the feature map around the mounted vehicle specified by the three-dimensional feature map data and the photographed image photographed by the photographing means is less than the threshold value. The current position of the mounted vehicle can be accurately identified by correcting the current position of the mounted vehicle specified by the current position specifying means so that the position of this viewpoint is the current position.

本発明の一実施形態に係る地図データ生成装置が複数のプローブ車とデータ通信する様子を示す図である。It is a figure which shows a mode that the map data generation apparatus which concerns on one Embodiment of this invention performs data communication with several probe vehicles. 本発明の一実施形態に係る地図データ生成装置と車載装置の全体構成を示す図である。1 is a diagram illustrating an overall configuration of a map data generation device and an in-vehicle device according to an embodiment of the present invention. 距離画像センサより出力される測距データについて説明するための図である。It is a figure for demonstrating the ranging data output from a distance image sensor. 車載装置の制御部によるプローブデータ収集処理のフローチャートである。It is a flowchart of the probe data collection process by the control part of a vehicle-mounted apparatus. 地図データ生成装置の制御部による地図データ生成処理のフローチャートである。It is a flowchart of the map data generation process by the control part of a map data generation apparatus. 地図データ生成用DB作成処理のフローチャートである。It is a flowchart of DB creation processing for map data generation. 地物図データについて説明するための図である。It is a figure for demonstrating feature map data. 撮影画像の画素データの分散値の判定について説明するための図である。It is a figure for demonstrating the determination of the dispersion value of the pixel data of a picked-up image. 車載装置の制御部による地図データ更新処理のフローチャートである。It is a flowchart of the map data update process by the control part of a vehicle-mounted apparatus. 車載装置の制御部による走行支援処理のフローチャートFlow chart of driving support processing by control unit of in-vehicle device 車載装置の制御部による移動体検出処理のフローチャートである。It is a flowchart of the mobile body detection process by the control part of a vehicle-mounted apparatus. 移動物体を回避するような搭載車両の走行予定位置の算出について説明するための図である。It is a figure for demonstrating calculation of the planned driving | running | working position of the mounted vehicle which avoids a moving object.

本発明の一実施形態に係る地図データ生成装置の全体構成を図1に示す。本地図データ生成装置10は、情報センタ1に配置されたコンピュータにより構成され、不特定多数のプローブ車2とデータ通信を行うようになっている。各プローブ車2には、地図データ生成装置10が地図データを生成するために必要なプローブ情報を収集する情報収集装置としての機能を備えた車載装置20が搭載されている。   FIG. 1 shows the overall configuration of a map data generation apparatus according to an embodiment of the present invention. The map data generation device 10 is configured by a computer arranged in the information center 1 and performs data communication with an unspecified number of probe vehicles 2. Each probe vehicle 2 is equipped with an in-vehicle device 20 having a function as an information collection device for collecting probe information necessary for the map data generation device 10 to generate map data.

地図データ生成装置10は、各プローブ車2に搭載された車載装置20より送信されるプローブ情報に基づいて3次元の地物図データを生成する。また、車載装置20は、地図データ生成装置1により生成された3次元の地物図データを用いて、歩行者や路肩に駐車した駐車車両等、移動する物体体を回避しながら車両の走行支援を行う走行支援装置としての機能も備えている。   The map data generation device 10 generates three-dimensional feature map data based on probe information transmitted from the in-vehicle device 20 mounted on each probe vehicle 2. Further, the in-vehicle device 20 uses the three-dimensional feature map data generated by the map data generation device 1 to assist in driving the vehicle while avoiding moving objects such as a pedestrian and a parked vehicle parked on the shoulder. It also has a function as a driving support device that performs

図2に、地図データ生成装置10と車載装置20のブロック構成を示す。地図データ生成装置10は、地図データベース11、通信部12および制御部13を備えている。   FIG. 2 shows a block configuration of the map data generation device 10 and the in-vehicle device 20. The map data generation device 10 includes a map database 11, a communication unit 12, and a control unit 13.

通信部12は、公衆通信網を介して各プローブ車2とデータ通信するためのものである。   The communication unit 12 is for data communication with each probe vehicle 2 via a public communication network.

制御部13は、CPU、メモリ、ハードディスクドライバ、I/O等を備えたコンピュータとして構成されており、CPUはメモリに記憶されたプログラムに従って各種処理を実施する。制御部13の処理には、車載装置20より送信されるプローブ情報に基づいて3次元の地物図データを生成し、生成した3次元の地物図データを地図データベース11に記憶させる処理がある。   The control unit 13 is configured as a computer including a CPU, a memory, a hard disk driver, an I / O, and the like, and the CPU performs various processes according to programs stored in the memory. The processing of the control unit 13 includes processing for generating three-dimensional feature map data based on probe information transmitted from the in-vehicle device 20 and storing the generated three-dimensional feature map data in the map database 11. .

一方、車載装置20は、距離画像センサ21、位置検出装置22、地図データ記憶部23、通信部24および制御部25を備えている。なお、制御部25には、車両駆動制御部30が接続されている。   On the other hand, the in-vehicle device 20 includes a distance image sensor 21, a position detection device 22, a map data storage unit 23, a communication unit 24, and a control unit 25. A vehicle drive control unit 30 is connected to the control unit 25.

距離画像センサ21は、ステレオカメラを用いて被写体を撮影するとともに、撮影画像の画素毎に距離画像センサ21と撮影画像の被写体の各部との距離を特定するための測距データと、撮影画像を表す画像データを出力する。なお、距離画像センサ21は、ステレオカメラの視野角が車両の進行方向と一致するように、かつ、路面からの高さが同一となるように各プローブ車2に取り付けられている。   The distance image sensor 21 captures a subject using a stereo camera, and uses distance measurement data for specifying the distance between the distance image sensor 21 and each part of the subject of the captured image and a captured image for each pixel of the captured image. Output the image data to represent. The distance image sensor 21 is attached to each probe vehicle 2 so that the viewing angle of the stereo camera coincides with the traveling direction of the vehicle and the height from the road surface is the same.

図3に示すように、測距データは、撮影画像におけるX−Y座標位置をXY、この座標位置における色情報をRGB、距離画像センサ21の位置を基準としたときの被写体の相対座標をxyzとすると、(XY、RGB、xyz)として出力される。このような測距データ(XY、RGB、xyz)が撮影画像の全画素について出力される。すなわち、1つの撮影画像に対して、このような測距データ(XY、RGB、xyz)が画素数分だけ出力されるようになっている。   As shown in FIG. 3, the distance measurement data includes the XY coordinate position in the photographed image as XY, the color information at this coordinate position as RGB, and the relative coordinates of the subject relative to the position of the distance image sensor 21 as xyz. Then, (XY, RGB, xyz) is output. Such distance measurement data (XY, RGB, xyz) is output for all pixels of the captured image. That is, such distance measurement data (XY, RGB, xyz) is output by the number of pixels for one captured image.

位置検出装置22は、地磁気センサ、ジャイロスコープ、距離センサ、GPS受信機等(いずれも図示せず)により構成されており、これらから入力される現在位置を特定するための情報を制御部25へ出力する。   The position detection device 22 includes a geomagnetic sensor, a gyroscope, a distance sensor, a GPS receiver, and the like (all not shown), and information for specifying the current position input from these is sent to the control unit 25. Output.

地図データ記憶部23は、地図データを記憶するための記憶装置である。この地図データ記憶部23には、地図データ生成装置10により生成された3次元の地物図データが記憶されている。   The map data storage unit 23 is a storage device for storing map data. The map data storage unit 23 stores three-dimensional feature map data generated by the map data generation device 10.

通信部24は、公衆無線通信網を介して情報センタ1の地図データ生成装置10と通信するために設けられている。   The communication unit 24 is provided to communicate with the map data generation device 10 of the information center 1 via the public wireless communication network.

制御部25は、CPU、メモリ、I/O等を備えたコンピュータとして構成されており、CPUはメモリに記憶されたプログラムに従って各種処理を行う。   The control unit 25 is configured as a computer including a CPU, a memory, an I / O, and the like, and the CPU performs various processes according to a program stored in the memory.

制御部25の処理には、位置検出装置22より入力される現在位置を特定するための情報に基づいて車両の現在位置を特定するとともに、距離画像センサ21より入力される情報に基づくプローブデータを収集するプローブデータ処理、路肩に駐車した駐車車両等、移動する物体体を回避しながら車両の走行支援を行う走行支援処理等がある。   For the processing of the control unit 25, the current position of the vehicle is specified based on the information for specifying the current position input from the position detection device 22, and the probe data based on the information input from the distance image sensor 21 is used. There are probe data processing to be collected, travel support processing for supporting travel of a vehicle while avoiding a moving object such as a parked vehicle parked on the shoulder of a road.

車両駆動制御部30は、車両のブレーキ制御を行うブレーキECU、車両の舵角を制御するステアリングECU、車両のエンジン制御を行うエンジンECU(いずれも図示せず)等により構成されている。   The vehicle drive control unit 30 includes a brake ECU that performs vehicle brake control, a steering ECU that controls the steering angle of the vehicle, an engine ECU that controls the engine of the vehicle (none of which are shown), and the like.

本実施形態におけるブレーキECUは、走行制御部25からの指示に応じて車両のブレーキ制御を実施することが可能となっており、ステアリングECUは、走行制御部25からの指示に応じて車両の舵角を制御することが可能となっている。また、エンジンECUは、走行制御部25からの指示に応じて燃料噴射量や燃料噴射タイミングの調整を行い、搭載車両の加減速の制御を行うことが可能となっている。   The brake ECU in the present embodiment can perform vehicle brake control in accordance with an instruction from the travel control unit 25, and the steering ECU can control the vehicle in response to an instruction from the travel control unit 25. It is possible to control the corner. Further, the engine ECU can adjust the fuel injection amount and the fuel injection timing in accordance with an instruction from the travel control unit 25 to control acceleration / deceleration of the mounted vehicle.

車載装置20は、搭載車両2の走行に伴ってプローブデータを収集する処理を行うようになっている。図4に、車載装置20の制御部25によるプローブデータ収集処理のフローチャートを示す。制御部25は、車両のイグニッションスイッチがオン状態になると、図に示す処理を開始する。   The in-vehicle device 20 is configured to perform processing for collecting probe data as the mounted vehicle 2 travels. FIG. 4 shows a flowchart of probe data collection processing by the control unit 25 of the in-vehicle device 20. The control part 25 will start the process shown to a figure, if the ignition switch of a vehicle will be in an ON state.

まず、位置検出装置22より入力される現在位置を特定するための情報を取得して車両の現在位置(絶対座標)および車両進行方向を特定する(S100)。なお、車両進行方向は、前回特定された車両の現在位置(絶対座標)と、今回特定された車両の現在位置(絶対座標)の位置関係から求めることができる。   First, information for specifying the current position input from the position detection device 22 is acquired, and the current position (absolute coordinates) of the vehicle and the vehicle traveling direction are specified (S100). The vehicle traveling direction can be obtained from the positional relationship between the current position (absolute coordinates) of the vehicle specified last time and the current position (absolute coordinates) of the vehicle specified this time.

次に、距離画像センサ21より測距データを取得する(S102)。具体的には、測距データ(XY、RGB、xyz)および画像データを取得する。   Next, ranging data is acquired from the distance image sensor 21 (S102). Specifically, distance measurement data (XY, RGB, xyz) and image data are acquired.

次に、撮影画像の被写体の各部の絶対位置データを算出する(S104)。具体的には、S100にて特定した車両の現在位置(絶対座標)および車両進行方向と、S102にて取得した測距データ(XY、RGB、xyz)とに基づいて、撮影画像の被写体の各部の絶対座標を算出する。ここで、車両の現在位置の絶対座標を(X0、Y0、Z0)、被写体の各部の相対座標を(x、y、z)とすると、被写体の各部の絶対座標は(X0+x、Y0+y、Z0+z)として算出することができる。   Next, absolute position data of each part of the subject of the photographed image is calculated (S104). Specifically, based on the current position (absolute coordinates) and the vehicle traveling direction of the vehicle specified in S100 and the distance measurement data (XY, RGB, xyz) acquired in S102, each part of the subject of the captured image Calculate absolute coordinates of. Here, if the absolute coordinates of the current position of the vehicle are (X0, Y0, Z0) and the relative coordinates of each part of the subject are (x, y, z), the absolute coordinates of each part of the subject are (X0 + x, Y0 + y, Z0 + z). Can be calculated as

次に、搭載車両の周辺を撮影した撮影画像と、撮影画像に含まれる領域毎に撮影画像内の被写体との距離を特定するための測距データと、搭載車両の位置および向きを特定するための測位データとを関連付けしたプローブデータを情報センタ2へ送信し(S106)、S100へ戻り、上記した処理を繰り返し実施する。このようにして、プローブ車2に搭載された車載装置20から情報センタ1へ周期的にプローブデータが送信される。   Next, a captured image obtained by capturing the periphery of the mounted vehicle, distance measurement data for specifying a distance from the subject in the captured image for each region included in the captured image, and a position and orientation of the mounted vehicle are specified. The probe data associated with the positioning data is transmitted to the information center 2 (S106), the process returns to S100, and the above processing is repeatedly performed. In this way, probe data is periodically transmitted from the in-vehicle device 20 mounted on the probe wheel 2 to the information center 1.

地図データ生成装置10には、このようにして不特定多数のプローブ車2に搭載された車載装置20より大量のプローブデータが送信される。なお、撮影画像の撮影位置はプローブ車2が位置する道路上の地点に絞られるため、同一地点より同一の場所を撮影した撮影画像を含む複数のプローブデータを効率良く収集することができる。   A large amount of probe data is transmitted to the map data generation device 10 from the in-vehicle device 20 mounted on the unspecified number of probe cars 2 in this way. In addition, since the photographing position of the photographed image is narrowed down to a point on the road where the probe car 2 is located, a plurality of probe data including a photographed image obtained by photographing the same place from the same point can be efficiently collected.

地図データ生成装置10は、受信したプローブデータを記憶媒体に蓄積記憶させるとともに、記憶媒体に蓄積記憶させたプローブデータに基づいて地物図データを生成する地図データ生成処理を行う。   The map data generation device 10 stores and stores the received probe data in a storage medium, and performs map data generation processing for generating feature map data based on the probe data stored and stored in the storage medium.

図5に、地図データ生成装置10の制御部13による地図データ生成処理のフローチャートを示す。制御部13は、作業者の操作に応じて図5に示す処理を開始する。   In FIG. 5, the flowchart of the map data generation process by the control part 13 of the map data generation apparatus 10 is shown. The control part 13 starts the process shown in FIG. 5 according to an operator's operation.

まず、プローブデータを受信したか否かを判定する(S200)。ここで、プローブデータが受信されない場合、S200の判定を繰り返し、プローブデータが受信されると、次に、S300の地図データ生成用DB作成処理を実施する。   First, it is determined whether probe data has been received (S200). Here, when the probe data is not received, the determination of S200 is repeated. When the probe data is received, the map data generation DB creation process of S300 is performed.

図6に、この地図データ生成用DB作成処理のフローチャートを示す。この地図データ生成用DB作成処理では、まず、受信データの取り込みを行う(S302)。具体的には、受信したプローブデータを記憶媒体としてのハードディスクドライバに蓄積記憶させる。   FIG. 6 shows a flowchart of this map data generation DB creation processing. In this map data generation DB creation process, first, received data is fetched (S302). Specifically, the received probe data is accumulated and stored in a hard disk driver as a storage medium.

次に、撮影画像の被写体の位置を特定する(S304)。撮影画像の被写体の位置(座標)は、受信したプローブデータに含まれる測距データおよび測位データに基づいて特定することができる。   Next, the position of the subject in the captured image is specified (S304). The position (coordinates) of the subject in the captured image can be specified based on distance measurement data and positioning data included in the received probe data.

次に、同一地点より同一の場所を撮影した撮影画像を読み出す(S306)。具体的には、受信したプローブデータに含まれる測位データに基づいて撮影画像の撮影位置を特定し、この撮影画像の撮影位置より、S304にて特定した撮影画像の被写体の位置と同じ場所を撮影した複数の撮影映像を記憶媒体から読み出す。   Next, a photographed image obtained by photographing the same place from the same spot is read out (S306). Specifically, the shooting position of the shot image is specified based on the positioning data included in the received probe data, and the same location as the subject position of the shot image specified in S304 is shot from the shooting position of the shot image. A plurality of photographed images are read out from the storage medium.

次に、受信したプローブデータに含まれる撮影画像とS306にて読み出した撮影画像の画像全体での相互相関係数を算出する(S308)。ここで、画像全体での相互相関係数を算出するのは、2つの画像が同じ場所を同じ視点から撮影したものであるか否かを判定するためである。なお、本実施形態では、受信したプローブデータに含まれる撮影画像をテンプレートとして、S306にて読み出した各撮影画像に対する相互相関係数を算出する。なお、相互相関係数が大きいほど2つの画像の類似度が高いことを意味する。また、相互相関係数の算出については周知技術であるため、ここではその詳細な説明を省略する。   Next, a cross-correlation coefficient between the captured image included in the received probe data and the entire captured image read in S306 is calculated (S308). Here, the cross-correlation coefficient for the entire image is calculated in order to determine whether or not two images are taken from the same viewpoint from the same place. In the present embodiment, the cross-correlation coefficient for each captured image read in S306 is calculated using the captured image included in the received probe data as a template. Note that the larger the cross-correlation coefficient, the higher the similarity between the two images. Since the calculation of the cross-correlation coefficient is a well-known technique, a detailed description thereof is omitted here.

次に、画像全体での相互相関係数が予め定められた閾値以上となっているか否かを判定する(S310)。   Next, it is determined whether or not the cross correlation coefficient of the entire image is equal to or greater than a predetermined threshold (S310).

ここで、画像全体での相互相関係数が閾値以上となっていない場合、データの視点移動を行う(S312)。ここでは、画像全体での相互相関係数が閾値以上となるように、受信したプローブデータに含まれる撮影画像の視点変換を行い、S308へ戻る。   If the cross-correlation coefficient of the entire image is not equal to or greater than the threshold value, the viewpoint of the data is moved (S312). Here, the viewpoint conversion of the captured image included in the received probe data is performed so that the cross-correlation coefficient of the entire image is equal to or greater than the threshold value, and the process returns to S308.

例えば、視点をX軸方向に移動させ、画像全体での相互相関係数が大きくなった場合には、更に視点をX軸方向に移動させる。また、視点をX軸方向に移動させたときに、画像全体での相互相関係数が小さくなった場合には、視点を反対方向に移動させる。このように、視点をX軸、Y軸、Z軸方向に移動させる。   For example, when the viewpoint is moved in the X-axis direction and the cross-correlation coefficient in the entire image increases, the viewpoint is further moved in the X-axis direction. When the viewpoint is moved in the X-axis direction, the viewpoint is moved in the opposite direction when the cross-correlation coefficient in the entire image becomes small. In this way, the viewpoint is moved in the X-axis, Y-axis, and Z-axis directions.

なお、S306にて読み出した各撮影画像について順次、S308、S310、S312の処理が行われ、画像全体での相互相関係数が閾値以上となった画像が抽出されるようになっている。また、図示してないが、S312にて視点変換を行ったにもかかわらず、画像全体での相互相関係数が閾値未満となった画像は抽出されないようになっている。   In addition, the process of S308, S310, and S312 is performed sequentially about each picked-up image read in S306, and the image in which the cross correlation coefficient in the whole image became more than a threshold value is extracted. Although not shown, an image having a cross-correlation coefficient less than a threshold value in the entire image is not extracted even though the viewpoint conversion is performed in S312.

次に、各画素データの分散値の算出を行う(S312)。具体的には、S310にて相互相関係数が予め定められた閾値以上となった各撮影画像に対し、特定画素の画素データの分散値を算出する。ここでは、撮影画像の全ての画素に対して画素データの分散値を算出する。本実施形態では、画素データとして色の3原色(赤(R)、緑(G)、青(B))毎に分散値を算出する。また、本実施形態では、撮影画像の全ての画素に対して画素データの分散値を算出する。ただし、必ずしも撮影画像の全ての画素に対して画素データの分散値を算出する必要はなく、例えば、一定間隔毎に指定された特定画素毎に画素データの分散値を算出するようにして処理負荷を軽減するようにしてもよい。   Next, the variance value of each pixel data is calculated (S312). Specifically, a variance value of pixel data of a specific pixel is calculated for each captured image in which the cross-correlation coefficient is equal to or greater than a predetermined threshold value in S310. Here, the variance value of the pixel data is calculated for all the pixels of the captured image. In the present embodiment, a variance value is calculated for each of the three primary colors (red (R), green (G), and blue (B)) as pixel data. In this embodiment, the variance value of the pixel data is calculated for all the pixels of the captured image. However, it is not always necessary to calculate the pixel data variance value for all the pixels of the photographed image. For example, the processing load is such that the pixel data variance value is calculated for each specific pixel specified at regular intervals. May be reduced.

図8に、受信したプローブデータに含まれる撮影画像と同じ場所を同じ視点から撮影した各撮影画像の座標(X、Y)における色情報の度数分布の例を示す。図中(a)は赤(R)の度数分布、図中(b)は、緑(G)の度数分布、図中(c)は、青(B)の度数分布を表している。   FIG. 8 shows an example of the frequency distribution of color information at the coordinates (X, Y) of each photographed image taken from the same viewpoint as the photographed image included in the received probe data. In the figure, (a) represents the frequency distribution of red (R), (b) represents the frequency distribution of green (G), and (c) represents the frequency distribution of blue (B).

ここでは、不特定多数のプローブ車2より大量の撮影画像が送信され、受信したプローブデータに含まれる撮影画像と同じ場所を同じ視点から撮影した撮影画像が大量に抽出されているものとする。また、抽出された大量の撮影画像には、移動することが可能な移動物体が含まれるものも、移動物体が含まれないものも存在する。   Here, it is assumed that a large number of captured images are transmitted from an unspecified number of probe cars 2 and a large number of captured images obtained by capturing the same place from the same viewpoint as the captured image included in the received probe data are extracted. In addition, a large number of extracted captured images include a moving object that can move and a moving object that does not include a moving object.

路肩に駐車した駐車車両や歩行者等の移動することが可能な移動物体は比較的短時間で移動していなくなるため一部の撮影画像にしか含まれないのに対し、建造物やガードレール等の地物は移動しないため全ての撮影画像に必ず含まれる。つまり、同一地点から同一の場所を撮影した多数の撮影画像の特定の画素における画素データの分散値は、撮影画像に移動物体が含まれていない場合は小さくなるが、撮影画像に移動物体が含まれている場合は大きくなる。   Moving objects that can be moved, such as parked vehicles and pedestrians parked on the road shoulder, will not move in a relatively short time, so they are only included in some captured images, whereas buildings, guardrails, etc. Since the feature does not move, it is always included in all captured images. In other words, the variance value of pixel data in a specific pixel of many captured images taken from the same location from the same point is small when the captured image does not include a moving object, but the captured image includes a moving object. If it is, it will be bigger.

ここでは、特定の画素における画素データの分散値が予め定められた閾値以上か否かに基づいて撮影画像に移動物体が含まれているか否かを判定する(S314)。本実施形態では、色の3原色(赤(R)、緑(G)、青(B))の全ての分散値が閾値以上か否かに基づいて撮影画像に移動する物体が含まれているか否かを判定する。   Here, it is determined whether or not a moving object is included in the captured image based on whether or not the variance value of the pixel data in the specific pixel is equal to or greater than a predetermined threshold (S314). In the present embodiment, whether an object that moves is included in the captured image based on whether or not all the dispersion values of the three primary colors (red (R), green (G), and blue (B)) are equal to or greater than a threshold value. Determine whether or not.

ここで、特定の画素における色の3原色(赤(R)、緑(G)、青(B))の全ての分散値が閾値未満となった場合、S314の判定はYESとなり、分散値が閾値未満となった撮影画像を含むプローブデータを地図データ生成用DB(図示せず)に登録する(S316)。   Here, when all the dispersion values of the three primary colors (red (R), green (G), and blue (B)) of a specific pixel are less than the threshold value, the determination in S314 is YES, and the dispersion value is Probe data including a captured image that is less than the threshold is registered in a map data generation DB (not shown) (S316).

また、特定の画素における色の3原色(赤(R)、緑(G)、青(B))のうち少なくとも1つの分散値が閾値以上となった場合には、S314の判定はNOとなり、分散値が閾値以上となった撮影画像を地図データ生成用DBに登録することなく、S318へ進む。   If at least one of the three primary colors (red (R), green (G), and blue (B)) of a specific pixel is greater than or equal to a threshold value, the determination in S314 is NO, The process proceeds to S318 without registering the photographed image whose variance value is equal to or greater than the threshold value in the map data generation DB.

S318では、全ての画素に対する処理が完了したか否かを判定する。ここで、全ての画素に対する処理が完了ししていない場合、S318の判定はNOとなり、S312へ戻り、他の画素に対してS312〜S316の処理を実施する。   In S318, it is determined whether or not the processing for all the pixels has been completed. Here, when the processing for all the pixels has not been completed, the determination in S318 is NO, and the processing returns to S312 and the processing of S312 to S316 is performed on the other pixels.

そして、全ての画素に対する処理が完了すると、S318の判定はYESとなり、図5のS202へ進む。   When the processing for all the pixels is completed, the determination in S318 is YES, and the process proceeds to S202 in FIG.

S202では、地物図データを生成する。具体的には、地図データ生成用DBに登録したプローブデータに基づいて撮影画像に含まれる被写体の各部の絶対位置を算出して3次元の地物図データを生成し、地図データベース11に登録する。   In S202, the feature map data is generated. Specifically, the absolute position of each part of the subject included in the captured image is calculated based on the probe data registered in the map data generation DB to generate three-dimensional feature map data, which is registered in the map database 11. .

次に、新規受信データがあるか否かを判定する(S204)。ここで、新たにプローブデータが受信されると、S204の判定はYESとなり、S200へ戻る。また、新たにプローブデータが受信されない場合、S204の判定はNOとなり、本処理を終了する。このようにして、図7に示すような、移動することが可能な移動物体を含まない3次元の地物図を表す地物図データが生成される。   Next, it is determined whether there is newly received data (S204). Here, when probe data is newly received, the determination in S204 is YES, and the process returns to S200. If no new probe data is received, the determination in S204 is NO and the process is terminated. In this way, feature map data representing a three-dimensional feature map that does not include a movable object that can move as shown in FIG. 7 is generated.

プローブ車2に搭載された車載装置20の制御部25は、地図データ生成装置10により新たな地物図データを取得して地図データ記憶部12に記憶されている地図データの更新を行う地図データ更新処理を行うようになっている。   The control unit 25 of the in-vehicle device 20 mounted on the probe vehicle 2 acquires new feature map data by the map data generation device 10 and updates the map data stored in the map data storage unit 12. Update processing is performed.

図9に、この地図データ更新処理のフローチャートを示す。車載装置20のユーザにより地図データの更新を指示する操作が行われると、制御部25は、図9に示す処理を実施する。   FIG. 9 shows a flowchart of the map data update process. When an operation for instructing the update of the map data is performed by the user of the in-vehicle device 20, the control unit 25 performs the process illustrated in FIG.

まず、地図データ生成装置10に更新地図データの送信要求を行い(S400)、更新地図データを受信したか否かを判定する(S402)。   First, a transmission request for updated map data is made to the map data generation device 10 (S400), and it is determined whether or not the updated map data has been received (S402).

ここで、更新地図データを受信すると、更新地図データに従って
地図データの更新処理を実施し(S404)。地図データの更新処理が完了すると、本処理を終了する。
When the updated map data is received, the map data is updated according to the updated map data (S404). When the map data update process is completed, this process ends.

また、プローブ車2に搭載された車載装置20の走行制御部25は、地図データ生成装置10により生成された移動物体を含まない3次元の地物図データと、距離画像センサ21より入力される車両周辺の撮影画像とに基づいて移動物体を検出し、この移動物体を回避するように走行支援を行う走行支援処理を行う。   In addition, the travel control unit 25 of the in-vehicle device 20 mounted on the probe vehicle 2 is input from the distance image sensor 21 and the three-dimensional feature map data not including the moving object generated by the map data generation device 10. A moving object is detected on the basis of captured images around the vehicle, and a driving support process is performed for driving support so as to avoid the moving object.

図10に、この走行支援処理のフローチャートを示す。車載装置20のユーザにより走行支援の開始を指示する操作が行われると、走行制御部25は、図4に示したプローブデータ収集処理と並行して図10に示す処理を実施する。   FIG. 10 shows a flowchart of the driving support process. When an operation for instructing the start of driving support is performed by the user of the in-vehicle device 20, the driving control unit 25 performs the process shown in FIG. 10 in parallel with the probe data collecting process shown in FIG.

まず、走行計画を作成する(S500)。具体的には、ユーザ操作に従って出発地から目的地に至る最適な案内経路を探索し、探索した案内経路を表示部に表示させる。なお、本実施形態では、案内経路において搭載車両が走行する車線まで特定する。   First, a travel plan is created (S500). Specifically, an optimum guide route from the departure point to the destination is searched according to the user operation, and the searched guide route is displayed on the display unit. In the present embodiment, the lane in which the mounted vehicle travels is specified on the guide route.

次に、S600の移動体検出処理を行う。図11に、この移動体検出処理のフローチャートを示す。この移動体検出処理では、まず、現在位置周辺の地物図データを取得する(S602)。具体的には、搭載車両が位置する場所を視点とする撮影画像を地図データ記憶部23より取得する。   Next, the mobile object detection process of S600 is performed. FIG. 11 shows a flowchart of this moving object detection process. In this moving object detection process, first, feature map data around the current position is acquired (S602). Specifically, a captured image with the viewpoint where the mounted vehicle is located is acquired from the map data storage unit 23.

次に、距離画像センサ21より前方画像データを取得する(S604)。ここでは、距離画像センサ21により撮影された現在位置での撮影画像と測距データを取得する。   Next, forward image data is acquired from the distance image sensor 21 (S604). Here, the captured image and distance measurement data at the current position captured by the distance image sensor 21 are acquired.

次に、S602にて取得した搭載車両が位置する場所を視点とする撮影画像と、S604にて取得した距離画像センサ21により撮影された現在位置での撮影画像について、画像全体での相互相関係数を算出する(S606)。この画像全体での相互相関係数の算出は、S308と同様に行うことができる。   Next, with respect to the captured image with the viewpoint where the mounted vehicle acquired in S602 is located, and the captured image at the current position captured by the distance image sensor 21 acquired in S604, the correlation between the entire images. The number is calculated (S606). The calculation of the cross-correlation coefficient for the entire image can be performed as in S308.

次に、画像全体での相互相関係数が予め定められた閾値以上であるか否かを判定する(S608)。   Next, it is determined whether or not the cross correlation coefficient of the entire image is equal to or greater than a predetermined threshold (S608).

ここで、画像全体での相互相関係数が閾値以上とならない場合、データの視点移動を行う(S610)。ここでは、画像全体での相互相関係数が閾値以上となるように、S602にて取得した搭載車両が位置する場所を視点とする撮影画像の視点移動を行い、S606へ戻る。   Here, when the cross-correlation coefficient in the entire image does not exceed the threshold value, the viewpoint of the data is moved (S610). Here, the captured image is moved from the viewpoint where the mounted vehicle acquired in S602 is positioned so that the cross-correlation coefficient of the entire image is equal to or greater than the threshold, and the process returns to S606.

なお、このように視点移動を行って、画像全体での相互相関係数が閾値以上となった場合、この視点を搭載車両の現在位置とすることができる。位置検出装置22より入力される情報に基づいて現在位置を算出し、マップマッチング処理を行って搭載車両の現在位置を補正するような構成では位置検出精度が低いため、本実施形態では、視点移動を行って、画像全体での相互相関係数が閾値以上となった場合、この視点の位置を現在位置とするように、搭載車両の現在位置を補正するようにしている。   If the viewpoint is moved in this way and the cross-correlation coefficient in the entire image is equal to or greater than the threshold value, this viewpoint can be set as the current position of the mounted vehicle. In the present embodiment, the position detection accuracy is low in the configuration in which the current position is calculated based on information input from the position detection device 22 and the current position of the mounted vehicle is corrected by performing the map matching process. When the cross-correlation coefficient in the entire image is equal to or greater than the threshold value, the current position of the mounted vehicle is corrected so that the position of this viewpoint is the current position.

上記したように、画像全体での相互相関係数が閾値以上になると、次に、S602にて取得した搭載車両が位置する場所を視点とする撮影画像と、S604にて取得した距離画像センサ21により撮影された現在位置での撮影画像について、各画素データ分散値の算出を行う(S614)。この各画素データ分散値の算出は、S312と同様に行うことができる。すなわち、色の3原色(赤(R)、緑(G)、青(B))の全ての分散値が閾値以上か否かに基づいて撮影画像に移動する物体が含まれているか否かを判定する(S616)。   As described above, when the cross-correlation coefficient of the entire image is equal to or greater than the threshold value, the captured image with the viewpoint where the mounted vehicle acquired in S602 is located, and the distance image sensor 21 acquired in S604. Each pixel data variance value is calculated for the photographed image at the current position taken by (S614). The calculation of each pixel data dispersion value can be performed in the same manner as in S312. That is, whether or not an object to be moved is included in the captured image based on whether or not all the dispersion values of the three primary colors (red (R), green (G), and blue (B)) are greater than or equal to a threshold value. Determination is made (S616).

ここで、特定の画素における色の3原色(赤(R)、緑(G)、青(B))のうち少なくとも1つの分散値が閾値以上となった場合、S616の判定はYESとなり、距離画像センサ21により撮影された現在位置での撮影画像内に移動することが可能な移動物体が検出されていないと判定し(S618)、図10のS502へ進む。   Here, when at least one of the three primary colors (red (R), green (G), and blue (B)) of the color of the specific pixel is greater than or equal to the threshold value, the determination in S616 is YES, and the distance It is determined that a moving object that can move in the captured image at the current position captured by the image sensor 21 is not detected (S618), and the process proceeds to S502 in FIG.

また、特定の画素における色の3原色(赤(R)、緑(G)、青(B))の全ての分散値が閾値以上となった場合には、S6106の判定はNOとなり、距離画像センサ21により撮影された現在位置での撮影画像に移動することが可能な移動物体が検出されたと判定することなく、図10のS502へ進む。   If all the dispersion values of the three primary colors (red (R), green (G), and blue (B)) of the specific pixel are equal to or greater than the threshold, the determination in S6106 is NO, and the distance image The process proceeds to S502 in FIG. 10 without determining that a moving object capable of moving to the captured image at the current position captured by the sensor 21 has been detected.

図10のS502では、移動物体を回避して計画上の予定位置を算出する。ここでは、まず、3次元地物図に存在せずに、距離画像センサ21より入力される撮影画像に含まれる被写体を移動物体として認識し、この移動物体との相対距離を距離画像センサ21より入力される測距データ基づいて算出し、移動物体を回避するように搭載車両の走行予定位置を算出する。例えば、図12に示すように、走行先の車線の路肩に駐車車両Aが停車しており、この駐車車両Aが移動物体として認識されている場合には、図中の矢印Bに示すように、この駐車車両Aを回避するように搭載車両の走行予定位置を算出する。   In S502 of FIG. 10, the planned position is calculated while avoiding the moving object. Here, first, a subject included in a captured image input from the distance image sensor 21 that does not exist in the three-dimensional feature map is recognized as a moving object, and a relative distance from the moving object is determined from the distance image sensor 21. Calculation is performed based on the input distance measurement data, and the planned travel position of the mounted vehicle is calculated so as to avoid moving objects. For example, as shown in FIG. 12, when the parked vehicle A is stopped on the shoulder of the lane of the destination and this parked vehicle A is recognized as a moving object, as shown by the arrow B in the figure. The planned travel position of the mounted vehicle is calculated so as to avoid this parked vehicle A.

次に、S502にて算出した搭載車両の走行予定位置と実際の搭載車両の位置の差異(誤差量)を算出する(S504)。   Next, the difference (error amount) between the planned travel position of the mounted vehicle calculated in S502 and the actual position of the mounted vehicle is calculated (S504).

次に、搭載車両の走行予定位置と実際の搭載車両の位置の差異が小さくなるように、車両駆動制御部30に指示する(S506)。具体的には、ブレーキECU、ステアリングECUおよびエンジンECUに対して搭載車両の走行予定位置と実際の搭載車両の位置の差異が小さくなるように指示する信号を出力する。   Next, the vehicle drive control unit 30 is instructed to reduce the difference between the planned travel position of the mounted vehicle and the actual position of the mounted vehicle (S506). Specifically, a signal that instructs the brake ECU, the steering ECU, and the engine ECU to reduce the difference between the planned travel position of the mounted vehicle and the actual position of the mounted vehicle is output.

次に、誤差量が予め定められた判定値以上か否かを判定する(S508)。ここで、誤差量が判定値よりも大きい場合、S508の判定はNOとなり、S502へ戻る。したがって、車両駆動制御部30への指示が継続される。   Next, it is determined whether or not the error amount is greater than or equal to a predetermined determination value (S508). If the error amount is larger than the determination value, the determination in S508 is NO and the process returns to S502. Therefore, the instruction to the vehicle drive control unit 30 is continued.

そして、誤差量が判定値以下になると、次に、搭載車両が目的地周辺の一定領域に進入したか否かに基づいて搭載車両が目的地に到着したか否かを判定する(S510)。   If the error amount is equal to or smaller than the determination value, it is next determined whether the mounted vehicle has arrived at the destination based on whether the mounted vehicle has entered a certain area around the destination (S510).

ここで、搭載車両が目的地周辺の一定領域に進入していない場合、S510の判定はNOとなり、S600へ戻る。また、搭載車両が目的地周辺の一定領域に進入すると、S510の判定はYESとなり、本処理を終了する。   Here, when the mounted vehicle has not entered the fixed area around the destination, the determination in S510 is NO and the process returns to S600. Further, when the mounted vehicle enters a certain area around the destination, the determination in S510 is YES, and this process is terminated.

上記した構成によれば、記憶媒体に蓄積記憶させたプローブデータから、同一地点より同一の場所を撮影した撮影画像を含む複数のプローブデータを抽出し、当該同一の場所を撮影した撮影画像の特定画素の画素データの分散値に基づいて、移動することが可能な移動物体を含まない撮影画像を特定し、当該移動物体を含まない撮影画像を含むプローブデータを地図データ生成用データとして登録し、地図データ生成用データに登録されたプローブデータに基づいて撮影画像に含まれる被写体の各領域の絶対位置を算出して移動物体を含まない3次元の地物図データが生成される。すなわち、移動物体を含まない3次元地図データを生成することができる。   According to the configuration described above, a plurality of probe data including a photographed image obtained by photographing the same place from the same spot is extracted from the probe data stored and stored in the storage medium, and the photographed image obtained by photographing the same place is specified. Based on a dispersion value of pixel data of pixels, a captured image that does not include a movable object that can move is specified, and probe data that includes a captured image that does not include the moving object is registered as map data generation data. Based on the probe data registered in the map data generation data, the absolute position of each area of the subject included in the captured image is calculated to generate three-dimensional feature map data that does not include a moving object. That is, it is possible to generate 3D map data that does not include a moving object.

また、記憶媒体に蓄積記憶させたプローブデータに含まれる撮影画像の視点移動を行って同一地点より同一の場所を撮影した複数の撮影画像を含むプローブデータが抽出されるので、撮影した位置に多少ずれがあっても、同一地点より同一の場所を撮影した撮影画像を含むプローブデータとして抽出することができる。   In addition, since the viewpoint data of the captured image included in the probe data stored and stored in the storage medium is moved to extract the probe data including a plurality of captured images obtained by capturing the same location from the same location, the captured data is somewhat at the captured position. Even if there is a discrepancy, it can be extracted as probe data including a photographed image obtained by photographing the same place from the same spot.

また、地図データ生成装置により生成された3次元の地物図データを記憶した記憶媒体から撮影手段により撮影された撮影画像と同じ場所の地物図データを取得し、撮影手段により撮影された撮影画像と、地物図データに基づく地物図の特定画素の画素データの分散値に基づいて、移動することが可能な移動物体を検出し、検出した移動物体を回避するように搭載車両の走行支援が行われる。すなわち、移動物体を含まない3次元地図データを用いて移動物体を回避するように搭載車両の走行支援を行うことができる。   In addition, the feature map data at the same place as the photographed image taken by the photographing means is acquired from the storage medium storing the three-dimensional feature map data generated by the map data generating device, and the photograph taken by the photographing means is taken. Based on the image and the variance value of the pixel data of the specific pixel of the feature map based on the feature map data, the movable vehicle is detected so as to avoid the detected moving object. Support is provided. That is, it is possible to perform the travel assistance of the mounted vehicle so as to avoid the moving object using the three-dimensional map data not including the moving object.

また、3次元の地物図データにより特定される搭載車両周辺の地物図と撮影手段により撮影された撮影画像との誤差量が閾値未満となるように撮影手段により撮影された撮影画像の視点を移動させ、この視点の位置を現在位置とするように現在位置特定手段により特定された搭載車両の現在位置を補正することにより、搭載車両の現在位置を精度良く特定することができる。   In addition, the viewpoint of the photographed image taken by the photographing means so that the error amount between the feature map around the mounted vehicle specified by the three-dimensional feature map data and the photographed image photographed by the photographing means is less than the threshold value. , And the current position of the mounted vehicle specified by the current position specifying means is corrected so that the position of this viewpoint is the current position, so that the current position of the mounted vehicle can be specified with high accuracy.

なお、本発明は上記実施形態に限定されるものではなく、本発明の趣旨に基づいて種々なる形態で実施することができる。   In addition, this invention is not limited to the said embodiment, Based on the meaning of this invention, it can implement with a various form.

例えば、上記実施形態では、データ収集装置を搭載した不特定多数の車両と通信を行い、データ収集装置により収集された情報を用いて地図データを生成する構成を示したが、必ずしも通信を介してデータ収集装置により収集された情報を取得しなくてもよく、例えば、メモリカード等の記憶媒体を介してデータ収集装置により収集された情報を取得するように構成してもよい。   For example, in the above-described embodiment, a configuration has been described in which communication is performed with an unspecified number of vehicles equipped with a data collection device, and map data is generated using information collected by the data collection device. The information collected by the data collection device may not be acquired. For example, the information collected by the data collection device may be acquired via a storage medium such as a memory card.

また、上記実施形態では、地図データ生成装置10が、プローブデータを受信したときに、受信したプローブデータに含まれる撮影画像と同一の場所で撮影した複数の撮影画像を含むプローブデータを記憶媒体から抽出し、当該同一の場所を撮影した複数の撮影画像の領域毎の画素データの分散値に基づいて、移動することが可能な移動物体が含まれない撮影画像を特定し、当該移動物体が含まれない撮影画像を含むプローブデータを地図データ生成用データとして登録する構成を示したが、上記したようなプローブデータを受信したタイミング以外のタイミングで上記処理を実施してもよい。   Moreover, in the said embodiment, when the map data generation apparatus 10 receives probe data, the probe data containing the some picked-up image image | photographed in the same place as the picked-up image contained in the received probe data from a storage medium. Based on the variance value of the pixel data for each area of the plurality of photographed images extracted and photographed at the same place, a photographed image that does not include a movable object that can be moved is identified, and the movable object is included Although a configuration has been shown in which probe data including an uncaptured captured image is registered as map data generation data, the above-described processing may be performed at a timing other than the timing at which probe data is received.

また、上記実施形態では、画素データとして色情報毎の分散値を算出したが、画素データとして輝度情報の分散値を算出するようにしてもよく、色情報と輝度情報の両方の分散値を算出するようにしてもよい。   In the above embodiment, the variance value for each color information is calculated as the pixel data. However, the variance value of the luminance information may be calculated as the pixel data, and the variance values of both the color information and the luminance information are calculated. You may make it do.

また、上記実施形態では、S308にて、受信したプローブデータに含まれる撮影画像をテンプレートとして、S306にて読み出した各撮影画像に対する相互相関係数を算出したが、相互相関係数の算出は、このような手法に限定されるものではない。   In the above embodiment, the cross-correlation coefficient for each captured image read in S306 is calculated in S308 using the captured image included in the received probe data as a template. It is not limited to such a method.

また、上記実施形態では、地図データ生成装置10により、移動することが可能な移動物体を含まない3次元の地物図データを生成する例について説明したが、移動物体を含まない3次元の地物図データから2次元の地物図データを生成するようにしてもよい。   In the above-described embodiment, the example in which the map data generation device 10 generates the three-dimensional feature map data that does not include the movable object that can move is described. However, the three-dimensional ground map that does not include the moving object has been described. Two-dimensional feature map data may be generated from the map data.

なお、上記実施形態における構成と特許請求の範囲の構成との対応関係について説明すると、S200、S302が記憶処理手段に相当し、S304〜S318が地図データ生成用データ登録手段に相当し、S202が地物図データ生成手段に相当し、距離画像センサ21が撮影手段に相当し、S602が地物図データ取得手段に相当し、S614〜S618が移動物体検出手段に相当し、S502〜S510が走行支援手段に相当し、位置検出装置22より入力される現在位置を特定するための情報に基づいて搭載車両の現在位置を特定する処理が現在位置特定手段に相当し、S606〜S610が視点移動手段に相当し、S610の視点移動により、画像全体での相互相関係数が閾値以上となった場合、この視点の位置を現在位置とするように、搭載車両の現在位置を補正する処理が現在位置補正手段に相当する。   The correspondence relationship between the configuration in the above embodiment and the configuration of the claims will be described. S200 and S302 correspond to storage processing means, S304 to S318 correspond to map data generation data registration means, and S202. The distance map sensor 21 corresponds to the feature map data generation means, the distance image sensor 21 corresponds to the photographing means, S602 corresponds to the feature map data acquisition means, S614 to S618 correspond to the moving object detection means, and S502 to S510 travel. The processing for specifying the current position of the mounted vehicle based on the information for specifying the current position input from the position detection device 22 corresponds to the current position specifying means. S606 to S610 are viewpoint moving means. If the cross-correlation coefficient of the entire image is equal to or greater than the threshold due to the viewpoint movement in S610, the position of this viewpoint is set as the current position. Sea urchin, processing for correcting the current position of the equipped vehicle corresponding to the current position correction means.

1 情報センタ
2 プローブ車
10 地図データ生成装置
11 地図データベース
12 通信部
13 制御部
20 車載装置
21 距離画像センサ
22 位置検出装置
23 地図データ記憶部
24 通信部
25 制御部
30 車両駆動制御部
DESCRIPTION OF SYMBOLS 1 Information center 2 Probe vehicle 10 Map data generation apparatus 11 Map database 12 Communication part 13 Control part 20 Car-mounted apparatus 21 Distance image sensor 22 Position detection apparatus 23 Map data storage part 24 Communication part 25 Control part 30 Vehicle drive control part

Claims (5)

データ収集装置を搭載した複数の車両から前記データ収集装置により収集された情報を取得し、当該取得した情報を用いて地図データを生成する地図データ生成装置であって、
前記データ収集装置は、搭載車両の周辺を撮影した撮影画像を表す画像データと、当該撮影画像の被写体の各部との距離を特定するための測距データと、前記搭載車両の位置および向きを特定するための測位データとを関連付けしたプローブデータを収集するようになっており、
前記データ収集装置により収集された前記プローブデータを受信すると、当該受信したプローブデータを記憶媒体に蓄積記憶させる記憶処理手段と、
前記記憶媒体に蓄積記憶させた前記プローブデータから、同一地点より同一の場所を撮影した撮影画像を含む複数のプローブデータを抽出し、当該同一地点より同一の場所を撮影した撮影画像の特定画素の画素データの分散値に基づいて、移動することが可能な移動物体を含まない撮影画像を特定し、当該移動物体を含まない撮影画像を含むプローブデータを地図データ生成用データとして登録する地図データ生成用データ登録手段と、
前記地図データ生成用データに登録された前記プローブデータに基づいて前記撮影画像に含まれる被写体の各領域の絶対位置を算出して前記移動物体を含まない3次元の地物図データを生成する地物図データ生成手段と、を備えたことを特徴とする地図データ生成装置。
A map data generation device that acquires information collected by the data collection device from a plurality of vehicles equipped with a data collection device, and generates map data using the acquired information,
The data collection device specifies image data representing a photographed image obtained by photographing the periphery of the mounted vehicle, distance measurement data for identifying the distance between each part of the subject of the photographed image, and the position and orientation of the mounted vehicle. To collect probe data in association with positioning data for
When receiving the probe data collected by the data collection device, storage processing means for accumulating and storing the received probe data in a storage medium;
From the probe data stored and stored in the storage medium, a plurality of probe data including a photographed image obtained by photographing the same place from the same spot is extracted, and specific pixels of the photographed image obtained by photographing the same place from the same spot are extracted. Map data generation that identifies a captured image that does not include a movable object that can move based on the variance of pixel data, and registers probe data that includes the captured image that does not include the moving object as map data generation data Data registration means,
A ground for generating three-dimensional feature map data not including the moving object by calculating the absolute position of each area of the subject included in the captured image based on the probe data registered in the map data generation data A map data generation device comprising: a drawing data generation unit;
前記地図データ生成用データ登録手段は、前記記憶媒体に蓄積記憶させた前記プローブデータに含まれる撮影画像の視点移動を行って前記同一地点より同一の場所を撮影した複数の撮影画像を含むプローブデータを抽出することを特徴とする請求項1に記載の地図データ生成装置。   The map data generation data registration means includes probe data including a plurality of photographed images obtained by photographing the same place from the same spot by moving the viewpoint of the photographed image contained in the probe data stored and stored in the storage medium. The map data generation device according to claim 1, wherein the map data generation device is extracted. 前記画素データは、色データと輝度データの少なくとも一方であることを特徴とする請求項1または2に記載の地図データ生成装置。   The map data generation apparatus according to claim 1, wherein the pixel data is at least one of color data and luminance data. 車両周辺を撮影する撮影手段と、
請求項1に記載された地図データ生成装置により生成された3次元の地物図データを記憶した記憶媒体から前記撮影手段により撮影された撮影画像と同じ場所の地物図データを取得する地物図データ取得手段と、
前記撮影手段により撮影された撮影画像と前記地物図データ取得手段により取得された前記地物図データに基づく地物図の特定画素の画素データの分散値に基づいて、移動することが可能な移動物体を検出する移動物体検出手段と、
前記移動物体検出手段により検出された前記移動物体を回避するように搭載車両の走行支援を行う走行支援手段と、を備えたことを特徴とする走行支援装置。
Photographing means for photographing the periphery of the vehicle;
A feature for acquiring feature map data at the same location as a photographed image photographed by the photographing means from a storage medium storing three-dimensional feature map data generated by the map data generating device according to claim 1 Figure data acquisition means;
It is possible to move based on a variance value of pixel data of specific pixels of a feature map based on a photographed image photographed by the photographing means and the feature map data obtained by the feature map data obtaining means. Moving object detection means for detecting a moving object;
A travel support device, comprising: travel support means for supporting travel of the mounted vehicle so as to avoid the moving object detected by the moving object detection means.
前記搭載車両の現在位置を特定する現在位置特定手段と、
前記現在位置特定手段により特定された前記搭載車両の現在位置に基づいて搭載車両の周辺の前記3次元の地物図データを取得し、当該3次元の地物図データにより特定される搭載車両周辺の地物図と前記撮影手段により撮影された撮影画像との誤差量が閾値未満となるように前記撮影手段により撮影された撮影画像の視点を移動させる視点移動手段と、
前記視点移動手段により移動された視点の位置を現在位置とするように前記搭載車両の現在位置を補正する現在位置補正手段と、を備えたことを特徴とする請求項4に記載の走行支援装置。
Current position specifying means for specifying the current position of the mounted vehicle;
Based on the current position of the mounted vehicle specified by the current position specifying means, the three-dimensional feature map data around the mounted vehicle is acquired, and the mounted vehicle periphery specified by the three-dimensional feature map data Viewpoint moving means for moving the viewpoint of the photographed image photographed by the photographing means so that an error amount between the feature map of the feature image and the photographed image photographed by the photographing means is less than a threshold value;
The travel support apparatus according to claim 4, further comprising: a current position correcting unit that corrects a current position of the mounted vehicle so that a position of the viewpoint moved by the viewpoint moving unit is a current position. .
JP2011016472A 2011-01-28 2011-01-28 Map data generation device and driving support device Expired - Fee Related JP5472142B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011016472A JP5472142B2 (en) 2011-01-28 2011-01-28 Map data generation device and driving support device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011016472A JP5472142B2 (en) 2011-01-28 2011-01-28 Map data generation device and driving support device

Publications (2)

Publication Number Publication Date
JP2012155660A true JP2012155660A (en) 2012-08-16
JP5472142B2 JP5472142B2 (en) 2014-04-16

Family

ID=46837291

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011016472A Expired - Fee Related JP5472142B2 (en) 2011-01-28 2011-01-28 Map data generation device and driving support device

Country Status (1)

Country Link
JP (1) JP5472142B2 (en)

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016031229A1 (en) * 2014-08-27 2016-03-03 パナソニックIpマネジメント株式会社 Road map creation system, data processing device, and on-board device
JP2017090239A (en) * 2015-11-10 2017-05-25 パイオニア株式会社 Information processing device, control method, program, and storage media
WO2018142852A1 (en) * 2017-01-31 2018-08-09 富士通株式会社 Movement assistance system, movement assistance device, movement assistance terminal, movement assistance method, map generating system, map generating device, and information acquisition terminal
JP2018173707A (en) * 2017-03-31 2018-11-08 株式会社国際電気通信基礎技術研究所 Person estimation system and estimation program
WO2018221454A1 (en) * 2017-05-31 2018-12-06 パイオニア株式会社 Map generation device, control method, program, and storage medium
US10302439B2 (en) 2015-02-27 2019-05-28 Denso Corporation Driving assistance apparatus and mounting apparatus
KR20190082071A (en) * 2017-12-29 2019-07-09 바이두 온라인 네트웍 테크놀러지 (베이징) 캄파니 리미티드 Method, apparatus, and computer readable storage medium for updating electronic map
JP2019128309A (en) * 2018-01-26 2019-08-01 アルパイン株式会社 Information processing device, own vehicle location calculation system and vehicle
JP2019169042A (en) * 2018-03-26 2019-10-03 株式会社デンソーテン Viewpoint switching device and viewpoint switching method
WO2020027142A1 (en) * 2018-08-03 2020-02-06 株式会社デンソー Movement space information processing system, movement space information processing method, and communication device
JP2020024693A (en) * 2018-08-03 2020-02-13 株式会社Soken Moving space information processing system, moving space information processing method, and communication device
JP2020034847A (en) * 2018-08-31 2020-03-05 株式会社デンソー Map generation device and map generation program
JP2020061048A (en) * 2018-10-12 2020-04-16 パイオニア株式会社 Information processing device
JP2020073931A (en) * 2020-02-05 2020-05-14 パイオニア株式会社 Information processing device, control method, program, and storage media
WO2020255628A1 (en) * 2019-06-20 2020-12-24 矢崎総業株式会社 Image processing device, and image processing program
JPWO2020075821A1 (en) * 2018-10-12 2021-09-02 三菱電機株式会社 Information processing device, information processing program, information processing method, charge calculation system, program stop device and use stop program

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002251618A (en) * 2001-02-23 2002-09-06 Pasuko:Kk Image map, device and method for producing the same
JP2008002967A (en) * 2006-06-22 2008-01-10 Mazda Motor Corp Driving support system

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002251618A (en) * 2001-02-23 2002-09-06 Pasuko:Kk Image map, device and method for producing the same
JP2008002967A (en) * 2006-06-22 2008-01-10 Mazda Motor Corp Driving support system

Cited By (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016031229A1 (en) * 2014-08-27 2016-03-03 パナソニックIpマネジメント株式会社 Road map creation system, data processing device, and on-board device
US10302439B2 (en) 2015-02-27 2019-05-28 Denso Corporation Driving assistance apparatus and mounting apparatus
JP2017090239A (en) * 2015-11-10 2017-05-25 パイオニア株式会社 Information processing device, control method, program, and storage media
WO2018142852A1 (en) * 2017-01-31 2018-08-09 富士通株式会社 Movement assistance system, movement assistance device, movement assistance terminal, movement assistance method, map generating system, map generating device, and information acquisition terminal
JP2018124416A (en) * 2017-01-31 2018-08-09 富士通株式会社 Movement assist system, movement assist device, movement assist terminal, movement assist method, map creation system, map creation device, and information acquisition terminal
EP3579214A4 (en) * 2017-01-31 2020-09-09 Fujitsu Limited Movement assistance system, movement assistance device, movement assistance terminal, movement assistance method, map generating system, map generating device, and information acquisition terminal
JP2018173707A (en) * 2017-03-31 2018-11-08 株式会社国際電気通信基礎技術研究所 Person estimation system and estimation program
WO2018221454A1 (en) * 2017-05-31 2018-12-06 パイオニア株式会社 Map generation device, control method, program, and storage medium
US11635304B2 (en) 2017-05-31 2023-04-25 Pioneer Corporation Map generation device, control method, program and storage medium
JPWO2018221454A1 (en) * 2017-05-31 2020-04-09 パイオニア株式会社 Map creation device, control method, program, and storage medium
KR20190082071A (en) * 2017-12-29 2019-07-09 바이두 온라인 네트웍 테크놀러지 (베이징) 캄파니 리미티드 Method, apparatus, and computer readable storage medium for updating electronic map
JP2019144538A (en) * 2017-12-29 2019-08-29 バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド Method of updating electronic map, device thereof, and computer-readable storage medium thereof
JP7186607B2 (en) 2017-12-29 2022-12-09 アポロ インテリジェント ドライビング テクノロジー(ペキン)カンパニー リミテッド Method, apparatus and computer readable storage medium for updating electronic maps
KR102338270B1 (en) * 2017-12-29 2021-12-30 아폴로 인텔리전트 드라이빙 테크놀로지(베이징) 컴퍼니 리미티드 Method, apparatus, and computer readable storage medium for updating electronic map
US11105638B2 (en) 2017-12-29 2021-08-31 Baidu Online Network Technology (Beijing) Co., Ltd. Method, apparatus, and computer readable storage medium for updating electronic map
KR102273559B1 (en) * 2017-12-29 2021-07-05 바이두 온라인 네트웍 테크놀러지 (베이징) 캄파니 리미티드 Method, apparatus, and computer readable storage medium for updating electronic map
KR20200121274A (en) * 2017-12-29 2020-10-23 바이두 온라인 네트웍 테크놀러지 (베이징) 캄파니 리미티드 Method, apparatus, and computer readable storage medium for updating electronic map
JP2019128309A (en) * 2018-01-26 2019-08-01 アルパイン株式会社 Information processing device, own vehicle location calculation system and vehicle
JP7034741B2 (en) 2018-01-26 2022-03-14 アルパイン株式会社 Information processing device, own vehicle position calculation system and vehicle
JP2019169042A (en) * 2018-03-26 2019-10-03 株式会社デンソーテン Viewpoint switching device and viewpoint switching method
JP2020024693A (en) * 2018-08-03 2020-02-13 株式会社Soken Moving space information processing system, moving space information processing method, and communication device
WO2020027142A1 (en) * 2018-08-03 2020-02-06 株式会社デンソー Movement space information processing system, movement space information processing method, and communication device
JP7157018B2 (en) 2018-08-03 2022-10-19 株式会社Soken Mobile space information processing system, mobile space information processing method, and communication device
CN112655035A (en) * 2018-08-31 2021-04-13 株式会社电装 Map generation device and map generation program
JP2020034847A (en) * 2018-08-31 2020-03-05 株式会社デンソー Map generation device and map generation program
WO2020045231A1 (en) * 2018-08-31 2020-03-05 株式会社デンソー Map generation device and map generation program
JP7127436B2 (en) 2018-08-31 2022-08-30 株式会社デンソー Map generation device and map generation program
JPWO2020075821A1 (en) * 2018-10-12 2021-09-02 三菱電機株式会社 Information processing device, information processing program, information processing method, charge calculation system, program stop device and use stop program
JP7126558B2 (en) 2018-10-12 2022-08-26 三菱電機株式会社 Information processing device, information processing program, information processing method, fee calculation system, program suspension device, and use suspension program
US11521246B2 (en) 2018-10-12 2022-12-06 Mitsubishi Electric Corporation Mobile mapping system-related information processing device, fee calculation system, and program stop device
JP2020061048A (en) * 2018-10-12 2020-04-16 パイオニア株式会社 Information processing device
JP2021002162A (en) * 2019-06-20 2021-01-07 矢崎総業株式会社 Image processing apparatus and program for image processing
WO2020255628A1 (en) * 2019-06-20 2020-12-24 矢崎総業株式会社 Image processing device, and image processing program
JP2020073931A (en) * 2020-02-05 2020-05-14 パイオニア株式会社 Information processing device, control method, program, and storage media
JP2022066276A (en) * 2020-02-05 2022-04-28 ジオテクノロジーズ株式会社 Information processing device, control method, program, and storage media

Also Published As

Publication number Publication date
JP5472142B2 (en) 2014-04-16

Similar Documents

Publication Publication Date Title
JP5472142B2 (en) Map data generation device and driving support device
CN111436216B (en) Method and system for color point cloud generation
JP4600357B2 (en) Positioning device
JP5762483B2 (en) Processor unit mounted on front vehicle and processor unit mounted on following vehicle
JP5901779B2 (en) How to move data from image database map service into assist system
JP5057184B2 (en) Image processing system and vehicle control system
US20200353914A1 (en) In-vehicle processing device and movement support system
CN102208036A (en) Vehicle position detection system
JP6070206B2 (en) Position coordinate conversion system, position coordinate conversion method, in-vehicle device, world coordinate measuring device, and position coordinate conversion program
JP4946238B2 (en) Vehicle periphery photographing transmission device and vehicle periphery photographing transmission program
JP2012127896A (en) Mobile object position measurement device
KR101261409B1 (en) System for recognizing road markings of image
JP2012185011A (en) Mobile position measuring apparatus
JP2014096135A (en) Moving surface boundary recognition device, mobile equipment control system using the same, moving surface boundary recognition method, and program for recognizing moving surface boundary
JP2022016908A (en) Overhead image generation device, overhead image generation system and automatic parking device
JP6278791B2 (en) Vehicle position detection device, vehicle position detection method, vehicle position detection computer program, and vehicle position detection system
JP2011170599A (en) Outdoor structure measuring instrument and outdoor structure measuring method
JP2010237810A (en) System and method for detecting moving object
CN111353453A (en) Obstacle detection method and apparatus for vehicle
JP2019533875A (en) Method and system for generating a composite top view image of a road
WO2016031229A1 (en) Road map creation system, data processing device, and on-board device
JP6723744B2 (en) Navigation information providing system and navigation information providing device
US20210080264A1 (en) Estimation device, estimation method, and computer program product
JP2011053024A (en) Elevated-road identifying device, method of identifying elevated road, and elevated-road identification program
JP2008185506A (en) Apparatus and method for navigation, and automobile

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130308

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131219

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140107

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140120

R151 Written notification of patent or utility model registration

Ref document number: 5472142

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees