JP7115869B2 - Map generation system - Google Patents

Map generation system Download PDF

Info

Publication number
JP7115869B2
JP7115869B2 JP2018031005A JP2018031005A JP7115869B2 JP 7115869 B2 JP7115869 B2 JP 7115869B2 JP 2018031005 A JP2018031005 A JP 2018031005A JP 2018031005 A JP2018031005 A JP 2018031005A JP 7115869 B2 JP7115869 B2 JP 7115869B2
Authority
JP
Japan
Prior art keywords
image
vehicle
road surface
unit
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018031005A
Other languages
Japanese (ja)
Other versions
JP2019144501A (en
Inventor
諒 五十嵐
佳佑 保海
和彦 上門
展秀 鎌田
邦博 後藤
清澄 城殿
貴志 内藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Toyota Central R&D Labs Inc
Original Assignee
Toyota Motor Corp
Toyota Central R&D Labs Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp, Toyota Central R&D Labs Inc filed Critical Toyota Motor Corp
Priority to JP2018031005A priority Critical patent/JP7115869B2/en
Publication of JP2019144501A publication Critical patent/JP2019144501A/en
Application granted granted Critical
Publication of JP7115869B2 publication Critical patent/JP7115869B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、地図生成システムに関する。 The present invention relates to map generation systems.

例えば、特許文献1には、車両に搭載された撮像部によって撮像された画像に基づいて、地図生成装置側において地図を生成するシステムが記載されている。より詳細には、車載装置は、撮像部で撮影した画像と車両の走行軌跡とを、地図生成装置に送信する。地図生成装置は、受信した走行軌跡に沿って画像を貼り付けることにより地図を生成する。 For example, Patent Literature 1 describes a system in which a map generation device side generates a map based on an image captured by an imaging unit mounted on a vehicle. More specifically, the in-vehicle device transmits the image captured by the imaging unit and the travel locus of the vehicle to the map generation device. The map generation device generates a map by pasting images along the received travel locus.

特開2009-237901号公報JP-A-2009-237901

上記のシステムにおいて撮像部は、動画を撮影する際に、一定の周期(フレームレート)で画像を撮像している。このような画像に基づいて地図を生成する場合、例えば、車両の速度によっては、画像を貼り付けたときに隙間が生じたり、画像中の大部分が重複した複数の冗長な画像が地図生成装置に送信されたりする。このため、本技術分野では、撮像部で撮像された画像を車載装置から地図生成装置へ効率よく送信することが求められている。 In the above system, the imaging unit captures images at a constant cycle (frame rate) when capturing moving images. When generating a map based on such images, for example, depending on the speed of the vehicle, gaps may occur when the images are pasted together, or multiple redundant images with most of the images overlapping may be generated by the map generating apparatus. or sent to Therefore, in this technical field, there is a demand for efficient transmission of an image captured by an imaging unit from an in-vehicle device to a map generation device.

本発明に係る地図生成システムは、車両に搭載され、車両の周囲を撮像する車載装置と、車載装置で撮像された画像に基づいて地図を生成する地図生成装置と、を備える地図生成システムであって、車載装置は、車両の周囲を所定の撮像周期で撮像する撮像部と、車両の走行状況を取得する走行状況取得部と、車両の走行軌跡を認識する軌跡認識部と、走行状況に基づいて、撮像部で撮像された画像の抽出条件を設定する条件設定部と、撮像部で撮像された画像のうち、抽出条件を満たす画像を抽出する画像抽出部と、走行軌跡及び抽出された画像を、通信により地図生成装置に送信する送信部と、を備え、地図生成装置は、送信部から送信された走行軌跡及び画像を、通信により受信する受信部と、受信された走行軌跡及び画像に基づいて、地図を生成する地図生成部と、を備える。 A map generation system according to the present invention is a map generation system that includes an in-vehicle device that is mounted on a vehicle and that captures an image of the surroundings of the vehicle, and a map generation device that generates a map based on the image captured by the in-vehicle device. The in-vehicle device includes an imaging unit that captures images of the surroundings of the vehicle at a predetermined imaging cycle, a driving condition acquisition unit that acquires the driving conditions of the vehicle, a trajectory recognition unit that recognizes the driving trajectory of the vehicle, and a condition setting unit for setting extraction conditions for images captured by the imaging unit; an image extraction unit for extracting images satisfying the extraction conditions from the images captured by the imaging unit; to the map generating device through communication, the map generating device includes a receiving unit that receives the traveling locus and the image transmitted from the transmitting unit through communication, and the received traveling locus and the image: and a map generator for generating a map based on the map.

本発明によれば、撮像部で撮像された画像を車載装置から地図生成装置へ効率よく送信できる。 According to the present invention, an image captured by an imaging unit can be efficiently transmitted from an in-vehicle device to a map generation device.

第1実施形態に係る地図生成システムの概略構成を示す図である。1 is a diagram showing a schematic configuration of a map generation system according to a first embodiment; FIG. 図2(a)は、カメラ画像及び路面相当領域を示す図である。図2(b)は、路面切出画像を示す図である。図2(c)は、路面画像を示す図である。図2(d)は、路面オルソ画像を示す図である。FIG. 2(a) is a diagram showing a camera image and a road surface equivalent area. FIG. 2(b) is a diagram showing a cut-out image of a road surface. FIG. 2(c) is a diagram showing a road surface image. FIG. 2(d) is a diagram showing a road surface orthoimage. 図3(a)及び図3(b)は、車両の速度による路面画像の重なりを示す図である。FIGS. 3(a) and 3(b) are diagrams showing the overlap of road surface images depending on the speed of the vehicle. 重複率の変化を示すグラフである。It is a graph which shows the change of an overlap rate. 車載装置において行われる画像の送信処理の流れを示すフローチャートである。4 is a flow chart showing the flow of image transmission processing performed in an in-vehicle device. 第2実施形態に係る地図生成システムの概略構成を示す図である。It is a figure which shows schematic structure of the map generation system which concerns on 2nd Embodiment. 車載装置において行われる画像の送信処理の流れを示すフローチャートである。4 is a flow chart showing the flow of image transmission processing performed in an in-vehicle device. 変更された露光パターンを示す図である。FIG. 10 is a diagram showing a modified exposure pattern; 第3実施形態に係る地図生成システムの概略構成を示す図である。FIG. 11 is a diagram showing a schematic configuration of a map generation system according to a third embodiment; FIG. 車載装置において行われる画像の送信処理の流れを示すフローチャートである。4 is a flow chart showing the flow of image transmission processing performed in an in-vehicle device. 第4実施形態に係る地図生成システムの概略構成を示す図である。FIG. 12 is a diagram showing a schematic configuration of a map generation system according to a fourth embodiment; FIG. 路面画像を貼り付けて路面オルソ画像を生成する様子を示す図である。FIG. 10 is a diagram showing how a road surface image is pasted to generate a road surface orthoimage. 車載装置において行われる画像の送信処理の流れを示すフローチャートである。4 is a flow chart showing the flow of image transmission processing performed in an in-vehicle device.

以下、本発明の実施形態について図面を参照しながら説明する。なお、図面の説明において同一の要素には同一の符号を付し、重複する説明を省略する。 BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the description of the drawings, the same elements are denoted by the same reference numerals, and redundant description is omitted.

(第1実施形態)
地図生成システムの第1実施形態について説明する。図1に示される地図生成システム1は、車両Vに搭載されたカメラ101で撮像された画像(以下「カメラ画像」と称する)に基づいて、地図を生成するシステムである。地図生成システム1は、車載装置100、及び地図生成装置200を備えている。
(First embodiment)
A first embodiment of the map generation system will be described. A map generation system 1 shown in FIG. 1 is a system that generates a map based on an image captured by a camera 101 mounted on a vehicle V (hereinafter referred to as a “camera image”). The map generation system 1 includes an in-vehicle device 100 and a map generation device 200 .

ここで、地図生成システム1で行われる地図の生成処理の概要について説明する。車載装置100は、図2(a)に示されるカメラ101で撮像されたカメラ画像Aから、図2(b)に示されるように走行路Lの路面を含む路面切出画像Cを切り出す。地図生成装置200は、車載装置100から路面切出画像Cを受信すると、図2(c)に示されるように、路面切出画像Cに対して鳥瞰変換を行って路面画像Dを生成する。地図生成装置200は、図2(d)に示されるように、路面画像Dを順次貼り付けることによって、地図としての路面オルソ画像Eを生成する。以下、地図生成システム1の各部の構成について詳細に説明する。 Here, an overview of the map generation processing performed by the map generation system 1 will be described. The in-vehicle device 100 cuts out a road surface clipped image C including the road surface of the travel path L as shown in FIG. 2(b) from the camera image A captured by the camera 101 shown in FIG. 2(a). When receiving the road surface cutout image C from the in-vehicle device 100, the map generation device 200 performs bird's eye conversion on the road surface cutout image C to generate a road surface image D as shown in FIG. 2(c). The map generating device 200 generates a road surface orthoimage E as a map by pasting the road surface images D in sequence, as shown in FIG. 2(d). The configuration of each part of the map generation system 1 will be described in detail below.

(車載装置の詳細)
車載装置100は、車両Vに搭載されている。車載装置100は、カメラ(撮像部)101、車両センサ(走行状況取得部)102、GPS受信部103、ECU104、及び送信部105を備えている。
(details of in-vehicle equipment)
The in-vehicle device 100 is mounted in a vehicle V. As shown in FIG. The in-vehicle device 100 includes a camera (imaging unit) 101 , a vehicle sensor (driving condition acquisition unit) 102 , a GPS receiving unit 103 , an ECU 104 and a transmitting unit 105 .

カメラ101は、車両Vの外部環境を撮像する撮像機器である。カメラ101は、車両Vのフロントガラスの内側に設けられている。カメラ101は、所定の撮像周期(フレームレート)で車両Vの前方を撮像する。また、カメラ101は、車両Vが走行する走行路の路面を含むように車両Vの前方を撮像する。カメラ101は、撮像したカメラ画像を、ECU104へ出力する。 The camera 101 is imaging equipment that captures an image of the external environment of the vehicle V. As shown in FIG. The camera 101 is provided inside the windshield of the vehicle V. As shown in FIG. The camera 101 images the front of the vehicle V at a predetermined imaging cycle (frame rate). In addition, the camera 101 captures an image of the front of the vehicle V so as to include the road surface of the road on which the vehicle V travels. The camera 101 outputs the captured camera image to the ECU 104 .

車両センサ102は、車両Vの走行状況を取得するセンサである。本実施形態において、車両センサ102は、走行状況として車両Vの速度を検出する。すなわち、車両センサ102は、車両Vの速度を検出する車速センサを含む。車速センサとしては、例えば、車両Vの車輪又は車輪と一体に回転するドライブシャフト等に対して設けられ、車輪の回転速度を検出する車輪速センサが用いられる。車両センサ102は、検出した車速情報をECU104へ出力する。 The vehicle sensor 102 is a sensor that acquires the running condition of the vehicle V. FIG. In this embodiment, the vehicle sensor 102 detects the speed of the vehicle V as the driving condition. That is, vehicle sensor 102 includes a vehicle speed sensor that detects the speed of vehicle V. FIG. As the vehicle speed sensor, for example, a wheel speed sensor that is provided for a wheel of the vehicle V or a drive shaft that rotates integrally with the wheel and that detects the rotational speed of the wheel is used. Vehicle sensor 102 outputs detected vehicle speed information to ECU 104 .

GPS受信部103は、3個以上のGPS衛星から信号を受信することにより、車両Vの位置(例えば車両Vの緯度及び経度)を測定する。GPS受信部103は、測定した車両Vの位置情報をECU104へ出力する。 GPS receiver 103 measures the position of vehicle V (for example, the latitude and longitude of vehicle V) by receiving signals from three or more GPS satellites. The GPS receiver 103 outputs the measured positional information of the vehicle V to the ECU 104 .

ECU104は、CPU[Central Processing Unit]、ROM[Read Only Memory]、RAM[Random Access Memory]などを有する電子制御ユニットである。ECU104では、例えば、ROMに記憶されているプログラムをRAMにロードし、RAMにロードされたプログラムをCPUで実行することにより各種の機能を実現する。ECU104は、複数の電子ユニットから構成されていてもよい。ECU104は、機能的には、画像抽出部111、抽出周期設定部(条件設定部)112、及び軌跡認識部113を備えている。 The ECU 104 is an electronic control unit having a CPU [Central Processing Unit], a ROM [Read Only Memory], a RAM [Random Access Memory], and the like. The ECU 104 implements various functions by, for example, loading programs stored in the ROM into the RAM and executing the programs loaded into the RAM by the CPU. The ECU 104 may be composed of a plurality of electronic units. The ECU 104 functionally includes an image extraction unit 111 , an extraction cycle setting unit (condition setting unit) 112 , and a trajectory recognition unit 113 .

画像抽出部111は、図2(a)に示されるように、カメラ101によって所定の撮像周期で撮像される複数のカメラ画像Aのうち、抽出周期設定部112で設定された抽出条件を満たすカメラ画像Aを順次抽出する。抽出条件の詳細について詳しくは後述する。画像抽出部111は、カメラ画像Aが所定の撮像周期で撮像されるごとに、抽出条件に基づいてカメラ画像Aを抽出する。以下、カメラ101で撮像された複数のカメラ画像Aのうち、抽出されるカメラ画像Aと抽出されないカメラ画像Aとを区別する必要がある場合、抽出されるカメラ画像Aすなわち抽出条件を満たすカメラ画像Aを、抽出カメラ画像A1と称する。 As shown in FIG. 2(a), the image extracting unit 111 extracts the camera images A that meet the extraction condition set by the extraction cycle setting unit 112, among a plurality of camera images A captured by the camera 101 at a predetermined image capturing cycle. Image A is extracted sequentially. Details of the extraction conditions will be described later. The image extraction unit 111 extracts the camera image A based on the extraction condition each time the camera image A is captured at a predetermined imaging cycle. Hereinafter, when it is necessary to distinguish between camera images A to be extracted and camera images A not to be extracted among a plurality of camera images A captured by the camera 101, camera images A to be extracted, that is, camera images satisfying the extraction conditions. A is called an extracted camera image A1.

また、画像抽出部111は、図2(b)に示されるように、抽出カメラ画像A1のうち、車両Vの前方に設定された路面相当領域B(図2(a)参照)に対応する部分の画像を切り出し(抽出し)、路面切出画像Cを生成する。なお、図2(a)及び図2(b)に示される画像中には、車両Vが走行する走行路L、並びに、走行路Lの両脇に付された白線L1が写っている。 In addition, as shown in FIG. 2(b), the image extracting unit 111 extracts a portion of the extracted camera image A1 corresponding to the road surface area B (see FIG. 2(a)) set in front of the vehicle V. is clipped (extracted) to generate a road clipped image C. In addition, in the images shown in FIGS. 2A and 2B, the road L on which the vehicle V travels and the white lines L1 attached to both sides of the road L are shown.

ここで、路面相当領域Bは、車両Vの前方の予め設定された領域である。例えば、路面相当領域Bは、カメラ101の設置位置から車両Vの前方の8mから16mの範囲(つまり奥行き8mの領域)、かつ左右±3.5mの範囲(つまり幅7mの領域)の領域が設定されている。カメラ101は、カメラ画像A内に路面相当領域Bが含まれるように、取り付けの向きが設定されている。抽出カメラ画像A1のうち路面相当領域Bに対応する部分には走行路Lの路面が写っていると仮定し、画像抽出部111は、路面相当領域Bに対応する部分の画像を切り出して路面切出画像Cを生成する。 Here, the road surface equivalent area B is a preset area in front of the vehicle V. As shown in FIG. For example, the road surface equivalent area B is a range of 8 m to 16 m in front of the vehicle V from the installation position of the camera 101 (that is, an area with a depth of 8 m) and a range of ±3.5 m on the left and right (that is, an area with a width of 7 m). is set. The mounting direction of the camera 101 is set so that the camera image A includes the road surface equivalent area B. As shown in FIG. Assuming that the road surface of the traveling road L is captured in the portion corresponding to the road surface equivalent area B in the extracted camera image A1, the image extraction unit 111 cuts out the image of the portion corresponding to the road surface equivalent area B to obtain the road crossing. Generate an output image C.

画像抽出部111は、切り出した路面切出画像Cを、送信部105へ出力する。すなわち、画像抽出部111は、カメラ101において所定の撮像周期で撮像されるカメラ画像Aのうち、抽出条件を満たす抽出カメラ画像A1から路面切出画像Cを順次切り出して送信部105へ出力する。 The image extraction unit 111 outputs the cut road surface cut image C to the transmission unit 105 . That is, the image extraction unit 111 sequentially extracts the road surface cutout image C from the extracted camera image A1 that satisfies the extraction condition among the camera images A captured by the camera 101 at a predetermined imaging cycle, and outputs the extracted road surface image C to the transmission unit 105 .

なお、画像抽出部111は、抽出条件に基づいて抽出カメラ画像A1を抽出した後に、抽出カメラ画像A1から路面切出画像Cを切り出すことに限定されない。例えば、画像抽出部111は、カメラ101によって撮像されるごとにカメラ画像Aから路面切出画像Cを切り出し、路面切出画像Cを切り出した後に、抽出条件を満たすカメラ画像A(抽出カメラ画像A1)から切り出された路面切出画像Cを抽出してもよい。 Note that the image extracting unit 111 is not limited to extracting the extracted camera image A1 based on the extraction condition and then extracting the road surface clipped image C from the extracted camera image A1. For example, the image extracting unit 111 cuts out a road surface cut-out image C from the camera image A each time the camera 101 captures an image, and after cutting out the road surface cut-out image C, the camera image A (extracted camera image A1) satisfying the extraction condition is extracted. ) may be extracted.

抽出周期設定部112は、車両センサ102で検出された車両Vの速度に基づいて、抽出条件を設定する。この抽出条件は、上述したように、画像抽出部111が、カメラ101で撮像された複数のカメラ画像Aから、路面切出画像Cを切り出す抽出カメラ画像A1を抽出するための条件である。本実施形態において、この抽出条件は、現在の時刻(現在の撮像タイミング)で撮像されたカメラ画像Aが抽出対象であるか否かを示している。すなわち、抽出条件は、カメラ画像Aを抽出カメラ画像A1として抽出する時刻が含まれている。 The extraction period setting unit 112 sets extraction conditions based on the speed of the vehicle V detected by the vehicle sensor 102 . This extraction condition is a condition for the image extracting unit 111 to extract the extracted camera image A1 from which the road surface clipped image C is extracted from the plurality of camera images A captured by the camera 101, as described above. In this embodiment, this extraction condition indicates whether or not the camera image A captured at the current time (current imaging timing) is to be extracted. That is, the extraction condition includes the time for extracting the camera image A as the extracted camera image A1.

ここで、各時刻において撮像されたカメラ画像Aからそれぞれ路面画像Dを生成する場合、車両Vの速度が速いときには、図3(a)に示されるように、路面オルソ画像Eを生成したときに路面画像Dの重なり領域が小さくなる。この場合、各部の設定によっては、路面画像Dを貼り付けたときに画像の抜けが生じることがある。また、車両Vの速度が遅いときには、図3(b)に示されるように、路面オルソ画像Eを生成したときに路面画像Dの重なり領域が大きくなる。この場合、路面オルソ画像Eの生成に冗長な路面切出画像Cが車載装置100から地図生成装置200へ送信されることとなる。このため、本実施形態における抽出周期設定部112は、地図生成装置200が路面オルソ画像Eを生成するときに路面画像Dの重なり領域の大きさが適切となるように、抽出条件を設定する。 Here, when the road surface image D is generated from the camera image A captured at each time, when the speed of the vehicle V is high, the road surface orthoimage E is generated as shown in FIG. The overlapping area of the road surface image D becomes smaller. In this case, depending on the settings of each part, when the road surface image D is pasted, the image may be missing. Further, when the speed of the vehicle V is slow, as shown in FIG. 3B, when the road surface orthoimage E is generated, the overlapping area of the road surface image D becomes large. In this case, the cut-out road surface image C redundant to the generation of the road surface orthoimage E is transmitted from the in-vehicle device 100 to the map generation device 200 . For this reason, the extraction cycle setting unit 112 in this embodiment sets extraction conditions so that the size of the overlapping area of the road surface image D is appropriate when the map generation device 200 generates the road surface orthorectified image E.

具体的には、抽出周期設定部112は、2つの路面画像Dに基づいて、路面オルソ画像Eを生成するときの2つの路面画像Dの重複率を算出する。2つの路面画像Dのうちの一方の路面画像Dは、画像抽出部111が抽出した最新(直近)の抽出カメラ画像A1に基づいて生成された路面画像Dである。また、2つの路面画像のうちの他方の路面画像Dは、現在の時刻(現在の撮像タイミング)で撮像されたカメラ画像Aに基づいて生成したと仮定したときの路面画像Dである。このように、抽出周期設定部112は、直近に生成された路面画像Dと、現在の時刻でのカメラ画像Aに基づいて生成される仮定の路面画像Dとの重複率を算出する。ここでの重複率は、車両Vの速度によって変化する。このため、抽出周期設定部112は、車両Vの速度を考慮して、重複率を算出する。 Specifically, the extraction cycle setting unit 112 calculates the overlapping rate of the two road surface images D when generating the road surface orthoimage E based on the two road surface images D. FIG. One of the two road surface images D is the road surface image D generated based on the latest (closest) extracted camera image A1 extracted by the image extraction unit 111 . The road surface image D, which is the other of the two road surface images, is the road surface image D assumed to have been generated based on the camera image A captured at the current time (current imaging timing). In this manner, the extraction cycle setting unit 112 calculates the overlapping rate between the most recently generated road surface image D and the hypothetical road surface image D generated based on the camera image A at the current time. The overlapping rate here changes according to the speed of the vehicle V. FIG. For this reason, the extraction cycle setting unit 112 calculates the overlapping rate in consideration of the speed of the vehicle V. FIG.

また、抽出周期設定部112は、算出した重複率が、予め定められた重複率閾値未満か否かを判定する。算出された重複率が予め定められた重複率未満である場合、抽出周期設定部112は、現在の時刻(現在の撮像タイミング)で撮像されたカメラ画像Aを抽出対象の抽出カメラ画像A1と判定する。抽出周期設定部112は、抽出条件として、現在の時刻で撮像されたカメラ画像Aを抽出対象とする旨を設定する。 In addition, the extraction cycle setting unit 112 determines whether or not the calculated overlapping rate is less than a predetermined overlapping rate threshold. When the calculated overlapping rate is less than the predetermined overlapping rate, the extraction cycle setting unit 112 determines that the camera image A captured at the current time (current imaging timing) is the extracted camera image A1 to be extracted. do. The extraction cycle setting unit 112 sets, as an extraction condition, that the camera image A captured at the current time is to be extracted.

一方、算出された重複率が予め定められた重複率未満ではない場合、抽出周期設定部112は、現在の時刻(現在の撮像タイミング)で撮像されたカメラ画像Aを抽出対象ではないと判定する。この判定の後、抽出周期設定部112は、所定の撮像周期の経過後に、再び、上述したように、直近に生成された路面画像Dと、現在の時刻でのカメラ画像Aに基づいて生成したと仮定したときの路面画像Dとの重複率を算出する。このように、抽出周期設定部112は、所定の撮像周期ごとに、直近に生成された路面画像Dと、現在の時刻でのカメラ画像Aに基づいて生成したと仮定したときの路面画像Dとの重複率を算出する。そして、抽出周期設定部112は、算出した重複率に基づいて、現在の時刻で撮像されたカメラ画像Aを抽出対象とするか否かを判定し、抽出条件の設定を行う。 On the other hand, if the calculated overlap rate is not less than the predetermined overlap rate, the extraction cycle setting unit 112 determines that the camera image A captured at the current time (current imaging timing) is not an extraction target. . After this determination, the extraction cycle setting unit 112 again generates the image based on the most recently generated road surface image D and the camera image A at the current time, as described above, after the predetermined imaging cycle has elapsed. The overlap rate with the road surface image D when assuming that is calculated. In this manner, the extraction cycle setting unit 112 sets the most recently generated road surface image D and the road surface image D assumed to have been generated based on the camera image A at the current time, for each predetermined imaging cycle. Calculate the duplication rate of Then, the extraction cycle setting unit 112 determines whether or not the camera image A captured at the current time is to be extracted based on the calculated duplication rate, and sets extraction conditions.

より具体的には、抽出周期設定部112は、カメラ101の撮像周期の1周期分における車両Vの移動量と、路面切出画像Cを切り出すときの路面相当領域Bとに基づいて、重複率を算出することができる。抽出周期設定部112は、車両Vの移動量を、車両センサ102で検出された車両Vの速度と、予め設定されたカメラ101の撮像周期(所定の撮像周期)とに基づいて算出することができる。ここでの路面相当領域Bは、一例として上述した、カメラ101の設置位置から車両Vの前方の8mから16mの範囲(つまり奥行き8mの領域)、かつ左右±3.5mの範囲(つまり幅7mの領域)の領域とする。 More specifically, the extraction cycle setting unit 112 sets the overlap rate based on the amount of movement of the vehicle V in one imaging cycle of the camera 101 and the road surface equivalent region B when the road surface cut image C is cut out. can be calculated. The extraction cycle setting unit 112 can calculate the amount of movement of the vehicle V based on the speed of the vehicle V detected by the vehicle sensor 102 and the preset imaging cycle of the camera 101 (predetermined imaging cycle). can. Here, the road surface equivalent area B is, as an example, a range from 8 m to 16 m in front of the vehicle V from the installation position of the camera 101 (that is, an area with a depth of 8 m) and a range of ±3.5 m left and right (that is, a width of 7 m). area).

例えば、時刻t[s]において撮像されたカメラ画像Aが抽出カメラ画像A1として抽出され、この抽出カメラ画像A1から路面画像Dが生成されたとする。そして、カメラ101の次の撮像周期である時刻t+0.1[s]において車両Vが前方へ1m走行したとする。この場合、時刻t[s]において撮像された抽出カメラ画像A1から生成された路面画像Dと、時刻t+0.1[s]において撮像されたカメラ画像Aから生成したと仮定したときの路面画像Dとの重複率は、図4に示されるように、約87%となる。この場合、重複率は、予め設定された重複率閾値(40%)以上である。このため、抽出周期設定部112は、時刻t+0.1[s]に撮像されたカメラ画像Aを、抽出対象と判定しない。 For example, assume that camera image A captured at time t[s] is extracted as extracted camera image A1, and road surface image D is generated from extracted camera image A1. Suppose that the vehicle V travels 1 m forward at time t+0.1 [s], which is the next imaging cycle of the camera 101 . In this case, the road surface image D generated from the extracted camera image A1 captured at time t[s] and the road surface image D generated from the camera image A captured at time t+0.1 [s] The overlapping rate with is about 87%, as shown in FIG. In this case, the overlapping rate is equal to or higher than the preset overlapping rate threshold value (40%). Therefore, the extraction cycle setting unit 112 does not determine the camera image A captured at time t+0.1 [s] as an extraction target.

例えば、時刻t[s]において撮像された抽出カメラ画像A1から生成された路面画像Dと、時刻t[s]よりも5つ後の撮像周期である時刻t+0.5[s]において撮像されたカメラ画像Aから生成したと仮定したときの路面画像Dとの重複率は、重複率閾値(40%)未満となる。このため、抽出周期設定部112は、時刻t+0.5[s]に撮像されたカメラ画像Aを、抽出対象と判定する。そして、抽出周期設定部112は、抽出条件として、時刻t+0.5[s]で撮像されたカメラ画像Aを抽出対象とする旨を設定する。 For example, the road surface image D generated from the extracted camera image A1 captured at time t [s] and the Assuming that it is generated from the camera image A, the overlapping rate with the road surface image D is less than the overlapping rate threshold (40%). Therefore, the extraction cycle setting unit 112 determines that the camera image A captured at time t+0.5 [s] is to be extracted. Then, the extraction cycle setting unit 112 sets, as an extraction condition, that the camera image A captured at time t+0.5 [s] is to be extracted.

このように、抽出周期設定部112は、最新の抽出カメラ画像A1に基づいて生成された路面画像Dと、この路面画像Dよりも後のタイミングで撮像されたカメラ画像Aに基づいて生成したと仮定したときの路面画像Dとの重複率を算出し、算出した重複率に応じてカメラ画像Aの抽出タイミング(抽出条件)を決定する。抽出周期設定部112は、設定した抽出条件を画像抽出部111へ出力する。なお、抽出条件を設定する際に用いられる重複率閾値は、一定の値でもよく、車両Vの走行している場所等に応じて変更されてもよい。 In this manner, the extraction cycle setting unit 112 is assumed to have been generated based on the road surface image D generated based on the latest extracted camera image A1 and the camera image A captured at a timing later than the road surface image D. The overlap rate with the assumed road surface image D is calculated, and the extraction timing (extraction condition) of the camera image A is determined according to the calculated overlap rate. The extraction cycle setting unit 112 outputs the set extraction conditions to the image extraction unit 111 . Note that the overlap rate threshold used when setting the extraction condition may be a constant value, or may be changed according to the place where the vehicle V is traveling, or the like.

軌跡認識部113は、車両Vの走行軌跡及び姿勢(車両Vの向き)を認識する。本実施形態において、軌跡認識部113は、走行軌跡及び姿勢として、カメラ101が撮像を行うときの各撮像タイミングにおける車両Vの位置及び姿勢を認識する。軌跡認識部113は、GPS受信部103で測定された位置情報に基づいて、各撮像タイミングにおける車両Vの位置を認識する。軌跡認識部113は、位置情報の変化に基づいて、各撮像タイミングにおける車両Vの姿勢を認識する。なお、軌跡認識部113は、車両Vの重心の鉛直軸周りのヨーレート(回転角速度)を検出するジャイロセンサ等の検出結果に基づいて、車両Vの姿勢を検出してもよい。軌跡認識部113は、認識した車両Vの位置及び姿勢を、送信部105へ出力する。 The trajectory recognition unit 113 recognizes the travel trajectory and orientation of the vehicle V (orientation of the vehicle V). In the present embodiment, the trajectory recognition unit 113 recognizes the position and orientation of the vehicle V at each imaging timing when the camera 101 performs imaging as the travel trajectory and orientation. The trajectory recognition section 113 recognizes the position of the vehicle V at each imaging timing based on the position information measured by the GPS reception section 103 . The trajectory recognition unit 113 recognizes the attitude of the vehicle V at each imaging timing based on the change in the positional information. Note that the trajectory recognition unit 113 may detect the attitude of the vehicle V based on the detection result of a gyro sensor or the like that detects the yaw rate (rotational angular velocity) of the center of gravity of the vehicle V around the vertical axis. The trajectory recognition unit 113 outputs the recognized position and orientation of the vehicle V to the transmission unit 105 .

送信部105は、路面切出画像Cが入力された場合、入力された路面切出画像Cと、この路面切出画像Cを生成する基となった抽出カメラ画像A1が撮像された時刻における車両Vの位置及び姿勢とを、地図生成装置200へ通信により送信する。送信部105は、無線通信又は有線通信等の種々の通信方法によって路面切出画像C等を地図生成装置200へ送信する。すなわち、送信部105は、抽出条件に基づいて抽出された抽出カメラ画像A1の一部分を地図生成装置200に送信する。 When the road surface cut-out image C is input, the transmission unit 105 transmits the vehicle image at the time when the input road surface cut-out image C and the extracted camera image A1 used as the basis for generating the road surface cut-out image C were captured. The position and orientation of V are transmitted to the map generation device 200 by communication. The transmission unit 105 transmits the cut-out road surface image C and the like to the map generation device 200 by various communication methods such as wireless communication or wired communication. That is, the transmission unit 105 transmits a portion of the extracted camera image A1 extracted based on the extraction condition to the map generation device 200. FIG.

(地図生成装置の詳細)
地図生成装置200は、例えば、地図情報を管理するセンター等の施設に設けられている。地図生成装置200は、受信部201、及び地図生成部202を備えている。
(Details of the map generation device)
The map generation device 200 is provided in a facility such as a center that manages map information, for example. The map generating device 200 has a receiving section 201 and a map generating section 202 .

受信部201は、送信部105から送信された路面切出画像C、車両Vの位置及び姿勢を、通信により取得する。 The receiving unit 201 acquires the cut-out road surface image C and the position and orientation of the vehicle V transmitted from the transmitting unit 105 through communication.

地図生成部202は、ECU104と同様に、CPU、ROM、RAM等を有する電子制御ユニットによって構成されている。地図生成部202は、受信部201で受信された路面切出画像C、車両Vの位置及び姿勢に基づいて、地図を生成する。具体的には、地図生成部202は、受信された路面切出画像Cに対して鳥瞰変換を行って路面画像Dを生成する(図2(c)参照)。そして、地図生成部202は、生成した路面画像Dを、地図の座標系に貼り付ける。なお、地図生成部202は、路面画像Dを貼り付けるときに、車両Vの位置及び姿勢に基づいて路面画像Dを移動及び回転させて、貼り付ける。 Like the ECU 104, the map generator 202 is composed of an electronic control unit having a CPU, a ROM, a RAM, and the like. The map generator 202 generates a map based on the cut-out road image C received by the receiver 201 and the position and orientation of the vehicle V. FIG. Specifically, the map generation unit 202 performs bird's eye conversion on the received road surface clipped image C to generate a road surface image D (see FIG. 2(c)). Then, the map generation unit 202 pastes the generated road surface image D onto the coordinate system of the map. Note that the map generator 202 moves and rotates the road surface image D based on the position and orientation of the vehicle V when pasting the road surface image D, and then pastes it.

地図生成部202は、この貼り付けを受信部201によって路面切出画像C等が受信されるごとに行い、地図としての路面オルソ画像Eを生成する。抽出条件に基づいて生成された路面切出画像C等に基づいて貼り付けを行うことで、路面画像D同士の重複(重なり)が重複率閾値未満となる。地図生成部202によって生成された路面オルソ画像Eは、地図情報の作成等、種々の用途に用いられる。 The map generating unit 202 performs this pasting every time the receiving unit 201 receives the cut-out road surface image C or the like, and generates a road surface orthorectified image E as a map. By performing pasting based on the cut-out road surface image C generated based on the extraction conditions, the overlap (overlapping) between the road surface images D becomes less than the overlap rate threshold. The road surface orthoimage E generated by the map generation unit 202 is used for various purposes such as creation of map information.

(画像の送信処理の流れ)
次に、車載装置100において行われる画像の送信処理の流れについて図5を用いて説明する。カメラ101は、所定の撮像周期で撮像を行っている。図5に示される処理は、カメラ101が撮像を行うときの撮像周期ごと(撮像時刻ごと)に開始される。
(Flow of image transmission processing)
Next, the flow of image transmission processing performed in the in-vehicle device 100 will be described with reference to FIG. The camera 101 performs imaging at a predetermined imaging cycle. The processing shown in FIG. 5 is started at each imaging cycle (at each imaging time) when the camera 101 performs imaging.

図5に示されるように、軌跡認識部113は、現在の時刻における車両Vの位置及び姿勢を認識する(S101)。車両センサ102は、現在の時刻における車両Vの速度を検出する(S102)。抽出周期設定部112は、車両Vの速度を考慮しつつ、直近の抽出カメラ画像A1に基づいて生成された路面画像Dと、現在の時刻でのカメラ画像Aに基づいて生成したと仮定したときの路面画像Dとの重複率を算出する(S103)。 As shown in FIG. 5, the trajectory recognition unit 113 recognizes the position and orientation of the vehicle V at the current time (S101). The vehicle sensor 102 detects the speed of the vehicle V at the current time (S102). When it is assumed that the extraction cycle setting unit 112 generates the road surface image D generated based on the most recent extracted camera image A1 and the camera image A at the current time while considering the speed of the vehicle V. and the road surface image D are calculated (S103).

抽出周期設定部112は、算出した重複率が重複率閾値未満であるか否かを判定する(S104)。重複率が重複率閾値未満でない場合(S104:NO)、車載装置100は、今回の処理を終了し、所定の撮像周期の経過後に再び図5に示される処理を開始する。 The extraction cycle setting unit 112 determines whether the calculated overlapping rate is less than the overlapping rate threshold (S104). If the overlapping rate is not less than the overlapping rate threshold (S104: NO), the in-vehicle device 100 terminates the current process, and restarts the process shown in FIG. 5 after a predetermined imaging cycle has elapsed.

一方、重複率が重複率閾値未満である場合(S104:YES)、抽出周期設定部112は、現在の時刻(現在の撮像タイミング)で撮像されたカメラ画像Aを抽出対象の抽出カメラ画像A1と判定し、このカメラ画像Aを抽出対象とする旨の抽出条件を設定する。画像抽出部111は、抽出条件に基づいて、現在の時刻において撮像されたカメラ画像Aを抽出カメラ画像A1として抽出し、抽出した抽出カメラ画像A1を切り出して路面切出画像Cを生成する(S105)。送信部105は、生成された路面切出画像Cと、S101で認識された現在の時刻における車両Vの位置及び姿勢とを地図生成装置200へ通信により送信する(S106)。 On the other hand, if the overlap rate is less than the overlap rate threshold (S104: YES), the extraction cycle setting unit 112 sets the camera image A captured at the current time (current imaging timing) as the extracted camera image A1 to be extracted. Then, an extraction condition is set to the effect that this camera image A is to be extracted. The image extracting unit 111 extracts the camera image A captured at the current time as an extracted camera image A1 based on the extraction conditions, and cuts out the extracted extracted camera image A1 to generate a road cut-out image C (S105). ). The transmission unit 105 transmits the generated road cut-out image C and the position and orientation of the vehicle V at the current time recognized in S101 to the map generation device 200 by communication (S106).

以上のように、本実施形態の地図生成システム1は、路面オルソ画像Eを生成するときの路面画像Dの重複率が重複率判定閾値未満となるように車載装置100から地図生成装置200へ路面切出画像Cを送信することができる。これにより、地図生成システム1は、カメラ101で撮像された画像(路面切出画像C)を車載装置100から地図生成装置200へ効率よく送信できる。 As described above, the map generation system 1 of the present embodiment transfers road surface data from the in-vehicle device 100 to the map generation device 200 so that the overlap rate of the road surface image D when generating the road surface orthoimage E is less than the overlap rate determination threshold. A clipped image C can be transmitted. As a result, the map generation system 1 can efficiently transmit the image (road cut-out image C) captured by the camera 101 from the in-vehicle device 100 to the map generation device 200 .

(第2実施形態)
地図生成システムの第2実施形態について説明する。第1実施形態における車載装置100は、カメラ101の撮像周期の各時刻において重複率を確認しながら路面切出画像C等を送信する否かを判定している。第2実施形態における車載装置では、路面切出画像C等を送信した時点での車両Vの速度及び加速度に基づいて、次に路面切出画像C等を送信するタイミングを推定する。
(Second embodiment)
A second embodiment of the map generation system will be described. The in-vehicle device 100 according to the first embodiment determines whether or not to transmit the cut-out road surface image C or the like while confirming the overlapping rate at each time of the imaging cycle of the camera 101 . The in-vehicle device according to the second embodiment estimates the next transmission timing of the road surface cut-out image C and the like based on the speed and acceleration of the vehicle V at the time when the road surface cut-out image C and the like is transmitted.

具体的には、図6に示されるように、第2実施形態における地図生成システム1Aは、車載装置100A、及び地図生成装置200を備えている。なお、以下の説明において、第1実施形態の地図生成システム1と同様の構成要素については同一の符合を付して詳細な説明を省略する。車載装置100Aは、カメラ(撮像部)101、車両センサ(走行状況取得部)102A、GPS受信部103、ECU104A、及び送信部105を備えている。 Specifically, as shown in FIG. 6, a map generation system 1A in the second embodiment includes an in-vehicle device 100A and a map generation device 200. FIG. In the following description, the same reference numerals are given to the same components as those of the map generation system 1 of the first embodiment, and detailed description thereof will be omitted. The in-vehicle device 100</b>A includes a camera (imaging unit) 101 , a vehicle sensor (driving condition acquisition unit) 102</b>A, a GPS receiving unit 103 , an ECU 104</b>A, and a transmitting unit 105 .

ECU104Aは、第1実施形態におけるECU104と同様の電子制御ユニットである。ECU104Aは、機能的には、画像抽出部111、抽出周期設定部(条件設定部)112A、及び軌跡認識部113を備えている。すなわち、車載装置100Aは、第1実施形態における車載装置100の車両センサ102及び抽出周期設定部112に代えて、車両センサ102A及び抽出周期設定部112Aを備えている。 The ECU 104A is an electronic control unit similar to the ECU 104 in the first embodiment. The ECU 104</b>A functionally includes an image extractor 111 , an extraction period setter (condition setter) 112</b>A, and a trajectory recognizer 113 . That is, the vehicle-mounted device 100A includes a vehicle sensor 102A and an extraction cycle setting unit 112A instead of the vehicle sensor 102 and the extraction cycle setting unit 112 of the vehicle-mounted device 100 in the first embodiment.

車両センサ102Aは、車両Vの走行状況を取得するセンサである。本実施形態において、車両センサ102Aは、走行状況として車両Vの速度及び加速度を検出する。すなわち、車両センサ102Aは、車両Vの速度を検出する車速センサと、車両Vの加速度を検出する加速度センサとを含む。車両センサ102Aは、検出した車両Vの速度及び加速度をECU104Aに入力する。 The vehicle sensor 102A is a sensor that acquires the running condition of the vehicle V. FIG. In this embodiment, the vehicle sensor 102A detects the speed and acceleration of the vehicle V as driving conditions. That is, the vehicle sensor 102A includes a vehicle speed sensor that detects the speed of the vehicle V and an acceleration sensor that detects the acceleration of the vehicle. The vehicle sensor 102A inputs the detected speed and acceleration of the vehicle V to the ECU 104A.

抽出周期設定部112Aは、車両センサ102Aで検出された車両Vの速度及び加速度に基づいて、抽出条件を設定する。この抽出条件は、画像抽出部111が次にカメラ画像Aを抽出する時刻が含まれている。具体的には、抽出周期設定部112Aは、画像抽出部111によって抽出カメラ画像A1が抽出された場合、抽出カメラ画像A1が抽出された時刻における車両Vの速度及び加速度に基づいて、この抽出カメラ画像A1に基づいて生成された路面画像Dと、この路面画像Dよりも後の時刻に撮像されたカメラ画像Aに基づいて生成したと仮定したときの路面画像Dとの重複率が重複閾値未満となる時刻を算出する。抽出周期設定部112は、重複率が重複閾値未満となる時刻を、次に画像抽出部111が抽出カメラ画像A1を抽出すべき時刻として抽出条件に設定する。 The extraction cycle setting unit 112A sets extraction conditions based on the speed and acceleration of the vehicle V detected by the vehicle sensor 102A. This extraction condition includes the time at which the image extraction unit 111 extracts the camera image A next time. Specifically, when the image extracting unit 111 extracts the extracted camera image A1, the extraction cycle setting unit 112A sets the extracted camera image based on the speed and acceleration of the vehicle V at the time when the extracted camera image A1 is extracted. The overlap rate between the road surface image D generated based on the image A1 and the road surface image D when it is assumed that the road surface image D is generated based on the camera image A captured at a time later than the road surface image D is less than the overlap threshold. Calculate the time when The extraction cycle setting unit 112 sets the time at which the overlap rate is less than the overlap threshold as the extraction condition as the time at which the image extraction unit 111 should next extract the extracted camera image A1.

画像抽出部111は、抽出周期設定部112で設定された抽出条件に基づいて抽出カメラ画像A1を抽出する。具体的には、画像抽出部111は、抽出条件を参照し、現在の時刻が、抽出条件に設定された次に抽出カメラ画像A1を抽出する時刻である場合に、カメラ101で撮像されたカメラ画像Aを抽出カメラ画像A1として抽出し、この抽出カメラ画像A1から路面切出画像Cを生成する。 The image extraction unit 111 extracts an extraction camera image A1 based on the extraction conditions set by the extraction cycle setting unit 112. FIG. Specifically, the image extracting unit 111 refers to the extraction conditions, and if the current time is the time to extract the next extracted camera image A1 set in the extraction conditions, the camera imaged by the camera 101 The image A is extracted as an extracted camera image A1, and a road cut-out image C is generated from this extracted camera image A1.

(画像の送信処理の流れ)
次に、車載装置100Aにおいて行われる画像の送信処理の流れについて図7を用いて説明する。カメラ101は、所定の撮像周期で撮像を行っている。図7に示される処理は、カメラ101が撮像を行うときの撮像周期ごと(撮像時刻ごと)に開始される。
(Flow of image transmission processing)
Next, the flow of image transmission processing performed in the in-vehicle device 100A will be described with reference to FIG. The camera 101 performs imaging at a predetermined imaging cycle. The processing shown in FIG. 7 is started at each imaging cycle (at each imaging time) when the camera 101 performs imaging.

図7に示されるように、軌跡認識部113は、現在の時刻における車両Vの位置及び姿勢を認識する(S201)。画像抽出部111は、現在の時刻が、抽出条件に設定された次に抽出カメラ画像A1を抽出する時刻であるか否かを判定する(S202)。現在の時刻が次に抽出カメラ画像A1を抽出する時刻でない場合(S202:NO)、車載装置100Aは、今回の処理を終了し、所定の撮像周期の経過後に再び図7に示される処理を開始する。なお、現在の時刻が次に抽出カメラ画像A1を抽出する時刻でない場合とは、現在の時刻が次に抽出カメラ画像A1を抽出する時刻よりも前の場合である。 As shown in FIG. 7, the trajectory recognition unit 113 recognizes the position and orientation of the vehicle V at the current time (S201). The image extraction unit 111 determines whether or not the current time is the time to extract the next extracted camera image A1 set in the extraction condition (S202). If the current time is not the time to extract the extracted camera image A1 next time (S202: NO), the in-vehicle device 100A ends the current process, and restarts the process shown in FIG. 7 after a predetermined imaging cycle has elapsed. do. Note that the case where the current time is not the time at which the next extracted camera image A1 is extracted means that the current time is before the time at which the next extracted camera image A1 is extracted.

一方、現在の時刻が次に抽出カメラ画像A1を抽出する時刻である場合(S202:YES)、画像抽出部111は、現在の時刻においてカメラ101によって撮像されたカメラ画像Aを抽出カメラ画像A1として抽出し、抽出した抽出カメラ画像A1から路面切出画像Cを生成する(S203)。車両センサ102Aは、現在の時刻における車両Vの速度及び加速度を検出する(S204)。 On the other hand, if the current time is the time to extract the extracted camera image A1 next time (S202: YES), the image extraction unit 111 selects the camera image A captured by the camera 101 at the current time as the extracted camera image A1. A road cut-out image C is generated from the extracted extracted camera image A1 (S203). The vehicle sensor 102A detects the speed and acceleration of the vehicle V at the current time (S204).

抽出周期設定部112Aは、車両Vの速度及び加速度に基づいて、次に抽出カメラ画像A1を抽出する時刻を算出する。具体的には、抽出周期設定部112Aは、上述したように、路面画像Dの重複率が重複閾値未満となる時刻を算出し、抽出条件として設定する(S205)。送信部105は、S203で生成された路面切出画像Cと、S201で認識された現在の時刻における車両Vの位置及び姿勢とを地図生成装置200へ通信により送信する(S206)。 Based on the speed and acceleration of the vehicle V, the extraction cycle setting unit 112A calculates the next extraction time of the extraction camera image A1. Specifically, as described above, the extraction cycle setting unit 112A calculates the time at which the overlap rate of the road surface image D is less than the overlap threshold, and sets it as an extraction condition (S205). The transmission unit 105 transmits the road surface cut-out image C generated in S203 and the position and orientation of the vehicle V at the current time recognized in S201 to the map generation device 200 by communication (S206).

以上のように、本実施形態の地図生成システム1Aでは、第1実施形態と同様に、カメラ101で撮像された画像(路面切出画像C)を車載装置100Aから地図生成装置200へ効率よく送信できる。また、車載装置100Aは、カメラ101が撮像するカメラ画像Aを抽出カメラ画像A1として抽出した後、次にカメラ画像Aを抽出カメラ画像A1として抽出するタイミングを把握できる。このため、車載装置100Aは、次に抽出カメラ画像A1を抽出する時刻まではカメラ101を他の目的に利用することができる。 As described above, in the map generation system 1A of the present embodiment, as in the first embodiment, the image captured by the camera 101 (road cut-out image C) is efficiently transmitted from the in-vehicle device 100A to the map generation device 200. can. In addition, after the camera image A captured by the camera 101 is extracted as the extracted camera image A1, the in-vehicle device 100A can grasp the timing of extracting the camera image A as the extracted camera image A1 next time. Therefore, the in-vehicle device 100A can use the camera 101 for other purposes until the next extraction of the extracted camera image A1.

例えば、カメラ101は、図8に示されるように、0.1秒ごとに露光パターンが異なる4枚の画像を撮像しているとする。ここでは、カメラ101は、露光パターンA~Dの画像をそれぞれ撮像している。露光パターンAは、路面オルソ画像Eを生成するために用いられる画像を撮像するための露光パターンとする。この場合、次に画像抽出部111がカメラ画像Aを抽出するタイミングが0.3秒後であれば、その間は露光パターンAで撮像することが不要となる。このため、例えば、カメラ101は、露光パターンAに代えて、物体認識に用いられる画像を撮像するための露光パターンCで撮像することで、露光パターンCの画像を0.05秒間隔で撮像できる。これにより、例えば、物体認識の周期を早めることができる。 For example, as shown in FIG. 8, the camera 101 captures four images with different exposure patterns every 0.1 seconds. Here, the camera 101 captures images of exposure patterns A to D, respectively. The exposure pattern A is an exposure pattern for capturing an image used to generate the road surface orthoimage E. As shown in FIG. In this case, if the image extracting unit 111 extracts the camera image A next time after 0.3 seconds, it is not necessary to take an image with the exposure pattern A during that time. Therefore, for example, the camera 101 can capture an image of the exposure pattern C at intervals of 0.05 seconds by capturing an image using the exposure pattern C for capturing an image used for object recognition instead of the exposure pattern A. . Thereby, for example, the cycle of object recognition can be shortened.

(第3実施形態)
地図生成システムの第3実施形態について説明する。第3実施形態における車載装置では、カメラ画像Aから路面切出画像Cとして切り出す範囲を変更することにより、路面画像Dを貼り付けたときの重複率が所望の重複率となるようにしている。なお、本実施形態では、第1実施形態のように複数のカメラ画像Aから抽出カメラ画像A1を抽出して路面切出画像Cを生成するのではなく、カメラ101で撮像された全てのカメラ画像Aから路面切出画像Cを生成する。
(Third embodiment)
A third embodiment of the map generation system will be described. In the in-vehicle device according to the third embodiment, by changing the range to be cut out from the camera image A as the road surface cut-out image C, the overlap rate when the road surface image D is pasted is set to a desired overlap rate. Note that in the present embodiment, instead of extracting the extracted camera image A1 from the plurality of camera images A and generating the road surface clipped image C as in the first embodiment, all the camera images captured by the camera 101 are A road cut-out image C is generated from A.

具体的には、図9に示されるように、第3実施形態における地図生成システム1Bは、車載装置100B、及び地図生成装置200を備えている。車載装置100Bは、カメラ(撮像部)101、車両センサ(走行状況取得部)102、GPS受信部103、ECU104B、及び送信部105を備えている。 Specifically, as shown in FIG. 9, a map generation system 1B in the third embodiment includes an in-vehicle device 100B and a map generation device 200. FIG. The in-vehicle device 100</b>B includes a camera (imaging unit) 101 , a vehicle sensor (driving condition acquisition unit) 102 , a GPS receiving unit 103 , an ECU 104</b>B, and a transmitting unit 105 .

ECU104Bは、第1実施形態におけるECU104と同様の電子制御ユニットである。ECU104Bは、機能的には、画像抽出部111B、画像切出範囲設定部(条件設定部)112B、及び軌跡認識部113を備えている。すなわち、車載装置100Bは、第1実施形態における車載装置100の画像抽出部111及び抽出周期設定部112に代えて、画像抽出部111B及び画像切出範囲設定部112Bを備えている。 The ECU 104B is an electronic control unit similar to the ECU 104 in the first embodiment. The ECU 104</b>B functionally includes an image extractor 111</b>B, an image clipping range setter (condition setter) 112</b>B, and a trajectory recognizer 113 . That is, the vehicle-mounted device 100B includes an image extraction unit 111B and an image clipping range setting unit 112B instead of the image extraction unit 111 and the extraction cycle setting unit 112 of the vehicle-mounted device 100 in the first embodiment.

画像切出範囲設定部112Bは、車両センサ102で検出された車両Vの速度に基づいて、カメラ画像Aから路面切出画像Cとして切り出す範囲(切り出し範囲)を算出する。具体的には、例えば、カメラ101の撮像周期を0.1秒とし、現在の車両Vの速度を40km/hとする。この場合、カメラ101の次の撮像タイミングまでの間に車両Vが約1m進むと予想される。このため、画像切出範囲設定部112Bは、次の撮像時刻でのカメラ画像Aに基づいて生成される路面画像Dと、現在の時刻でのカメラ画像Aに基づいて生成される路面画像Dとの重複率が例えば約50%となるように、カメラ画像Aから路面切出画像Cとして切り出す範囲を算出する。この場合、カメラ画像Aから路面切出画像Cとして切り出す範囲は、カメラ101の設置位置から車両Vの前方の8mから10mの範囲(つまり奥行き2mの領域)、かつ左右±3.5mの範囲(つまり幅7mの領域)の領域に対応する画像範囲となる。 Based on the speed of the vehicle V detected by the vehicle sensor 102, the image cutout range setting unit 112B calculates a range (cutout range) to be cut out as the road surface cutout image C from the camera image A. FIG. Specifically, for example, it is assumed that the imaging cycle of the camera 101 is 0.1 second and the current speed of the vehicle V is 40 km/h. In this case, it is expected that the vehicle V will advance about 1 m until the next imaging timing of the camera 101 . Therefore, the image cropping range setting unit 112B sets the road surface image D generated based on the camera image A at the next imaging time and the road surface image D generated based on the camera image A at the current time. A range to be clipped from the camera image A as the road surface clipped image C is calculated so that the overlapping rate of is about 50%, for example. In this case, the range to be cut out from the camera image A as the road surface cut-out image C is a range of 8 m to 10 m in front of the vehicle V from the installation position of the camera 101 (that is, a range of 2 m in depth) and a range of ±3.5 m on the left and right ( That is, the image range corresponds to the area of 7 m width).

画像切出範囲設定部112Bは、算出した路面切出画像Cとして切り出す範囲を、抽出条件として設定する。画像切出範囲設定部112Bは、カメラ101の撮像周期ごとに、抽出条件を設定する。画像切出範囲設定部112Bは、設定した抽出条件を画像抽出部111Bへ出力する。 The image cut-out range setting unit 112B sets the range to be cut out as the calculated road surface cut-out image C as an extraction condition. The image cropping range setting unit 112B sets extraction conditions for each imaging cycle of the camera 101 . Image clipping range setting section 112B outputs the set extraction conditions to image extraction section 111B.

画像抽出部111Bは、カメラ画像Aのうち、抽出条件として設定された範囲に対応する部分の画像を切り出して路面切出画像Cを生成する。なお、画像抽出部111Bは、カメラ101においてカメラ画像Aが撮像されるごとに、画像切出範囲設定部112Bから入力された抽出条件に基づいて路面切出画像Cを切り出す。画像抽出部111Bは、切り出した路面切出画像Cを送信部105へ出力する。 The image extracting unit 111B cuts out an image of a portion corresponding to the range set as the extraction condition from the camera image A to generate a road cut-out image C. FIG. Note that the image extraction unit 111B cuts out the road surface cutout image C based on the extraction conditions input from the image cutout range setting unit 112B each time the camera image A is captured by the camera 101 . The image extraction unit 111B outputs the cut road surface cut image C to the transmission unit 105 .

(画像の送信処理の流れ)
次に、車載装置100Bにおいて行われる画像の送信処理の流れについて図10を用いて説明する。カメラ101は、所定の撮像周期で撮像を行っている。図10に示される処理は、カメラ101が撮像を行うときの撮像周期ごと(撮像時刻ごと)に開始される。
(Flow of image transmission processing)
Next, the flow of image transmission processing performed in the in-vehicle device 100B will be described with reference to FIG. The camera 101 performs imaging at a predetermined imaging cycle. The processing shown in FIG. 10 is started at each imaging cycle (at each imaging time) when the camera 101 performs imaging.

図9に示されるように、軌跡認識部113は、現在の時刻における車両Vの位置及び姿勢を認識する(S301)。車両センサ102は、現在の時刻における車両Vの速度を検出する(S302)。画像切出範囲設定部112Bは、車両Vの速度に基づいて、カメラ画像Aから路面切出画像Cとして切り出す範囲を算出する(S303)。画像抽出部111Bは、カメラ画像Aを切り出して路面切出画像Cを生成する(S304)。送信部105は、生成された路面切出画像Cと、S301で認識された現在の時刻における車両Vの位置及び姿勢とを地図生成装置200へ通信により送信する(S305)。 As shown in FIG. 9, the trajectory recognition unit 113 recognizes the position and attitude of the vehicle V at the current time (S301). The vehicle sensor 102 detects the speed of the vehicle V at the current time (S302). The image cutout range setting unit 112B calculates a range to be cut out as the road surface cutout image C from the camera image A based on the speed of the vehicle V (S303). The image extraction unit 111B cuts out the camera image A to generate a road surface cutout image C (S304). The transmission unit 105 transmits the generated road cut-out image C and the position and orientation of the vehicle V at the current time recognized in S301 to the map generation device 200 by communication (S305).

以上のように、本実施形態の地図生成システム1Bにおいて、画像抽出部111Bは、路面オルソ画像Eを生成するときの路面画像Dの重複率が所望の重複率となるように、カメラ画像Aを切り出して路面切出画像Cを生成する。これにより、地図生成システム1Bは、路面切出画像Cのうち路面オルソ画像Eの生成に冗長な部分を抑制しつつ、カメラ101で撮像された画像(路面切出画像C)を車載装置100Bから地図生成装置200へ効率よく送信できる。 As described above, in the map generation system 1B of the present embodiment, the image extraction unit 111B extracts the camera image A so that the overlap rate of the road surface image D when generating the road surface orthoimage E is the desired overlap rate. A cut road surface image C is generated by cutting. As a result, the map generation system 1B suppresses redundant portions of the road surface cutout image C for generating the road surface orthorectified image E, and transmits the image captured by the camera 101 (road surface cutout image C) from the in-vehicle device 100B. It can be efficiently transmitted to the map generation device 200 .

なお、車両Vが定速で走行している場合、カメラ画像Aから路面切出画像Cとして切り出す範囲を算出するときに用いられる路面画像Dの重複率が低く設定されていても、路面画像Dを貼り付けたときに画像の抜けが発生する可能性は低い。しかしながら、加減速時においては、重複率が低く設定されていると、路面画像Dを貼り付けたときに画像の抜けが発生する可能性がある。このため、画像切出範囲設定部112Bは、車両Vの速度だけでなく車両Vの加速度も考慮して、路面切出画像Cとして切り出す範囲を設定してもよい。この場合、地図生成システム1Bは、車載装置100Bから地図生成装置200へより効率よく路面切出画像C等を送信できる。 Note that when the vehicle V is traveling at a constant speed, even if the overlapping rate of the road surface image D used when calculating the range to be cut out from the camera image A as the road surface cut-out image C is set low, the road surface image D It is unlikely that the image will be missing when pasted. However, during acceleration and deceleration, if the overlap rate is set low, there is a possibility that the image will be missing when the road surface image D is pasted. Therefore, the image cutout range setting unit 112B may set the cutout range of the road surface cutout image C in consideration of not only the speed of the vehicle V but also the acceleration of the vehicle V. FIG. In this case, the map generation system 1B can transmit the cut-out road surface image C and the like from the in-vehicle device 100B to the map generation device 200 more efficiently.

(第4実施形態)
地図生成システムの第4実施形態について説明する。図11に示されるように、第4実施形態における地図生成システム1Cは、車載装置100C、及び地図生成装置200Cを備えている。
(Fourth embodiment)
A fourth embodiment of the map generation system will be described. As shown in FIG. 11, a map generation system 1C in the fourth embodiment includes an in-vehicle device 100C and a map generation device 200C.

ここで、地図生成システム1Cで行われる地図の生成処理の概要について説明する。車両Vの走行路の路面の多くの部分は車線(白線)のみで構成され、路面標示等を有する特徴的な部分は一部にしか存在しない。このため、地図生成システム1Cは、車線のみで構成されている部分については、ある時刻で撮像されたカメラ画像から生成される車線のみの路面画像を複製して貼り付ける。地図生成システム1Cは、路面標示等を有する特徴的な部分については、撮像されたカメラ画像から生成される路面標示等を含む路面画像を生成して貼り付ける。これにより、地図生成システム1Cは、車載装置100Cと地図生成装置200Cとの間での画像データの通信量を抑制できる。 Here, an overview of the map generation process performed by the map generation system 1C will be described. Most of the road surface of the road on which the vehicle V travels consists only of lanes (white lines), and only a part of the road surface has characteristic road markings or the like. For this reason, the map generation system 1C duplicates and pastes a road surface image of only lanes generated from a camera image captured at a certain time for a portion composed only of lanes. The map generation system 1C generates and pastes a road surface image including road markings and the like generated from the captured camera image for characteristic portions having road markings and the like. As a result, the map generation system 1C can reduce the amount of image data communication between the in-vehicle device 100C and the map generation device 200C.

この地図の生成処理の具体例として、図12の上段に記載された走行路Lを図中の左側から右側に向かって車両Vが走行している場合を説明する。まず、車両Vが図12の上段に示される走行路Lの一番左端の位置を走行しているとする。車載装置100Cは、走行路Lの路面の認識処理を行い、車両Vの前方(直前)には路面標示Mが存在しないと判定し、路面標示Mが存在しない車線(白線L1)のみの路面切出画像Cをカメラ画像Aから切り出す。そして、車載装置100Cは、切り出した路面切出画像Cと、その時の車両Vの位置及び姿勢とを地図生成装置200Cに送信する。地図生成装置200Cは、受信した路面切出画像Cから路面画像DAを生成し、車両Vの位置及び姿勢に基づいて地図の座標系に路面画像DAを貼り付ける(図12の下段参照)。 As a specific example of this map generation processing, a case where a vehicle V is traveling from the left side to the right side in the figure on the traveling path L shown in the upper part of FIG. 12 will be described. First, it is assumed that the vehicle V is traveling at the leftmost position of the traveling path L shown in the upper part of FIG. The in-vehicle device 100C performs recognition processing of the road surface of the travel path L, determines that there is no road marking M ahead (immediately) of the vehicle V, and crosses only the lane (white line L1) where the road marking M does not exist. An output image C is cut out from the camera image A. Then, the in-vehicle device 100C transmits the cut road surface cut-out image C and the position and orientation of the vehicle V at that time to the map generation device 200C. The map generation device 200C generates a road surface image DA from the received road surface cutout image C, and pastes the road surface image DA on the coordinate system of the map based on the position and attitude of the vehicle V (see the lower part of FIG. 12).

その後、しばらく車線のみの部分を車両Vが走行するため、車載装置100Cは、路面切出画像C等の送信は行わない。車両Vが路面標示Mの位置に到達し、路面の認識処理によって路面標示Mが認識された場合、車載装置100Cは、路面標示Mが含まれるカメラ画像Aから路面切出画像Cを切り出す。そして、車載装置100Cは、路面標示Mが含まれる路面切出画像Cと、前回、路面切出画像Cを送信してから現在までの車両Vの走行軌跡(車両Vの位置の変化の履歴)及び走行軌跡上の各位置での姿勢とを地図生成装置200Cへ送信する。地図生成装置200Cは、受信した路面標示Mが含まれる路面切出画像Cから路面画像DBを生成する。車載装置100Cにおける走行路の路面の認識処理の結果より、路面画像DAと路面画像DBとの間は、路面画像DAのように車線のみの路面が続く。このため、地図生成装置200Cは、前回受信した車線のみの路面切出画像Cに基づいて生成した路面画像DAを複製することによって、路面画像Daを生成する。地図生成装置200Cは、車両Vの走行軌跡及び向きに基づいて、路面画像DAから路面画像DBまでの間の区間に路面画像Daを順次貼り付ける。その後、地図生成装置200Cは、路面標示Mが含まれる路面画像DBを貼り付ける。なお、図12の下段において、路面画像Dと路面画像Daとの区別を容易にするため、複製によって生成された路面画像Daは破線で示されている。後述の路面画像Dcについても同様に、破線で示されている。 After that, the vehicle V runs only on the lane for a while, so the in-vehicle device 100C does not transmit the cut-out road surface image C or the like. When the vehicle V reaches the position of the road marking M and the road marking M is recognized by the road surface recognition processing, the in-vehicle device 100C cuts out the road surface clipped image C from the camera image A including the road marking M. Then, the in-vehicle device 100C transmits the cut-out road surface image C including the road markings M, and the travel path of the vehicle V from the transmission of the cut-out road surface image C last time to the present (history of changes in the position of the vehicle V). and the attitude at each position on the travel locus to the map generating device 200C. The map generating device 200C generates a road surface image DB from the cut road surface image C including the received road marking M. FIG. As a result of the recognition processing of the road surface of the traveling road in the in-vehicle device 100C, the road surface with only the lane continues like the road surface image DA between the road surface image DA and the road surface image DB. Therefore, the map generation device 200C generates the road surface image Da by duplicating the road surface image DA generated based on the previously received road surface cutout image C of only the lanes. The map generation device 200C sequentially pastes the road surface image Da to the section from the road surface image DA to the road surface image DB based on the travel locus and direction of the vehicle V. FIG. After that, the map generation device 200C pastes the road surface image DB including the road marking M. FIG. In the lower part of FIG. 12, the road surface image Da generated by duplication is indicated by a dashed line in order to facilitate the distinction between the road surface image D and the road surface image Da. A road surface image Dc, which will be described later, is likewise indicated by a dashed line.

車両Vがさらに走行すると、車載装置100Cは、路面の認識処理によって路面標示Mを認識できなくなる。このように路面標示Mの認識ができなくなった場合、車載装置100Cは、再び、路面標示Mが存在しない車線のみの路面切出画像Cをカメラ画像Aから切り出す。そして、車載装置100Cは、切り出した路面切出画像Cと、前回、路面切出画像Cを送信してから現在までの車両Vの走行軌跡及び各位置での姿勢とを地図生成装置200Cに送信する。地図生成装置200Cは、受信した路面切出画像Cから路面画像DCを生成し、車両Vの位置及び姿勢に基づいて地図の座標系に路面画像DCを貼り付ける。 When the vehicle V travels further, the in-vehicle device 100C cannot recognize the road marking M by road surface recognition processing. When the road marking M cannot be recognized in this manner, the in-vehicle device 100C cuts out from the camera image A again the road surface cut-out image C of only the lane where the road marking M does not exist. Then, the in-vehicle device 100C transmits to the map generation device 200C the cut-out road surface cut-out image C, and the traveling locus and the posture at each position of the vehicle V from the transmission of the road cut-out image C last time to the present. do. The map generating device 200C generates a road surface image DC from the received road surface cutout image C, and pastes the road surface image DC on the coordinate system of the map based on the position and orientation of the vehicle V. FIG.

その後、しばらく車線のみの部分を車両Vが走行するため、車載装置100Cは、路面切出画像C等の送信は行わない。そして、地図を生成するエリアの終点に車両Vが到達すると、車載装置100Cは、前回、路面切出画像Cを送信してから現在までの車両Vの走行軌跡及び走行軌跡上の各位置での姿勢とを地図生成装置200Cへ送信する。車載装置100Cにおける走行路の路面の認識処理の結果より、路面画像DCから地図を生成するエリアの終点までの間は、路面画像DCのように車線のみの路面が続く。このため、地図生成装置200Cは、前回受信した車線のみの路面切出画像Cに基づいて生成した路面画像DCを複製することによって、路面画像Dcを生成する。地図生成装置200Cは、車両Vの走行軌跡及び向きに基づいて、路面画像DCから地図を生成するエリアの終点までの間の区間に路面画像Dcを順次貼り付ける。 After that, the vehicle V runs only on the lane for a while, so the in-vehicle device 100C does not transmit the cut-out road surface image C or the like. Then, when the vehicle V reaches the end point of the area for which the map is generated, the in-vehicle device 100C displays the traveling locus of the vehicle V from the previous transmission of the cut-out road surface image C up to the present time and the respective positions on the traveling locus. and the attitude are transmitted to the map generation device 200C. As a result of the recognition processing of the road surface of the traveling road in the in-vehicle device 100C, the road surface with only lanes continues like the road surface image DC from the road surface image DC to the end point of the area for which the map is generated. Therefore, the map generation device 200C generates the road surface image Dc by duplicating the road surface image DC generated based on the previously received road surface cutout image C of only the lanes. Based on the travel locus and direction of the vehicle V, the map generation device 200C sequentially pastes the road surface image Dc in the section from the road surface image DC to the end point of the area for which the map is to be generated.

このように、地図生成装置200C側には、地図を生成するエリア内のいくつかの地点の画像と、走行軌跡及び向きとが送信される。地図生成装置200Cは、画像を受信していない位置については、前回受信した画像を複製して貼り付ける。このようにして、地図生成装置200Cが路面画像を貼り付けることにより、地図としての路面オルソ画像Eが生成される。 In this way, the map generation device 200C receives images of several points in the area for which the map is to be generated, along with the travel locus and direction. The map generation device 200C duplicates and pastes the image received last time for the positions for which no image has been received. In this manner, the road surface orthoimage E as a map is generated by pasting the road surface image by the map generation device 200C.

(車載装置の構成)
車載装置100Cは、カメラ(撮像部)101、GPS受信部103、ECU104C、及び送信部105Cを備えている。ECU104Cは、第1実施形態におけるECU104と同様の電子制御ユニットである。ECU104Cは、機能的には、軌跡認識部113、走行路認識部(走行状況取得部)114、抽出条件設定部(条件設定部)115、及び画像抽出部116を備えている。
(Configuration of in-vehicle device)
The in-vehicle device 100C includes a camera (imaging unit) 101, a GPS receiving unit 103, an ECU 104C, and a transmitting unit 105C. The ECU 104C is an electronic control unit similar to the ECU 104 in the first embodiment. The ECU 104</b>C functionally includes a trajectory recognition section 113 , a travel path recognition section (driving situation acquisition section) 114 , an extraction condition setting section (condition setting section) 115 , and an image extraction section 116 .

走行路認識部114は、車両Vの走行状況を取得する。ここでの走行状況とは、車両Vが走行する走行路の状況を指す。走行路認識部114は、走行路の状況として、路面上に付された路面標示Mの有無を認識する。具体的には、走行路認識部114は、カメラ101のカメラ画像Aに基づいて、走行路の路面の認識処理を行う。走行路認識部114は、カメラ101によってカメラ画像Aが撮像されるごとに、路面の認識処理を行う。ここでは、走行路認識部114は、路面上に付された路面標示Mの有無、及び白線L1の種類(破線、実践、2重線等)を認識する。例えば、走行路認識部114は、周知の画像処理技術に基づいて、路面標示Mの有無等の認識を行うことができる。走行路認識部114は、路面上に路面標示Mが存在する場合、路面標示フラグをONに設定する。走行路認識部114は、路面標示Mが存在しない場合、路面標示フラグをOFFに設定する。 The traveling road recognition unit 114 acquires the traveling situation of the vehicle V. FIG. The driving condition here refers to the condition of the road on which the vehicle V travels. The traveling road recognition unit 114 recognizes the presence or absence of road markings M attached on the road surface as the state of the traveling road. Specifically, the traveling road recognition unit 114 performs recognition processing of the road surface of the traveling road based on the camera image A of the camera 101 . The traveling road recognition unit 114 performs road recognition processing each time the camera image A is captured by the camera 101 . Here, the traveling road recognition unit 114 recognizes the presence or absence of the road marking M attached on the road surface and the type of the white line L1 (broken line, solid line, double line, etc.). For example, the travel path recognition unit 114 can recognize the presence or absence of road markings M based on a well-known image processing technique. When the road marking M exists on the road surface, the traveling road recognition unit 114 sets the road marking flag to ON. When the road marking M does not exist, the traveling road recognition unit 114 sets the road marking flag to OFF.

抽出条件設定部115は、車両Vの走行状況に基づいて、抽出条件を設定する。具体的には、抽出条件設定部115は、走行状況として、走行路の路面に付された路面標示Mの有無に基づいて、抽出条件を設定する。この抽出条件は、画像抽出部116が、カメラ101で撮像された複数のカメラ画像Aから、路面切出画像Cを切り出すための抽出カメラ画像A1を抽出するための条件である。より具体的には、抽出条件設定部115は、抽出条件として、走行路認識部114によって路面フラグがONに設定されているとき、及び路面フラグがONからOFFに変化したときに、カメラ101で撮像されたカメラ画像Aを抽出対象とする旨を設定する。すなわち、抽出条件設定部115は、走行路認識部114で認識された走行路の認識結果に基づいて、画像抽出部116が抽出カメラ画像A1を抽出するときの時刻を設定する。 The extraction condition setting unit 115 sets extraction conditions based on the running condition of the vehicle V. FIG. Specifically, the extraction condition setting unit 115 sets the extraction condition based on the presence or absence of road markings M attached to the road surface of the traveling road as the driving situation. This extracting condition is a condition for the image extracting unit 116 to extract an extracting camera image A1 for extracting a road surface clipped image C from a plurality of camera images A captured by the camera 101 . More specifically, the extraction condition setting unit 115 sets, as extraction conditions, the camera 101 when the road surface flag is set to ON by the traveling road recognition unit 114 and when the road surface flag changes from ON to OFF. It is set that the captured camera image A is to be extracted. That is, the extraction condition setting unit 115 sets the time when the image extracting unit 116 extracts the extracted camera image A1 based on the recognition result of the traveling road recognized by the traveling road recognizing unit 114 .

画像抽出部116は、カメラ101によって所定の撮像周期で撮像される複数のカメラ画像Aのうち、抽出周期設定部112で設定された抽出条件を満たすカメラ画像Aを抽出カメラ画像A1として抽出する。また、画像抽出部116は、抽出カメラ画像A1から路面切出画像Cとして切り出す範囲(切り出し範囲)を設定する。画像抽出部116は、抽出カメラ画像A1から路面切出画像Cとして切り出す範囲の基本範囲として、例えば、第1実施形態において説明した路面相当領域Bに対応する部分の画像範囲を用いる。この基本範囲は予め設定されている。なお、抽出カメラ画像A1から路面切出画像Cとして切り出す範囲は、走行路の路面の認識処理の結果に基づいて、基本範囲を超えない大きさで可変とされてもよい。 The image extracting unit 116 extracts the camera images A satisfying the extraction conditions set by the extraction cycle setting unit 112 as extracted camera images A1 from among the plurality of camera images A captured by the camera 101 at a predetermined image capturing cycle. In addition, the image extracting unit 116 sets a range (clipping range) for cutting out the road surface clipped image C from the extracted camera image A1. The image extraction unit 116 uses, for example, the image range of the portion corresponding to the road surface equivalent area B described in the first embodiment as the basic range of the range to be cut out as the road surface cutout image C from the extracted camera image A1. This basic range is preset. The range to be cut out from the extracted camera image A1 as the road surface cut-out image C may be variable within the basic range based on the result of the recognition processing of the road surface of the traveling road.

例えば、走行路の中央線や境界線が破線の場合、路面の認識処理の結果に基づいて、破線の白線部分と路面部分との周期を考慮して切り出す範囲を適切に設定することで、地図生成装置200Cにおいて破線の中央線等が含まれる路面画像を複製して順次貼り合わせるときに、破線の白線部分と路面部分との周期に矛盾が生じることなく貼り合わせることができる。 For example, if the center line or boundary line of the road is a dashed line, the area to be extracted can be appropriately set based on the result of the road surface recognition processing, taking into consideration the period between the white line portion and the road surface portion of the dashed line. When the generation device 200C duplicates and sequentially pastes the road surface image including the dashed center line, etc., the white line portion and the road surface portion of the dashed line can be pasted together without any contradiction in the period.

画像抽出部116は、設定した範囲に基づいて、抽出カメラ画像A1を切り出して路面切出画像Cを生成する。画像抽出部116は、生成した路面切出画像Cを送信部105Cへ出力する。なお、画像抽出部116は、地図の生成処理の開始時には、路面フラグがOFFであっても、カメラ101で撮像されたカメラ画像Aを抽出カメラ画像A1として抽出し、抽出カメラ画像A1から路面切出画像Cを生成する。 The image extracting unit 116 cuts out the extracted camera image A1 based on the set range to generate a road cut-out image C. FIG. The image extraction unit 116 outputs the generated road surface clipped image C to the transmission unit 105C. Note that, at the start of the map generation process, the image extraction unit 116 extracts the camera image A captured by the camera 101 as the extracted camera image A1, and extracts the road crossing from the extracted camera image A1 even if the road surface flag is OFF. Generate an output image C.

送信部105Cは、路面切出画像Cが入力された場合、入力された路面切出画像Cと、前回、路面切出画像Cを送信してから現在までの車両Vの走行軌跡及び各位置での姿勢とを地図生成装置200Cに送信する。なお、送信部105Cは、地図の生成処理の開始時には、生成処理の開始時に画像抽出部116において生成された路面切出画像C、及びそのときの車両Vの位置及び姿勢を地図生成装置200Cに送信する。また、送信部105Cは、地図を生成するエリアの終点に車両Vが到達した場合、前回、路面切出画像Cを送信してから現在までの車両Vの走行軌跡及び各位置での姿勢を、地図生成装置200Cに送信する。 When the road surface cut-out image C is input, the transmission unit 105C transmits the input road surface cut-out image C, the traveling locus of the vehicle V up to the present time since the road surface cut-out image C was transmitted last time, and each position. and the attitude of the map generation device 200C. At the start of the map generation process, the transmission unit 105C transmits the cut-out road surface image C generated by the image extraction unit 116 at the start of the generation process and the position and orientation of the vehicle V at that time to the map generation device 200C. Send. In addition, when the vehicle V reaches the end point of the area for which the map is generated, the transmission unit 105C transmits the traveling locus and the posture at each position of the vehicle V from the previous transmission of the cut-out road surface image C to the present. It is transmitted to the map generation device 200C.

(地図生成装置の詳細)
地図生成装置200Cは、受信部201、及び地図生成部202Cを備えている。地図生成部202Cは、第1実施形態におけるECU104と同様の電子制御ユニットである。地図生成部202Cは、上述したように、路面切出画像Cを受信した場合、路面切出画像Cを路面画像Dに変換し、走行軌跡及び向きに基づいて路面画像Dを地図の座標系に貼り付ける。また、地図生成部202Cは、路面切出画像Cが送信されていない区間については、前回送信された(過去に送信された)路面切出画像Cに基づいて生成された路面画像Dを複製し、複製した路面画像Dを、走行軌跡及び向きに基づいて地図の座標系に貼り付ける。これにより、地図としての路面オルソ画像Eが生成される。
(Details of the map generation device)
200 C of map generation apparatuses are provided with the receiving part 201 and 202 C of map generation parts. 202 C of map generation parts are electronic control units similar to ECU104 in 1st Embodiment. As described above, when the road surface cut-out image C is received, the map generation unit 202C converts the road surface cut-out image C into the road surface image D, and converts the road surface image D into the map coordinate system based on the travel locus and orientation. paste. Further, the map generation unit 202C duplicates the road surface image D generated based on the road surface cut-out image C previously transmitted (transmitted in the past) for the section in which the road surface cut-out image C has not been transmitted. , the duplicated road surface image D is pasted on the coordinate system of the map based on the travel locus and direction. As a result, a road surface orthoimage E is generated as a map.

(画像の送信処理の流れ)
次に、車載装置100Cにおいて行われる画像の送信処理の流れについて図13を用いて説明する。カメラ101は、所定の撮像周期で撮像を行っている。図13に示される処理は、カメラ101が撮像を行うときの撮像周期ごと(撮像時刻ごと)に開始される。
(Flow of image transmission processing)
Next, the flow of image transmission processing performed by the in-vehicle device 100C will be described with reference to FIG. The camera 101 performs imaging at a predetermined imaging cycle. The processing shown in FIG. 13 is started at each imaging cycle (at each imaging time) when the camera 101 performs imaging.

軌跡認識部113は、地図生成システム1Cにおける地図の生成処理の開始直後であるか否かを判定する(S401)。地図の生成処理の開始直後である場合(S401:YES)、軌跡認識部113は、現在の時刻における車両Vの位置及び姿勢を認識する(S402)。走行路認識部114は、現在の時刻においてカメラ101で撮像されたカメラ画像Aを取得する(S403)。走行路認識部114は、カメラ画像Aに基づいて、路面上に付された路面標示Mの有無、及び白線L1の種類を認識する。走行路認識部114は、路面上に路面標示Mが存在する場合には路面標示フラグをONに設定し、路面標示Mが存在しない場合には路面標示フラグをOFFに設定する(S404)。 The trajectory recognition unit 113 determines whether or not the map generation process in the map generation system 1C has just started (S401). If the map generation process has just started (S401: YES), the trajectory recognition unit 113 recognizes the position and orientation of the vehicle V at the current time (S402). The traveling road recognition unit 114 acquires the camera image A captured by the camera 101 at the current time (S403). Based on the camera image A, the traveling road recognition unit 114 recognizes the presence or absence of the road marking M attached on the road surface and the type of the white line L1. The traveling road recognition unit 114 sets the road marking flag to ON when the road marking M exists on the road surface, and sets the road marking flag to OFF when the road marking M does not exist (S404).

画像抽出部116は、路面切出画像Cを切り出す範囲として基本範囲を設定する(S405)。画像抽出部116は、現在の時刻においてカメラ101で撮像されたカメラ画像Aを抽出カメラ画像A1として抽出し、設定された基本範囲に基づいて抽出カメラ画像A1から路面切出画像Cを切り出す(S406)。送信部105Cは、画像抽出部116で切り出された路面切出画像Cと、現在の時刻における車両Vの位置及び姿勢とを、地図生成装置200Cへ通信により送信する(S407)。路面切出画像C等の送信後、車載装置100Cは、今回の処理を終了し、所定の撮像周期の経過後に再び図13に示される処理を開始する。 The image extraction unit 116 sets a basic range as a range for cutting out the road surface cut-out image C (S405). The image extracting unit 116 extracts the camera image A captured by the camera 101 at the current time as an extracted camera image A1, and cuts out a road surface cropped image C from the extracted camera image A1 based on the set basic range (S406). ). The transmission unit 105C transmits the road surface cut-out image C cut out by the image extraction unit 116 and the position and orientation of the vehicle V at the current time to the map generation device 200C by communication (S407). After transmitting the cut-out image C of the road surface, etc., the in-vehicle device 100C ends the current processing, and restarts the processing shown in FIG. 13 after a predetermined imaging cycle has elapsed.

一方、地図の生成処理の開始直後でない場合(S401:NO)、軌跡認識部113は、現在の時刻における車両Vの位置及び姿勢を認識する(S408)。走行路認識部114は、現在の時刻においてカメラ101で撮像されたカメラ画像Aを取得する(S409)。走行路認識部114は、カメラ画像Aに基づいて、路面上に付された路面標示Mの有無、及び白線L1の種類を認識する。走行路認識部114は、路面上に路面標示Mが存在する場合には路面標示フラグをONに設定し、路面標示Mが存在しない場合には路面標示フラグをOFFに設定する(S410)。 On the other hand, if it is not immediately after the start of the map generation process (S401: NO), the trajectory recognition unit 113 recognizes the position and attitude of the vehicle V at the current time (S408). The traveling road recognition unit 114 acquires the camera image A captured by the camera 101 at the current time (S409). Based on the camera image A, the traveling road recognition unit 114 recognizes the presence or absence of the road marking M attached on the road surface and the type of the white line L1. The traveling road recognition unit 114 sets the road marking flag to ON when the road marking M exists on the road surface, and sets the road marking flag to OFF when the road marking M does not exist (S410).

抽出条件設定部115は、走行路認識部114で設定された路面フラグのON及びOFFに基づいて、抽出条件を設定する(S411)。画像抽出部116は、現在の時刻において撮像されたカメラ画像Aが、抽出条件を満たすか否かを判定する(S412)。抽出条件を満たさない場合(S412:NO)、車載装置100Cは、今回の処理を終了し、所定の撮像周期の経過後に再び図13に示される処理を開始する。 The extraction condition setting unit 115 sets extraction conditions based on ON and OFF of the road surface flag set by the traveling road recognition unit 114 (S411). The image extraction unit 116 determines whether or not the camera image A captured at the current time satisfies the extraction conditions (S412). If the extraction condition is not satisfied (S412: NO), the in-vehicle device 100C terminates the current process, and restarts the process shown in FIG. 13 after a predetermined imaging cycle has elapsed.

抽出条件を満たす場合(S412:YES)、画像抽出部116は、路面切出画像Cを切り出す範囲を設定する(S413)。ここでは、画像抽出部116は、路面切出画像Cを切り出す範囲として基本範囲を設定してもよく、基本範囲を超えない大きさの範囲を設定してもよい。画像抽出部116は、現在の時刻においてカメラ101で撮像されたカメラ画像Aを抽出カメラ画像A1として抽出し、設定された範囲に基づいて抽出カメラ画像A1から路面切出画像Cを切り出す(S414)。送信部105Cは、画像抽出部116で切り出された路面切出画像Cと、前回、S407又はS415での処理において路面切出画像C等を送信してから現在までの車両Vの走行軌跡及び各位置での姿勢とを、地図生成装置200Cへ通信により送信する(S415)。路面切出画像C等の送信後、車載装置100Cは、今回の処理を終了し、所定の撮像周期の経過後に再び図13に示される処理を開始する。 If the extraction condition is satisfied (S412: YES), the image extraction unit 116 sets a range for cutting out the road surface cutout image C (S413). Here, the image extracting unit 116 may set a basic range as the range for cutting out the road surface cut-out image C, or may set a size range that does not exceed the basic range. The image extracting unit 116 extracts the camera image A captured by the camera 101 at the current time as an extracted camera image A1, and cuts out a road surface cropped image C from the extracted camera image A1 based on the set range (S414). . The transmission unit 105C transmits the road surface cut-out image C cut out by the image extraction unit 116, and the traveling locus of the vehicle V up to the present time since the road surface cut-out image C and the like were transmitted in the processing in S407 or S415 last time, and each The attitude at the position is transmitted to the map generating device 200C by communication (S415). After transmitting the cut-out image C of the road surface, etc., the in-vehicle device 100C ends the current processing, and restarts the processing shown in FIG. 13 after a predetermined imaging cycle has elapsed.

このように、地図の生成処理の開始直後において、車載装置100Cは、S402~S407の処理を行い、路面切出画像C等を地図生成装置200Cへ送信する。地図の生成処理の開始直後でない場合、車載装置100Cは、S408~S415の処理を行い、抽出条件(路面標示Mの有無)に応じて路面切出画像C等を地図生成装置200Cへ送信する。 In this way, immediately after starting the map generation process, the in-vehicle device 100C performs the processes of S402 to S407 and transmits the cut-out road surface image C and the like to the map generation device 200C. If it is not immediately after the start of the map generation process, the in-vehicle device 100C performs the processes of S408 to S415, and transmits the road cut-out image C and the like to the map generation device 200C according to the extraction condition (whether or not there is a road marking M).

以上のように、本実施形態の地図生成システム1Cにおいて車載装置100Cは、路面標示Mの有無に応じて路面切出画像C等を地図生成装置200Cへ送信する。地図生成装置200Cは、路面切出画像Cが送信されていない区間については、前回送信された路面切出画像Cを用いて路面オルソ画像Eを生成する。これにより、地図生成システム1Cは、車載装置100Cと地図生成装置200Cとの間での画像データの通信量を抑制でき、画像データの送信を効率よく行うことができる。 As described above, in the map generation system 1C of the present embodiment, the in-vehicle device 100C transmits the road cut-out image C and the like to the map generation device 200C according to the presence or absence of the road marking M. The map generation device 200C generates the road surface orthoimage E using the road surface cut-out image C transmitted last time for the section for which the road surface cut-out image C has not been transmitted. As a result, the map generation system 1C can reduce the amount of image data communication between the in-vehicle device 100C and the map generation device 200C, and can efficiently transmit the image data.

以上、本発明の実施形態について説明したが、本発明は、上記実施形態に限定されるものではない。例えば、カメラ101は、車両Vの前方を撮像したが、車両Vの周囲であれば例えば車両Vの後方を撮像してもよい。この場合であっても、地図生成システム1等では、車両Vの前方のカメラ画像を用いた場合と同様に、地図を生成することができる。また、カメラ101の撮像周期は一定であってもよく、可変であってもよい。 Although the embodiments of the present invention have been described above, the present invention is not limited to the above embodiments. For example, although the camera 101 images the front of the vehicle V, the camera 101 may image the rear of the vehicle V as long as it is around the vehicle V, for example. Even in this case, the map generation system 1 or the like can generate a map in the same manner as when the camera image in front of the vehicle V is used. Also, the imaging cycle of the camera 101 may be constant or variable.

1、1A、1B、1C…地図生成システム、100、100A、100B、100C…車載装置、101…カメラ(撮像部)、102、102A…車両センサ(走行状況取得部)、105、105C…送信部、111、111B、116…画像抽出部、112、112A…抽出周期設定部(条件設定部)、112B…画像切出範囲設定部(条件設定部)、113…軌跡認識部、114…走行路認識部(走行状況取得部)、115…抽出条件設定部(条件設定部)、200、200C…地図生成装置、201…受信部、202C…地図生成部、V…車両。 1, 1A, 1B, 1C... map generation system, 100, 100A, 100B, 100C... in-vehicle device, 101... camera (imaging unit), 102, 102A... vehicle sensor (driving condition acquisition unit), 105, 105C... transmitting unit , 111, 111B, 116... Image extraction unit 112, 112A... Extraction period setting unit (condition setting unit) 112B... Image clipping range setting unit (condition setting unit) 113... Trajectory recognition unit 114... Travel path recognition Section (driving condition acquisition section), 115... Extraction condition setting section (condition setting section), 200, 200C... Map generating device, 201... Receiving section, 202C... Map generating section, V... Vehicle.

Claims (2)

車両に搭載され、前記車両の周囲を撮像する車載装置と、前記車載装置で撮像された画像に基づいて地図を生成する地図生成装置と、を備える地図生成システムであって、
前記車載装置は、
前記車両の周囲を所定の撮像周期で撮像する撮像部と、
前記車両の走行状況を取得する走行状況取得部と、
前記車両の走行軌跡を認識する軌跡認識部と、
前記走行状況に基づいて、前記撮像部で撮像された前記画像の抽出条件を設定する条件設定部と、
前記撮像部で撮像された画像のうち、前記抽出条件を満たす前記画像を抽出する画像抽出部と、
前記走行軌跡及び抽出された前記画像を、通信により前記地図生成装置に送信する送信部と、
を備え、
前記地図生成装置は、
前記送信部から送信された前記走行軌跡及び前記画像を、通信により受信する受信部と、
受信された前記走行軌跡及び前記画像に基づいて、地図を生成する地図生成部と、
を備え、
前記走行状況取得部は、前記走行状況として走行路の認識結果を取得し、
前記条件設定部は、前記抽出条件として、前記走行路の認識結果に基づいて、前記画像抽出部が抽出対象として前記画像を抽出する時刻を設定し、
前記画像抽出部は、前記画像を抽出する場合、前記走行路の認識結果に基づいて前記画像の切り出し範囲を設定し、設定した切り出し範囲内の前記画像を抽出する、地図生成システム。
A map generation system comprising: an in-vehicle device that is mounted on a vehicle and captures an image of the surroundings of the vehicle; and a map generation device that generates a map based on the image captured by the in-vehicle device,
The in-vehicle device
an imaging unit that images the surroundings of the vehicle at a predetermined imaging cycle;
a driving condition acquisition unit that acquires the driving condition of the vehicle;
a trajectory recognition unit that recognizes the travel trajectory of the vehicle;
a condition setting unit that sets conditions for extracting the image captured by the imaging unit based on the driving situation;
an image extraction unit that extracts the image that satisfies the extraction condition from among the images captured by the imaging unit;
a transmission unit that transmits the travel locus and the extracted image to the map generation device by communication;
with
The map generation device is
a receiving unit that receives, through communication, the travel locus and the image transmitted from the transmitting unit;
a map generation unit that generates a map based on the received travel locus and the image;
with
The traveling situation acquisition unit acquires a recognition result of a traveling road as the traveling situation,
The condition setting unit sets, as the extraction condition, a time at which the image extraction unit extracts the image as an extraction target based on the recognition result of the traveling road,
The map generating system, wherein when extracting the image, the image extracting unit sets a clipping range of the image based on the recognition result of the travel path, and extracts the image within the set clipping range.
前記地図生成部は、前記車載装置から前記画像が送信されていない区間については、過去に送信された前記画像に基づいて前記地図を生成する、請求項に記載の地図生成システム。 2. The map generation system according to claim 1 , wherein said map generation unit generates said map based on said image transmitted in the past for a section in which said image has not been transmitted from said in-vehicle device.
JP2018031005A 2018-02-23 2018-02-23 Map generation system Active JP7115869B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018031005A JP7115869B2 (en) 2018-02-23 2018-02-23 Map generation system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018031005A JP7115869B2 (en) 2018-02-23 2018-02-23 Map generation system

Publications (2)

Publication Number Publication Date
JP2019144501A JP2019144501A (en) 2019-08-29
JP7115869B2 true JP7115869B2 (en) 2022-08-09

Family

ID=67772294

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018031005A Active JP7115869B2 (en) 2018-02-23 2018-02-23 Map generation system

Country Status (1)

Country Link
JP (1) JP7115869B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6979141B1 (en) * 2020-01-31 2021-12-08 株式会社 ミックウェア Display device and control program
JP2021165910A (en) * 2020-04-06 2021-10-14 トヨタ自動車株式会社 Data transmission device and data transmission method

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008170930A (en) 2006-12-12 2008-07-24 Asia Air Survey Co Ltd System for displaying image data associated with map information, and program for displaying image data associated with map information
WO2008093493A1 (en) 2007-01-29 2008-08-07 Kabushiki Kaisha Toshiba Car navigation device
JP2013156609A (en) 2012-02-01 2013-08-15 Mitsubishi Electric Corp Photomap creation system
JP2015004814A (en) 2013-06-20 2015-01-08 株式会社豊田中央研究所 Lane map generation device and program
JP2017142613A (en) 2016-02-09 2017-08-17 株式会社リコー Information processing device, information processing system, information processing method and information processing program

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014118877A1 (en) * 2013-01-29 2014-08-07 Kajiyama Toshio Local image / map information collecting and providing system

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008170930A (en) 2006-12-12 2008-07-24 Asia Air Survey Co Ltd System for displaying image data associated with map information, and program for displaying image data associated with map information
WO2008093493A1 (en) 2007-01-29 2008-08-07 Kabushiki Kaisha Toshiba Car navigation device
JP2013156609A (en) 2012-02-01 2013-08-15 Mitsubishi Electric Corp Photomap creation system
JP2015004814A (en) 2013-06-20 2015-01-08 株式会社豊田中央研究所 Lane map generation device and program
JP2017142613A (en) 2016-02-09 2017-08-17 株式会社リコー Information processing device, information processing system, information processing method and information processing program

Also Published As

Publication number Publication date
JP2019144501A (en) 2019-08-29

Similar Documents

Publication Publication Date Title
US20190359209A1 (en) Vehicle control device, vehicle control method, and vehicle control program
US20190286163A1 (en) Vehicle control device, vehicle control method, and storage medium
US20190283742A1 (en) Vehicle control device, vehicle control method, and storage medium
US20190071094A1 (en) Vehicle control system, vehicle control method, and storage medium
JP2019089516A (en) Vehicle control device, vehicle control method, and program
JP6627127B2 (en) Vehicle control device, vehicle control method, and program
US11370420B2 (en) Vehicle control device, vehicle control method, and storage medium
US11634139B2 (en) Vehicle control device, vehicle control method, and storage medium
JP7071250B2 (en) Vehicle control devices, vehicle control methods, and programs
US10974722B2 (en) Vehicle control apparatus, vehicle control method, and storage medium
US20190118804A1 (en) Vehicle control device, vehicle control method, and program
US11572052B2 (en) Vehicle control for facilitating control of a vehicle passing a prececeding vehicle
US20210070291A1 (en) Vehicle control device, vehicle control method, and storage medium
US11260866B2 (en) Vehicle control device, vehicle control method, and storage medium
JP7115869B2 (en) Map generation system
CN109987082B (en) Vehicle control device, vehicle control method, and storage medium
US20220080967A1 (en) Vehicle control device, vehicle control method, and non-transitory computer readable storage medium
US11117571B2 (en) Vehicle control device, vehicle control method, and storage medium
CN110816524B (en) Vehicle control device, vehicle control method, and storage medium
US20230242145A1 (en) Mobile object control device, mobile object control method, and storage medium
US11932283B2 (en) Vehicle control device, vehicle control method, and storage medium
US20220297696A1 (en) Moving object control device, moving object control method, and storage medium
US20210284165A1 (en) Vehicle control device, vehicle control method, and storage medium
JP6796047B2 (en) Vehicle control devices, vehicle control methods, and programs
CN112429001A (en) Vehicle control device, vehicle control method, and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201125

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210929

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211005

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211126

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220329

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220425

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220705

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220728

R151 Written notification of patent or utility model registration

Ref document number: 7115869

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151