JP2019144501A - Map generation system - Google Patents
Map generation system Download PDFInfo
- Publication number
- JP2019144501A JP2019144501A JP2018031005A JP2018031005A JP2019144501A JP 2019144501 A JP2019144501 A JP 2019144501A JP 2018031005 A JP2018031005 A JP 2018031005A JP 2018031005 A JP2018031005 A JP 2018031005A JP 2019144501 A JP2019144501 A JP 2019144501A
- Authority
- JP
- Japan
- Prior art keywords
- image
- vehicle
- unit
- road surface
- map generation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000605 extraction Methods 0.000 claims abstract description 165
- 238000003384 imaging method Methods 0.000 claims abstract description 74
- 230000005540 biological transmission Effects 0.000 claims abstract description 44
- 239000000284 extract Substances 0.000 claims description 19
- 238000000034 method Methods 0.000 description 30
- 230000001133 acceleration Effects 0.000 description 11
- 238000010586 diagram Methods 0.000 description 3
- 238000009434 installation Methods 0.000 description 3
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
Landscapes
- Instructional Devices (AREA)
- Processing Or Creating Images (AREA)
Abstract
Description
本発明は、地図生成システムに関する。 The present invention relates to a map generation system.
例えば、特許文献1には、車両に搭載された撮像部によって撮像された画像に基づいて、地図生成装置側において地図を生成するシステムが記載されている。より詳細には、車載装置は、撮像部で撮影した画像と車両の走行軌跡とを、地図生成装置に送信する。地図生成装置は、受信した走行軌跡に沿って画像を貼り付けることにより地図を生成する。 For example, Patent Document 1 describes a system that generates a map on the map generation device side based on an image captured by an imaging unit mounted on a vehicle. More specifically, the in-vehicle device transmits the image captured by the imaging unit and the travel locus of the vehicle to the map generation device. The map generation device generates a map by pasting an image along the received travel locus.
上記のシステムにおいて撮像部は、動画を撮影する際に、一定の周期(フレームレート)で画像を撮像している。このような画像に基づいて地図を生成する場合、例えば、車両の速度によっては、画像を貼り付けたときに隙間が生じたり、画像中の大部分が重複した複数の冗長な画像が地図生成装置に送信されたりする。このため、本技術分野では、撮像部で撮像された画像を車載装置から地図生成装置へ効率よく送信することが求められている。 In the above system, the imaging unit captures an image at a constant cycle (frame rate) when capturing a moving image. When a map is generated based on such an image, for example, depending on the speed of the vehicle, a gap is generated when the image is pasted, or a plurality of redundant images in which most of the images overlap are generated by the map generation device Or sent to. For this reason, in this technical field, it is requested | required that the image imaged by the imaging part should be efficiently transmitted from a vehicle-mounted apparatus to a map generation apparatus.
本発明に係る地図生成システムは、車両に搭載され、車両の周囲を撮像する車載装置と、車載装置で撮像された画像に基づいて地図を生成する地図生成装置と、を備える地図生成システムであって、車載装置は、車両の周囲を所定の撮像周期で撮像する撮像部と、車両の走行状況を取得する走行状況取得部と、車両の走行軌跡を認識する軌跡認識部と、走行状況に基づいて、撮像部で撮像された画像の抽出条件を設定する条件設定部と、撮像部で撮像された画像のうち、抽出条件を満たす画像を抽出する画像抽出部と、走行軌跡及び抽出された画像を、通信により地図生成装置に送信する送信部と、を備え、地図生成装置は、送信部から送信された走行軌跡及び画像を、通信により受信する受信部と、受信された走行軌跡及び画像に基づいて、地図を生成する地図生成部と、を備える。 A map generation system according to the present invention is a map generation system that is mounted on a vehicle and includes a vehicle-mounted device that images the surroundings of the vehicle, and a map generation device that generates a map based on an image captured by the vehicle-mounted device. The vehicle-mounted device is based on an imaging unit that captures the surroundings of the vehicle at a predetermined imaging cycle, a traveling state acquisition unit that acquires the traveling state of the vehicle, a locus recognition unit that recognizes the traveling locus of the vehicle, and the traveling state. A condition setting unit that sets an extraction condition for an image captured by the imaging unit, an image extraction unit that extracts an image satisfying the extraction condition among the images captured by the imaging unit, a travel locus, and the extracted image A transmission unit that transmits to the map generation device by communication, and the map generation device receives the travel locus and image transmitted from the transmission unit as a reception unit that receives by communication, and the received travel locus and image. On the basis of And a map generating unit for generating a map.
本発明によれば、撮像部で撮像された画像を車載装置から地図生成装置へ効率よく送信できる。 ADVANTAGE OF THE INVENTION According to this invention, the image imaged by the imaging part can be efficiently transmitted from a vehicle-mounted apparatus to a map generation apparatus.
以下、本発明の実施形態について図面を参照しながら説明する。なお、図面の説明において同一の要素には同一の符号を付し、重複する説明を省略する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the description of the drawings, the same elements are denoted by the same reference numerals, and redundant description is omitted.
(第1実施形態)
地図生成システムの第1実施形態について説明する。図1に示される地図生成システム1は、車両Vに搭載されたカメラ101で撮像された画像(以下「カメラ画像」と称する)に基づいて、地図を生成するシステムである。地図生成システム1は、車載装置100、及び地図生成装置200を備えている。
(First embodiment)
A first embodiment of a map generation system will be described. A map generation system 1 shown in FIG. 1 is a system that generates a map based on an image captured by a camera 101 mounted on a vehicle V (hereinafter referred to as “camera image”). The map generation system 1 includes an in-vehicle device 100 and a map generation device 200.
ここで、地図生成システム1で行われる地図の生成処理の概要について説明する。車載装置100は、図2(a)に示されるカメラ101で撮像されたカメラ画像Aから、図2(b)に示されるように走行路Lの路面を含む路面切出画像Cを切り出す。地図生成装置200は、車載装置100から路面切出画像Cを受信すると、図2(c)に示されるように、路面切出画像Cに対して鳥瞰変換を行って路面画像Dを生成する。地図生成装置200は、図2(d)に示されるように、路面画像Dを順次貼り付けることによって、地図としての路面オルソ画像Eを生成する。以下、地図生成システム1の各部の構成について詳細に説明する。 Here, an outline of map generation processing performed in the map generation system 1 will be described. The in-vehicle device 100 cuts out a road surface cutout image C including the road surface of the traveling road L as shown in FIG. 2B from the camera image A captured by the camera 101 shown in FIG. When the map generation device 200 receives the road surface cut image C from the in-vehicle device 100, the map generation device 200 performs a bird's eye view conversion on the road surface cut image C and generates a road surface image D as shown in FIG. The map generation apparatus 200 generates a road surface ortho image E as a map by sequentially pasting road surface images D as shown in FIG. Hereinafter, the configuration of each part of the map generation system 1 will be described in detail.
(車載装置の詳細)
車載装置100は、車両Vに搭載されている。車載装置100は、カメラ(撮像部)101、車両センサ(走行状況取得部)102、GPS受信部103、ECU104、及び送信部105を備えている。
(Details of in-vehicle devices)
The in-vehicle device 100 is mounted on the vehicle V. The in-vehicle device 100 includes a camera (imaging unit) 101, a vehicle sensor (running state acquisition unit) 102, a GPS reception unit 103, an ECU 104, and a transmission unit 105.
カメラ101は、車両Vの外部環境を撮像する撮像機器である。カメラ101は、車両Vのフロントガラスの内側に設けられている。カメラ101は、所定の撮像周期(フレームレート)で車両Vの前方を撮像する。また、カメラ101は、車両Vが走行する走行路の路面を含むように車両Vの前方を撮像する。カメラ101は、撮像したカメラ画像を、ECU104へ出力する。 The camera 101 is an imaging device that images the external environment of the vehicle V. The camera 101 is provided inside the windshield of the vehicle V. The camera 101 images the front of the vehicle V at a predetermined imaging cycle (frame rate). In addition, the camera 101 images the front of the vehicle V so as to include the road surface of the traveling path on which the vehicle V travels. The camera 101 outputs the captured camera image to the ECU 104.
車両センサ102は、車両Vの走行状況を取得するセンサである。本実施形態において、車両センサ102は、走行状況として車両Vの速度を検出する。すなわち、車両センサ102は、車両Vの速度を検出する車速センサを含む。車速センサとしては、例えば、車両Vの車輪又は車輪と一体に回転するドライブシャフト等に対して設けられ、車輪の回転速度を検出する車輪速センサが用いられる。車両センサ102は、検出した車速情報をECU104へ出力する。 The vehicle sensor 102 is a sensor that acquires the traveling state of the vehicle V. In the present embodiment, the vehicle sensor 102 detects the speed of the vehicle V as the traveling state. That is, the vehicle sensor 102 includes a vehicle speed sensor that detects the speed of the vehicle V. As the vehicle speed sensor, for example, a wheel speed sensor that is provided for a wheel of the vehicle V or a drive shaft that rotates integrally with the wheel and detects the rotation speed of the wheel is used. The vehicle sensor 102 outputs the detected vehicle speed information to the ECU 104.
GPS受信部103は、3個以上のGPS衛星から信号を受信することにより、車両Vの位置(例えば車両Vの緯度及び経度)を測定する。GPS受信部103は、測定した車両Vの位置情報をECU104へ出力する。 The GPS receiving unit 103 measures the position of the vehicle V (for example, the latitude and longitude of the vehicle V) by receiving signals from three or more GPS satellites. The GPS receiving unit 103 outputs the measured position information of the vehicle V to the ECU 104.
ECU104は、CPU[Central Processing Unit]、ROM[Read Only Memory]、RAM[Random Access Memory]などを有する電子制御ユニットである。ECU104では、例えば、ROMに記憶されているプログラムをRAMにロードし、RAMにロードされたプログラムをCPUで実行することにより各種の機能を実現する。ECU104は、複数の電子ユニットから構成されていてもよい。ECU104は、機能的には、画像抽出部111、抽出周期設定部(条件設定部)112、及び軌跡認識部113を備えている。 The ECU 104 is an electronic control unit having a CPU [Central Processing Unit], a ROM [Read Only Memory], a RAM [Random Access Memory], and the like. In the ECU 104, for example, various functions are realized by loading a program stored in the ROM into the RAM and executing the program loaded in the RAM by the CPU. The ECU 104 may be composed of a plurality of electronic units. Functionally, the ECU 104 includes an image extraction unit 111, an extraction cycle setting unit (condition setting unit) 112, and a locus recognition unit 113.
画像抽出部111は、図2(a)に示されるように、カメラ101によって所定の撮像周期で撮像される複数のカメラ画像Aのうち、抽出周期設定部112で設定された抽出条件を満たすカメラ画像Aを順次抽出する。抽出条件の詳細について詳しくは後述する。画像抽出部111は、カメラ画像Aが所定の撮像周期で撮像されるごとに、抽出条件に基づいてカメラ画像Aを抽出する。以下、カメラ101で撮像された複数のカメラ画像Aのうち、抽出されるカメラ画像Aと抽出されないカメラ画像Aとを区別する必要がある場合、抽出されるカメラ画像Aすなわち抽出条件を満たすカメラ画像Aを、抽出カメラ画像A1と称する。 As shown in FIG. 2A, the image extraction unit 111 is a camera that satisfies the extraction condition set by the extraction cycle setting unit 112 among a plurality of camera images A captured by the camera 101 at a predetermined imaging cycle. Image A is extracted sequentially. Details of the extraction conditions will be described later. The image extraction unit 111 extracts the camera image A based on the extraction condition every time the camera image A is captured at a predetermined imaging cycle. Hereinafter, when it is necessary to distinguish between the extracted camera image A and the non-extracted camera image A among the plurality of camera images A captured by the camera 101, the extracted camera image A, that is, the camera image satisfying the extraction condition. A is referred to as an extracted camera image A1.
また、画像抽出部111は、図2(b)に示されるように、抽出カメラ画像A1のうち、車両Vの前方に設定された路面相当領域B(図2(a)参照)に対応する部分の画像を切り出し(抽出し)、路面切出画像Cを生成する。なお、図2(a)及び図2(b)に示される画像中には、車両Vが走行する走行路L、並びに、走行路Lの両脇に付された白線L1が写っている。 Further, the image extraction unit 111 corresponds to a road surface equivalent region B set in front of the vehicle V (see FIG. 2A) in the extracted camera image A1, as shown in FIG. Is extracted (extracted), and a road surface cut-out image C is generated. In the images shown in FIGS. 2A and 2B, the traveling path L on which the vehicle V travels and the white line L1 attached to both sides of the traveling path L are shown.
ここで、路面相当領域Bは、車両Vの前方の予め設定された領域である。例えば、路面相当領域Bは、カメラ101の設置位置から車両Vの前方の8mから16mの範囲(つまり奥行き8mの領域)、かつ左右±3.5mの範囲(つまり幅7mの領域)の領域が設定されている。カメラ101は、カメラ画像A内に路面相当領域Bが含まれるように、取り付けの向きが設定されている。抽出カメラ画像A1のうち路面相当領域Bに対応する部分には走行路Lの路面が写っていると仮定し、画像抽出部111は、路面相当領域Bに対応する部分の画像を切り出して路面切出画像Cを生成する。 Here, the road surface equivalent area B is a preset area in front of the vehicle V. For example, the road surface equivalent area B is an area in the range from 8 m to 16 m in front of the vehicle V from the installation position of the camera 101 (that is, an area having a depth of 8 m) and in the range of ± 3.5 m to the left and right (that is, an area having a width of 7 m). Is set. The mounting direction of the camera 101 is set so that the road surface equivalent region B is included in the camera image A. Assuming that the road surface corresponding to the road surface equivalent area B in the extracted camera image A1 is reflected in the road surface L, the image extraction unit 111 cuts out the image corresponding to the road surface equivalent area B and cuts the road surface. An output image C is generated.
画像抽出部111は、切り出した路面切出画像Cを、送信部105へ出力する。すなわち、画像抽出部111は、カメラ101において所定の撮像周期で撮像されるカメラ画像Aのうち、抽出条件を満たす抽出カメラ画像A1から路面切出画像Cを順次切り出して送信部105へ出力する。 The image extraction unit 111 outputs the cut out road surface cut image C to the transmission unit 105. That is, the image extraction unit 111 sequentially cuts out the road surface cut image C from the extracted camera image A1 satisfying the extraction condition among the camera images A captured by the camera 101 with a predetermined imaging cycle, and outputs the cut image C to the transmission unit 105.
なお、画像抽出部111は、抽出条件に基づいて抽出カメラ画像A1を抽出した後に、抽出カメラ画像A1から路面切出画像Cを切り出すことに限定されない。例えば、画像抽出部111は、カメラ101によって撮像されるごとにカメラ画像Aから路面切出画像Cを切り出し、路面切出画像Cを切り出した後に、抽出条件を満たすカメラ画像A(抽出カメラ画像A1)から切り出された路面切出画像Cを抽出してもよい。 Note that the image extraction unit 111 is not limited to extracting the road cut-out image C from the extracted camera image A1 after extracting the extracted camera image A1 based on the extraction condition. For example, the image extraction unit 111 cuts out the road surface cut image C from the camera image A every time it is captured by the camera 101, cuts out the road surface cut image C, and then extracts the camera image A (extracted camera image A1) that satisfies the extraction condition. ) May be extracted from the road surface cut image C.
抽出周期設定部112は、車両センサ102で検出された車両Vの速度に基づいて、抽出条件を設定する。この抽出条件は、上述したように、画像抽出部111が、カメラ101で撮像された複数のカメラ画像Aから、路面切出画像Cを切り出す抽出カメラ画像A1を抽出するための条件である。本実施形態において、この抽出条件は、現在の時刻(現在の撮像タイミング)で撮像されたカメラ画像Aが抽出対象であるか否かを示している。すなわち、抽出条件は、カメラ画像Aを抽出カメラ画像A1として抽出する時刻が含まれている。 The extraction cycle setting unit 112 sets the extraction condition based on the speed of the vehicle V detected by the vehicle sensor 102. As described above, this extraction condition is a condition for the image extraction unit 111 to extract the extracted camera image A1 that extracts the road cut-out image C from the plurality of camera images A captured by the camera 101. In the present embodiment, this extraction condition indicates whether or not the camera image A captured at the current time (current imaging timing) is an extraction target. That is, the extraction condition includes a time at which the camera image A is extracted as the extracted camera image A1.
ここで、各時刻において撮像されたカメラ画像Aからそれぞれ路面画像Dを生成する場合、車両Vの速度が速いときには、図3(a)に示されるように、路面オルソ画像Eを生成したときに路面画像Dの重なり領域が小さくなる。この場合、各部の設定によっては、路面画像Dを貼り付けたときに画像の抜けが生じることがある。また、車両Vの速度が遅いときには、図3(b)に示されるように、路面オルソ画像Eを生成したときに路面画像Dの重なり領域が大きくなる。この場合、路面オルソ画像Eの生成に冗長な路面切出画像Cが車載装置100から地図生成装置200へ送信されることとなる。このため、本実施形態における抽出周期設定部112は、地図生成装置200が路面オルソ画像Eを生成するときに路面画像Dの重なり領域の大きさが適切となるように、抽出条件を設定する。 Here, when the road surface image D is generated from the camera image A captured at each time, when the speed of the vehicle V is high, when the road surface orthoimage E is generated as shown in FIG. The overlapping area of the road surface image D becomes smaller. In this case, depending on the setting of each part, image omission may occur when the road surface image D is pasted. When the speed of the vehicle V is low, as shown in FIG. 3B, the overlapping area of the road surface image D becomes large when the road surface orthoimage E is generated. In this case, a road surface cut-out image C redundant for generating the road surface orthoimage E is transmitted from the in-vehicle device 100 to the map generation device 200. Therefore, the extraction cycle setting unit 112 in the present embodiment sets the extraction condition so that the size of the overlapping area of the road surface image D is appropriate when the map generation device 200 generates the road surface orthoimage E.
具体的には、抽出周期設定部112は、2つの路面画像Dに基づいて、路面オルソ画像Eを生成するときの2つの路面画像Dの重複率を算出する。2つの路面画像Dのうちの一方の路面画像Dは、画像抽出部111が抽出した最新(直近)の抽出カメラ画像A1に基づいて生成された路面画像Dである。また、2つの路面画像のうちの他方の路面画像Dは、現在の時刻(現在の撮像タイミング)で撮像されたカメラ画像Aに基づいて生成したと仮定したときの路面画像Dである。このように、抽出周期設定部112は、直近に生成された路面画像Dと、現在の時刻でのカメラ画像Aに基づいて生成される仮定の路面画像Dとの重複率を算出する。ここでの重複率は、車両Vの速度によって変化する。このため、抽出周期設定部112は、車両Vの速度を考慮して、重複率を算出する。 Specifically, the extraction cycle setting unit 112 calculates the overlapping rate of the two road surface images D when generating the road surface orthoimage E based on the two road surface images D. One of the two road surface images D is the road surface image D generated based on the latest (most recent) extracted camera image A1 extracted by the image extraction unit 111. Further, the other road surface image D of the two road surface images is the road surface image D when it is assumed that the road image is generated based on the camera image A captured at the current time (current imaging timing). In this way, the extraction cycle setting unit 112 calculates the overlap rate between the most recently generated road surface image D and the assumed road surface image D generated based on the camera image A at the current time. Here, the overlapping rate varies depending on the speed of the vehicle V. For this reason, the extraction cycle setting unit 112 calculates the overlap rate in consideration of the speed of the vehicle V.
また、抽出周期設定部112は、算出した重複率が、予め定められた重複率閾値未満か否かを判定する。算出された重複率が予め定められた重複率未満である場合、抽出周期設定部112は、現在の時刻(現在の撮像タイミング)で撮像されたカメラ画像Aを抽出対象の抽出カメラ画像A1と判定する。抽出周期設定部112は、抽出条件として、現在の時刻で撮像されたカメラ画像Aを抽出対象とする旨を設定する。 In addition, the extraction cycle setting unit 112 determines whether or not the calculated duplication rate is less than a predetermined duplication rate threshold. When the calculated duplication rate is less than a predetermined duplication rate, the extraction cycle setting unit 112 determines that the camera image A taken at the current time (current imaging timing) is the extraction camera image A1 to be extracted. To do. The extraction cycle setting unit 112 sets, as an extraction condition, that the camera image A captured at the current time is to be extracted.
一方、算出された重複率が予め定められた重複率未満ではない場合、抽出周期設定部112は、現在の時刻(現在の撮像タイミング)で撮像されたカメラ画像Aを抽出対象ではないと判定する。この判定の後、抽出周期設定部112は、所定の撮像周期の経過後に、再び、上述したように、直近に生成された路面画像Dと、現在の時刻でのカメラ画像Aに基づいて生成したと仮定したときの路面画像Dとの重複率を算出する。このように、抽出周期設定部112は、所定の撮像周期ごとに、直近に生成された路面画像Dと、現在の時刻でのカメラ画像Aに基づいて生成したと仮定したときの路面画像Dとの重複率を算出する。そして、抽出周期設定部112は、算出した重複率に基づいて、現在の時刻で撮像されたカメラ画像Aを抽出対象とするか否かを判定し、抽出条件の設定を行う。 On the other hand, if the calculated overlap rate is not less than the predetermined overlap rate, the extraction cycle setting unit 112 determines that the camera image A captured at the current time (current image capture timing) is not an extraction target. . After this determination, the extraction cycle setting unit 112 generates again based on the most recently generated road surface image D and the camera image A at the current time, as described above, after the elapse of a predetermined imaging cycle. The overlap rate with the road surface image D is calculated. As described above, the extraction cycle setting unit 112 has the most recently generated road surface image D and the road surface image D when it is generated based on the camera image A at the current time for each predetermined imaging cycle. The duplication rate of is calculated. Then, based on the calculated overlap rate, the extraction cycle setting unit 112 determines whether or not the camera image A captured at the current time is to be extracted, and sets extraction conditions.
より具体的には、抽出周期設定部112は、カメラ101の撮像周期の1周期分における車両Vの移動量と、路面切出画像Cを切り出すときの路面相当領域Bとに基づいて、重複率を算出することができる。抽出周期設定部112は、車両Vの移動量を、車両センサ102で検出された車両Vの速度と、予め設定されたカメラ101の撮像周期(所定の撮像周期)とに基づいて算出することができる。ここでの路面相当領域Bは、一例として上述した、カメラ101の設置位置から車両Vの前方の8mから16mの範囲(つまり奥行き8mの領域)、かつ左右±3.5mの範囲(つまり幅7mの領域)の領域とする。 More specifically, the extraction cycle setting unit 112 is based on the amount of movement of the vehicle V in one cycle of the imaging cycle of the camera 101 and the road surface equivalent region B when the road surface cutout image C is cut out. Can be calculated. The extraction cycle setting unit 112 can calculate the amount of movement of the vehicle V based on the speed of the vehicle V detected by the vehicle sensor 102 and a preset imaging cycle (predetermined imaging cycle) of the camera 101. it can. The road surface equivalent area B here is, as an example, the range from 8 m to 16 m in front of the vehicle V from the installation position of the camera 101 (that is, an area having a depth of 8 m), and the range of ± 3.5 m to the left and right (that is, width 7 m). Area).
例えば、時刻t[s]において撮像されたカメラ画像Aが抽出カメラ画像A1として抽出され、この抽出カメラ画像A1から路面画像Dが生成されたとする。そして、カメラ101の次の撮像周期である時刻t+0.1[s]において車両Vが前方へ1m走行したとする。この場合、時刻t[s]において撮像された抽出カメラ画像A1から生成された路面画像Dと、時刻t+0.1[s]において撮像されたカメラ画像Aから生成したと仮定したときの路面画像Dとの重複率は、図4に示されるように、約87%となる。この場合、重複率は、予め設定された重複率閾値(40%)以上である。このため、抽出周期設定部112は、時刻t+0.1[s]に撮像されたカメラ画像Aを、抽出対象と判定しない。 For example, it is assumed that the camera image A captured at time t [s] is extracted as the extracted camera image A1, and the road surface image D is generated from the extracted camera image A1. Assume that the vehicle V travels 1 m forward at time t + 0.1 [s], which is the next imaging cycle of the camera 101. In this case, the road surface image D generated from the extracted camera image A1 captured at time t [s] and the road surface image D when assumed to be generated from the camera image A captured at time t + 0.1 [s]. As shown in FIG. 4, the overlap ratio with is about 87%. In this case, the duplication rate is equal to or higher than a preset duplication rate threshold (40%). For this reason, the extraction cycle setting unit 112 does not determine that the camera image A captured at time t + 0.1 [s] is an extraction target.
例えば、時刻t[s]において撮像された抽出カメラ画像A1から生成された路面画像Dと、時刻t[s]よりも5つ後の撮像周期である時刻t+0.5[s]において撮像されたカメラ画像Aから生成したと仮定したときの路面画像Dとの重複率は、重複率閾値(40%)未満となる。このため、抽出周期設定部112は、時刻t+0.5[s]に撮像されたカメラ画像Aを、抽出対象と判定する。そして、抽出周期設定部112は、抽出条件として、時刻t+0.5[s]で撮像されたカメラ画像Aを抽出対象とする旨を設定する。 For example, the road surface image D generated from the extracted camera image A1 captured at time t [s] and the image captured at time t + 0.5 [s], which is an imaging cycle five times after time t [s]. The overlap rate with the road surface image D when it is assumed that the image is generated from the camera image A is less than the overlap rate threshold (40%). Therefore, the extraction cycle setting unit 112 determines that the camera image A captured at time t + 0.5 [s] is an extraction target. Then, the extraction cycle setting unit 112 sets that the camera image A captured at time t + 0.5 [s] is to be extracted as an extraction condition.
このように、抽出周期設定部112は、最新の抽出カメラ画像A1に基づいて生成された路面画像Dと、この路面画像Dよりも後のタイミングで撮像されたカメラ画像Aに基づいて生成したと仮定したときの路面画像Dとの重複率を算出し、算出した重複率に応じてカメラ画像Aの抽出タイミング(抽出条件)を決定する。抽出周期設定部112は、設定した抽出条件を画像抽出部111へ出力する。なお、抽出条件を設定する際に用いられる重複率閾値は、一定の値でもよく、車両Vの走行している場所等に応じて変更されてもよい。 As described above, the extraction cycle setting unit 112 is generated based on the road surface image D generated based on the latest extracted camera image A1 and the camera image A captured at a timing later than the road surface image D. The overlapping rate with the road surface image D when assumed is calculated, and the extraction timing (extraction condition) of the camera image A is determined according to the calculated overlapping rate. The extraction cycle setting unit 112 outputs the set extraction condition to the image extraction unit 111. It should be noted that the overlap rate threshold value used when setting the extraction condition may be a constant value or may be changed according to the location where the vehicle V is traveling.
軌跡認識部113は、車両Vの走行軌跡及び姿勢(車両Vの向き)を認識する。本実施形態において、軌跡認識部113は、走行軌跡及び姿勢として、カメラ101が撮像を行うときの各撮像タイミングにおける車両Vの位置及び姿勢を認識する。軌跡認識部113は、GPS受信部103で測定された位置情報に基づいて、各撮像タイミングにおける車両Vの位置を認識する。軌跡認識部113は、位置情報の変化に基づいて、各撮像タイミングにおける車両Vの姿勢を認識する。なお、軌跡認識部113は、車両Vの重心の鉛直軸周りのヨーレート(回転角速度)を検出するジャイロセンサ等の検出結果に基づいて、車両Vの姿勢を検出してもよい。軌跡認識部113は、認識した車両Vの位置及び姿勢を、送信部105へ出力する。 The trajectory recognition unit 113 recognizes the travel trajectory and posture (the direction of the vehicle V) of the vehicle V. In the present embodiment, the trajectory recognition unit 113 recognizes the position and orientation of the vehicle V at each imaging timing when the camera 101 performs imaging as the travel trajectory and orientation. The trajectory recognition unit 113 recognizes the position of the vehicle V at each imaging timing based on the position information measured by the GPS reception unit 103. The trajectory recognition unit 113 recognizes the posture of the vehicle V at each imaging timing based on the change in position information. The trajectory recognition unit 113 may detect the attitude of the vehicle V based on a detection result of a gyro sensor or the like that detects a yaw rate (rotational angular velocity) around the vertical axis of the center of gravity of the vehicle V. The trajectory recognition unit 113 outputs the recognized position and orientation of the vehicle V to the transmission unit 105.
送信部105は、路面切出画像Cが入力された場合、入力された路面切出画像Cと、この路面切出画像Cを生成する基となった抽出カメラ画像A1が撮像された時刻における車両Vの位置及び姿勢とを、地図生成装置200へ通信により送信する。送信部105は、無線通信又は有線通信等の種々の通信方法によって路面切出画像C等を地図生成装置200へ送信する。すなわち、送信部105は、抽出条件に基づいて抽出された抽出カメラ画像A1の一部分を地図生成装置200に送信する。 When the road surface cut-out image C is input, the transmission unit 105 receives the input road surface cut-out image C and the vehicle at the time when the extracted camera image A1 that is the basis for generating the road surface cut-out image C is captured. The position and orientation of V are transmitted to the map generation apparatus 200 by communication. The transmission unit 105 transmits the road surface cut image C and the like to the map generation device 200 by various communication methods such as wireless communication or wired communication. That is, the transmission unit 105 transmits a part of the extracted camera image A1 extracted based on the extraction condition to the map generation device 200.
(地図生成装置の詳細)
地図生成装置200は、例えば、地図情報を管理するセンター等の施設に設けられている。地図生成装置200は、受信部201、及び地図生成部202を備えている。
(Details of map generator)
The map generation device 200 is provided in a facility such as a center that manages map information, for example. The map generation device 200 includes a reception unit 201 and a map generation unit 202.
受信部201は、送信部105から送信された路面切出画像C、車両Vの位置及び姿勢を、通信により取得する。 The receiving unit 201 acquires the road surface cut image C and the position and posture of the vehicle V transmitted from the transmitting unit 105 through communication.
地図生成部202は、ECU104と同様に、CPU、ROM、RAM等を有する電子制御ユニットによって構成されている。地図生成部202は、受信部201で受信された路面切出画像C、車両Vの位置及び姿勢に基づいて、地図を生成する。具体的には、地図生成部202は、受信された路面切出画像Cに対して鳥瞰変換を行って路面画像Dを生成する(図2(c)参照)。そして、地図生成部202は、生成した路面画像Dを、地図の座標系に貼り付ける。なお、地図生成部202は、路面画像Dを貼り付けるときに、車両Vの位置及び姿勢に基づいて路面画像Dを移動及び回転させて、貼り付ける。 Similar to the ECU 104, the map generation unit 202 is configured by an electronic control unit having a CPU, a ROM, a RAM, and the like. The map generation unit 202 generates a map based on the road surface cut image C received by the reception unit 201 and the position and orientation of the vehicle V. Specifically, the map generation unit 202 performs a bird's eye view conversion on the received road surface cutout image C to generate a road surface image D (see FIG. 2C). Then, the map generation unit 202 pastes the generated road surface image D on the map coordinate system. Note that when the map generation unit 202 pastes the road surface image D, the map generation unit 202 moves and rotates the road surface image D based on the position and orientation of the vehicle V and pastes them.
地図生成部202は、この貼り付けを受信部201によって路面切出画像C等が受信されるごとに行い、地図としての路面オルソ画像Eを生成する。抽出条件に基づいて生成された路面切出画像C等に基づいて貼り付けを行うことで、路面画像D同士の重複(重なり)が重複率閾値未満となる。地図生成部202によって生成された路面オルソ画像Eは、地図情報の作成等、種々の用途に用いられる。 The map generation unit 202 performs this pasting every time the road surface cut image C or the like is received by the reception unit 201, and generates a road surface orthoimage E as a map. By pasting on the basis of the road surface cut image C generated based on the extraction conditions, the overlap (overlap) between the road surface images D becomes less than the overlap rate threshold. The road surface orthoimage E generated by the map generation unit 202 is used for various purposes such as creation of map information.
(画像の送信処理の流れ)
次に、車載装置100において行われる画像の送信処理の流れについて図5を用いて説明する。カメラ101は、所定の撮像周期で撮像を行っている。図5に示される処理は、カメラ101が撮像を行うときの撮像周期ごと(撮像時刻ごと)に開始される。
(Flow of image transmission processing)
Next, the flow of image transmission processing performed in the in-vehicle device 100 will be described with reference to FIG. The camera 101 performs imaging at a predetermined imaging cycle. The process shown in FIG. 5 is started for each imaging cycle (every imaging time) when the camera 101 performs imaging.
図5に示されるように、軌跡認識部113は、現在の時刻における車両Vの位置及び姿勢を認識する(S101)。車両センサ102は、現在の時刻における車両Vの速度を検出する(S102)。抽出周期設定部112は、車両Vの速度を考慮しつつ、直近の抽出カメラ画像A1に基づいて生成された路面画像Dと、現在の時刻でのカメラ画像Aに基づいて生成したと仮定したときの路面画像Dとの重複率を算出する(S103)。 As shown in FIG. 5, the trajectory recognition unit 113 recognizes the position and posture of the vehicle V at the current time (S101). The vehicle sensor 102 detects the speed of the vehicle V at the current time (S102). When it is assumed that the extraction cycle setting unit 112 is generated based on the road surface image D generated based on the latest extracted camera image A1 and the camera image A at the current time while considering the speed of the vehicle V The overlap rate with the road surface image D is calculated (S103).
抽出周期設定部112は、算出した重複率が重複率閾値未満であるか否かを判定する(S104)。重複率が重複率閾値未満でない場合(S104:NO)、車載装置100は、今回の処理を終了し、所定の撮像周期の経過後に再び図5に示される処理を開始する。 The extraction cycle setting unit 112 determines whether or not the calculated duplication rate is less than the duplication rate threshold (S104). If the overlap rate is not less than the overlap rate threshold (S104: NO), the in-vehicle device 100 ends the current process, and starts the process illustrated in FIG. 5 again after a predetermined imaging period has elapsed.
一方、重複率が重複率閾値未満である場合(S104:YES)、抽出周期設定部112は、現在の時刻(現在の撮像タイミング)で撮像されたカメラ画像Aを抽出対象の抽出カメラ画像A1と判定し、このカメラ画像Aを抽出対象とする旨の抽出条件を設定する。画像抽出部111は、抽出条件に基づいて、現在の時刻において撮像されたカメラ画像Aを抽出カメラ画像A1として抽出し、抽出した抽出カメラ画像A1を切り出して路面切出画像Cを生成する(S105)。送信部105は、生成された路面切出画像Cと、S101で認識された現在の時刻における車両Vの位置及び姿勢とを地図生成装置200へ通信により送信する(S106)。 On the other hand, when the duplication rate is less than the duplication rate threshold (S104: YES), the extraction cycle setting unit 112 sets the camera image A taken at the current time (current imaging timing) as the extraction camera image A1 to be extracted. Determination is made, and an extraction condition for setting the camera image A as an extraction target is set. Based on the extraction condition, the image extraction unit 111 extracts the camera image A captured at the current time as an extracted camera image A1, and cuts out the extracted extracted camera image A1 to generate a road surface cutout image C (S105). ). The transmission part 105 transmits the produced | generated road surface cut-out image C and the position and attitude | position of the vehicle V in the present time recognized by S101 to the map production | generation apparatus 200 by communication (S106).
以上のように、本実施形態の地図生成システム1は、路面オルソ画像Eを生成するときの路面画像Dの重複率が重複率判定閾値未満となるように車載装置100から地図生成装置200へ路面切出画像Cを送信することができる。これにより、地図生成システム1は、カメラ101で撮像された画像(路面切出画像C)を車載装置100から地図生成装置200へ効率よく送信できる。 As described above, the map generation system 1 according to the present embodiment transmits the road surface from the in-vehicle device 100 to the map generation device 200 so that the overlap rate of the road surface image D when generating the road surface orthoimage E is less than the overlap rate determination threshold. The cut image C can be transmitted. Thereby, the map generation system 1 can efficiently transmit the image (road surface cut image C) captured by the camera 101 from the in-vehicle device 100 to the map generation device 200.
(第2実施形態)
地図生成システムの第2実施形態について説明する。第1実施形態における車載装置100は、カメラ101の撮像周期の各時刻において重複率を確認しながら路面切出画像C等を送信する否かを判定している。第2実施形態における車載装置では、路面切出画像C等を送信した時点での車両Vの速度及び加速度に基づいて、次に路面切出画像C等を送信するタイミングを推定する。
(Second Embodiment)
A second embodiment of the map generation system will be described. The in-vehicle device 100 in the first embodiment determines whether or not to transmit the road surface cut image C or the like while checking the overlap rate at each time of the imaging cycle of the camera 101. In the in-vehicle device in the second embodiment, the next transmission timing of the road surface cut image C or the like is estimated based on the speed and acceleration of the vehicle V at the time when the road surface cut image C or the like is transmitted.
具体的には、図6に示されるように、第2実施形態における地図生成システム1Aは、車載装置100A、及び地図生成装置200を備えている。なお、以下の説明において、第1実施形態の地図生成システム1と同様の構成要素については同一の符合を付して詳細な説明を省略する。車載装置100Aは、カメラ(撮像部)101、車両センサ(走行状況取得部)102A、GPS受信部103、ECU104A、及び送信部105を備えている。 Specifically, as illustrated in FIG. 6, the map generation system 1 </ b> A according to the second embodiment includes an in-vehicle device 100 </ b> A and a map generation device 200. In addition, in the following description, about the component similar to the map generation system 1 of 1st Embodiment, the same code | symbol is attached | subjected and detailed description is abbreviate | omitted. The in-vehicle device 100A includes a camera (imaging unit) 101, a vehicle sensor (running state acquisition unit) 102A, a GPS reception unit 103, an ECU 104A, and a transmission unit 105.
ECU104Aは、第1実施形態におけるECU104と同様の電子制御ユニットである。ECU104Aは、機能的には、画像抽出部111、抽出周期設定部(条件設定部)112A、及び軌跡認識部113を備えている。すなわち、車載装置100Aは、第1実施形態における車載装置100の車両センサ102及び抽出周期設定部112に代えて、車両センサ102A及び抽出周期設定部112Aを備えている。 The ECU 104A is an electronic control unit similar to the ECU 104 in the first embodiment. The ECU 104A functionally includes an image extraction unit 111, an extraction cycle setting unit (condition setting unit) 112A, and a locus recognition unit 113. That is, the in-vehicle device 100A includes a vehicle sensor 102A and an extraction cycle setting unit 112A instead of the vehicle sensor 102 and the extraction cycle setting unit 112 of the in-vehicle device 100 in the first embodiment.
車両センサ102Aは、車両Vの走行状況を取得するセンサである。本実施形態において、車両センサ102Aは、走行状況として車両Vの速度及び加速度を検出する。すなわち、車両センサ102Aは、車両Vの速度を検出する車速センサと、車両Vの加速度を検出する加速度センサとを含む。車両センサ102Aは、検出した車両Vの速度及び加速度をECU104Aに入力する。 The vehicle sensor 102A is a sensor that acquires the traveling state of the vehicle V. In the present embodiment, the vehicle sensor 102A detects the speed and acceleration of the vehicle V as the traveling state. That is, the vehicle sensor 102 </ b> A includes a vehicle speed sensor that detects the speed of the vehicle V and an acceleration sensor that detects the acceleration of the vehicle V. The vehicle sensor 102A inputs the detected speed and acceleration of the vehicle V to the ECU 104A.
抽出周期設定部112Aは、車両センサ102Aで検出された車両Vの速度及び加速度に基づいて、抽出条件を設定する。この抽出条件は、画像抽出部111が次にカメラ画像Aを抽出する時刻が含まれている。具体的には、抽出周期設定部112Aは、画像抽出部111によって抽出カメラ画像A1が抽出された場合、抽出カメラ画像A1が抽出された時刻における車両Vの速度及び加速度に基づいて、この抽出カメラ画像A1に基づいて生成された路面画像Dと、この路面画像Dよりも後の時刻に撮像されたカメラ画像Aに基づいて生成したと仮定したときの路面画像Dとの重複率が重複閾値未満となる時刻を算出する。抽出周期設定部112は、重複率が重複閾値未満となる時刻を、次に画像抽出部111が抽出カメラ画像A1を抽出すべき時刻として抽出条件に設定する。 The extraction cycle setting unit 112A sets the extraction condition based on the speed and acceleration of the vehicle V detected by the vehicle sensor 102A. This extraction condition includes the time when the image extraction unit 111 next extracts the camera image A. Specifically, when the extraction camera image A1 is extracted by the image extraction unit 111, the extraction cycle setting unit 112A is based on the speed and acceleration of the vehicle V at the time when the extraction camera image A1 is extracted. The overlapping rate between the road surface image D generated based on the image A1 and the road surface image D assumed to be generated based on the camera image A taken at a time later than the road surface image D is less than the overlap threshold. Is calculated. The extraction cycle setting unit 112 sets the time when the duplication rate is less than the duplication threshold as the extraction condition as the time when the image extraction unit 111 should extract the extracted camera image A1.
画像抽出部111は、抽出周期設定部112で設定された抽出条件に基づいて抽出カメラ画像A1を抽出する。具体的には、画像抽出部111は、抽出条件を参照し、現在の時刻が、抽出条件に設定された次に抽出カメラ画像A1を抽出する時刻である場合に、カメラ101で撮像されたカメラ画像Aを抽出カメラ画像A1として抽出し、この抽出カメラ画像A1から路面切出画像Cを生成する。 The image extraction unit 111 extracts the extracted camera image A1 based on the extraction condition set by the extraction cycle setting unit 112. Specifically, the image extraction unit 111 refers to the extraction condition, and when the current time is the time when the extracted camera image A1 is extracted next after the extraction condition is set, the camera imaged by the camera 101 is captured. An image A is extracted as an extracted camera image A1, and a road surface cutout image C is generated from the extracted camera image A1.
(画像の送信処理の流れ)
次に、車載装置100Aにおいて行われる画像の送信処理の流れについて図7を用いて説明する。カメラ101は、所定の撮像周期で撮像を行っている。図7に示される処理は、カメラ101が撮像を行うときの撮像周期ごと(撮像時刻ごと)に開始される。
(Flow of image transmission processing)
Next, the flow of image transmission processing performed in the in-vehicle device 100A will be described with reference to FIG. The camera 101 performs imaging at a predetermined imaging cycle. The process shown in FIG. 7 is started for each imaging cycle (every imaging time) when the camera 101 performs imaging.
図7に示されるように、軌跡認識部113は、現在の時刻における車両Vの位置及び姿勢を認識する(S201)。画像抽出部111は、現在の時刻が、抽出条件に設定された次に抽出カメラ画像A1を抽出する時刻であるか否かを判定する(S202)。現在の時刻が次に抽出カメラ画像A1を抽出する時刻でない場合(S202:NO)、車載装置100Aは、今回の処理を終了し、所定の撮像周期の経過後に再び図7に示される処理を開始する。なお、現在の時刻が次に抽出カメラ画像A1を抽出する時刻でない場合とは、現在の時刻が次に抽出カメラ画像A1を抽出する時刻よりも前の場合である。 As shown in FIG. 7, the trajectory recognition unit 113 recognizes the position and posture of the vehicle V at the current time (S201). The image extraction unit 111 determines whether or not the current time is the time when the extracted camera image A1 is extracted next after the extraction condition is set (S202). When the current time is not the next time to extract the extracted camera image A1 (S202: NO), the in-vehicle device 100A ends the current process and starts the process illustrated in FIG. 7 again after a predetermined imaging period has elapsed. To do. The case where the current time is not the time when the extracted camera image A1 is extracted next is a case where the current time is before the time when the extracted camera image A1 is extracted next.
一方、現在の時刻が次に抽出カメラ画像A1を抽出する時刻である場合(S202:YES)、画像抽出部111は、現在の時刻においてカメラ101によって撮像されたカメラ画像Aを抽出カメラ画像A1として抽出し、抽出した抽出カメラ画像A1から路面切出画像Cを生成する(S203)。車両センサ102Aは、現在の時刻における車両Vの速度及び加速度を検出する(S204)。 On the other hand, when the current time is the time when the extracted camera image A1 is extracted next (S202: YES), the image extracting unit 111 sets the camera image A captured by the camera 101 at the current time as the extracted camera image A1. Extraction is performed, and a road surface cutout image C is generated from the extracted camera image A1 (S203). The vehicle sensor 102A detects the speed and acceleration of the vehicle V at the current time (S204).
抽出周期設定部112Aは、車両Vの速度及び加速度に基づいて、次に抽出カメラ画像A1を抽出する時刻を算出する。具体的には、抽出周期設定部112Aは、上述したように、路面画像Dの重複率が重複閾値未満となる時刻を算出し、抽出条件として設定する(S205)。送信部105は、S203で生成された路面切出画像Cと、S201で認識された現在の時刻における車両Vの位置及び姿勢とを地図生成装置200へ通信により送信する(S206)。 Based on the speed and acceleration of the vehicle V, the extraction cycle setting unit 112A calculates a time for extracting the extracted camera image A1 next. Specifically, as described above, the extraction cycle setting unit 112A calculates a time when the overlap rate of the road surface image D is less than the overlap threshold, and sets it as an extraction condition (S205). The transmission unit 105 transmits the road surface cut image C generated in S203 and the position and posture of the vehicle V recognized at S201 to the map generation device 200 by communication (S206).
以上のように、本実施形態の地図生成システム1Aでは、第1実施形態と同様に、カメラ101で撮像された画像(路面切出画像C)を車載装置100Aから地図生成装置200へ効率よく送信できる。また、車載装置100Aは、カメラ101が撮像するカメラ画像Aを抽出カメラ画像A1として抽出した後、次にカメラ画像Aを抽出カメラ画像A1として抽出するタイミングを把握できる。このため、車載装置100Aは、次に抽出カメラ画像A1を抽出する時刻まではカメラ101を他の目的に利用することができる。 As described above, in the map generation system 1A of the present embodiment, as in the first embodiment, the image (road surface cut image C) captured by the camera 101 is efficiently transmitted from the in-vehicle device 100A to the map generation device 200. it can. Further, the in-vehicle device 100A can grasp the timing at which the camera image A is extracted as the extracted camera image A1 after extracting the camera image A captured by the camera 101 as the extracted camera image A1. For this reason, the in-vehicle device 100A can use the camera 101 for other purposes until the next time of extracting the extracted camera image A1.
例えば、カメラ101は、図8に示されるように、0.1秒ごとに露光パターンが異なる4枚の画像を撮像しているとする。ここでは、カメラ101は、露光パターンA〜Dの画像をそれぞれ撮像している。露光パターンAは、路面オルソ画像Eを生成するために用いられる画像を撮像するための露光パターンとする。この場合、次に画像抽出部111がカメラ画像Aを抽出するタイミングが0.3秒後であれば、その間は露光パターンAで撮像することが不要となる。このため、例えば、カメラ101は、露光パターンAに代えて、物体認識に用いられる画像を撮像するための露光パターンCで撮像することで、露光パターンCの画像を0.05秒間隔で撮像できる。これにより、例えば、物体認識の周期を早めることができる。 For example, as shown in FIG. 8, it is assumed that the camera 101 is capturing four images with different exposure patterns every 0.1 second. Here, the camera 101 captures images of the exposure patterns A to D, respectively. The exposure pattern A is an exposure pattern for capturing an image used to generate the road surface orthoimage E. In this case, if the timing at which the image extraction unit 111 extracts the camera image A next is 0.3 seconds later, it is not necessary to capture the exposure pattern A during that time. For this reason, for example, the camera 101 can capture an image of the exposure pattern C at intervals of 0.05 seconds by capturing with an exposure pattern C for capturing an image used for object recognition instead of the exposure pattern A. . Thereby, for example, the cycle of object recognition can be accelerated.
(第3実施形態)
地図生成システムの第3実施形態について説明する。第3実施形態における車載装置では、カメラ画像Aから路面切出画像Cとして切り出す範囲を変更することにより、路面画像Dを貼り付けたときの重複率が所望の重複率となるようにしている。なお、本実施形態では、第1実施形態のように複数のカメラ画像Aから抽出カメラ画像A1を抽出して路面切出画像Cを生成するのではなく、カメラ101で撮像された全てのカメラ画像Aから路面切出画像Cを生成する。
(Third embodiment)
A third embodiment of the map generation system will be described. In the in-vehicle device according to the third embodiment, by changing the range to be cut out from the camera image A as the road surface cut image C, the overlap rate when the road surface image D is pasted becomes the desired overlap rate. Note that, in this embodiment, instead of extracting the extracted camera image A1 from the plurality of camera images A to generate the road surface cut image C as in the first embodiment, all the camera images captured by the camera 101 are used. A road cut-out image C is generated from A.
具体的には、図9に示されるように、第3実施形態における地図生成システム1Bは、車載装置100B、及び地図生成装置200を備えている。車載装置100Bは、カメラ(撮像部)101、車両センサ(走行状況取得部)102、GPS受信部103、ECU104B、及び送信部105を備えている。 Specifically, as illustrated in FIG. 9, the map generation system 1 </ b> B according to the third embodiment includes an in-vehicle device 100 </ b> B and a map generation device 200. The in-vehicle device 100B includes a camera (imaging unit) 101, a vehicle sensor (running state acquisition unit) 102, a GPS reception unit 103, an ECU 104B, and a transmission unit 105.
ECU104Bは、第1実施形態におけるECU104と同様の電子制御ユニットである。ECU104Bは、機能的には、画像抽出部111B、画像切出範囲設定部(条件設定部)112B、及び軌跡認識部113を備えている。すなわち、車載装置100Bは、第1実施形態における車載装置100の画像抽出部111及び抽出周期設定部112に代えて、画像抽出部111B及び画像切出範囲設定部112Bを備えている。 The ECU 104B is an electronic control unit similar to the ECU 104 in the first embodiment. The ECU 104B functionally includes an image extraction unit 111B, an image cut-out range setting unit (condition setting unit) 112B, and a trajectory recognition unit 113. That is, the in-vehicle device 100B includes an image extraction unit 111B and an image cut-out range setting unit 112B instead of the image extraction unit 111 and the extraction cycle setting unit 112 of the in-vehicle device 100 in the first embodiment.
画像切出範囲設定部112Bは、車両センサ102で検出された車両Vの速度に基づいて、カメラ画像Aから路面切出画像Cとして切り出す範囲(切り出し範囲)を算出する。具体的には、例えば、カメラ101の撮像周期を0.1秒とし、現在の車両Vの速度を40km/hとする。この場合、カメラ101の次の撮像タイミングまでの間に車両Vが約1m進むと予想される。このため、画像切出範囲設定部112Bは、次の撮像時刻でのカメラ画像Aに基づいて生成される路面画像Dと、現在の時刻でのカメラ画像Aに基づいて生成される路面画像Dとの重複率が例えば約50%となるように、カメラ画像Aから路面切出画像Cとして切り出す範囲を算出する。この場合、カメラ画像Aから路面切出画像Cとして切り出す範囲は、カメラ101の設置位置から車両Vの前方の8mから10mの範囲(つまり奥行き2mの領域)、かつ左右±3.5mの範囲(つまり幅7mの領域)の領域に対応する画像範囲となる。 The image cutout range setting unit 112B calculates a range (cutout range) to be cut out as a road surface cutout image C from the camera image A based on the speed of the vehicle V detected by the vehicle sensor 102. Specifically, for example, the imaging cycle of the camera 101 is 0.1 seconds, and the current speed of the vehicle V is 40 km / h. In this case, the vehicle V is expected to travel approximately 1 m before the next imaging timing of the camera 101. For this reason, the image cutout range setting unit 112B includes a road surface image D generated based on the camera image A at the next imaging time, and a road surface image D generated based on the camera image A at the current time. The range to be cut out from the camera image A as the road cut-out image C is calculated so that the overlap ratio of the image becomes approximately 50%, for example. In this case, the range to be extracted from the camera image A as the road surface cut image C is a range from 8 m to 10 m in front of the vehicle V from the installation position of the camera 101 (that is, a region having a depth of 2 m) and a range of ± 3.5 m to the left and right ( That is, the image range corresponds to a region having a width of 7 m.
画像切出範囲設定部112Bは、算出した路面切出画像Cとして切り出す範囲を、抽出条件として設定する。画像切出範囲設定部112Bは、カメラ101の撮像周期ごとに、抽出条件を設定する。画像切出範囲設定部112Bは、設定した抽出条件を画像抽出部111Bへ出力する。 The image cutout range setting unit 112B sets a range to be cut out as the calculated road cutout image C as an extraction condition. The image cutout range setting unit 112B sets extraction conditions for each imaging cycle of the camera 101. The image cutout range setting unit 112B outputs the set extraction condition to the image extraction unit 111B.
画像抽出部111Bは、カメラ画像Aのうち、抽出条件として設定された範囲に対応する部分の画像を切り出して路面切出画像Cを生成する。なお、画像抽出部111Bは、カメラ101においてカメラ画像Aが撮像されるごとに、画像切出範囲設定部112Bから入力された抽出条件に基づいて路面切出画像Cを切り出す。画像抽出部111Bは、切り出した路面切出画像Cを送信部105へ出力する。 The image extraction unit 111B generates a road surface cut image C by cutting out a part of the camera image A corresponding to the range set as the extraction condition. The image extracting unit 111B cuts out the road surface cut image C based on the extraction condition input from the image cutout range setting unit 112B every time the camera 101 captures the camera image A. The image extraction unit 111B outputs the cut out road surface cut image C to the transmission unit 105.
(画像の送信処理の流れ)
次に、車載装置100Bにおいて行われる画像の送信処理の流れについて図10を用いて説明する。カメラ101は、所定の撮像周期で撮像を行っている。図10に示される処理は、カメラ101が撮像を行うときの撮像周期ごと(撮像時刻ごと)に開始される。
(Flow of image transmission processing)
Next, the flow of image transmission processing performed in the in-vehicle device 100B will be described with reference to FIG. The camera 101 performs imaging at a predetermined imaging cycle. The process illustrated in FIG. 10 is started for each imaging cycle (every imaging time) when the camera 101 performs imaging.
図9に示されるように、軌跡認識部113は、現在の時刻における車両Vの位置及び姿勢を認識する(S301)。車両センサ102は、現在の時刻における車両Vの速度を検出する(S302)。画像切出範囲設定部112Bは、車両Vの速度に基づいて、カメラ画像Aから路面切出画像Cとして切り出す範囲を算出する(S303)。画像抽出部111Bは、カメラ画像Aを切り出して路面切出画像Cを生成する(S304)。送信部105は、生成された路面切出画像Cと、S301で認識された現在の時刻における車両Vの位置及び姿勢とを地図生成装置200へ通信により送信する(S305)。 As shown in FIG. 9, the trajectory recognition unit 113 recognizes the position and posture of the vehicle V at the current time (S301). The vehicle sensor 102 detects the speed of the vehicle V at the current time (S302). Based on the speed of the vehicle V, the image cutout range setting unit 112B calculates a range cut out from the camera image A as a road surface cutout image C (S303). The image extraction unit 111B cuts out the camera image A and generates a road surface cutout image C (S304). The transmission unit 105 transmits the generated road surface cut image C and the position and posture of the vehicle V at the current time recognized in S301 to the map generation device 200 by communication (S305).
以上のように、本実施形態の地図生成システム1Bにおいて、画像抽出部111Bは、路面オルソ画像Eを生成するときの路面画像Dの重複率が所望の重複率となるように、カメラ画像Aを切り出して路面切出画像Cを生成する。これにより、地図生成システム1Bは、路面切出画像Cのうち路面オルソ画像Eの生成に冗長な部分を抑制しつつ、カメラ101で撮像された画像(路面切出画像C)を車載装置100Bから地図生成装置200へ効率よく送信できる。 As described above, in the map generation system 1B of the present embodiment, the image extraction unit 111B captures the camera image A so that the overlapping rate of the road surface image D when generating the road surface orthoimage E becomes a desired overlapping rate. A road surface cutout image C is generated by cutting out. Thereby, the map generation system 1B suppresses a redundant portion for generation of the road surface orthoimage E in the road surface cut image C, and the image (road surface cut image C) captured by the camera 101 from the in-vehicle device 100B. It can be efficiently transmitted to the map generation device 200.
なお、車両Vが定速で走行している場合、カメラ画像Aから路面切出画像Cとして切り出す範囲を算出するときに用いられる路面画像Dの重複率が低く設定されていても、路面画像Dを貼り付けたときに画像の抜けが発生する可能性は低い。しかしながら、加減速時においては、重複率が低く設定されていると、路面画像Dを貼り付けたときに画像の抜けが発生する可能性がある。このため、画像切出範囲設定部112Bは、車両Vの速度だけでなく車両Vの加速度も考慮して、路面切出画像Cとして切り出す範囲を設定してもよい。この場合、地図生成システム1Bは、車載装置100Bから地図生成装置200へより効率よく路面切出画像C等を送信できる。 When the vehicle V is traveling at a constant speed, the road surface image D is set even when the overlap rate of the road surface image D used when calculating the range to be cut out from the camera image A as the road surface cut image C is set low. There is a low possibility that an image will be lost when the image is pasted. However, during acceleration / deceleration, if the overlap rate is set low, there is a possibility that image omission occurs when the road surface image D is pasted. For this reason, the image cutout range setting unit 112B may set a range to be cut out as the road surface cutout image C in consideration of not only the speed of the vehicle V but also the acceleration of the vehicle V. In this case, the map generation system 1B can more efficiently transmit the road surface cut image C and the like from the in-vehicle device 100B to the map generation device 200.
(第4実施形態)
地図生成システムの第4実施形態について説明する。図11に示されるように、第4実施形態における地図生成システム1Cは、車載装置100C、及び地図生成装置200Cを備えている。
(Fourth embodiment)
A fourth embodiment of the map generation system will be described. As shown in FIG. 11, a map generation system 1C according to the fourth embodiment includes an in-vehicle device 100C and a map generation device 200C.
ここで、地図生成システム1Cで行われる地図の生成処理の概要について説明する。車両Vの走行路の路面の多くの部分は車線(白線)のみで構成され、路面標示等を有する特徴的な部分は一部にしか存在しない。このため、地図生成システム1Cは、車線のみで構成されている部分については、ある時刻で撮像されたカメラ画像から生成される車線のみの路面画像を複製して貼り付ける。地図生成システム1Cは、路面標示等を有する特徴的な部分については、撮像されたカメラ画像から生成される路面標示等を含む路面画像を生成して貼り付ける。これにより、地図生成システム1Cは、車載装置100Cと地図生成装置200Cとの間での画像データの通信量を抑制できる。 Here, an overview of map generation processing performed in the map generation system 1C will be described. Many portions of the road surface of the traveling path of the vehicle V are configured only by lanes (white lines), and there are only some characteristic portions having road markings or the like. For this reason, the map generation system 1C duplicates and pastes a road surface image of only a lane generated from a camera image captured at a certain time for a portion composed of only a lane. The map generation system 1C generates and pastes a road surface image including a road surface sign generated from a captured camera image for a characteristic part having a road surface sign or the like. Thereby, map generation system 1C can control the amount of communication of image data between in-vehicle device 100C and map generation device 200C.
この地図の生成処理の具体例として、図12の上段に記載された走行路Lを図中の左側から右側に向かって車両Vが走行している場合を説明する。まず、車両Vが図12の上段に示される走行路Lの一番左端の位置を走行しているとする。車載装置100Cは、走行路Lの路面の認識処理を行い、車両Vの前方(直前)には路面標示Mが存在しないと判定し、路面標示Mが存在しない車線(白線L1)のみの路面切出画像Cをカメラ画像Aから切り出す。そして、車載装置100Cは、切り出した路面切出画像Cと、その時の車両Vの位置及び姿勢とを地図生成装置200Cに送信する。地図生成装置200Cは、受信した路面切出画像Cから路面画像DAを生成し、車両Vの位置及び姿勢に基づいて地図の座標系に路面画像DAを貼り付ける(図12の下段参照)。 As a specific example of the map generation process, a case where the vehicle V is traveling from the left side to the right side in the drawing in the traveling path L described in the upper part of FIG. 12 will be described. First, it is assumed that the vehicle V is traveling in the leftmost position of the traveling path L shown in the upper part of FIG. The in-vehicle device 100C performs the recognition process of the road surface of the traveling road L, determines that the road marking M does not exist in front of the vehicle V (immediately before), and cuts only the lane (white line L1) where the road marking M does not exist. The output image C is cut out from the camera image A. Then, the in-vehicle device 100C transmits the cut-out road surface cut image C and the position and posture of the vehicle V at that time to the map generation device 200C. The map generation device 200C generates a road surface image DA from the received road surface cut-out image C, and pastes the road surface image DA on the map coordinate system based on the position and orientation of the vehicle V (see the lower part of FIG. 12).
その後、しばらく車線のみの部分を車両Vが走行するため、車載装置100Cは、路面切出画像C等の送信は行わない。車両Vが路面標示Mの位置に到達し、路面の認識処理によって路面標示Mが認識された場合、車載装置100Cは、路面標示Mが含まれるカメラ画像Aから路面切出画像Cを切り出す。そして、車載装置100Cは、路面標示Mが含まれる路面切出画像Cと、前回、路面切出画像Cを送信してから現在までの車両Vの走行軌跡(車両Vの位置の変化の履歴)及び走行軌跡上の各位置での姿勢とを地図生成装置200Cへ送信する。地図生成装置200Cは、受信した路面標示Mが含まれる路面切出画像Cから路面画像DBを生成する。車載装置100Cにおける走行路の路面の認識処理の結果より、路面画像DAと路面画像DBとの間は、路面画像DAのように車線のみの路面が続く。このため、地図生成装置200Cは、前回受信した車線のみの路面切出画像Cに基づいて生成した路面画像DAを複製することによって、路面画像Daを生成する。地図生成装置200Cは、車両Vの走行軌跡及び向きに基づいて、路面画像DAから路面画像DBまでの間の区間に路面画像Daを順次貼り付ける。その後、地図生成装置200Cは、路面標示Mが含まれる路面画像DBを貼り付ける。なお、図12の下段において、路面画像Dと路面画像Daとの区別を容易にするため、複製によって生成された路面画像Daは破線で示されている。後述の路面画像Dcについても同様に、破線で示されている。 Thereafter, since the vehicle V travels only in the lane for a while, the in-vehicle device 100C does not transmit the road surface cut image C or the like. When the vehicle V reaches the position of the road marking M and the road marking M is recognized by the road surface recognition processing, the in-vehicle device 100C cuts out the road cut image C from the camera image A including the road marking M. Then, the in-vehicle device 100C includes a road surface cut-out image C including the road marking M and a travel locus of the vehicle V from the previous transmission of the road surface cut-out image C (history of changes in the position of the vehicle V). And the attitude | position in each position on a driving | running | working locus | trajectory is transmitted to 200C of map production | generation apparatuses. The map generation device 200C generates a road surface image DB from the road surface cut image C including the received road surface marking M. As a result of the recognition processing of the road surface of the traveling road in the in-vehicle device 100C, a road surface having only a lane continues between the road surface image DA and the road surface image DB as in the road surface image DA. For this reason, the map generation device 200C generates the road surface image Da by duplicating the road surface image DA generated based on the road surface cut image C of the lane only received last time. The map generation apparatus 200C sequentially pastes the road surface image Da on the section between the road surface image DA and the road surface image DB based on the travel locus and direction of the vehicle V. Thereafter, the map generation device 200C pastes the road surface image DB including the road surface marking M. In the lower part of FIG. 12, the road surface image Da generated by duplication is indicated by a broken line in order to facilitate the distinction between the road surface image D and the road surface image Da. Similarly, a road surface image Dc described later is indicated by a broken line.
車両Vがさらに走行すると、車載装置100Cは、路面の認識処理によって路面標示Mを認識できなくなる。このように路面標示Mの認識ができなくなった場合、車載装置100Cは、再び、路面標示Mが存在しない車線のみの路面切出画像Cをカメラ画像Aから切り出す。そして、車載装置100Cは、切り出した路面切出画像Cと、前回、路面切出画像Cを送信してから現在までの車両Vの走行軌跡及び各位置での姿勢とを地図生成装置200Cに送信する。地図生成装置200Cは、受信した路面切出画像Cから路面画像DCを生成し、車両Vの位置及び姿勢に基づいて地図の座標系に路面画像DCを貼り付ける。 When the vehicle V further travels, the in-vehicle device 100C cannot recognize the road marking M by the road surface recognition process. When the road marking M cannot be recognized in this manner, the in-vehicle device 100C cuts out the road cut image C only from the lane in which the road marking M does not exist from the camera image A again. Then, the in-vehicle device 100C transmits the cut-out road surface cut image C and the travel locus of the vehicle V from the previous transmission of the road surface cut-out image C and the posture at each position to the map generation device 200C. To do. The map generation device 200 </ b> C generates a road surface image DC from the received road surface cut-out image C, and pastes the road surface image DC to the map coordinate system based on the position and orientation of the vehicle V.
その後、しばらく車線のみの部分を車両Vが走行するため、車載装置100Cは、路面切出画像C等の送信は行わない。そして、地図を生成するエリアの終点に車両Vが到達すると、車載装置100Cは、前回、路面切出画像Cを送信してから現在までの車両Vの走行軌跡及び走行軌跡上の各位置での姿勢とを地図生成装置200Cへ送信する。車載装置100Cにおける走行路の路面の認識処理の結果より、路面画像DCから地図を生成するエリアの終点までの間は、路面画像DCのように車線のみの路面が続く。このため、地図生成装置200Cは、前回受信した車線のみの路面切出画像Cに基づいて生成した路面画像DCを複製することによって、路面画像Dcを生成する。地図生成装置200Cは、車両Vの走行軌跡及び向きに基づいて、路面画像DCから地図を生成するエリアの終点までの間の区間に路面画像Dcを順次貼り付ける。 Thereafter, since the vehicle V travels only in the lane for a while, the in-vehicle device 100C does not transmit the road surface cut image C or the like. Then, when the vehicle V reaches the end point of the area for generating the map, the in-vehicle device 100C transmits the road surface cut image C last time to the current travel locus of the vehicle V and each position on the travel locus. The attitude is transmitted to the map generation device 200C. From the result of the recognition processing of the road surface of the traveling road in the in-vehicle device 100C, the road surface of only the lane continues like the road image DC from the road image DC to the end point of the area for generating the map. For this reason, the map generation device 200C generates the road surface image Dc by duplicating the road surface image DC generated based on the road surface cut image C of only the lane received last time. The map generation device 200C sequentially pastes the road surface image Dc on a section between the road surface image DC and the end point of the area where the map is generated based on the travel locus and direction of the vehicle V.
このように、地図生成装置200C側には、地図を生成するエリア内のいくつかの地点の画像と、走行軌跡及び向きとが送信される。地図生成装置200Cは、画像を受信していない位置については、前回受信した画像を複製して貼り付ける。このようにして、地図生成装置200Cが路面画像を貼り付けることにより、地図としての路面オルソ画像Eが生成される。 As described above, the map generation apparatus 200 </ b> C side transmits images of several points in the area where the map is generated, the travel locus, and the direction. The map generation device 200C duplicates and pastes the previously received image for positions where no image is received. In this way, the map generation device 200C pastes the road surface image, thereby generating a road surface orthoimage E as a map.
(車載装置の構成)
車載装置100Cは、カメラ(撮像部)101、GPS受信部103、ECU104C、及び送信部105Cを備えている。ECU104Cは、第1実施形態におけるECU104と同様の電子制御ユニットである。ECU104Cは、機能的には、軌跡認識部113、走行路認識部(走行状況取得部)114、抽出条件設定部(条件設定部)115、及び画像抽出部116を備えている。
(Configuration of in-vehicle device)
The in-vehicle device 100C includes a camera (imaging unit) 101, a GPS reception unit 103, an ECU 104C, and a transmission unit 105C. The ECU 104C is an electronic control unit similar to the ECU 104 in the first embodiment. Functionally, the ECU 104C includes a trajectory recognition unit 113, a travel path recognition unit (travel situation acquisition unit) 114, an extraction condition setting unit (condition setting unit) 115, and an image extraction unit 116.
走行路認識部114は、車両Vの走行状況を取得する。ここでの走行状況とは、車両Vが走行する走行路の状況を指す。走行路認識部114は、走行路の状況として、路面上に付された路面標示Mの有無を認識する。具体的には、走行路認識部114は、カメラ101のカメラ画像Aに基づいて、走行路の路面の認識処理を行う。走行路認識部114は、カメラ101によってカメラ画像Aが撮像されるごとに、路面の認識処理を行う。ここでは、走行路認識部114は、路面上に付された路面標示Mの有無、及び白線L1の種類(破線、実践、2重線等)を認識する。例えば、走行路認識部114は、周知の画像処理技術に基づいて、路面標示Mの有無等の認識を行うことができる。走行路認識部114は、路面上に路面標示Mが存在する場合、路面標示フラグをONに設定する。走行路認識部114は、路面標示Mが存在しない場合、路面標示フラグをOFFに設定する。 The travel path recognition unit 114 acquires the travel status of the vehicle V. The traveling state here refers to the state of the traveling path on which the vehicle V travels. The travel path recognition unit 114 recognizes the presence or absence of the road marking M attached on the road surface as the situation of the travel path. Specifically, the travel path recognition unit 114 performs a road surface recognition process based on the camera image A of the camera 101. The travel path recognition unit 114 performs a road surface recognition process every time the camera image A is captured by the camera 101. Here, the traveling road recognition unit 114 recognizes the presence or absence of the road marking M attached to the road surface and the type of the white line L1 (broken line, practice, double line, etc.). For example, the traveling road recognition unit 114 can recognize the presence or absence of the road marking M based on a known image processing technique. The traveling road recognition unit 114 sets the road marking flag to ON when the road marking M is present on the road surface. When the road marking M does not exist, the traveling road recognition unit 114 sets the road marking flag to OFF.
抽出条件設定部115は、車両Vの走行状況に基づいて、抽出条件を設定する。具体的には、抽出条件設定部115は、走行状況として、走行路の路面に付された路面標示Mの有無に基づいて、抽出条件を設定する。この抽出条件は、画像抽出部116が、カメラ101で撮像された複数のカメラ画像Aから、路面切出画像Cを切り出すための抽出カメラ画像A1を抽出するための条件である。より具体的には、抽出条件設定部115は、抽出条件として、走行路認識部114によって路面フラグがONに設定されているとき、及び路面フラグがONからOFFに変化したときに、カメラ101で撮像されたカメラ画像Aを抽出対象とする旨を設定する。すなわち、抽出条件設定部115は、走行路認識部114で認識された走行路の認識結果に基づいて、画像抽出部116が抽出カメラ画像A1を抽出するときの時刻を設定する。 The extraction condition setting unit 115 sets the extraction condition based on the traveling state of the vehicle V. Specifically, the extraction condition setting unit 115 sets the extraction condition based on the presence / absence of a road marking M attached to the road surface of the traveling road as the traveling state. This extraction condition is a condition for the image extraction unit 116 to extract the extracted camera image A1 for extracting the road surface cut image C from the plurality of camera images A captured by the camera 101. More specifically, the extraction condition setting unit 115 uses the camera 101 as an extraction condition when the road surface flag is set to ON by the traveling road recognition unit 114 and when the road surface flag changes from ON to OFF. The fact that the captured camera image A is to be extracted is set. That is, the extraction condition setting unit 115 sets the time when the image extraction unit 116 extracts the extracted camera image A1 based on the recognition result of the travel route recognized by the travel route recognition unit 114.
画像抽出部116は、カメラ101によって所定の撮像周期で撮像される複数のカメラ画像Aのうち、抽出周期設定部112で設定された抽出条件を満たすカメラ画像Aを抽出カメラ画像A1として抽出する。また、画像抽出部116は、抽出カメラ画像A1から路面切出画像Cとして切り出す範囲(切り出し範囲)を設定する。画像抽出部116は、抽出カメラ画像A1から路面切出画像Cとして切り出す範囲の基本範囲として、例えば、第1実施形態において説明した路面相当領域Bに対応する部分の画像範囲を用いる。この基本範囲は予め設定されている。なお、抽出カメラ画像A1から路面切出画像Cとして切り出す範囲は、走行路の路面の認識処理の結果に基づいて、基本範囲を超えない大きさで可変とされてもよい。 The image extraction unit 116 extracts, as an extracted camera image A1, a camera image A that satisfies the extraction condition set by the extraction cycle setting unit 112 from among a plurality of camera images A captured by the camera 101 at a predetermined imaging cycle. Further, the image extraction unit 116 sets a range (cutout range) to be cut out from the extracted camera image A1 as the road surface cutout image C. The image extraction unit 116 uses, for example, the image range of the portion corresponding to the road surface equivalent region B described in the first embodiment as the basic range of the range cut out from the extracted camera image A1 as the road surface cut image C. This basic range is preset. Note that the range to be extracted as the road surface cut image C from the extracted camera image A1 may be variable with a size that does not exceed the basic range, based on the result of the road surface recognition process of the traveling road.
例えば、走行路の中央線や境界線が破線の場合、路面の認識処理の結果に基づいて、破線の白線部分と路面部分との周期を考慮して切り出す範囲を適切に設定することで、地図生成装置200Cにおいて破線の中央線等が含まれる路面画像を複製して順次貼り合わせるときに、破線の白線部分と路面部分との周期に矛盾が生じることなく貼り合わせることができる。 For example, when the center line or boundary line of the road is a broken line, the map is appropriately set based on the result of the road surface recognition process, taking into account the period between the white line part of the broken line and the road surface part. When a road surface image including a broken center line or the like is duplicated and sequentially pasted in the generation device 200C, the generation can be pasted without any contradiction in the period between the broken white line portion and the road surface portion.
画像抽出部116は、設定した範囲に基づいて、抽出カメラ画像A1を切り出して路面切出画像Cを生成する。画像抽出部116は、生成した路面切出画像Cを送信部105Cへ出力する。なお、画像抽出部116は、地図の生成処理の開始時には、路面フラグがOFFであっても、カメラ101で撮像されたカメラ画像Aを抽出カメラ画像A1として抽出し、抽出カメラ画像A1から路面切出画像Cを生成する。 The image extraction unit 116 cuts out the extracted camera image A1 based on the set range and generates a road surface cutout image C. The image extraction unit 116 outputs the generated road surface cutout image C to the transmission unit 105C. Note that the image extracting unit 116 extracts the camera image A captured by the camera 101 as the extracted camera image A1 even when the road surface flag is OFF at the start of the map generation process, and the road surface cutting is performed from the extracted camera image A1. An output image C is generated.
送信部105Cは、路面切出画像Cが入力された場合、入力された路面切出画像Cと、前回、路面切出画像Cを送信してから現在までの車両Vの走行軌跡及び各位置での姿勢とを地図生成装置200Cに送信する。なお、送信部105Cは、地図の生成処理の開始時には、生成処理の開始時に画像抽出部116において生成された路面切出画像C、及びそのときの車両Vの位置及び姿勢を地図生成装置200Cに送信する。また、送信部105Cは、地図を生成するエリアの終点に車両Vが到達した場合、前回、路面切出画像Cを送信してから現在までの車両Vの走行軌跡及び各位置での姿勢を、地図生成装置200Cに送信する。 When the road surface cut-out image C is input, the transmission unit 105C transmits the input road surface cut-out image C and the travel locus and each position of the vehicle V from the previous transmission of the road surface cut-out image C to the present. Are transmitted to the map generation apparatus 200C. At the start of the map generation process, the transmission unit 105C sends the road surface cut image C generated by the image extraction unit 116 at the start of the generation process and the position and posture of the vehicle V at that time to the map generation apparatus 200C. Send. In addition, when the vehicle V reaches the end point of the area where the map is generated, the transmission unit 105C displays the travel locus of the vehicle V from the previous transmission of the road surface cut image C and the posture at each position, It transmits to the map generation apparatus 200C.
(地図生成装置の詳細)
地図生成装置200Cは、受信部201、及び地図生成部202Cを備えている。地図生成部202Cは、第1実施形態におけるECU104と同様の電子制御ユニットである。地図生成部202Cは、上述したように、路面切出画像Cを受信した場合、路面切出画像Cを路面画像Dに変換し、走行軌跡及び向きに基づいて路面画像Dを地図の座標系に貼り付ける。また、地図生成部202Cは、路面切出画像Cが送信されていない区間については、前回送信された(過去に送信された)路面切出画像Cに基づいて生成された路面画像Dを複製し、複製した路面画像Dを、走行軌跡及び向きに基づいて地図の座標系に貼り付ける。これにより、地図としての路面オルソ画像Eが生成される。
(Details of map generator)
The map generation device 200C includes a reception unit 201 and a map generation unit 202C. The map generation unit 202C is an electronic control unit similar to the ECU 104 in the first embodiment. As described above, when the map generation unit 202C receives the road surface cut image C, the map generation unit 202C converts the road surface cut image C into the road surface image D, and converts the road surface image D into the map coordinate system based on the travel locus and direction. paste. Further, the map generation unit 202C duplicates the road surface image D generated based on the road surface cut image C transmitted last time (transmitted in the past) for the section where the road surface cut image C is not transmitted. The copied road surface image D is pasted on the coordinate system of the map based on the travel locus and the direction. Thereby, the road surface orthoimage E as a map is produced | generated.
(画像の送信処理の流れ)
次に、車載装置100Cにおいて行われる画像の送信処理の流れについて図13を用いて説明する。カメラ101は、所定の撮像周期で撮像を行っている。図13に示される処理は、カメラ101が撮像を行うときの撮像周期ごと(撮像時刻ごと)に開始される。
(Flow of image transmission processing)
Next, the flow of image transmission processing performed in the in-vehicle device 100C will be described with reference to FIG. The camera 101 performs imaging at a predetermined imaging cycle. The process illustrated in FIG. 13 is started for each imaging cycle (every imaging time) when the camera 101 performs imaging.
軌跡認識部113は、地図生成システム1Cにおける地図の生成処理の開始直後であるか否かを判定する(S401)。地図の生成処理の開始直後である場合(S401:YES)、軌跡認識部113は、現在の時刻における車両Vの位置及び姿勢を認識する(S402)。走行路認識部114は、現在の時刻においてカメラ101で撮像されたカメラ画像Aを取得する(S403)。走行路認識部114は、カメラ画像Aに基づいて、路面上に付された路面標示Mの有無、及び白線L1の種類を認識する。走行路認識部114は、路面上に路面標示Mが存在する場合には路面標示フラグをONに設定し、路面標示Mが存在しない場合には路面標示フラグをOFFに設定する(S404)。 The trajectory recognition unit 113 determines whether or not it is immediately after the start of map generation processing in the map generation system 1C (S401). If it is immediately after the start of the map generation process (S401: YES), the trajectory recognition unit 113 recognizes the position and orientation of the vehicle V at the current time (S402). The travel path recognition unit 114 acquires the camera image A captured by the camera 101 at the current time (S403). Based on the camera image A, the traveling road recognition unit 114 recognizes the presence / absence of the road marking M attached on the road surface and the type of the white line L1. The traveling road recognition unit 114 sets the road marking flag to ON when the road marking M exists on the road surface, and sets the road marking flag to OFF when the road marking M does not exist (S404).
画像抽出部116は、路面切出画像Cを切り出す範囲として基本範囲を設定する(S405)。画像抽出部116は、現在の時刻においてカメラ101で撮像されたカメラ画像Aを抽出カメラ画像A1として抽出し、設定された基本範囲に基づいて抽出カメラ画像A1から路面切出画像Cを切り出す(S406)。送信部105Cは、画像抽出部116で切り出された路面切出画像Cと、現在の時刻における車両Vの位置及び姿勢とを、地図生成装置200Cへ通信により送信する(S407)。路面切出画像C等の送信後、車載装置100Cは、今回の処理を終了し、所定の撮像周期の経過後に再び図13に示される処理を開始する。 The image extraction unit 116 sets a basic range as a range from which the road surface cut image C is cut out (S405). The image extraction unit 116 extracts the camera image A captured by the camera 101 at the current time as the extracted camera image A1, and cuts out the road surface cut image C from the extracted camera image A1 based on the set basic range (S406). ). The transmission unit 105C transmits the road surface cut image C cut by the image extraction unit 116 and the position and posture of the vehicle V at the current time to the map generation device 200C by communication (S407). After transmitting the road surface cut-out image C or the like, the in-vehicle device 100C ends the current process and starts the process illustrated in FIG. 13 again after a predetermined imaging period has elapsed.
一方、地図の生成処理の開始直後でない場合(S401:NO)、軌跡認識部113は、現在の時刻における車両Vの位置及び姿勢を認識する(S408)。走行路認識部114は、現在の時刻においてカメラ101で撮像されたカメラ画像Aを取得する(S409)。走行路認識部114は、カメラ画像Aに基づいて、路面上に付された路面標示Mの有無、及び白線L1の種類を認識する。走行路認識部114は、路面上に路面標示Mが存在する場合には路面標示フラグをONに設定し、路面標示Mが存在しない場合には路面標示フラグをOFFに設定する(S410)。 On the other hand, when it is not immediately after the start of the map generation process (S401: NO), the trajectory recognition unit 113 recognizes the position and orientation of the vehicle V at the current time (S408). The traveling path recognition unit 114 acquires the camera image A captured by the camera 101 at the current time (S409). Based on the camera image A, the traveling road recognition unit 114 recognizes the presence / absence of the road marking M attached on the road surface and the type of the white line L1. The traveling road recognition unit 114 sets the road marking flag to ON when the road marking M exists on the road surface, and sets the road marking flag to OFF when the road marking M does not exist (S410).
抽出条件設定部115は、走行路認識部114で設定された路面フラグのON及びOFFに基づいて、抽出条件を設定する(S411)。画像抽出部116は、現在の時刻において撮像されたカメラ画像Aが、抽出条件を満たすか否かを判定する(S412)。抽出条件を満たさない場合(S412:NO)、車載装置100Cは、今回の処理を終了し、所定の撮像周期の経過後に再び図13に示される処理を開始する。 The extraction condition setting unit 115 sets the extraction condition based on ON and OFF of the road surface flag set by the traveling road recognition unit 114 (S411). The image extraction unit 116 determines whether the camera image A captured at the current time satisfies the extraction condition (S412). If the extraction condition is not satisfied (S412: NO), the in-vehicle device 100C ends the current process, and starts the process illustrated in FIG. 13 again after a predetermined imaging period has elapsed.
抽出条件を満たす場合(S412:YES)、画像抽出部116は、路面切出画像Cを切り出す範囲を設定する(S413)。ここでは、画像抽出部116は、路面切出画像Cを切り出す範囲として基本範囲を設定してもよく、基本範囲を超えない大きさの範囲を設定してもよい。画像抽出部116は、現在の時刻においてカメラ101で撮像されたカメラ画像Aを抽出カメラ画像A1として抽出し、設定された範囲に基づいて抽出カメラ画像A1から路面切出画像Cを切り出す(S414)。送信部105Cは、画像抽出部116で切り出された路面切出画像Cと、前回、S407又はS415での処理において路面切出画像C等を送信してから現在までの車両Vの走行軌跡及び各位置での姿勢とを、地図生成装置200Cへ通信により送信する(S415)。路面切出画像C等の送信後、車載装置100Cは、今回の処理を終了し、所定の撮像周期の経過後に再び図13に示される処理を開始する。 When the extraction condition is satisfied (S412: YES), the image extraction unit 116 sets a range for cutting out the road surface cut image C (S413). Here, the image extraction unit 116 may set a basic range as a range for cutting out the road surface cut image C, or may set a range having a size that does not exceed the basic range. The image extraction unit 116 extracts the camera image A captured by the camera 101 at the current time as the extracted camera image A1, and cuts out the road surface cut image C from the extracted camera image A1 based on the set range (S414). . The transmission unit 105C transmits the road surface cut-out image C cut out by the image extraction unit 116, the trajectory of the vehicle V from the previous transmission of the road surface cut-out image C and the like in the processing in S407 or S415, and the The posture at the position is transmitted by communication to the map generation device 200C (S415). After transmitting the road surface cut-out image C or the like, the in-vehicle device 100C ends the current process and starts the process illustrated in FIG. 13 again after a predetermined imaging period has elapsed.
このように、地図の生成処理の開始直後において、車載装置100Cは、S402〜S407の処理を行い、路面切出画像C等を地図生成装置200Cへ送信する。地図の生成処理の開始直後でない場合、車載装置100Cは、S408〜S415の処理を行い、抽出条件(路面標示Mの有無)に応じて路面切出画像C等を地図生成装置200Cへ送信する。 Thus, immediately after the start of the map generation process, the in-vehicle apparatus 100C performs the processes of S402 to S407, and transmits the road surface cut image C and the like to the map generation apparatus 200C. If it is not immediately after the start of the map generation processing, the in-vehicle device 100C performs the processing of S408 to S415, and transmits the road surface cutout image C and the like to the map generation device 200C according to the extraction condition (presence or absence of the road marking M).
以上のように、本実施形態の地図生成システム1Cにおいて車載装置100Cは、路面標示Mの有無に応じて路面切出画像C等を地図生成装置200Cへ送信する。地図生成装置200Cは、路面切出画像Cが送信されていない区間については、前回送信された路面切出画像Cを用いて路面オルソ画像Eを生成する。これにより、地図生成システム1Cは、車載装置100Cと地図生成装置200Cとの間での画像データの通信量を抑制でき、画像データの送信を効率よく行うことができる。 As described above, in the map generation system 1C of the present embodiment, the in-vehicle device 100C transmits the road surface cut image C and the like to the map generation device 200C according to the presence or absence of the road marking M. The map generation device 200C generates a road surface orthoimage E using the previously transmitted road surface cut image C for a section in which the road surface cut image C is not transmitted. Thereby, map generation system 1C can control the amount of communication of image data between in-vehicle device 100C and map generation device 200C, and can perform transmission of image data efficiently.
以上、本発明の実施形態について説明したが、本発明は、上記実施形態に限定されるものではない。例えば、カメラ101は、車両Vの前方を撮像したが、車両Vの周囲であれば例えば車両Vの後方を撮像してもよい。この場合であっても、地図生成システム1等では、車両Vの前方のカメラ画像を用いた場合と同様に、地図を生成することができる。また、カメラ101の撮像周期は一定であってもよく、可変であってもよい。 As mentioned above, although embodiment of this invention was described, this invention is not limited to the said embodiment. For example, the camera 101 images the front of the vehicle V, but may image the rear of the vehicle V, for example, as long as it is around the vehicle V. Even in this case, the map generation system 1 or the like can generate a map as in the case where the camera image in front of the vehicle V is used. Further, the imaging cycle of the camera 101 may be constant or variable.
1、1A、1B、1C…地図生成システム、100、100A、100B、100C…車載装置、101…カメラ(撮像部)、102、102A…車両センサ(走行状況取得部)、105、105C…送信部、111、111B、116…画像抽出部、112、112A…抽出周期設定部(条件設定部)、112B…画像切出範囲設定部(条件設定部)、113…軌跡認識部、114…走行路認識部(走行状況取得部)、115…抽出条件設定部(条件設定部)、200、200C…地図生成装置、201…受信部、202C…地図生成部、V…車両。 DESCRIPTION OF SYMBOLS 1, 1A, 1B, 1C ... Map generation system, 100, 100A, 100B, 100C ... In-vehicle apparatus, 101 ... Camera (imaging part), 102, 102A ... Vehicle sensor (running condition acquisition part), 105, 105C ... Transmission part 111, 111B, 116 ... image extraction unit, 112, 112A ... extraction cycle setting unit (condition setting unit), 112B ... image cutout range setting unit (condition setting unit), 113 ... trajectory recognition unit, 114 ... travel path recognition Part (running condition acquisition part), 115 ... extraction condition setting part (condition setting part), 200, 200C ... map generation device, 201 ... reception part, 202C ... map generation part, V ... vehicle.
Claims (5)
前記車載装置は、
前記車両の周囲を所定の撮像周期で撮像する撮像部と、
前記車両の走行状況を取得する走行状況取得部と、
前記車両の走行軌跡を認識する軌跡認識部と、
前記走行状況に基づいて、前記撮像部で撮像された前記画像の抽出条件を設定する条件設定部と、
前記撮像部で撮像された画像のうち、前記抽出条件を満たす前記画像を抽出する画像抽出部と、
前記走行軌跡及び抽出された前記画像を、通信により前記地図生成装置に送信する送信部と、
を備え、
前記地図生成装置は、
前記送信部から送信された前記走行軌跡及び前記画像を、通信により受信する受信部と、
受信された前記走行軌跡及び前記画像に基づいて、地図を生成する地図生成部と、
を備える、地図生成システム。 A map generation system comprising: an in-vehicle device that is mounted on a vehicle and images the surroundings of the vehicle; and a map generation device that generates a map based on an image captured by the in-vehicle device,
The in-vehicle device is
An imaging unit for imaging the periphery of the vehicle at a predetermined imaging cycle;
A travel status acquisition unit for acquiring the travel status of the vehicle;
A trajectory recognition unit for recognizing a travel trajectory of the vehicle;
A condition setting unit that sets an extraction condition for the image captured by the imaging unit based on the traveling state;
An image extraction unit that extracts the image that satisfies the extraction condition from among the images captured by the imaging unit;
A transmission unit that transmits the travel locus and the extracted image to the map generation device by communication;
With
The map generation device includes:
A receiving unit that receives the travel locus and the image transmitted from the transmitting unit by communication; and
A map generation unit that generates a map based on the received travel locus and the image;
A map generation system comprising:
前記条件設定部は、前記抽出条件として、前記車両の速度に基づいて、前記画像抽出部が抽出対象として前記画像を抽出する時刻を設定する、請求項1に記載の地図生成システム。 The travel status acquisition unit acquires the speed of the vehicle as the travel status,
The map generation system according to claim 1, wherein the condition setting unit sets a time at which the image extraction unit extracts the image as an extraction target based on a speed of the vehicle as the extraction condition.
前記条件設定部は、前記抽出条件として、前記車両の速度に基づいて、前記画像抽出部が前記画像を抽出するときの前記画像の切り出し範囲を設定する、請求項1に記載の地図生成システム。 The travel status acquisition unit acquires the speed of the vehicle as the travel status,
The map generation system according to claim 1, wherein the condition setting unit sets, as the extraction condition, a cutout range of the image when the image extraction unit extracts the image based on the speed of the vehicle.
前記条件設定部は、前記抽出条件として、前記走行路の認識結果に基づいて、前記画像抽出部が抽出対象として前記画像を抽出する時刻を設定し、
前記画像抽出部は、前記画像を抽出する場合、前記走行路の認識結果に基づいて前記画像の切り出し範囲を設定し、設定した切り出し範囲内の前記画像を抽出する、請求項1に記載の地図生成システム。 The travel status acquisition unit acquires a recognition result of a travel route as the travel status,
The condition setting unit sets, as the extraction condition, a time at which the image extraction unit extracts the image as an extraction target based on the recognition result of the travel path,
2. The map according to claim 1, wherein when extracting the image, the image extraction unit sets a cutout range of the image based on a recognition result of the travel route, and extracts the image within the set cutout range. Generation system.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018031005A JP7115869B2 (en) | 2018-02-23 | 2018-02-23 | Map generation system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018031005A JP7115869B2 (en) | 2018-02-23 | 2018-02-23 | Map generation system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019144501A true JP2019144501A (en) | 2019-08-29 |
JP7115869B2 JP7115869B2 (en) | 2022-08-09 |
Family
ID=67772294
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018031005A Active JP7115869B2 (en) | 2018-02-23 | 2018-02-23 | Map generation system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7115869B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113498034A (en) * | 2020-04-06 | 2021-10-12 | 丰田自动车株式会社 | Data transmission device and data transmission method |
JP2022007959A (en) * | 2020-01-31 | 2022-01-13 | 株式会社 ミックウェア | Display device and control program |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008170930A (en) * | 2006-12-12 | 2008-07-24 | Asia Air Survey Co Ltd | System for displaying image data associated with map information, and program for displaying image data associated with map information |
WO2008093493A1 (en) * | 2007-01-29 | 2008-08-07 | Kabushiki Kaisha Toshiba | Car navigation device |
JP2013156609A (en) * | 2012-02-01 | 2013-08-15 | Mitsubishi Electric Corp | Photomap creation system |
WO2014118877A1 (en) * | 2013-01-29 | 2014-08-07 | Kajiyama Toshio | Local image / map information collecting and providing system |
JP2015004814A (en) * | 2013-06-20 | 2015-01-08 | 株式会社豊田中央研究所 | Lane map generation device and program |
JP2017142613A (en) * | 2016-02-09 | 2017-08-17 | 株式会社リコー | Information processing device, information processing system, information processing method and information processing program |
-
2018
- 2018-02-23 JP JP2018031005A patent/JP7115869B2/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008170930A (en) * | 2006-12-12 | 2008-07-24 | Asia Air Survey Co Ltd | System for displaying image data associated with map information, and program for displaying image data associated with map information |
WO2008093493A1 (en) * | 2007-01-29 | 2008-08-07 | Kabushiki Kaisha Toshiba | Car navigation device |
JP2013156609A (en) * | 2012-02-01 | 2013-08-15 | Mitsubishi Electric Corp | Photomap creation system |
WO2014118877A1 (en) * | 2013-01-29 | 2014-08-07 | Kajiyama Toshio | Local image / map information collecting and providing system |
JP2015004814A (en) * | 2013-06-20 | 2015-01-08 | 株式会社豊田中央研究所 | Lane map generation device and program |
JP2017142613A (en) * | 2016-02-09 | 2017-08-17 | 株式会社リコー | Information processing device, information processing system, information processing method and information processing program |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022007959A (en) * | 2020-01-31 | 2022-01-13 | 株式会社 ミックウェア | Display device and control program |
CN113498034A (en) * | 2020-04-06 | 2021-10-12 | 丰田自动车株式会社 | Data transmission device and data transmission method |
JP2021165910A (en) * | 2020-04-06 | 2021-10-14 | トヨタ自動車株式会社 | Data transmission device and data transmission method |
US11516442B2 (en) | 2020-04-06 | 2022-11-29 | Toyota Jidosha Kabushiki Kaisha | Data transmission device and data transmission method |
Also Published As
Publication number | Publication date |
---|---|
JP7115869B2 (en) | 2022-08-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7074438B2 (en) | Vehicle position estimation device | |
US20190283742A1 (en) | Vehicle control device, vehicle control method, and storage medium | |
US20200307569A1 (en) | Vehicle control device, vehicle control method, and storage medium | |
JP2019089516A (en) | Vehicle control device, vehicle control method, and program | |
US10940860B2 (en) | Vehicle control device, vehicle control method, and storage medium | |
US20190244039A1 (en) | Vehicle control system, vehicle control method, and readable storage medium | |
US20200094825A1 (en) | Vehicle control device, vehicle control method, and storage medium | |
US11572052B2 (en) | Vehicle control for facilitating control of a vehicle passing a prececeding vehicle | |
JP6941178B2 (en) | Automatic operation control device and method | |
US11518379B2 (en) | Transportation vehicle and collision avoidance method | |
JP2019093998A (en) | Vehicle control device, vehicle control method and program | |
US20190310631A1 (en) | Vehicle control device, vehicle control method, and storage medium | |
US11701967B2 (en) | Display control device, display control method, and storage medium | |
US20190106107A1 (en) | Vehicle control apparatus, vehicle control method, and storage medium | |
US20220292847A1 (en) | Drive assist device, drive assist method, and program | |
JP2010225075A (en) | Driving support device | |
US20210070291A1 (en) | Vehicle control device, vehicle control method, and storage medium | |
JP2019144501A (en) | Map generation system | |
CN110816524B (en) | Vehicle control device, vehicle control method, and storage medium | |
US12024171B2 (en) | Moving object control device, moving object control method, and storage medium | |
US11932283B2 (en) | Vehicle control device, vehicle control method, and storage medium | |
US12012100B2 (en) | Driving support device, driving support method, and storage medium | |
US11989950B2 (en) | Information processing apparatus, vehicle system, information processing method, and storage medium | |
JP2019012549A (en) | Collision avoidance device and driving support method | |
US20210284165A1 (en) | Vehicle control device, vehicle control method, and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201125 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210929 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211005 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211126 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220329 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220425 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220705 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220728 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7115869 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |